In seinem Responsible AI-Transparenzbericht, das hauptsächlich das Jahr 2023 abdeckt, preist Microsoft seine Erfolge bei der sicheren Bereitstellung von KI-Produkten. Der jährliche KI-Transparenzbericht ist eine der Verpflichtungen, die das Unternehmen nach der Unterzeichnung einer freiwilligen Vereinbarung mit dem Weißen Haus im Juli letzten Jahres eingegangen ist. Microsoft und andere Unternehmen haben versprochen, verantwortungsvolle KI-Systeme zu entwickeln und sich für Sicherheit einzusetzen.

Microsoft sagt in dem Bericht, dass es im vergangenen Jahr 30 verantwortungsvolle KI-Tools entwickelt, sein verantwortliches KI-Team gestärkt und Teams, die generative KI-Anwendungen entwickeln, gebeten hat, Risiken während des gesamten Entwicklungszyklus zu messen und abzubilden. Das Unternehmen weist darauf hin, dass es seinen Bilderzeugungsplattformen Inhaltskennungen hinzugefügt hat, die ein Wasserzeichen auf ein Foto setzen und es als von einem KI-Modell erstellt kennzeichnen.

Das Unternehmen gibt an, Azure AI-Kunden Zugriff auf Tools zur Erkennung problematischer Inhalte wie Hassrede, sexuelle Inhalte und Selbstverletzung sowie Tools zur Bewertung der Sicherheitsrisiken gegeben zu haben. Dazu gehören neue Jailbreak-Erkennungsmethoden, die im März dieses Jahres um indirekte Prompt-Injections erweitert wurden, bei denen bösartige Anweisungen Teil der vom KI-Modell aufgenommenen Daten werden.

Außerdem weitet das Unternehmen seine Red-Teaming-Bemühungen aus, darunter sowohl interne Red-Teams, die bewusst versuchen, die Sicherheitsfunktionen seiner KI-Modelle zu umgehen, als auch Red-Teaming-Anwendungen, um Tests durch Dritte vor der Veröffentlichung neuer Modelle zu ermöglichen.

Allerdings haben seine roten Einheiten noch viel Arbeit vor sich. Die KI-Einsätze des Unternehmens waren nicht frei von Kontroversen.

Natasha Crampton, Leiterin KI bei Microsoft, sagte in einer E-Mail an Die Kante dass das Unternehmen versteht, dass KI noch in der Entwicklung ist, genau wie verantwortungsvolle KI.

„Verantwortungsvolle KI hat keine Ziellinie, weshalb wir unsere Arbeit an freiwilligen KI-Verpflichtungen niemals als abgeschlossen betrachten werden. Aber wir haben seit der Unterzeichnung große Fortschritte gemacht und freuen uns darauf, unsere Dynamik in diesem Jahr auszubauen“, sagte Crampton.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *