„Angesichts der Diskrepanz zwischen Ihren öffentlichen Kommentaren und Berichten über die Maßnahmen von OpenAI bitten wir um Informationen zum Whistleblower- und Interessenkonfliktschutz von OpenAI, um zu verstehen, ob ein Eingreifen des Bundes erforderlich sein könnte“, schrieben Warren und Trahan in einem Brief, der exklusiv mit geteilt wurde Die Kante.

Der Gesetzgeber führte mehrere Fälle an, in denen die Sicherheitsverfahren von OpenAI in Frage gestellt wurden. Sie sagten beispielsweise, dass im Jahr 2022 eine bisher unveröffentlichte Version von GPT-4 in einer neuen Version der Bing-Suchmaschine von Microsoft in Indien getestet wurde, bevor sie die Genehmigung des Sicherheitsausschusses von OpenAI erhielt. Sie erinnerten auch an den kurzen Rücktritt von OpenAI-CEO Sam Altman aus dem Unternehmen im Jahr 2023, da der Vorstand teilweise Bedenken hatte, „Fortschritte zu kommerzialisieren, bevor man die Konsequenzen versteht“.

Der Brief von Warren und Trahan an Altman kommt zu einem Zeitpunkt, an dem das Unternehmen mit einer langen Liste von Sicherheitsproblemen zu kämpfen hat, die oft im Widerspruch zu den öffentlichen Aussagen des Unternehmens stehen. Beispielsweise sagte eine anonyme Quelle Die Washington Post OpenAI beschleunigte Sicherheitstests, das Superalignment-Team (das teilweise für die Sicherheit verantwortlich war) wurde aufgelöst und ein Sicherheitsmanager trat zurück mit der Begründung, dass „Sicherheitskultur und -prozesse im Vergleich zu glänzenden Produkten in den Hintergrund gerückt sind“. Lindsey Held, eine Sprecherin von OpenAI, wies die Vorwürfe zurück Die Washington PostIm Bericht des Unternehmens heißt es, dass das Unternehmen „keine Zugeständnisse bei unserem Sicherheitsprozess gemacht hat, obwohl wir uns darüber im Klaren sind, dass der Start für unsere Teams stressig war.“

Auch andere Gesetzgeber suchten nach Antworten zu den Sicherheitspraktiken des Unternehmens, darunter im Juli eine Gruppe von Senatoren unter der Leitung von Brian Schatz (D-HI). Warren und Trahan forderten mehr Klarheit über die Reaktionen von OpenAI auf diese Gruppe, einschließlich der Schaffung einer neuen „Integritätslinie“, über die Mitarbeiter Bedenken melden können.

Unterdessen scheint OpenAI in der Offensive zu sein. Im Juli gab das Unternehmen eine Partnerschaft mit dem Los Alamos National Laboratory bekannt, um zu untersuchen, wie fortschrittliche KI-Modelle sicher zur biowissenschaftlichen Forschung beitragen können. Letzte Woche kündigte Altman an (ursprünglich vom inzwischen aufgelösten Superalignment-Team). In derselben Nachricht sagte Altman, OpenAI habe die Nichtverunglimpfungsklauseln für Mitarbeiter und Bestimmungen, die die Annullierung unverfallbarer Aktien ermöglichen, gestrichen, ein zentraler Punkt in Warrens und Trahans Brief.

Warren und Trahan baten Altman um Informationen darüber, wie die neue KI-Sicherheitshotline für Mitarbeiter genutzt wird und wie das Unternehmen den Berichten nachgeht. Sie forderten außerdem eine „detaillierte Auflistung“ aller Zeiten, in denen OpenAI-Produkte „Sicherheitsprotokolle umgangen“ haben, und unter welchen Umständen ein Produkt einer Sicherheitsüberprüfung entgehen durfte. Der Gesetzgeber sucht auch nach Informationen zur Interessenkonfliktrichtlinie von OpenAI. Sie fragten Altman, ob er gebeten worden sei, externe Beteiligungen zu veräußern, und „welche spezifischen Schutzmaßnahmen vorhanden sind, um OpenAI vor Ihren finanziellen Interessenkonflikten zu schützen.“ Sie forderten Altman auf, bis zum 22. August zu antworten.

Warren weist auch darauf hin, wie laut Altman seine Bedenken hinsichtlich der KI geäußert hat. Letztes Jahr warnte Altman im Senat, dass die Fähigkeiten der KI „erheblich destabilisierend für die öffentliche und nationale Sicherheit“ sein könnten, und wies darauf hin, dass es unmöglich sei, jeden möglichen Missbrauch oder jedes Versagen der Technologie vorherzusehen. Diese Warnungen scheinen bei den Gesetzgebern Anklang gefunden zu haben: In Kalifornien, dem Heimatstaat von OpenAI, drängt Senator Scott Wiener auf einen Gesetzentwurf zur Regulierung großer Sprachmodelle, einschließlich Einschränkungen, die Unternehmen rechtlich haftbar machen würden, wenn ihre KI auf schädliche Weise eingesetzt wird.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *