OpenAI hat seine GPT-4o-Systemkarte veröffentlicht, ein Forschungspapier, das die Sicherheitsmaßnahmen und Risikobewertungen beschreibt, die das Startup vor der Veröffentlichung seines neuesten Modells durchgeführt hat.

GPT-4o wurde im Mai dieses Jahres öffentlich eingeführt. Vor seiner Einführung hat OpenAI eine externe Gruppe von Red Teamern oder Sicherheitsexperten hinzugezogen, die versuchen, Schwachstellen in einem System zu finden, um wichtige Risiken im Modell zu identifizieren (was eine ziemlich gängige Praxis ist). Sie untersuchten Risiken wie die Möglichkeit, dass GPT-4o unbefugte Klone der Stimme einer Person, erotische und gewalttätige Inhalte oder unter Urheberrechtsschutz reproduzierte Audiostücke erstellen könnte. Heute werden die Ergebnisse veröffentlicht.

Laut OpenAI-Framework stuften die Forscher GPT-4o als „mittleres“ Risiko ein. Das Gesamtrisikoniveau wurde auf der Grundlage der höchsten Risikobewertung aus vier Gesamtkategorien ermittelt: Cybersicherheit, biologische Bedrohungen, Überzeugungskraft und Modellautonomie. Alle diese Kategorien wurden als risikoarm eingestuft, mit Ausnahme der Überzeugungsarbeit, bei der die Forscher herausfanden, dass einige GPT-4o-Schriftbeispiele die Meinung der Leser besser beeinflussen konnten als von Menschen verfasste Texte, obwohl die Modellbeispiele insgesamt nicht überzeugender waren.

Eine OpenAI-Sprecherin, Lindsay McCallum Rémy, sagte Die Kante dass die Systemkarte Bereitschaftsbewertungen umfasst, die von einem internen Team erstellt wurden, sowie externe Tester, die auf der OpenAI-Website als Model Evaluation and Threat Research (METR) und Apollo Research aufgeführt sind, die beide Bewertungen für KI-Systeme erstellen.

Darüber hinaus wird das Unternehmen kurz vor der US-Präsidentschaftswahl ein leistungsstarkes multimodales Modell auf den Markt bringen. Es besteht eindeutig ein potenzielles Risiko, dass das Modell versehentlich falsche Informationen verbreitet oder von böswilligen Akteuren gekapert wird, obwohl OpenAI betonen möchte, dass das Unternehmen reale Szenarien testet, um Missbrauch zu vermeiden.

Es gab viele Forderungen nach mehr Transparenz für OpenAI, nicht nur bei den Trainingsdaten des Modells (wird es auf YouTube trainiert?), sondern auch bei seinen Sicherheitstests. In Kalifornien, wo OpenAI und viele andere führende KI-Labore ihren Sitz haben, arbeitet Senator Scott Wiener an der Verabschiedung eines Gesetzes zur Regulierung großer Sprachmodelle, einschließlich Einschränkungen, die Unternehmen rechtlich zur Verantwortung ziehen würden, wenn ihre KI auf schädliche Weise eingesetzt wird. Wenn dieser Gesetzentwurf angenommen wird, müssten die hochmodernen Modelle von OpenAI staatlich vorgeschriebene Risikobewertungen einhalten, bevor sie der Öffentlichkeit zugänglich gemacht werden. Die wichtigste Erkenntnis des GPT-4o-Systemboards ist jedoch, dass trotz des Pools externer Tester und Red-Team-Mitglieder ein Großteil davon auf OpenAI zur Selbstbewertung beruht.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *