Die USA und Großbritannien haben vereinbart, bei der Überwachung fortschrittlicher KI-Modelle zusammenzuarbeiten, um Sicherheitsrisiken zu erkennen. Die beiden Länder werden bei der Forschung zusammenarbeiten und mindestens einen gemeinsamen Sicherheitstest durchführen.

Beide Länder geben an, dass die Sicherheit beim Einsatz von KI-Modellen ein großes Problem darstellt. Die Durchführungsverordnung von US-Präsident Joe Biden zu KI verlangte von Unternehmen, die KI-Systeme entwickeln, die Meldung von Sicherheitstestergebnissen. Unterdessen kündigte der britische Premierminister Rishi Sunak die Gründung des UK AI Safety Institute an und sagte, dass Unternehmen wie Google, Meta und OpenAI die Überprüfung ihrer Tools zulassen müssen.

Die Vereinbarung zwischen den KI-Sicherheitsinstituten beider Länder tritt sofort in Kraft

US-Handelsministerin Gina Raimondo sagte, die Regierung sei „entschlossen, ähnliche Partnerschaften mit anderen Ländern aufzubauen, um die KI-Sicherheit auf der ganzen Welt zu fördern“.

„Diese Partnerschaft wird die Arbeit unserer beiden Institute über das gesamte Spektrum an Risiken hinweg beschleunigen, sei es für unsere nationale Sicherheit oder für unsere Gesellschaft insgesamt“, sagte Raimondo in einer Erklärung.

Durch das Abkommen versprechen die beiden Länder, in der technischen Forschung zusammenzuarbeiten, den Personalaustausch zu erkunden und Informationen auszutauschen.

Die Europäische Union, die eigene weitreichende Regelungen für den Einsatz von KI-Systemen erlassen hat, ist ein potenzieller Partner der USA und des Vereinigten Königreichs. Das europäische KI-Gesetz, das erst in einigen Jahren in Kraft treten wird, verlangt von Unternehmen, die leistungsstarke KI-Modelle betreiben, die Einhaltung von Sicherheitsstandards.

Das britische AI ​​Safety Institute wurde kurz vor einem globalen KI-Gipfel im November gegründet, bei dem mehrere führende Persönlichkeiten der Welt, darunter US-Vizepräsidentin Kamala Harris, darüber diskutierten, wie Technologie grenzüberschreitend genutzt und möglicherweise reguliert werden kann.

Das Vereinigte Königreich hat damit begonnen, die Sicherheit einiger Modelle zu testen, obwohl unklar ist, ob es Zugriff auf neuere Versionen hat. Mehrere KI-Unternehmen haben vom britischen AI Safety Institute mehr Klarheit über Zeitpläne und nächste Schritte gefordert, falls sich Modelle als riskant erweisen.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *