Alle US-Bundesbehörden müssen nun einen leitenden Leiter haben, der alle von ihnen verwendeten KI-Systeme überwacht, da die Regierung sicherstellen möchte, dass der Einsatz von KI im öffentlichen Dienst sicher bleibt.

Vizepräsidentin Kamala Harris kündigte die neuen OMB-Richtlinien während eines Briefings mit Reportern an und sagte, dass Agenturen auch KI-Governance-Räte einrichten müssen, um zu koordinieren, wie KI innerhalb der Agentur eingesetzt wird. Agenturen müssen außerdem dem Office of Management and Budget (OMB) einen Jahresbericht vorlegen, in dem alle von ihnen verwendeten KI-Systeme, die damit verbundenen Risiken und die Art und Weise, wie sie diese Risiken mindern wollen, aufgeführt sind.

„Wir haben alle Bundesbehörden gebeten, einen leitenden KI-Beauftragten zu benennen, der über die Erfahrung, das Fachwissen und die Autorität verfügt, alle von dieser Behörde verwendeten KI-Technologien zu überwachen, um sicherzustellen, dass KI verantwortungsvoll eingesetzt wird, wobei wir wissen, dass wir eine Führungsebene auf hoher Ebene benötigen.“ innerhalb unserer Regierung, die speziell mit der Überwachung der Einführung und Nutzung von KI beauftragt sind“, sagte Harris gegenüber Reportern.

Der Leiter der KI muss nicht unbedingt ein politischer Vertreter sein, dies hängt jedoch von der Struktur der Bundesbehörde ab. Bis zum Sommer müssen Governance-Gremien eingerichtet werden.

Diese Leitlinien erweitern die zuvor angekündigten Richtlinien, die in der Durchführungsverordnung der Biden-Regierung zu KI dargelegt sind, die Bundesämter dazu verpflichtet, Sicherheitsstandards zu schaffen und die Zahl der in der Regierung tätigen KI-Talente zu erhöhen.

Einige Agenturen begannen bereits vor der heutigen Ankündigung mit der Einstellung von KI-Führungskräften. Das Justizministerium gab Jonathan Mayer im Februar als seinen ersten CAIO bekannt. Er wird ein Team von Cybersicherheitsexperten leiten, um herauszufinden, wie KI in der Strafverfolgung eingesetzt werden kann.

Laut OMB-Vorsitzender Shalanda Young plant die US-Regierung, bis zum Sommer 100 KI-Fachkräfte einzustellen.

Ein Teil der Verantwortung der KI-Leiter und Governance-Ausschüsse von Behörden besteht darin, ihre KI-Systeme regelmäßig zu überwachen. Young sagte, Agenturen müssten eine Bestandsaufnahme der von ihnen verwendeten KI-Produkte vorlegen. Wenn ein KI-System als „sensibel“ genug eingestuft wird, um von der Liste gestrichen zu werden, muss die Behörde den Grund für den Ausschluss öffentlich angeben. Agenturen müssen außerdem das Sicherheitsrisiko jeder von ihnen genutzten KI-Plattform unabhängig bewerten.

Bundesbehörden müssen außerdem überprüfen, ob jede von ihnen eingesetzte KI Sicherheitsvorkehrungen erfüllt, die „die Risiken algorithmischer Diskriminierung mindern und der Öffentlichkeit Transparenz darüber bieten, wie die Regierung KI nutzt“. Das OMB-Informationsblatt enthält mehrere Beispiele, darunter:

Am Flughafen haben Reisende die Möglichkeit, die Nutzung der TSA-Gesichtserkennung ohne Verzögerung oder ohne Verlust ihres Platzes in der Warteschlange abzulehnen.

Wenn KI im Bundesgesundheitssystem zur Unterstützung kritischer Diagnoseentscheidungen eingesetzt wird, überwacht ein Mensch den Prozess der Überprüfung der Ergebnisse der Tools und vermeidet Ungleichheiten beim Zugang zur Gesundheitsversorgung.

Wenn KI zur Aufdeckung von Betrug in staatlichen Dienstleistungen eingesetzt wird, unterliegen wichtige Entscheidungen der menschlichen Aufsicht und die Betroffenen haben die Möglichkeit, Wiedergutmachung für durch KI verursachte Schäden zu fordern.

„Wenn eine Behörde diese Sicherheitsvorkehrungen nicht umsetzen kann, muss sie die Verwendung des KI-Systems einstellen, es sei denn, die Führung der Behörde begründet, warum dies die Sicherheits- oder Rechterisiken im Allgemeinen erhöhen oder eine inakzeptable Behinderung kritischer Behördenabläufe darstellen würde“, heißt es in dem Informationsblatt.

Gemäß den neuen Richtlinien sollten alle regierungseigenen KI-Modelle, Codes und Daten veröffentlicht werden, es sei denn, sie stellen ein Risiko für den Regierungsbetrieb dar.

In den Vereinigten Staaten gibt es immer noch keine Gesetze zur Regulierung von KI. Die AI Executive Order bietet Regierungsbehörden unter der Exekutive Richtlinien für den Umgang mit der Technologie. Obwohl mehrere Gesetzesentwürfe zur Regulierung bestimmter Aspekte der KI vorgelegt wurden, gab es bei der Gesetzgebung rund um KI-Technologien keine großen Fortschritte.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *