Dies ist ein Gastbeitrag. Die hier geäußerten Meinungen sind ausschließlich die der Autoren und geben nicht die Positionen von IEEE Spectrum wieder, Das Institut, oder IEEE.

In der zivilen Gemeinschaft der künstlichen Intelligenz scheinen sich viele nicht darüber im Klaren zu sein, dass aktuelle Innovationen in der KI schwerwiegende Folgen für den internationalen Frieden und die internationale Sicherheit haben könnten. Dennoch können KI-Praktiker – ob Forscher, Ingenieure, Produktentwickler oder Unternehmensleiter – durch die Entscheidungen, die sie während des gesamten KI-Lebenszyklus von KI-Technologien treffen, eine entscheidende Rolle bei der Risikominderung spielen.

Zivile Fortschritte in der KI können Frieden und Sicherheit auf vielfältige Weise gefährden. Einige sind direkter Natur, wie zum Beispiel der Einsatz von KI-gesteuerten Chatbots, um Desinformation für politische Einflussnahme zu erzeugen. Große Sprachmodelle können auch verwendet werden, um Code für Cyberangriffe zu erstellen und die Entwicklung und Produktion biologischer Waffen zu erleichtern.

Andere Methoden sind indirekter. Entscheidungen von KI-Unternehmen darüber, ob und unter welchen Bedingungen sie beispielsweise ihre Software als Open Source veröffentlichen, haben geopolitische Implikationen. Diese Entscheidungen bestimmen, wie Staaten oder nichtstaatliche Akteure Zugang zu kritischen Technologien erhalten, die sie zur Entwicklung militärischer Anwendungen der KI, möglicherweise einschließlich autonomer Waffensysteme, nutzen könnten.

KI-Unternehmen und -Forscher müssen sich der Herausforderungen und ihrer Fähigkeit, diese zu bewältigen, stärker bewusst werden.

Der Wandel muss mit der Ausbildung und Karriereentwicklung für KI-Praktiker beginnen. Technisch gesehen gibt es in der Toolbox für verantwortungsvolle Innovation viele Optionen, die KI-Forscher nutzen könnten, um die Risiken ihrer Arbeit zu identifizieren und zu mindern. Sie sollten die Möglichkeit erhalten, sich über diese Optionen zu informieren, darunter IEEE-Standard 7010: Empfohlene Praxis zur Bewertung der Auswirkungen autonomer und intelligenter Systeme auf das menschliche Wohlbefinden, IEEE-Standard 7007-2021: Standardontologie für ethische Robotik- und Automatisierungssysteme und das AI Risk Management Framework des National Institute of Standards and Technology.

Wenn Bildungsprogramme grundlegendes Wissen über die gesellschaftlichen Auswirkungen von Technologie und die Funktionsweise von Technologie-Governance vermitteln, werden KI-Praktiker besser in die Lage versetzt, verantwortungsbewusst Innovationen zu entwickeln und wirksame Vorschriften zu entwerfen und umzusetzen.

Was sich in der KI-Ausbildung ändern muss

Verantwortungsvolle KI erfordert eine Reihe von Fähigkeiten, die in der KI-Ausbildung normalerweise nicht abgedeckt werden. KI sollte nicht länger als reine MINT-Disziplin (Naturwissenschaften, Technik, Ingenieurwesen und Mathematik) betrachtet werden, sondern als transdisziplinäre Disziplin, die natürlich technisches Wissen, aber auch Wissen aus den Sozial- und Geisteswissenschaften erfordert. Es sollten obligatorische Kurse zu den gesellschaftlichen Auswirkungen von Technologie und verantwortungsvoller Innovation sowie spezifische Schulungen zu Ethik und Governance von KI eingerichtet werden.

Diese Fächer sollten Teil des Kernlehrplans auf Bachelor- und Masterebene an allen Universitäten sein, die Abschlüsse in KI anbieten.

Wenn Bildungsprogramme grundlegendes Wissen über die gesellschaftlichen Auswirkungen von Technologie und die Funktionsweise von Technologie-Governance vermitteln, werden KI-Praktiker in die Lage versetzt, verantwortungsvoll Innovationen zu entwickeln und KI-Vorschriften sinnvoll zu gestalten und umzusetzen.

Die Änderung des KI-Lehrplans ist keine leichte Aufgabe. In einigen Ländern erfordern Änderungen an akademischen Programmen die Genehmigung des Ministeriums. Vorgeschlagene Änderungen können aus kulturellen, bürokratischen oder finanziellen Gründen auf internen Widerstand stoßen. Darüber hinaus ist das Fachwissen der derzeitigen Lehrkräfte in neuen Themen möglicherweise begrenzt.

Mittlerweile bieten immer mehr Universitäten diese Themen als Wahlfächer an, darunter Harvard, die New York University, die Sorbonne University, die Universität Umeå und die Universität Helsinki.

Es ist nicht notwendig, ein einheitliches Lehrmodell einzuführen, aber es ist auf jeden Fall notwendig, Mittel für die Einstellung und Ausbildung von Fachpersonal bereitzustellen.

Integration verantwortungsvoller KI in lebenslanges Lernen

Die KI-Community muss Weiterbildungskurse zu den gesellschaftlichen Auswirkungen der KI-Forschung entwickeln, damit sich Praktiker im Laufe ihrer Karriere kontinuierlich über diese Themen weiterbilden können.

KI ist dazu bestimmt, sich auf unerwartete Weise weiterzuentwickeln. Um seine Risiken zu erkennen und zu mindern, sind fortlaufende Diskussionen erforderlich, an denen nicht nur Forscher und Entwickler, sondern auch Personen beteiligt sind, die möglicherweise direkt oder indirekt von seiner Verwendung betroffen sind. Ein gut konzipiertes Weiterbildungsprogramm würde die Ansichten aller Beteiligten einfangen.

Einige Universitäten und Privatunternehmen verfügen bereits über Ethikkommissionen und -teams, die für die Bewertung der Auswirkungen von KI-Tools verantwortlich sind. Obwohl der Auftrag dieser Teams im Allgemeinen keine Schulung umfasst, könnten ihre Funktionen erweitert werden, um Kurse für alle in der Organisation anzubieten. Eine verantwortungsvolle Ausbildung in der KI-Forschung sollte keine Frage des individuellen Interesses sein; es sollte gefördert werden.

Organisationen wie das IEEE und die Association for Computing Machinery könnten eine wichtige Rolle bei der Einrichtung von Weiterbildungskursen spielen, da sie gut positioniert sind, um Informationen auszutauschen und den Dialog zu erleichtern, was zur Festlegung ethischer Standards führen könnte.

Beteiligen Sie sich an der Außenwelt

Wir brauchen auch KI-Praktiker, die ihr Wissen teilen und Diskussionen über potenzielle Risiken über die Grenzen der KI-Forschungsgemeinschaft hinaus anstoßen.

Glücklicherweise diskutieren viele Gruppen in den sozialen Medien bereits aktiv über die Risiken von KI, einschließlich des Missbrauchs ziviler Technologien durch staatliche und nichtstaatliche Akteure. Es gibt auch Fachorganisationen, die sich auf verantwortungsvolle KI konzentrieren und die geopolitischen und sicherheitsrelevanten Auswirkungen der KI-Forschung und -Innovation untersuchen. Dazu gehören das AI Now Institute, das Center on Governance of AI, Data and Society, das Distributed AI Research Institute, das Montreal AI Ethics Institute und die AI Partnership.

Allerdings sind diese Gemeinschaften derzeit zu klein und nicht ausreichend vielfältig, da ihre prominentesten Mitglieder im Allgemeinen ähnliche Ursprünge haben. Dieser Mangel an Diversität könnte dazu führen, dass diese Gruppen Risiken ignorieren, die unterrepräsentierte Bevölkerungsgruppen betreffen.

Darüber hinaus benötigen KI-Praktiker möglicherweise Hilfe und Mentoring bei der Interaktion mit Personen außerhalb der KI-Forschungsgemeinschaft, insbesondere mit politischen Entscheidungsträgern. Es ist eine notwendige Fähigkeit, Probleme oder Empfehlungen so zu formulieren, dass auch technisch nicht versierte Personen sie verstehen können.

Wir müssen Wege finden, bestehende Gemeinschaften weiterzuentwickeln, sie vielfältiger und integrativer zu machen und ihnen zu helfen, besser mit dem Rest der Gesellschaft zu interagieren. Große Berufsverbände wie IEEE und ACM könnten helfen, vielleicht durch die Einrichtung spezieller Arbeitsgruppen aus Experten oder durch die Ausrichtung von Sitzungen auf KI-Konferenzen.

Auch Universitäten und der Privatsektor können einen Beitrag leisten, indem sie Stellen und Abteilungen schaffen oder erweitern, die sich auf gesellschaftliche Auswirkungen und KI-Governance konzentrieren. Die Universität Umeå hat kürzlich ein AI Policy Lab eingerichtet, um diese Probleme anzugehen. Unternehmen wie Anthropic, Google, Meta und OpenAI haben Abteilungen oder Einheiten geschaffen, die sich diesen Themen widmen.

Überall auf der Welt nehmen Bewegungen zur Regulierung der KI zu. Zu den jüngsten Fortschritten zählen die Einrichtung des hochrangigen Beratungsgremiums der Vereinten Nationen für künstliche Intelligenz und der Globalen Kommission für verantwortungsvolle militärische künstliche Intelligenz. Die Staats- und Regierungschefs der G7 gaben eine Erklärung zum Hiroshima-Prozess zur KI ab, und die britische Regierung war letztes Jahr Gastgeber des ersten KI-Sicherheitsgipfels.

Die zentrale Frage für die Regulierungsbehörden ist, ob KI-Forschern und -Unternehmen bei der verantwortungsvollen Entwicklung der Technologie zugetraut werden kann.

Unserer Ansicht nach besteht eine der effektivsten und nachhaltigsten Möglichkeiten, um sicherzustellen, dass KI-Entwickler Verantwortung für Risiken übernehmen, darin, in Bildung zu investieren. Praktiker von heute und morgen müssen über die grundlegenden Kenntnisse und Mittel verfügen, um die mit ihrer Arbeit verbundenen Risiken zu bewältigen, wenn sie bei der Gestaltung und Umsetzung zukünftiger KI-Vorschriften effektiv sein wollen.

Anmerkung des Verfassers: Die Autoren werden nach Beitragsniveau aufgelistet. Die Autoren wurden auf Initiative von zusammengebracht Büro der Vereinten Nationen für Abrüstungsfragen und das Stockholmer Internationales Friedensforschungsinstitut mit Unterstützung einer Initiative der Europäischen Union gestartet Verantwortungsvolle KI-Innovation für internationalen Frieden und Sicherheit.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *