Die atemberaubende Entwicklung der künstlichen Intelligenz hat die Benutzer beim Komponieren von Musik, beim Erstellen von Bildern und beim Schreiben von Essays verblüfft und gleichzeitig Befürchtungen hinsichtlich ihrer Auswirkungen geweckt. Sogar Beamte der Europäischen Union, die an bahnbrechenden Regeln zur Steuerung dieser neuen Technologie arbeiten, wurden vom rasanten Aufstieg der KI überrascht.
Der Block aus 27 Ländern schlug vor zwei Jahren die ersten westlichen KI-Regeln vor, die sich auf die Kontrolle riskanter, aber eng fokussierter Anwendungen konzentrierten. Allzweck-KI-Systeme wie Chatbots wurden kaum erwähnt. Gesetzgeber, die am KI-Gesetz arbeiteten, diskutierten darüber, ob sie einbezogen werden sollten, waren sich jedoch nicht sicher, wie oder ob dies überhaupt notwendig war.
„Dann explodierte eine Art ChatGPT-Boom“, sagte Dragos Tudorache, ein rumänisches Mitglied des Europäischen Parlaments, das die Maßnahme mit leitete. „Wenn es noch Zweifel gab, ob etwas notwendig war, dann waren die Zweifel meiner Meinung nach schnell verflogen.“
Die Veröffentlichung von ChatGPT im letzten Jahr erregte weltweite Aufmerksamkeit, da es in der Lage war, menschenähnliche Antworten zu generieren, basierend auf den Erkenntnissen aus der Analyse großer Mengen von Online-Dokumenten. Als Bedenken aufkamen, haben die europäischen Gesetzgeber in den letzten Wochen schnell gehandelt und den allgemeinen KI-Systemen Details hinzugefügt, während sie der Gesetzgebung den letzten Schliff gaben.
Das KI-Gesetz der EU könnte de facto zum globalen Standard für künstliche Intelligenz werden, wobei Unternehmen und Organisationen möglicherweise entscheiden, dass die schiere Größe des EU-Binnenmarktes es einfacher machen würde, die Vorschriften einzuhalten, anstatt unterschiedliche Produkte für verschiedene Regionen zu entwickeln.
„Europa ist der erste regionale Block, der einen bedeutenden Versuch unternimmt, KI zu regulieren, was angesichts der breiten Palette von Systemen, die der weit gefasste Begriff ‚KI‘ abdecken kann, eine große Herausforderung darstellt“, sagte Sarah Chander, Beraterin für Hauptpolitik der Gruppe für digitale Rechte EDRi.
Behörden auf der ganzen Welt versuchen herauszufinden, wie sie diese sich schnell entwickelnde Technologie kontrollieren können, um sicherzustellen, dass sie das Leben der Menschen verbessert, ohne ihre Rechte oder Sicherheit zu gefährden. Die Aufsichtsbehörden sind besorgt über neue ethische und gesellschaftliche Risiken, die von ChatGPT und anderen Allzweck-KI-Systemen ausgehen und das tägliche Leben verändern könnten, von der Beschäftigung und Bildung bis hin zum Urheberrecht und dem Privatleben.
Das Weiße Haus hat kürzlich Führungskräfte von Technologieunternehmen, die an KI arbeiten, darunter Microsoft, Google und der ChatGPT-Erfinder OpenAI, einberufen, um die Risiken zu besprechen, während die Federal Trade Commission warnte, sie werde nicht zögern, hart durchzugreifen.
China hat Verordnungsentwürfe veröffentlicht, die Sicherheitsbewertungen für alle Produkte vorschreiben, die generative KI-Systeme wie ChatGPT verwenden. Die britische Wettbewerbsaufsichtsbehörde hat eine Überprüfung des KI-Marktes eingeleitet, während Italien ChatGPT wegen Datenschutzverletzungen kurzzeitig verboten hat.
Die weitreichenden EU-Vorschriften, die alle Anbieter von KI-Diensten oder -Produkten abdecken, werden voraussichtlich am Donnerstag von einem Ausschuss des Europäischen Parlaments genehmigt und unterliegen dann den Verhandlungen zwischen den 27 Mitgliedsländern, dem Parlament und der Exekutivkommission der EU.
Europäische Vorschriften, die den Rest der Welt beeinflussen – der sogenannte Brüsseler Effekt –, haben sich bereits manifestiert, nachdem die EU den Datenschutz verschärft und die Verwendung gemeinsamer Telefonladekabel obligatorisch gemacht hat, obwohl solche Bemühungen kritisiert wurden, weil sie Innovationen unterdrückten.
Diesmal könnten die Einstellungen anders sein. Tech-Führungskräfte wie Elon Musk und Apple-Mitbegründer Steve Wozniak haben eine sechsmonatige Pause zur Risikobewertung gefordert.
Geoffrey Hinton, ein Informatiker, der als „Pate der KI“ bekannt ist, und sein KI-Pionierkollege Yoshua Bengio äußerten letzte Woche ihre Besorgnis über die unkontrollierte Entwicklung der KI.
Herr Tudorache sagte, solche Warnungen zeigten, dass die Entscheidung der EU, 2021 mit der Entwicklung von KI-Regeln zu beginnen, „die richtige Entscheidung“ sei.
Google, das auf ChatGPT mit seinem eigenen Bard-Chatbot reagierte und KI-Tools einsetzt, lehnte eine Stellungnahme ab. Das Unternehmen teilte der EU mit, dass „KI zu wichtig ist, um nicht reguliert zu werden.“
Microsoft, ein OpenAI-Unterstützer, antwortete nicht auf eine Anfrage nach einem Kommentar. Er begrüßte die Bemühungen der EU als einen wichtigen Schritt, „um vertrauenswürdige KI in Europa und auf der ganzen Welt zur Norm zu machen“.
Mira Murati, Chief Technology Officer bei OpenAI, sagte letzten Monat in einem Interview, dass ihrer Meinung nach Regierungen in die Regulierung der KI-Technologie einbezogen werden sollten.
Auf die Frage, ob einige der OpenAI-Tools im Kontext der vorgeschlagenen EU-Regeln als risikoreicher eingestuft werden sollten, sagte sie, dies sei „sehr nuanciert“.
„Es hängt irgendwie davon ab, wo man die Technologie anwendet“, sagte sie und nannte als Beispiel einen „medizinischen oder rechtlichen Anwendungsfall mit sehr hohem Risiko“ im Vergleich zu einer Buchhaltungs- oder Werbeanwendung.
Sam Altman, CEO von OpenAI, plant, diesen Monat im Rahmen einer Weltreise Brüssel und andere europäische Städte zu besuchen, um mit Benutzern und Entwicklern über die Technologie zu sprechen.
Kürzlich zum EU-KI-Recht hinzugefügte Bestimmungen würden verlangen, dass „Basis“-KI-Modelle urheberrechtlich geschütztes Material offenlegen, das zum Trainieren der Systeme verwendet wird, heißt es in einem kürzlich von Associated Press erhaltenen Teilentwurf der Gesetzgebung.
Basismodelle, auch erweiterte Sprachmodelle genannt, sind eine Unterkategorie der Allzweck-KI, zu der Systeme wie ChatGPT gehören. Ihre Algorithmen werden auf riesigen Online-Informationsbeständen wie Blogbeiträgen, E-Books, wissenschaftlichen Artikeln und Popsongs trainiert.
„Sie müssen erhebliche Anstrengungen unternehmen, um das urheberrechtlich geschützte Material zu dokumentieren, das Sie zum Trainieren des Algorithmus verwenden“, und ebne damit Künstlern, Schriftstellern und anderen Erstellern von Inhalten den Weg, um Erleichterung zu bitten, sagte Herr Tudorache.
Beamte, die KI-Vorschriften ausarbeiten, müssen die Risiken, die die Technologie mit sich bringt, mit den transformativen Vorteilen abwägen, die sie verspricht.
Große Technologieunternehmen, die KI-Systeme entwickeln, und europäische nationale Ministerien, die diese einsetzen wollen, „versuchen, die Reichweite der Regulierungsbehörden einzuschränken“, während zivilgesellschaftliche Gruppen auf mehr Rechenschaftspflicht drängen, sagte Frau Chander von EDRi.
„Wir wollen mehr Informationen darüber, wie diese Systeme entwickelt werden – wie viel Umwelt- und Wirtschaftsressourcen dafür aufgewendet werden –, aber auch darüber, wie und wo diese Systeme eingesetzt werden, damit wir sie effektiv bekämpfen können“, sagte er.
Im Rahmen des europäischen risikobasierten Ansatzes unterliegen Anwendungen von KI, die die Sicherheit oder Rechte von Einzelpersonen gefährden, strengen Kontrollen.
Die Gesichtserkennung aus der Ferne sollte verboten werden. Das Gleiche gilt für staatliche „Social-Rating“-Systeme, die Menschen anhand ihres Verhaltens beurteilen. Auch das wahllose „Scraping“ von Fotos aus dem Internet zum Zwecke des biometrischen Abgleichs und der Gesichtserkennung ist tabu.
Auch prädiktive Polizeiarbeit und Emotionserkennungstechnologien sowie Technologien für therapeutische oder medizinische Anwendungen sind nicht verfügbar.
Verstöße können zu Geldstrafen von bis zu 6 % des weltweiten Jahresumsatzes eines Unternehmens führen.
Auch nach Erhalt der endgültigen Genehmigung, die bis Ende des Jahres oder spätestens Anfang 2024 erwartet wird, wird das KI-Gesetz nicht sofort in Kraft treten. Für Unternehmen und Organisationen wird es eine Schonfrist geben, um zu entscheiden, wie sie die neuen Regeln übernehmen.
Es sei möglich, dass die Branche auf mehr Zeit dränge, indem sie argumentiere, dass die endgültige Fassung des KI-Gesetzes über den ursprünglichen Vorschlag hinausgehe, sagte Frederico Oliveira Da Silva, leitender Rechtsberater bei der europäischen Verbrauchergruppe BEUC.
Sie könnten argumentieren, dass „wir statt eineinhalb bis zwei Jahren zwei oder drei brauchen“, sagte er.
Er wies darauf hin, dass ChatGPT erst vor sechs Monaten eingeführt wurde und in dieser Zeit bereits viele Probleme und Vorteile gebracht hat.
Wenn das KI-Gesetz jahrelang nicht in Kraft trete, „was wird dann in diesen vier Jahren passieren?“ » sagte Herr Da Silva. „Das ist wirklich unser Anliegen, und deshalb bitten wir die Behörden, sich dieser Technologie bewusst zu sein und sich wirklich auf sie zu konzentrieren.“
Diese Geschichte wurde von Associated Press berichtet. Der Autor von AP Technology, Matt O’Brien aus Providence, Rhode Island, hat dazu beigetragen.