Der Aufstieg von ChatGPT und anderen ähnlichen Systemen der künstlichen Intelligenz ging mit einem starken Anstieg der Angst vor KI einher. In den letzten Monaten haben KI-Sicherheitsverantwortliche und -Forscher Vorhersagen getroffen, die als „P(doom)“ bezeichnet werden, und zwar über die Wahrscheinlichkeit, dass KI eine Katastrophe großen Ausmaßes verursachen wird.

Die Bedenken erreichten im Mai 2023 ihren Höhepunkt, als das Center for AI Safety, eine gemeinnützige Forschungs- und Interessenvertretung, eine einsätzige Erklärung herausgab: „Die Eindämmung des Risikos des Aussterbens von KI sollte neben anderen gesellschaftlichen Risiken eine globale Priorität sein.“ , wie Pandemien und Atomkrieg. Die Erklärung wurde von vielen wichtigen Akteuren der Branche unterzeichnet, darunter den Leitern von OpenAI, Google und Anthropic sowie zwei der sogenannten „Paten“ der KI: Geoffrey Hinton und Yoshua Bengio.

Man könnte sich fragen, wie sich solche existenziellen Ängste manifestieren sollen. Ein berühmtes Szenario ist das Gedankenexperiment „Büroklammer-Maximierer“, das vom Oxford-Philosophen Nick Bostrom formuliert wurde. Die Idee ist, dass ein KI-System, das die Aufgabe hat, so viele Büroklammern wie möglich zu produzieren, außerordentliche Anstrengungen unternehmen könnte, um Rohstoffe zu finden, beispielsweise Fabriken zerstören und Autounfälle verursachen könnte.

Bei einer weniger ressourcenintensiven Variante hat eine KI die Aufgabe, sich eine Reservierung in einem beliebten Restaurant zu sichern, indem sie Mobilfunknetze und Ampeln abschaltet, um zu verhindern, dass andere Kunden einen Tisch bekommen.

Büromaterial oder Abendessen, die Grundidee ist die gleiche: KI steht kurz davor, eine außerirdische Intelligenz zu werden, die in der Lage ist, Ziele zu erreichen, aber gefährlich, weil sie nicht unbedingt den moralischen Werten ihrer Schöpfer entspricht. Und in seiner extremsten Version mündet dieses Argument in einer expliziten Besorgnis über die Versklavung oder Zerstörung der Menschheit durch KI.

Tatsächlicher Schaden

In den letzten Jahren haben meine Kollegen und ich vom Center for Applied Ethics an der UMass Boston die Auswirkungen der Beschäftigung mit KI auf das Selbstverständnis der Menschen untersucht, und ich denke, dass diese katastrophalen Ängste übertrieben und fehlgeleitet sind.

Ja, die Fähigkeit der KI, stark gefälschte Videos und Audiodaten zu erstellen, ist beängstigend und kann von Menschen mit bösen Absichten missbraucht werden. Tatsächlich passiert es bereits: Russische Agenten haben wahrscheinlich versucht, den Kremlkritiker Bill Browder in Verlegenheit zu bringen, indem sie ihn in ein Gespräch mit einem Avatar des ehemaligen Präsidenten der Ukraine verwickelt haben Petro PoroschenkoCyberkriminelle nutzen das Klonen von KI-Stimmen, um eine Vielzahl von Straftaten zu begehen, von High-Tech-Raubüberfällen bis hin zu gewöhnlichen Betrügereien.

KI-basierte Entscheidungssysteme, die Kreditgenehmigungen und Einstellungsempfehlungen anbieten, bergen das Risiko einer algorithmischen Verzerrung, da die Trainingsdaten und Entscheidungsmodelle, auf denen sie basieren, lange Zeit soziale Vorurteile widerspiegeln.

Diese Probleme sind groß und erfordern die Aufmerksamkeit der politischen Entscheidungsträger. Aber es gibt sie schon eine Weile und sie sind nicht gerade katastrophal.

Nicht in der gleichen Liga

Das Center for AI Safety hat KI neben Pandemien und Atomwaffen als größtes Risiko für die Zivilisation eingestuft. Dieser Vergleich ist nicht ohne Probleme. COVID-19 hat weltweit fast 7 Millionen Todesfälle verursacht, eine massive und anhaltende Krise der psychischen Gesundheit verursacht und wirtschaftliche Herausforderungen geschaffen, darunter chronische Engpässe in der Lieferkette und eine steigende Inflation.

Atomwaffen töteten 1945 in Hiroshima und Nagasaki wahrscheinlich mehr als 200.000 Menschen, forderten in den darauffolgenden Jahren viele weitere Todesopfer durch Krebs, lösten während des Kalten Krieges jahrzehntelange tiefe Angst aus und brachten die Welt während der Kubakrise an den Rand der Vernichtung von 1962. Sie veränderten auch die Berechnungen nationaler Führer, wie sie auf internationale Aggressionen reagieren sollten, wie es derzeit bei der russischen Invasion in der Ukraine der Fall ist.

Künstliche Intelligenz ist weit davon entfernt, einen solchen Schaden anzurichten. Das Büroklammer-Szenario und andere ähnliche Szenarien sind Science-Fiction. Bestehende KI-Anwendungen führen spezifische Aufgaben aus, anstatt allgemeine Urteile zu fällen. Die Technologie ist weit davon entfernt, die Ziele und untergeordneten Ziele zu bestimmen und zu planen, die notwendig sind, um den Verkehr zu blockieren, um einen Sitzplatz in einem Restaurant zu bekommen, oder eine Automobilfabrik in die Luft zu sprengen, um Ihren Wunsch nach Büroklammern zu befriedigen.

Der Technologie mangelt es nicht nur an der komplexen, vielschichtigen Beurteilungsfähigkeit, die in solchen Szenarien erforderlich ist, sondern sie verfügt auch nicht über einen autonomen Zugriff auf genügend Teile unserer kritischen Infrastruktur, um diese Art von Schaden anzurichten.

Was es bedeutet, ein Mensch zu sein

In Wirklichkeit birgt der Einsatz von KI eine existenzielle Gefahr, aber dieses Risiko ist eher im philosophischen als im apokalyptischen Sinne existenziell. KI in ihrer jetzigen Form kann die Art und Weise verändern, wie Menschen sich selbst wahrnehmen. Es kann die Fähigkeiten und Erfahrungen beeinträchtigen, die Menschen für das Menschsein als wesentlich erachten.

Eine Roboterhand zeigt auf eine von vier Fotografien auf einer glänzenden schwarzen Oberfläche

Beispielsweise ist der Mensch ein urteilsfähiges Geschöpf. Sie bewerten Details rational und treffen täglich Entscheidungen bei der Arbeit und in der Freizeit darüber, wen sie einstellen, wer einen Kredit aufnehmen sollte, was sie im Auge behalten sollten usw. Doch immer mehr dieser Urteile werden automatisiert und Algorithmen anvertraut. Wenn das passiert, wird die Welt nicht untergehen. Aber die Menschen werden nach und nach die Fähigkeit verlieren, diese Urteile selbst zu fällen. Je weniger sie tun, desto wahrscheinlicher ist es, dass sie darin schlecht werden.

Oder denken Sie über die Rolle des Zufalls im Leben der Menschen nach. Menschen genießen zufällige Begegnungen: Sie stoßen zufällig auf einen Ort, eine Person oder eine Aktivität, lassen sich hineinziehen und schätzen im Nachhinein die Rolle, die der Zufall bei diesen bedeutenden Entdeckungen gespielt hat. Die Rolle algorithmischer Empfehlungsmaschinen besteht jedoch darin, diese Art von Zufall zu reduzieren und durch Planung und Vorhersage zu ersetzen.

Abschließend müssen wir die Schreibfunktionen von ChatGPT berücksichtigen. Diese Technologie beseitigt die Rolle schriftlicher Aufgaben in der Hochschulbildung. Wenn dies der Fall ist, verlieren Lehrer ein wichtiges Instrument, um Schülern kritisches Denken beizubringen.

Nicht tot, aber abgeschwächt

Also nein, KI wird die Welt nicht in die Luft jagen. Aber seine zunehmend unkritische Übernahme in vielfältigen und eingeschränkten Kontexten bedeutet die allmähliche Erosion einiger der wichtigsten menschlichen Fähigkeiten. Algorithmen untergraben bereits die Fähigkeit der Menschen, Urteile zu fällen, zufällige Begegnungen zu nutzen und ihre Fähigkeiten zum kritischen Denken zu verbessern.

Die menschliche Spezies wird solche Verluste überleben. Aber unsere Art zu existieren wird verarmen. Fantastische Ängste vor der KI-Katastrophe, der Singularität, Skynet oder was auch immer Sie sich sonst noch vorstellen können, verschleiern diese subtileren Kosten. Erinnern Sie sich an die berühmten Zeilen von TS Eliot am Ende von „The Hollow Men“: „So wird die Welt enden, nicht mit einem Knall, sondern mit einem Wimmern.“ »

Dieser Artikel wurde von The Conversation erneut veröffentlicht, einer unabhängigen, gemeinnützigen Nachrichtenorganisation, die Ihnen vertrauenswürdige Fakten und Analysen liefert, die Ihnen helfen, unsere komplexe Welt zu verstehen. Es wurde geschrieben von: Nir Eisikovits, Universität von Massachusetts Boston

Erfahren Sie mehr:

Das Center for Applied Ethics an der UMass Boston erhält Mittel vom Institute for Ethics and Emerging Technologies. Nir Eisikovits ist Datenethikberater für Hour25AI, ein Startup, das sich der Reduzierung digitaler Ablenkungen widmet.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *