Dieser Artikel wurde ursprünglich am veröffentlicht Die Unterhaltung. Die Veröffentlichung hat den Artikel zu Space.com beigetragen Expertenstimmen: Meinungsbeiträge und Perspektiven.

Michael Garrett ist Sir Bernard Lovell-Professor für Astrophysik und Direktor des Jodrell Bank Centre for Astrophysics an der Universität Manchester.

Künstliche Intelligenz (KI) hat in den letzten Jahren rasante Fortschritte gemacht. Einige Wissenschaftler erwägen derzeit die Entwicklung der künstlichen Superintelligenz (ASI), einer Form der KI, die nicht nur die menschliche Intelligenz übertrifft, sondern auch nicht durch die Geschwindigkeit, mit der Menschen lernen, eingeschränkt wird.

Was wäre, wenn dieser Schritt nicht nur ein bemerkenswerter Erfolg wäre? Was wäre, wenn es auch einen gewaltigen Engpass in der Entwicklung aller Zivilisationen darstellt, einen Engpass, der so schwerwiegend ist, dass er ihr langfristiges Überleben gefährdet?

Verwandt: Könnte KI außerirdisches Leben schneller finden als Menschen, und würde sie es uns sagen?

Diese Idee steht im Mittelpunkt eines Forschungsartikels, den ich kürzlich in Acta Astronautica veröffentlicht habe. Könnte KI der „große Filter“ des Universums sein – eine Schwelle, die so schwer zu überschreiten ist, dass sie die meisten Lebewesen daran hindert, sich zu weltraumtauglichen Zivilisationen zu entwickeln?

Es ist ein Konzept, das erklären könnte, warum die Suche nach außerirdischer Intelligenz (SETI) die Signaturen fortgeschrittener technischer Zivilisationen anderswo in der Galaxie noch nicht entdeckt hat.

Die Große-Filter-Hypothese ist letztlich ein Lösungsvorschlag für das Fermi-Paradoxon. Man könnte sich fragen, warum wir in einem Universum, das groß und alt genug ist, um Milliarden potenziell bewohnbarer Planeten zu beherbergen, keine Anzeichen einer außerirdischen Zivilisation entdeckt haben. Die Hypothese legt nahe, dass es in der evolutionären Zeitleiste von Zivilisationen unüberwindbare Hindernisse gibt, die sie daran hindern, sich zu weltraumgestützten Einheiten zu entwickeln.

Ich denke, dass die Entstehung der ASI einen solchen Filter darstellen könnte. Schnelle Fortschritte in der KI, die zu ASI führen könnten, könnten mit einer kritischen Phase in der Entwicklung einer Zivilisation zusammenfallen: dem Übergang von einer einplanetaren Spezies zu einer multiplanetaren Spezies.

Ein silberner Zylinder fliegt auf einen rot-orangefarbenen Planeten zu

Ein silberner Zylinder fliegt auf einen rot-orangefarbenen Planeten zu

Hier könnten viele Zivilisationen ins Wanken geraten, da die KI viel schneller voranschreitet, als wir sie kontrollieren oder unser Sonnensystem nachhaltig erforschen und bevölkern können.

Die Herausforderung der KI und insbesondere der ASI liegt in ihrer autonomen, sich selbst verstärkenden und verbessernden Natur. Es hat das Potenzial, seine eigenen Fähigkeiten mit einer Geschwindigkeit zu verbessern, die unsere eigenen evolutionären Zeitpläne ohne KI übertrifft.

Das Potenzial, dass etwas schief geht, ist enorm und führt zum Untergang biologischer und KI-Zivilisationen, bevor sie die Chance haben, multiplanetarisch zu werden. Wenn Nationen beispielsweise zunehmend auf autonome KI-Systeme setzen, die miteinander konkurrieren und Macht abgeben, könnten militärische Fähigkeiten in einem noch nie dagewesenen Ausmaß zum Töten und Zerstören eingesetzt werden. Dies könnte möglicherweise zur Zerstörung unserer gesamten Zivilisation führen, einschließlich der KI-Systeme selbst.

In diesem Szenario schätze ich, dass die typische Lebensdauer einer technologischen Zivilisation weniger als 100 Jahre betragen könnte. Dies ist ungefähr die Zeit zwischen der Fähigkeit, Signale zwischen Sternen zu empfangen und zu senden (1960) und dem geschätzten Auftreten von ASI (2040) auf der Erde. Das ist im Vergleich zur kosmischen Zeitskala von Milliarden Jahren extrem kurz.

Wenn diese Schätzung mit optimistischen Versionen der Drake-Gleichung verknüpft wird – die versucht, die Anzahl der aktiven und kommunikativen außerirdischen Zivilisationen in der Milchstraße abzuschätzen –, legt sie nahe, dass es zu einem bestimmten Zeitpunkt nur eine Handvoll intelligenter Zivilisationen gibt. Darüber hinaus könnten ihre relativ bescheidenen technologischen Aktivitäten, wie bei uns, die Erkennung ziemlich schwierig machen.

Radioteleskope zeigen bei Sonnenuntergang in den Himmel.

Radioteleskope zeigen bei Sonnenuntergang in den Himmel.

Weckruf

Diese Forschung ist nicht nur eine Warnung vor einer möglichen Katastrophe. Dies ist ein Weckruf an die Menschheit, robuste regulatorische Rahmenbedingungen zu schaffen, um die Entwicklung von KI, einschließlich militärischer Systeme, zu steuern.

Es geht nicht nur darum, den böswilligen Einsatz von KI auf der Erde zu verhindern; Es geht auch darum sicherzustellen, dass die Entwicklung der KI mit dem langfristigen Überleben unserer Spezies im Einklang steht. Dies deutet darauf hin, dass wir so schnell wie möglich mehr Ressourcen dafür aufwenden müssen, eine multiplanetare Gesellschaft zu werden – ein Ziel, das seit den aufregenden Tagen des Apollo-Projekts in der Schwebe lag, aber kürzlich durch Fortschritte privater Unternehmen wiederbelebt wurde.

Wie der Historiker Yuval Noah Harari betont hat, hat uns nichts in der Geschichte auf die Auswirkungen der Einführung unbewusster, superintelligenter Wesenheiten auf unserem Planeten vorbereitet. In jüngster Zeit haben die Auswirkungen der autonomen Entscheidungsfindung in der KI führende Persönlichkeiten auf diesem Gebiet dazu veranlasst, ein Moratorium für die KI-Entwicklung zu fordern, bis eine verantwortungsvolle Form der Kontrolle und Regulierung eingeführt werden kann.

Aber selbst wenn sich alle Länder auf die Einhaltung strenger Regeln und Vorschriften einigen würden, wird es schwierig sein, unehrliche Organisationen einzudämmen.

Ein besonderes Anliegen sollte die Integration autonomer KI in militärische Verteidigungssysteme sein. Es gibt bereits Hinweise darauf, dass Menschen freiwillig erhebliche Macht zugunsten immer leistungsfähigerer Systeme aufgeben werden, da sie nützliche Aufgaben ohne menschliches Eingreifen viel schneller und effizienter ausführen können. Angesichts der strategischen Vorteile, die KI bietet, wie kürzlich in Gaza auf verheerende Weise gezeigt wurde, zögern Regierungen daher, in diesem Bereich Regulierungen vorzunehmen.

ÄHNLICHE BEITRÄGE:

— Sollten wir bei der Suche nach außerirdischem Leben nach künstlicher Intelligenz suchen?

— Maschinelles Lernen könnte dabei helfen, außerirdische Technologie aufzuspüren. hier ist wie

— Fermi-Paradoxon: Wo sind die Außerirdischen?

Das bedeutet, dass wir uns bereits gefährlich nahe an einem Abgrund bewegen, an dem autonome Waffen über ethische Grenzen hinweg operieren und das Völkerrecht umgehen. In einer solchen Welt könnte die Übergabe der Macht an KI-Systeme, um sich einen taktischen Vorteil zu verschaffen, unbeabsichtigt eine Kette äußerst zerstörerischer Ereignisse auslösen, die schnell eskalieren. Im Handumdrehen könnte die kollektive Intelligenz unseres Planeten ausgelöscht werden.

Die Menschheit befindet sich in einem entscheidenden Moment ihrer technologischen Entwicklung. Unser Handeln könnte nun darüber entscheiden, ob wir eine nachhaltige interstellare Zivilisation werden oder ob wir den Herausforderungen unserer eigenen Schöpfungen erliegen.

Die Verwendung von SETI als Linse, durch die wir unsere zukünftige Entwicklung untersuchen können, verleiht der Debatte über die Zukunft der KI eine neue Dimension. Es liegt an uns allen, sicherzustellen, dass wir, wenn wir nach den Sternen greifen, dies nicht als Warnung für andere Zivilisationen tun, sondern als Leuchtfeuer der Hoffnung – einer Spezies, die gelernt hat, neben der KI zu gedeihen.

Anfänglich veröffentlicht bei Das Gespräch.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *