97889 64456 72312 47532 85224 72311 99738 05314 18822 88877 83701 91188 72106 98803 83485 70762 67561 00923 55229 06479 57972 59061 74949 93171 14807 03728 86417 14924 55271 76483 09709 80826 48003 69756 41326 33857 90179 16007 50123 74390 32549 30315 44217 63317 75601 80709 41762 62320 18455 61834 28274 17965 11564 40730 97515 38882 00045 18375 34435 87730 65633 86354 42635 03181 37624 00288 29224 98754 64198 42645 13159 80277 57942 84214 09885 11406 37363 27238 16160 82824 82750 03902 45252 98749 86602 85405 74120 11069 70749 63642 54482 33973 81058 25338 11638 53184 38067 75862 58160 05931 81160 94118 63131 11678 37627 13358 15577 41533 20376 02073 54475 97260 40548 91470 84971 47067 00960 20371 54295 32383 70544 08125 72446 96640 07075 16165 30869 08344 20223 85830 11652 84248 58240 18720 83640 74865 63798 26432 11368 91553 98930 40390 63732 07578 52004 83379 91665 87295 27594 70342 33614 00445 56766 74846 32119 67664 51801 34739 44392 32414 80290 43295 50949 32938 59188 82226 64963 12065 07486 96473 17151 41690 05059 80565 72757 89563 68610 87113 78719 74762 26213 13426 23716 54025 70952 73308 30338 98371 80443 39662 15506 33308 53719 47268 57523 71539 98084 43052 68615 92226 35372 86296 82533 08533 12606 77475 19780 50069 42332 94775 84463 97795 86712 89454 36026 27730 87899 25252 69813 38682 KI könnte dafür verantwortlich sein, dass es uns nicht gelingt, Kontakt zu außerirdischen Zivilisationen aufzunehmen – MJRBJC

Dieser Artikel wurde ursprünglich am veröffentlicht Die Unterhaltung. Die Veröffentlichung hat den Artikel zu Space.com beigetragen Expertenstimmen: Meinungsbeiträge und Perspektiven.

Michael Garrett ist Sir Bernard Lovell-Professor für Astrophysik und Direktor des Jodrell Bank Centre for Astrophysics an der Universität Manchester.

Künstliche Intelligenz (KI) hat in den letzten Jahren rasante Fortschritte gemacht. Einige Wissenschaftler erwägen derzeit die Entwicklung der künstlichen Superintelligenz (ASI), einer Form der KI, die nicht nur die menschliche Intelligenz übertrifft, sondern auch nicht durch die Geschwindigkeit, mit der Menschen lernen, eingeschränkt wird.

Was wäre, wenn dieser Schritt nicht nur ein bemerkenswerter Erfolg wäre? Was wäre, wenn es auch einen gewaltigen Engpass in der Entwicklung aller Zivilisationen darstellt, einen Engpass, der so schwerwiegend ist, dass er ihr langfristiges Überleben gefährdet?

Verwandt: Könnte KI außerirdisches Leben schneller finden als Menschen, und würde sie es uns sagen?

Diese Idee steht im Mittelpunkt eines Forschungsartikels, den ich kürzlich in Acta Astronautica veröffentlicht habe. Könnte KI der „große Filter“ des Universums sein – eine Schwelle, die so schwer zu überschreiten ist, dass sie die meisten Lebewesen daran hindert, sich zu weltraumtauglichen Zivilisationen zu entwickeln?

Es ist ein Konzept, das erklären könnte, warum die Suche nach außerirdischer Intelligenz (SETI) die Signaturen fortgeschrittener technischer Zivilisationen anderswo in der Galaxie noch nicht entdeckt hat.

Die Große-Filter-Hypothese ist letztlich ein Lösungsvorschlag für das Fermi-Paradoxon. Man könnte sich fragen, warum wir in einem Universum, das groß und alt genug ist, um Milliarden potenziell bewohnbarer Planeten zu beherbergen, keine Anzeichen einer außerirdischen Zivilisation entdeckt haben. Die Hypothese legt nahe, dass es in der evolutionären Zeitleiste von Zivilisationen unüberwindbare Hindernisse gibt, die sie daran hindern, sich zu weltraumgestützten Einheiten zu entwickeln.

Ich denke, dass die Entstehung der ASI einen solchen Filter darstellen könnte. Schnelle Fortschritte in der KI, die zu ASI führen könnten, könnten mit einer kritischen Phase in der Entwicklung einer Zivilisation zusammenfallen: dem Übergang von einer einplanetaren Spezies zu einer multiplanetaren Spezies.

Ein silberner Zylinder fliegt auf einen rot-orangefarbenen Planeten zu

Ein silberner Zylinder fliegt auf einen rot-orangefarbenen Planeten zu

Hier könnten viele Zivilisationen ins Wanken geraten, da die KI viel schneller voranschreitet, als wir sie kontrollieren oder unser Sonnensystem nachhaltig erforschen und bevölkern können.

Die Herausforderung der KI und insbesondere der ASI liegt in ihrer autonomen, sich selbst verstärkenden und verbessernden Natur. Es hat das Potenzial, seine eigenen Fähigkeiten mit einer Geschwindigkeit zu verbessern, die unsere eigenen evolutionären Zeitpläne ohne KI übertrifft.

Das Potenzial, dass etwas schief geht, ist enorm und führt zum Untergang biologischer und KI-Zivilisationen, bevor sie die Chance haben, multiplanetarisch zu werden. Wenn Nationen beispielsweise zunehmend auf autonome KI-Systeme setzen, die miteinander konkurrieren und Macht abgeben, könnten militärische Fähigkeiten in einem noch nie dagewesenen Ausmaß zum Töten und Zerstören eingesetzt werden. Dies könnte möglicherweise zur Zerstörung unserer gesamten Zivilisation führen, einschließlich der KI-Systeme selbst.

In diesem Szenario schätze ich, dass die typische Lebensdauer einer technologischen Zivilisation weniger als 100 Jahre betragen könnte. Dies ist ungefähr die Zeit zwischen der Fähigkeit, Signale zwischen Sternen zu empfangen und zu senden (1960) und dem geschätzten Auftreten von ASI (2040) auf der Erde. Das ist im Vergleich zur kosmischen Zeitskala von Milliarden Jahren extrem kurz.

Wenn diese Schätzung mit optimistischen Versionen der Drake-Gleichung verknüpft wird – die versucht, die Anzahl der aktiven und kommunikativen außerirdischen Zivilisationen in der Milchstraße abzuschätzen –, legt sie nahe, dass es zu einem bestimmten Zeitpunkt nur eine Handvoll intelligenter Zivilisationen gibt. Darüber hinaus könnten ihre relativ bescheidenen technologischen Aktivitäten, wie bei uns, die Erkennung ziemlich schwierig machen.

Radioteleskope zeigen bei Sonnenuntergang in den Himmel.

Radioteleskope zeigen bei Sonnenuntergang in den Himmel.

Weckruf

Diese Forschung ist nicht nur eine Warnung vor einer möglichen Katastrophe. Dies ist ein Weckruf an die Menschheit, robuste regulatorische Rahmenbedingungen zu schaffen, um die Entwicklung von KI, einschließlich militärischer Systeme, zu steuern.

Es geht nicht nur darum, den böswilligen Einsatz von KI auf der Erde zu verhindern; Es geht auch darum sicherzustellen, dass die Entwicklung der KI mit dem langfristigen Überleben unserer Spezies im Einklang steht. Dies deutet darauf hin, dass wir so schnell wie möglich mehr Ressourcen dafür aufwenden müssen, eine multiplanetare Gesellschaft zu werden – ein Ziel, das seit den aufregenden Tagen des Apollo-Projekts in der Schwebe lag, aber kürzlich durch Fortschritte privater Unternehmen wiederbelebt wurde.

Wie der Historiker Yuval Noah Harari betont hat, hat uns nichts in der Geschichte auf die Auswirkungen der Einführung unbewusster, superintelligenter Wesenheiten auf unserem Planeten vorbereitet. In jüngster Zeit haben die Auswirkungen der autonomen Entscheidungsfindung in der KI führende Persönlichkeiten auf diesem Gebiet dazu veranlasst, ein Moratorium für die KI-Entwicklung zu fordern, bis eine verantwortungsvolle Form der Kontrolle und Regulierung eingeführt werden kann.

Aber selbst wenn sich alle Länder auf die Einhaltung strenger Regeln und Vorschriften einigen würden, wird es schwierig sein, unehrliche Organisationen einzudämmen.

Ein besonderes Anliegen sollte die Integration autonomer KI in militärische Verteidigungssysteme sein. Es gibt bereits Hinweise darauf, dass Menschen freiwillig erhebliche Macht zugunsten immer leistungsfähigerer Systeme aufgeben werden, da sie nützliche Aufgaben ohne menschliches Eingreifen viel schneller und effizienter ausführen können. Angesichts der strategischen Vorteile, die KI bietet, wie kürzlich in Gaza auf verheerende Weise gezeigt wurde, zögern Regierungen daher, in diesem Bereich Regulierungen vorzunehmen.

ÄHNLICHE BEITRÄGE:

— Sollten wir bei der Suche nach außerirdischem Leben nach künstlicher Intelligenz suchen?

— Maschinelles Lernen könnte dabei helfen, außerirdische Technologie aufzuspüren. hier ist wie

— Fermi-Paradoxon: Wo sind die Außerirdischen?

Das bedeutet, dass wir uns bereits gefährlich nahe an einem Abgrund bewegen, an dem autonome Waffen über ethische Grenzen hinweg operieren und das Völkerrecht umgehen. In einer solchen Welt könnte die Übergabe der Macht an KI-Systeme, um sich einen taktischen Vorteil zu verschaffen, unbeabsichtigt eine Kette äußerst zerstörerischer Ereignisse auslösen, die schnell eskalieren. Im Handumdrehen könnte die kollektive Intelligenz unseres Planeten ausgelöscht werden.

Die Menschheit befindet sich in einem entscheidenden Moment ihrer technologischen Entwicklung. Unser Handeln könnte nun darüber entscheiden, ob wir eine nachhaltige interstellare Zivilisation werden oder ob wir den Herausforderungen unserer eigenen Schöpfungen erliegen.

Die Verwendung von SETI als Linse, durch die wir unsere zukünftige Entwicklung untersuchen können, verleiht der Debatte über die Zukunft der KI eine neue Dimension. Es liegt an uns allen, sicherzustellen, dass wir, wenn wir nach den Sternen greifen, dies nicht als Warnung für andere Zivilisationen tun, sondern als Leuchtfeuer der Hoffnung – einer Spezies, die gelernt hat, neben der KI zu gedeihen.

Anfänglich veröffentlicht bei Das Gespräch.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *

Failed to fetch data from the URL.