Letztendlich muss die Community entscheiden, was sie erreichen will, sagt Zacchiroli: „Verfolgen Sie einfach die Entwicklung des Marktes, damit dieser nicht im Wesentlichen den Begriff ‚Open-Source-KI‘ übernimmt, oder versuchen Sie, den Markt zu fördern.“ offener sein und den Nutzern mehr Freiheiten bieten?

Was ist der Sinn von Open Source?

Es ist fraglich, inwieweit eine Open-Source-Definition von KI die Wettbewerbsbedingungen ausgleichen wird, sagt Sarah Myers West, Co-Geschäftsführerin des AI Now Institute. Sie ist Mitautorin eines im August 2023 veröffentlichten Artikels, in dem sie die mangelnde Offenheit vieler Open-Source-KI-Projekte aufdeckt. Er wies aber auch darauf hin, dass die riesigen Datenmengen und die Rechenleistung, die zum Trainieren modernster KI erforderlich sind, tiefere strukturelle Barrieren für kleinere Akteure schaffen, unabhängig davon, wie offen die Modelle sind.

Myers West ist der Ansicht, dass es auch an Klarheit darüber mangelt, was die Menschen mit der Bereitstellung von KI als Open Source erreichen wollen. „Ist es Sicherheit, ist es die Fähigkeit, akademische Forschung zu betreiben, ist es der Versuch, mehr Wettbewerb zu fördern? Sie fragt. „Wir müssen viel genauer auf das Ziel eingehen und dann darauf, wie die Eröffnung eines Systems die Verfolgung dieses Ziels verändert.“

OSI scheint diese Gespräche vermeiden zu wollen. Im Definitionsentwurf werden Autonomie und Transparenz als Hauptvorteile aufgeführt, aber Maffulli zögerte, als er nach einer Erklärung gefragt wurde, warum OSI diese Konzepte schätzt. Das Dokument enthält auch einen Abschnitt mit der Überschrift „Fragen außerhalb des Geltungsbereichs“, der klarstellt, dass sich die Definition nicht auf Fragen rund um „ethische, vertrauenswürdige oder verantwortungsvolle“ KI erstreckt.

Laut Maffulli hat sich die Open-Source-Community in der Vergangenheit darauf konzentriert, Software reibungslos zu teilen und zu vermeiden, dass sie sich in Debatten über die Verwendung dieser Software verzettelt. „Das ist nicht unsere Aufgabe“, sagte er.

Aber diese Fragen seien nicht von der Hand zu weisen, sagt Warso, ganz gleich, wie sehr sich die Menschen über die Jahrzehnte auch bemühten. Die Vorstellung, dass Technologie neutral sei und Themen wie Ethik „tabu“ seien, sei ein Mythos, fügt sie hinzu. Sie vermutet, dass dies ein Mythos ist, der aufrechterhalten werden muss, um zu verhindern, dass die lose Koalition der Open-Source-Community zerbricht. „Ich denke, die Leute erkennen, dass es nicht real ist [the myth]Aber wir brauchen es, um voranzukommen“, sagt Warso.

Über OSI hinaus haben andere einen anderen Ansatz gewählt. Im Jahr 2022 führte eine Gruppe von Forschern das Responsible AI Licensing (RAIL) ein, das der Open-Source-Lizenzierung ähnelt, aber Klauseln enthält, die bestimmte Anwendungsfälle einschränken können. Das Ziel, sagt Danish Contractor, ein KI-Forscher, der die Lizenz mitentwickelt hat, besteht darin, Entwicklern die Möglichkeit zu geben, zu verhindern, dass ihre Arbeit für Zwecke verwendet wird, die sie für unangemessen oder unethisch halten.

„Als Forscher würde ich es hassen, wenn meine Daten auf schädliche Weise verwendet würden“, sagt er. Und er ist nicht allein: Eine aktuelle Analyse, die er und seine Kollegen auf der beliebten Model-Hosting-Plattform des KI-Startups Hugging Face durchgeführt haben, ergab, dass 28 % der Models RAIL nutzen.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *