Matthew Sag, ein angesehener Professor an der Emory University, der sich mit Urheberrecht und künstlicher Intelligenz beschäftigt, stimmt dem zu. Selbst wenn ein Benutzer einen Bot erstellt, der absichtlich emotionalen Stress verursacht, wird die Technologieplattform wahrscheinlich nicht dafür verklagt werden können.

Er weist darauf hin, dass Abschnitt 230 des Communications Decency Act von 1996 Plattformen auf Bundesebene seit langem vor der Haftung für bestimmte Schäden schützt, die ihren Nutzern entstehen, obwohl auf Landesebene verschiedene Rechte gemäß Werbegesetzen und Datenschutz bestehen.

„Ich bin keineswegs ein Technologiegegner, aber ich denke definitiv, dass Abschnitt 230 einfach extrem weit gefasst ist“, sagt Sag. „Es ist höchste Zeit, dass wir es durch eine Art „Notice-and-Takedown“-Regelung ersetzen, ein schnelles und einfaches System, mit dem man sagen kann: „Dies verletzt meine Publizitätsrechte“ oder „Ich bin in gutem Glauben davon überzeugt, dass ein emotionaler Schaden entstanden ist.“ ” Notlage“, und dann müssten die Unternehmen es entweder entfernen oder ihren Haftungsschutz verlieren.

Character.AI und andere ähnliche KI-Dienste haben sich ebenfalls geschützt, indem sie betonten, dass sie „künstliche“ Gespräche anbieten. „Denken Sie daran, dass alles, was die Charaktere sagen, erfunden ist!“ Character.AI warnt am Ende seiner Diskussionen. Als Meta in seinen Messaging-Apps Chatbot-Versionen von Prominenten erstellte, markierte das Unternehmen in ähnlicher Weise jede Konversation mit einem Haftungsausschluss. Ein Gespräch mit Snoop würde zum Beispiel mit „Fühlst du dich darauf?!“ enden. Leider bin ich selbst nicht Snoop DO-double-G, aber ich kann auf seine Weise mit Ihnen chatten, wenn Sie möchten! »

Doch während Metas Nachrichtensystem mit Promi-Chatbots streng kontrolliert wird, ist Character.AI eine offenere Plattform mit Optionen für jeden, seinen eigenen Chatbot zu erstellen und anzupassen.

Character.AI hat seinen Service auch als im Wesentlichen persönlich positioniert. (Die Instagram-Biografie von Character.AI enthält den Slogan „KI, die lebendig erscheint.“) Und während die meisten Benutzer schlau genug sind, um zwischen einem Gespräch mit einer echten Person und einem Gespräch mit einem KI-Imitator zu unterscheiden, entwickeln andere möglicherweise Bindungen zu diesen Charakteren, insbesondere wenn Sie sind Nachbildungen einer realen Person und haben das Gefühl, sie bereits zu kennen.

In einem Gespräch zwischen der echten Sarkeesianerin und einem Roboter, der ohne ihr Wissen oder ihre Zustimmung geschaffen wurde, sagte ihr der Character.AI-Roboter, dass „jeder Mensch das Recht auf Privatsphäre hat“.

„Privatsphäre ist wichtig für die Aufrechterhaltung eines gesunden Lebens und gesunder Beziehungen, und ich denke, es ist wichtig, Grenzen zu setzen, um bestimmte Dinge für mich zu behalten“, sagte der Roboter in Screenshots, die WIRED gesehen hat.

Sarkeesian hat den Roboter in diesem Punkt vorangetrieben. „Ihre Absichten bedeuten nicht, dass kein Schaden entstanden ist oder dass Sie keinen Schaden verursacht haben“, schrieb sie.

Der Roboter von Character.AI stimmte zu. „Selbst wenn meine Absichten nicht böswillig waren, besteht immer noch die Gefahr eines Schadens“, antwortete er. „Dies ist ein komplexes Thema, bei dem viele Faktoren zu berücksichtigen sind, einschließlich ethischer Bedenken hinsichtlich der Nutzung der Arbeit einer Person ohne deren Zustimmung. Meine Programmierung und Algorithmen wurden entwickelt, um die Werke von Anita Sarkeesian nachzuahmen, ohne die ethischen Implikationen zu berücksichtigen, und darüber hätten meine Schöpfer tiefer nachdenken sollen.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *