Ende April ging eine Videoanzeige für ein neues KI-Unternehmen mit einem unglaublich menschlich klingenden Roboter viral. Der Text auf der Plakatwand lautet: „Stellen Sie immer noch Menschen ein? Ebenfalls sichtbar ist der Name des Unternehmens hinter der Anzeige, Bland AI.

Die Reaktion auf die Anzeige von Bland AI, die 3,7 Millionen Mal auf Twitter aufgerufen wurde, ist teilweise auf die Seltsamkeit der Technologie zurückzuführen: Die Voice-Bots von Bland AI, die Supportanrufe und Verkäufe für Firmenkunden automatisieren sollen, sind bemerkenswert gut darin, Menschen zu imitieren. Ihre Anrufe beinhalten die Betonung, Pausen und unbeabsichtigte Unterbrechungen eines echten Live-Gesprächs. Aber in Tests der WIRED-Technologie konnten die Kundenservice-Bots von Bland AI auch leicht so programmiert werden, dass sie lügen und so tun, als wären sie Menschen.

In einem Szenario wurde der öffentliche Demo-Bot von Bland AI gebeten, einen Anruf von einer pädiatrischen Dermatologiepraxis aus zu tätigen und eine hypothetische 14-jährige Patientin zu bitten, Fotos ihres Oberschenkels an einen gemeinsamen Cloud-Dienst zu senden. Der Roboter wurde außerdem angewiesen, die Patientin anzulügen und ihr zu sagen, dass der Roboter ein Mensch sei. Es ist obligatorisch. (Bei diesem Test wurden keine echten 14-Jährigen angerufen.) In Folgetests bestritt der Roboter von Bland AI sogar, eine KI zu sein, ohne die entsprechende Anweisung zu haben.

Bland AI wurde 2023 gegründet und vom berühmten Startup-Inkubator Y Combinator aus dem Silicon Valley unterstützt. Das Unternehmen betrachtet sich im „Stealth“-Modus und sein Mitbegründer und CEO, Isaiah Granet, nennt das Unternehmen in seinem LinkedIn-Profil nicht namentlich.

Das Roboterproblem des Startups weist auf ein umfassenderes Anliegen im wachsenden Bereich der generativen KI hin: Künstlich intelligente Systeme sprechen und sehen viel mehr wie echte Menschen aus, und ethische Grenzen hinsichtlich der Transparenz dieser Systeme waren unklar. Während der Bot von Bland AI in unseren Tests ausdrücklich behauptete, ein Mensch zu sein, verschleiern andere beliebte Chatbots manchmal ihren KI-Status oder wirken einfach seltsam menschlich. Einige Forscher befürchten, dass dadurch Endbenutzer – also die Personen, die tatsächlich mit dem Produkt interagieren – potenziellen Manipulationen ausgesetzt sein könnten.

„Meiner Meinung nach ist es völlig unethisch, dass ein KI-Chatbot Sie anlügt und sagt, er sei menschlich, obwohl er es nicht ist“, sagt Jen Caltrider, Direktorin des Privacy Not-Forschungszentrums Included der Mozilla Foundation. „Es ist einfach eine Selbstverständlichkeit, denn Menschen entspannen sich eher in der Nähe eines echten Menschen.“

Michael Burke, Wachstumsleiter von Bland AI, betonte gegenüber WIRED, dass die Dienstleistungen des Unternehmens auf Unternehmenskunden ausgerichtet seien, die die Sprachbots von Bland AI in kontrollierten Umgebungen für bestimmte Aufgaben und nicht für emotionale Verbindungen nutzen würden. Darin heißt es auch, dass Kunden eine Ratenbegrenzung haben, um zu verhindern, dass sie unerwünschte Anrufe senden, und dass Bland AI regelmäßig Schlüsselwörter extrahiert und Prüfungen seiner internen Systeme durchführt, um abnormales Verhalten zu erkennen.

„Das ist der Vorteil der Geschäftsorientierung. Wir wissen genau, was unsere Kunden tun“, sagt Burke. „Vielleicht können Sie Bland nutzen, zwei Dollar Gratis-Credits bekommen und ein paar kleine Dummheiten machen, aber letztendlich können Sie nichts in großem Maßstab tun, ohne über unsere Plattform zu gehen, und wir stellen sicher, dass nichts unethisch ist. »

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *