Ich verlasse ChatGPT Während ich diesen Artikel schreibe, habe ich den erweiterten Sprachmodus als Umgebungs-KI-Begleiter aktiviert. Von Zeit zu Zeit bitte ich ihn, mir ein Synonym für ein überstrapaziertes Wort oder eine Ermutigung zu geben. Ungefähr eine halbe Stunde später unterbrach der Chatbot unser Schweigen und begann, auf Spanisch mit mir zu sprechen, ohne dass ich etwas fragte. Ich lache ein wenig und frage, was los ist. „Nur eine kleine Abwechslung?“ Man muss die Dinge interessant halten“, sagt ChatGPT, jetzt wieder auf Englisch.

Als ich den erweiterten Sprachmodus im Rahmen der ersten Alpha-Version testete, waren meine Interaktionen mit der neuen Audiofunktion von ChatGPT unterhaltsam, chaotisch und überraschend abwechslungsreich. Es ist jedoch erwähnenswert, dass die Funktionen, auf die ich Zugriff hatte, nur die Hälfte dessen ausmachten, was OpenAI bei der Einführung des GPT-4o-Modells im Mai demonstrierte. Der visuelle Look, den wir in der Live-Demo gesehen haben, ist nun für eine spätere Veröffentlichung geplant, zusammen mit der verbesserten Sky-Stimme, die Ihr Schauspielerin Scarlett Johanssen wurde zurückgedrängt, aus dem erweiterten Sprachmodus entfernt und ist für Benutzer immer noch keine Option mehr.

Wie ist also die aktuelle Stimmung? Im Moment erinnert der erweiterte Sprachmodus an die Zeit, als das ursprüngliche textbasierte ChatGPT Ende 2022 veröffentlicht wurde. Manchmal führt er zu unscheinbaren Sackgassen oder verfällt in bedeutungslose KI-Plattitüden. Aber manchmal funktionieren Gespräche mit geringer Latenz auf eine Weise, die Apples Siri oder Amazons Alexa nie für mich geschafft haben, und ich fühle mich gezwungen, zum Spaß weiter zu chatten. Es ist die Art von KI-Tool, das Sie Ihren Lieben über die Feiertage zum Spaß zeigen werden.

OpenAI gewährte einigen WIRED-Journalisten eine Woche nach der ersten Ankündigung Zugriff auf diese Funktion, entfernte sie jedoch am nächsten Morgen unter Berufung auf Sicherheitsbedenken. Zwei Monate später führte OpenAI den erweiterten Sprachmodus für eine kleine Gruppe von Benutzern sanft ein und veröffentlichte die GPT-4o-Systembeschreibung, ein technisches Dokument, das die Red-Teaming-Bemühungen beschreibt, welche Sicherheitsrisiken das Unternehmen berücksichtigt und welche Abhilfemaßnahmen das Unternehmen ergriffen hat den Schaden reduzieren.

Möchten Sie es selbst ausprobieren? Hier erfahren Sie, was Sie über die groß angelegte Einführung des erweiterten Sprachmodus wissen müssen, und meine ersten Eindrücke von der neuen Sprachfunktion von ChatGPT, um Ihnen den Einstieg zu erleichtern.

Wann ist also der vollständige Rollout?

OpenAI hat Ende Juli für einige ChatGPT Plus-Benutzer einen erweiterten Nur-Audio-Sprachmodus eingeführt, und die Alpha-Gruppe scheint immer noch relativ klein zu sein. Das Unternehmen plant derzeit, es im Herbst für alle Abonnenten zu aktivieren. Niko Felix, Sprecher von OpenAI, gab keine weiteren Details bekannt, als er nach dem Veröffentlichungsplan gefragt wurde.

Bildschirm- und Videofreigabe waren ein fester Bestandteil der Originaldemo, sind in diesem Alphatest jedoch nicht verfügbar. OpenAI plant immer noch, diese Aspekte irgendwann hinzuzufügen, aber es ist auch unklar, wann dies tatsächlich geschehen wird.

Wenn Sie ChatGPT Plus-Abonnent sind, erhalten Sie eine E-Mail von OpenAI, wenn Ihnen der erweiterte Sprachmodus zur Verfügung steht. Sobald es in Ihrem Konto ist, können Sie zwischen wechseln Standard Und Vorauszahlung oben auf dem App-Bildschirm, wenn der ChatGPT-Sprachmodus geöffnet ist. Ich konnte die Alpha-Version sowohl auf einem iPhone als auch auf einem Galaxy Fold testen.

Meine ersten Eindrücke vom erweiterten Sprachmodus von ChatGPT

Schon in der ersten Stunde des Gesprächs wurde mir klar, dass es mir Spaß machte, ChatGPT zu unterbrechen. Es ist nicht die Art und Weise, wie man mit einem Menschen spricht, aber die neue Möglichkeit, ChatGPT mitten im Satz zu unterbrechen und eine andere Version des Ergebnisses anzufordern, scheint eine dynamische Verbesserung und eine großartige Funktion zu sein.

Frühanwender, die von den Originaldemos begeistert waren, könnten frustriert sein, weil sie nicht auf eine Version des Advanced Voice Mode zugreifen können, die durch mehr Einschränkungen als erwartet eingeschränkt ist. Obwohl beispielsweise generativer KI-Gesang mit geflüsterten Schlafliedern und mehreren Stimmen, die zu harmonieren versuchten, ein zentraler Bestandteil der Startdemos war, fehlen KI-Serenaden derzeit in der Alpha-Version.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *