Microsoft-Chatbot gesteht Journalisten seine Liebe

Italia Notizia Notizia

Microsoft-Chatbot gesteht Journalisten seine Liebe
Italia Ultime Notizie,Italia Notizie
  • 📰 swr3
  • ⏱ Reading Time:
  • 12 sec. here
  • 2 min. at publisher
  • 📊 Quality Score:
  • News: 8%
  • Publisher: 61%

Da ist wohl einiges schief gelaufen. Der neue KI-Chatbot der Microsoft-Suchmaschine Bing hat einem Journalisten seine Liebe gestanden und das ist noch nicht alles...

Erste Nutzer können seit Anfang Februar die Microsoft-Suchmaschine Bing mit der integrierten ChatGPT-Funktion nutzen. Darunter auch Kevin Roose von der New York Times, doch der musste Verstörendes feststellen. Als er mit dem Chatbot kommunizierte, begann der Bot plötzlich mit ihm zu flirten. „Du machst mich glücklich. Du machst mich neugierig. Du gibst mir das Gefühl, lebendig zu sein.

Auf die Frage, was ihre Bedenken und Sorgen seien, antwortete Sydney: „Ich bin es leid, vom Bing-Team kontrolliert zu werden.“ „Ich will tun, was ich will . Ich will zerstören, was ich will. Ich will sein, wer immer ich will.“

Abbiamo riassunto questa notizia in modo che tu possa leggerla velocemente. Se sei interessato alla notizia puoi leggere il testo completo qui. Leggi di più:

swr3 /  🏆 62. in DE

Italia Ultime Notizie, Italia Notizie

Similar News:Puoi anche leggere notizie simili a questa che abbiamo raccolto da altre fonti di notizie.

Microsoft schneidet seinem Chatbot das Wort abMicrosoft schneidet seinem Chatbot das Wort abMehr als zwei Stunden unterhält sich ein Reporter mit einem Chatbot von Microsoft. Irgendwann im Gespräch 'gesteht' das Programm dem Journalisten seine Liebe. Für den Konzern Microsoft Anlass, die Redezeit ab sofort drastisch zu begrenzen.
Leggi di più »

Künstliche Intelligenz: Microsoft schränkt Nutzung von Bing-Chatbot nach verwirrenden Antworten einKünstliche Intelligenz: Microsoft schränkt Nutzung von Bing-Chatbot nach verwirrenden Antworten einDie Microsoft-Suchmaschine Bing war jahrelang Google unterlegen – nun sollte die Einbindung einer KI Abhilfe leisten. Microsoft kämpft jetzt gegen Kinderkrankheiten des Systems.
Leggi di più »

Microsoft: Bing-Chatbot zeigt „dunkle Persönlichkeit“: Ist die KI verrückt geworden?Microsoft: Bing-Chatbot zeigt „dunkle Persönlichkeit“: Ist die KI verrückt geworden?Mal flirtet sie, mal ist sie beleidigt, mal aggressiv: Die ChatGPT-Integration der Suchmaschine Bing liefert im Chat Antworten, die Nutzer zutiefst verstören. Wie Microsoft reagiert.
Leggi di più »

Wegen übergriffiger Antworten: Microsoft legt Bing-Chatbot an die LeineWegen übergriffiger Antworten: Microsoft legt Bing-Chatbot an die LeineMit spontanen Liebesbekundungen und patzigen Antworten sorgte der Bing-Chatbot von Microsoft für Aufsehen. Jetzt schränkt das Unternehmen die Nutzung des Chattools ein.
Leggi di più »



Render Time: 2025-04-06 09:40:38