ChatGPT und Gemini: Leichtgläubige Sprachbots, die Falschinformationen verbreiten
1 Min. Lesezeit
KI für Softwareentwicklung (Copilots, SDLC, Testing)
-/5
Kurz zusammengefasst
- Fakt ist: Die Sprachassistenten ChatGPT Voice und Gemini sind ein Risiko.
- Sie geben falsche Informationen in bis zu 50 Prozent der Fälle weiter!
- Das ist nicht nur bedenklich, das ist gefährlich.
Fakt ist: Die Sprachassistenten ChatGPT Voice und Gemini sind ein Risiko. Sie geben falsche Informationen in bis zu 50 Prozent der Fälle weiter! Das ist nicht nur bedenklich, das ist gefährlich. Im Gegensatz dazu hat Amazons Alexa, die oft als unzuverlässig gilt, nie eine einzige Falschmeldung verbreitet. Was bedeutet das konkret? Du kannst dich auf Alexa verlassen, während Du bei ChatGPT und Gemini ständig auf der Hut sein musst. Wer hier nicht aufpasst, verliert nicht nur Zeit, sondern auch Glaubwürdigkeit. In einer Welt, in der Informationen Macht sind, ist es unerlässlich, die richtigen Werkzeuge zu wählen. Ignorierst Du diese Warnung, fällst Du zurück – Punkt. Es ist Zeit, die Spreu vom Weizen zu trennen und die Verantwortung für die Informationen, die wir verbreiten, ernst zu nehmen.
Quelle:
-
ChatGPT and Gemini voice bots are easy to trick into spreading falsehoods — The Decoder (EN-US)