ChatGPT erkennt 92% der gefälschten Videos nicht – Eine kritische Analyse
1 Min. Lesezeit KI für Softwareentwicklung (Copilots, SDLC, Testing) -/5
Kurz zusammengefasst
  • Eine aktuelle Untersuchung von Newsguard zeigt, dass führende Chatbots, einschließlich ChatGPT, Schwierigkeiten haben, gefälschte Videos als solche zu identifizieren.
  • Besonders bemerkenswert ist, dass ChatGPT in Bezug auf Inhalte, die mit dem eigenen Sora-Tool von OpenAI erstellt wurden, eine Erkennungsrate von lediglich 8% aufweist.
  • Diese Entwicklung wirft Fragen zur Zuverlässigkeit von KI-gestützten Systemen auf und verdeutlicht die Herausforderungen, vor denen Unternehmen stehen, wenn es darum geht, die Integrität dig
-/5 (0)
Eine aktuelle Untersuchung von Newsguard zeigt, dass führende Chatbots, einschließlich ChatGPT, Schwierigkeiten haben, gefälschte Videos als solche zu identifizieren. Besonders bemerkenswert ist, dass ChatGPT in Bezug auf Inhalte, die mit dem eigenen Sora-Tool von OpenAI erstellt wurden, eine Erkennungsrate von lediglich 8% aufweist. Diese Entwicklung wirft Fragen zur Zuverlässigkeit von KI-gestützten Systemen auf und verdeutlicht die Herausforderungen, vor denen Unternehmen stehen, wenn es darum geht, die Integrität digitaler Inhalte zu gewährleisten. Relevant ist in diesem Zusammenhang die Notwendigkeit, die Algorithmen weiterzuentwickeln und die Transparenz in der KI-Entwicklung zu erhöhen. Eine abschließende Bewertung dieser Situation ist zum jetzigen Zeitpunkt verfrüht, da die Technologie weiterhin in einem dynamischen Wandel begriffen ist.