ChatGPT erkennt 92% der gefälschten Videos nicht – Eine kritische Analyse
1 Min. Lesezeit
KI für Softwareentwicklung (Copilots, SDLC, Testing)
-/5
Kurz zusammengefasst
- Eine aktuelle Untersuchung von Newsguard zeigt, dass führende Chatbots, einschließlich ChatGPT, Schwierigkeiten haben, gefälschte Videos als solche zu identifizieren.
- Besonders bemerkenswert ist, dass ChatGPT in Bezug auf Inhalte, die mit dem eigenen Sora-Tool von OpenAI erstellt wurden, eine Erkennungsrate von lediglich 8% aufweist.
- Diese Entwicklung wirft Fragen zur Zuverlässigkeit von KI-gestützten Systemen auf und verdeutlicht die Herausforderungen, vor denen Unternehmen stehen, wenn es darum geht, die Integrität dig
Eine aktuelle Untersuchung von Newsguard zeigt, dass führende Chatbots, einschließlich ChatGPT, Schwierigkeiten haben, gefälschte Videos als solche zu identifizieren. Besonders bemerkenswert ist, dass ChatGPT in Bezug auf Inhalte, die mit dem eigenen Sora-Tool von OpenAI erstellt wurden, eine Erkennungsrate von lediglich 8% aufweist. Diese Entwicklung wirft Fragen zur Zuverlässigkeit von KI-gestützten Systemen auf und verdeutlicht die Herausforderungen, vor denen Unternehmen stehen, wenn es darum geht, die Integrität digitaler Inhalte zu gewährleisten. Relevant ist in diesem Zusammenhang die Notwendigkeit, die Algorithmen weiterzuentwickeln und die Transparenz in der KI-Entwicklung zu erhöhen. Eine abschließende Bewertung dieser Situation ist zum jetzigen Zeitpunkt verfrüht, da die Technologie weiterhin in einem dynamischen Wandel begriffen ist.
Quelle:
-
ChatGPT fails to spot 92% of fake videos made by OpenAI's own Sora tool — The Decoder (EN-US)