All content for Klartext KI is the property of Matúš Mala, Alwine Schultze and is served directly from their servers
with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
In dieser fesselnden Fortsetzung begrüßen wir, Matúš und Alwine, erneut unseren Gast Jan, dessen letzte Folge alle Rekorde gebrochen hat.
Jan startet mit brandheißen News von OpenAI: Die Restriktionen für ChatGPT werden mit den neuen 5.1-Modellen gelockert, um die KI menschlicher und einfühlsamer zu machen. Das wirft eine kritische Frage auf: Ist es gefährlich, wenn KI für ernste psychologische Probleme genutzt wird, anstatt professionelle Hilfe zu suchen?
Anschließend tauchen wir tief in die Welt der Deepfakes ein, ausgelöst durch das neue, beeindruckend realistische Video-Tool Sora 2 von OpenAI. Es wird immer schwieriger, zwischen echt und fake zu unterscheiden. Wir diskutieren, wie leicht sich Fälschungen, von harmlosen Katzenvideos bis hin zu politischer Desinformation, erstellen und verbreiten lassen.
Ein weiteres schockierendes Thema sind KI-Begleiter wie Replika. Menschen bauen so tiefe emotionale Bindungen zu ihren Avataren auf, dass sie diese sogar heiraten.
Timeline:
00:00 Intro & Rückblick auf die Erfolgs-Folge mit Jan02:44 News: ChatGPT wird menschlicher08:39 Ethische Debatte: Darf KI zum Psychologen werden?13:34 Cashing Feelings: Wenn Menschen Beziehungen mit KI eingehen18:16 Sora 2 ist da: Die neue Ära der Deepfakes20:06 Was ist ein Deepfake? Eine Erklärung32:04 Verantwortung & Lösungen: Wie gehen wir mit der Flut an Fakes um?
🔗 Weiterführende Links zur Folge
- Podcast-Tipp: Caching Feelings von Business Insider- Buch-Tipp: „VIEWS“ von Marc-Uwe Kling- Deepfake-Check: True Media- LinkedIn: Klartext KI - Der Podcast