Home
Categories
EXPLORE
True Crime
Comedy
Society & Culture
Business
Sports
TV & Film
Technology
About Us
Contact Us
Copyright
© 2024 PodJoint
00:00 / 00:00
Sign in

or

Don't have an account?
Sign up
Forgot password
https://is1-ssl.mzstatic.com/image/thumb/Podcasts221/v4/d5/0e/66/d50e664b-0574-ca77-ca2c-3bd6927e492a/mza_5192569451011660192.png/600x600bb.jpg
Klartext KI
Matúš Mala, Alwine Schultze
40 episodes
5 days ago
Show more...
Technology
Comedy
RSS
All content for Klartext KI is the property of Matúš Mala, Alwine Schultze and is served directly from their servers with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
Show more...
Technology
Comedy
https://pbcdn1.podbean.com/imglogo/ep-logo/pbblog20144038/KI.jpg
#39 Halluzinationen und Haftungsfallen bei Generativer KI [KI generiert]
Klartext KI
19 minutes
1 week ago
#39 Halluzinationen und Haftungsfallen bei Generativer KI [KI generiert]
In dieser tiefgehenden Episode der Klartext KI-Crew beleuchten wir die kritischen Herausforderungen und Risiken, die mit dem Einsatz von Generativer Künstlicher Intelligenz (GenAI) verbunden sind. Wir beschäftigen uns mit KI-Halluzinationen, also der Erfindung von Fakten und Quellenangaben durch die KI, und diskutieren, wie diese in der Praxis zu ernsten Problemen führen können, wie am Beispiel des Beratungsunternehmens Deloitte in Australien geschehen. Die wichtigsten Themen dieser Folge: Halluzinationen & Faktenprüfung: Was passiert, wenn KI „statistisch wahrscheinlich klingende“ Antworten generiert, die inhaltlich falsch sind? Wir sehen, dass blindes Vertrauen gefährlich ist und menschliche Überprüfung absolut unerlässlich bleibt. Praktische Risiken: Neben fehlerhaften Informationen (Fake News, Deepfakes) betrachten wir die Gefahr von Prompt Spoofing (Umgehung von Schutzmechanismen) und das Problem des Bias (Voreingenommenheit in den Trainingsdaten). Haftungsfragen & Blackbox-Problem: Wer trägt die Verantwortung, wenn durch KI-Fehler oder Manipulation Schäden entstehen? Die Verantwortung liegt immer bei den Entwicklern, Anbietern oder Nutzern, da eine KI keine eigene Rechtspersönlichkeit besitzt. Die mangelnde Nachvollziehbarkeit des Entscheidungsprozesses großer KI-Modelle (Black Box) erschwert die Fehlersuche. Die Rolle der Regulierung: Wir diskutieren, wie der EU AI Act und die geplante KI-Haftungsrichtlinie die Anforderungen an Anbieter und Nutzer verschärfen und Transparenz sowie KI-Kompetenz im Unternehmen fordern. Verstöße können empfindliche Strafen nach sich ziehen. Lösung & Fazit: Der Schlüssel zum sicheren Umgang mit GenAI ist die menschliche Überprüfung – das 4-Augen-Prinzip. Trotz aller Automatisierung bleibt der Mensch die entscheidende Instanz, die kritisches Denken und ethische Abwägung einbringt. Fazit & Ausblick: Generative KI ist ein mächtiges Hilfsmittel, aber kein Ersatz für menschliche Expertise. Unternehmen und Nutzer müssen klare interne Prozesse, Governance-Strukturen und Schulungen etablieren, um die Risiken zu beherrschen und die enormen Chancen der Technologie verantwortungsvoll zu nutzen.   🔗 Weiterführende Links zur Folge https://www.deloitte.com/de/de/issues/innovation-ai/vertrauenswuerdige-generative-ki.html https://www.horsesforsources.com/deloitte-dolittle_100725/ https://consulting.tuv.com/aktuelles/ki-im-fokus/eu-ai-act-haftungsrisiken-fuer-unternehmen https://www.moneylife.in/article/fraud-alert-deloittes-us290000-blunder-and-the-rising-risks-of-ai-hallucinations/78620.html https://www.nortonrosefulbright.com/de-de/wissen/publications/64f48ffc/generative-ai-ki-vertrage-rechtssicher-gestalten https://easyrechtssicher.de/ki-generiert-haftung/ https://www.cmshs-bloggt.de/rechtsthemen/kuenstliche-intelligenz/pflicht-oder-kuer-ki-kompetenz-gemaess-ki-vo-als-zentraler-bestandteil-der-ki-compliance-im-unternehmen/ https://news.it-matchmaker.com/vertrauenskrise-bei-genai-warum-die-qualitaet-generativer-ki-sinkt/ Let's connect: https://www.linkedin.com/company/klartext-ki-der-podcast 
Klartext KI