Heute sprechen wir über KI-generierte Musik. Ist das heutzutage wirklich möglich? Ja! In der Folge zeige ich euch diesen Song aus den USA:
https://youtu.be/UwKmDH83qo0?si=Rf7hfjsnr5rHRLap
(„Walk my Walk“ von Breaking Rust)
Dies soll der erste Teil einer weiteren Mini-Serie sein, in der wir uns damit beschäftigen, wie diese Technologie funktioniert. In dieser Folge geht es um die Grundlagen und die Frage: Wollen wir das überhaupt?
Außerdem wartet am Ende der Folge ein eigener KI-Song auf euch. Bleibt also bis zum Ende dran und schreibt gerne in die Kommentare, wie ihr zu dem Thema steht!
-
Die in dieser Episode abgespielte Musik wurde mithilfe des KI-Dienstes Suno (suno.com) generiert.
Gemäß den geltenden Nutzungsbedingungen des Anbieters liegen sämtliche Urheber- und Verwertungsrechte an diesem Musikstück bei Suno, Inc. bzw. den jeweiligen Rechteinhabern.
Diese Podcast-Episode ist nicht werbefinanziert und verfolgt keine kommerziellen Zwecke.
Die Verwendung der Musik erfolgt ausschließlich zu Informations- und Präsentationszwecken.
Heute geht es um ein Phänomen, das 2025 sehr populär geworden ist: Vibe Coding. Ich erkläre euch, was man unter diesem Begriff versteht, wie man mit KI Code schreiben kann und was die Gefahren dabei sein können.
Am Ende gebe ich euch vier nützliche Tipps mit auf den Weg, wie ihr erfolgreicher KI nutzt, um kleinere Projekte und Prototypen umsetzen zu können.
Viel Spaß beim Zuhören!
Heute feiern wir Geburtstag - am Sonntag wurde ChatGPT 3 Jahre alt und wir nutzen den besonderen Anlass, um zurückzuschauen: Was ist denn eigentlich alles so passiert bei OpenAI und ChatGPT?
Und vor allem beantworten wir die Frage, was es mit Werbung bei ChatGPT auf sich hat. KI und Werbung sei laut Sam Altman "zutiefst verstörend". Das hat er zumindest 2024 gesagt.
Ohnehin hat der enorme Wettbewerb mit Google, Anthropic und Co ihn dazu gezwungen, den "Code Red" auszurufen. Was das bedeutet und noch viel mehr erfahrt ihr in dieser Folge.
Viel Spaß beim Zuhören. Bleibt wie immer neugierig und kritisch!
Kreativität: ein menschliches Privileg?
In dieser besonderen Episode von „KI – kurz und informativ“ verlasse ich das gewohnte Format und lade euch zu einem kleinen Gedankenexperiment ein.
Die letzten Folgen waren informationsreich und dicht – heute wird es persönlicher, entschleunigt und ein Stück philosophisch.
Wir sprechen über die Frage, ob Menschen wirklich so grundlegend verschieden sind von künstlicher Intelligenz.
Was macht uns kreativ?
Sind wir mehr als die Summe unserer Erfahrungen – oder sind auch wir letztlich ein lebenslang trainiertes Modell aus Datenpunkten?
Wie seht ihr das? Kann KI echte Kreativität besitzen – oder simuliert sie sie nur? Lasst es mich in den Kommentaren wissen.
Viel Spaß beim Zuhören! :)
Wie verändert Künstliche Intelligenz die Cybersecurity und wie können Unternehmen sicher damit umgehen?
In dieser Folge von „KI – kurz und informativ“ spreche ich mit Sascha Maier, einem der renommiertesten CISOs der Schweiz, über die aktuellen Herausforderungen, Risiken und Chancen rund um AI Security.
Gemeinsam beleuchten wir u.a.:
🔹Welche neuen Angriffsszenarien sind durch KI entstanden?
🔹Wie können Unternehmen beim Thema AI Security starten?
🔹Welche Rolle spielen Governance und Transparenz in dem Zusammenhang?
🔹Wie können Unternehmen sich schützen?
Sascha Maier gibt praxisnahe Einblicke aus dem Unternehmensalltag, spricht offen über typische Fehlannahmen und erklärt, wie Organisationen eine sichere KI-Strategie aufbauen können.
Diese Episode ist ideal für alle, die sich mit KI, Cybersecurity, Unternehmenssicherheit, Data Governance oder digitalen Risiken beschäftigen.
Viel Spaß beim Zuhören!
Saschas Bücher:
"Cyberresilienz in der Praxis": 978-3-658-49237-3 (eBook ISBN)
"Geschäftsrisiko Cyber-Security": 978-3-658-32046-1 (eBook ISBN)
zum Financial Times Video ("The AI rollout is here - and it's messy"): https://www.youtube.com/watch?v=GY_Ywqd3mzA
Heute schauen wir uns die revolutionäre Transformer-Architektur und die sogenannte Self-Attention an, auf der die meisten modernen Sprachmodelle basieren. Wir lernen also wie GPT & Co. im Detail funktionieren und warum sie so gute Antworten generieren können.
Das Paper dazu aus dem Jahr 2017 findet ihr hier: https://doi.org/10.48550/arXiv.1706.03762
Viel Spaß beim Zuhören! :)
Buzzword-Dschungel entzaubert: Tokens, Fine-Tuning, Parameter, Context Window - was bedeuten all diese Begriffe im Kontext von Large Language Models (LLM)?
Darum geht es in dieser Folge. In Vorbereitung auf die nächste Folge, in der es um die sogenannte Transformer-Architektur gehen soll, möchte ich diese Grundbegriffe erklären.
Tokenizer von OpenAI: https://platform.openai.com/tokenizer
Heute geht es zum einen um Nachhaltigkeitsaspekte bei der Nutzung und dem Training von ChatGPT und zum anderen darum, warum das eigentlich so ist. Woher kommen diese zum Teil sehr hohen Hardware-Anforderungen zum Betreiben von Sprachmodellen?
Am Ende der Folge kennt ihr den Unterschied zwischen einer CPU und einer GPU, wisst, warum GPU energieintensiver sind und welche Einheiten wir zum Messen verwenden.
Außerdem nenne ich ein paar Zahlen zum Energie- und Wasserverbrauch aus dieser Studie:
https://www.lbbw-am.de/fileadmin/Studien/2024-06-14_Blickpunkt_KI_und_Nachhaltigkeit.pdf
Viel Spaß beim Zuhören! :)
KI gibt es doch erst seit ChatGPT - oder? Nein! Wie lange beschäftigt uns das Thema Künstliche Intelligenz eigentlich schon? Was waren die Anfänge und was gilt als die Geburtsstunde der KI?
Mit diesem Thema befassen wir uns in dieser Folge. Schreibt gerne, welche Meilensteine ihr als nächstes erwartet und ob es vielleicht bald einen dritten KI-Winter geben könnte.
Viel Spaß beim Hören! :)
Wow - was für eine erste Staffel. Wir haben so viele Themen angeschnitten. Umso sinnvoller fand ich es, zum Abschluss ein kleines Quiz für euch vorzubereiten. So könnt ihr euer Grundlagenwissen rund um Künstliche Intelligenz, Machine Learning und Deep Learning einmal testen.
Das Quiz findet ihr hier: https://forms.gle/SybnpVx8ZwGeUof76
Löst es gerne selbstständig und hört ggfs. nochmal in die einzelnen Folgen.
Von mir ein fettes Dankeschön bis hierher. Es war eine spannende Reise und ich bin extrem motiviert weiterzumachen. In der nächsten Staffel erwarten euch neue und interessante Themen. Bleibt wie immer neugierig und kritisch.
Bis zur nächsten Staffel! :) Euer Marc.
Künstliche Intelligenz bietet scheinbar grenzenlose Möglichkeiten. Doch auch solche Systeme haben Schwächen. Genau darüber sprechen wir in dieser Folge. Einige Herausforderungen moderner KI- und Machine-Learning-Systeme sind bspw.:
Bias & Fairness
Distribution Shift
Overfitting & Underfitting
Halluzinationen von Sprachmodellen
Anhand praktischer Beispiele und reallen Fällen, erfahrt ihr was diese Schwächen sind und was für Folgen sie haben können.
Link zum ProPublica-Artikel:
https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm
Link zum Artikel mit dem Rechtsanwalt: https://www.tagesschau.de/wissen/technologie/ki-rechtsanwalt-100.html
Wofür nutzen Menschen ChatGPT eigentlich wirklich? Im Alltag und im Job?
Eine neue Studie des National Bureau of Economic Research (September 2025) liefert erstmals detaillierte Zahlen zur weltweiten Nutzung von ChatGPT. Die Ergebnisse sind überraschend.
In dieser Folge von „KI – kurz und informativ“ erfährst du, warum ChatGPT längst nicht nur ein Produktivitätstool ist, sondern sich immer mehr zum Alltagshelfer entwickelt. Und was das für Unternehmen, Verwaltungen und unseren persönlichen Umgang mit KI bedeutet.
Artikel von OpenAI: https://openai.com/index/how-people-are-using-chatgpt/
Full PDF zur Studie: https://www.nber.org/papers/w34255
Generative KI (GenAI) ist ein Hype-Thema - keine Frage. Aber wann ist es wirklich sinnvoll, diese Technologie einzusetzen? Und bei welchen Anwendungsszenarien eignet sie sich eher weniger?
Das erfahrt ihr in dieser Folge von "KI - kurz und informativ". Leider sehe ich viele Unternehmen den Fehler machen, schnell irgendetwas mit GenAI zu realisieren, damit sie mit dem Trend gehen können. Aber das funktioniert nur in seltenen Fällen. Macht euch lieber gründlich Gedanken, welches Problem ihr lösen wollt und betrachtet alle möglichen Methoden. Wenn (generative) KI dann passt: super! Wenn nicht: auch gut, dann gibt es eine bessere Alternative.
Viel Spaß beim Zuhören!
Europa, KI und ein anderer Weg?
Ausgangspunkt ist Apertus, ein neues, vollständig Open-Source-Sprachmodell – made in Switzerland. Ein Gegenentwurf zu den großen, geschlossenen Systemen. Aber was kann Open Source leisten? Liegt hier eine Chance für Europa?
Auch diese Fragen lassen sich nicht leicht beantworten. Und ähnlich wie die letzte Folge, sollen sie in erster Linie zum Nachdenken anregen.
Wir sprechen über den Unterschied zwischen Open Source und proprietären Modellen, einer möglichen europäischen Perspektive auf KI und warum es mehr als nur Forschung braucht, um mithalten zu können.
Viel Spaß beim Hören und schreibt gerne eure Meinung in die Kommentare!
Über Apertus: https://www.swiss-ai.org/apertus und https://ethz.ch/en/news-and-events/eth-news/news/2025/09/press-release-apertus-a-fully-open-transparent-multilingual-language-model.html
Die nächste Folge wird wieder etwas technischer und informativer. :) Bleibt neugierig und kritisch!
Deepfakes, die mit Hilfe von KI generiert werden, sind längst mehr als ein Tech-Gimmick. Sie bedrohen Vertrauen, Demokratie und unsere Vorstellung von Wahrheit. In dieser Folge von „KI – kurz und informativ“ spreche ich über die Macht künstlich erzeugter Inhalte, ihre Risiken für Gesellschaft, Medien und Rechtssysteme und darüber, welche Chancen und Schutzmechanismen es trotzdem gibt.
Wir schauen uns an:
Positive Einsatzfelder: von Barrierefreiheit bis Filmproduktion.
Strategien gegen Missbrauch: Medienkompetenz, technische Erkennungstools, Regulierung.
Wenn ihr wissen wollt, wie ihr Desinformation erkennt, welche Rolle KI-Tools in Zukunft spielen und warum kritisches Denken wichtiger ist denn je, dann ist diese Folge für euch.
Bleibt neugierig und kritisch!
Artikel zum Berliner Wahldebakel: https://www.tagesschau.de/inland/berlin-wahl-wiederholung-106.html
Quelle Video Greta Thunberg: https://www.youtube.com/watch?v=uRkxYrW5q4c
Wie funktioniert eigentlich ein neuronales Netz? In dieser Folge von „KI – kurz und informativ“ schauen wir uns die Grundlagen des Deep Learning an, einem Teilgebiet des Machine Learning und der Künstlichen Intelligenz.
Wir sehen, warum künstliche neuronale Netze von unserem Gehirn inspiriert sind, wie sie aufgebaut sind und wie sie lernen – Schritt für Schritt. Das Thema ist nicht einfach und daher brechen wir es in mehrere kleinere Teile auf. Hier findet ihr den ersten Teil.
Viel Spaß bei dieser Folge!
Was genau ist eigentlich ein Modell im Kontext von Künstlicher Intelligenz und Machine Learning? In dieser Folge von "KI – kurz und informativ" gehen wir etwas mehr ins Detail und schauen uns die mathematischen und intuitiven Grundlagen an.
Anhand dessen können wir besser erklären, welche Unterschiede es zwischen den Modellfamilien gibt. Außerdem werden wir dank dieses Wissens in der Lage sein, neuronale Netze zu beschreiben und zu verstehen.
Was ist eigentlich der Unterschied zwischen Google und ChatGPT?In dieser Folge von „KI – kurz und informativ“ klären wir eine der häufigsten Fragen aus meinen Schulungen: Worin unterscheiden sich Sprachmodelle von klassischen Suchsystemen wie Google und warum ist ChatGPT keine Suchmaschine?
Wir sprechen unter anderem über den sogenannten Knowledge Cutoff der Modelle und warum Suchmaschinen tagesaktuell sind - im Gegensatz zu Sprachmodellen. Oder etwa nicht?
Ich habe für euch das neue Bildgenerierungs- und Bearbeitungsmodell von Google ausprobiert und es ist wirklich gut geworden. Die Konsistenz, eine der größten Schwächen der Modelle bisher, ist hervorragend. An einem praktischen Beispiel zeige ich euch, wie ihr Google AI Studio für kreative Bildideen und KI-gestützte Bildbearbeitung nutzen könnt.
Zum Google AI Studio gelangt ihr hier: https://aistudio.google.com/
Probiert es aus und lasst mich wissen, wie ihr das findet! Lasst gerne auch einen Kommentar da, wie ihr solche ungeplanten Spezialfolgen zwischendurch findet und was ihr von dem Videoformat haltet.
In dieser ersten Folge einer Mini-Reihe zu generativer KI schauen wir uns an, was generative Modelle eigentlich sind, wie sie funktionieren und was sie von anderen Modellen unterscheidet.
Speziell in dieser Folge sprechen wir über die riesigen Datenmengen, die GPT-3 fürs Training verwendet hat. Sie soll ein bisschen als kleine Einführung dienen - 5 Min. sind eben leider nicht so lange. Darauf aufbauend besprechen wir Themen zur Nachhaltigkeit, Datenschutz und Urheberrecht, und vieles mehr.
Bleibt gespannt und neugierig!