Heute sind wir es gewohnt, uns von KI-Bots Texte, Dokumente und Code ausspucken zu lassen. Doch während alle noch über ChatGPT, OpenClaw und Co reden, braut sich schon die nächste KI-Revolution zusammen. So genannte World Models entstehen, und sie funktionieren fundamental anders als die Transformer-Modelle, die wir heute nutzen. Was kommt da auf uns zu?
Jakob Steinschaden, Mitgründer von Trending Topics und newsrooms, und Matteo Rosoli, CEO von newsrooms, sprechen im heutigen Podcast über:
🤖 Der große KI-Richtungsstreit – Transformer-Modelle dominieren heute, aber World Models brauen sich als neue Bewegung zusammen
📊 Transformer erklärt: Wie statistische Wahrscheinlichkeitsberechnungen funktionieren – vom einfachen Wort-Vervollständigen bis zu ChatGPT durch Attention-Mechanismen
🌍 World Models verstehen: Der fundamentale Unterschied – keine statistische Vorhersage für Text und Code, sondern Simulation der physikalischen Realität und ihrer Regeln
🚗 Praxisbeispiele: Waymo trainiert Robotaxis mit simulierten Tornados und T-Rex-Kostümen, Genie 3 erschafft begehbare Spielwelten, World Labs verwandelt 2D in 3D
💰 Das Tech-Rennen: Meta investiert 50 Milliarden Dollar in Transformer-Skalierung, während Yann LeCun mit AMI Labs auf World Models setzt
🔮 AGI und Zukunftsfragen: Führen Large Language Models zur AGI? Matteo bezweifelt es – World Models könnten langfristig überlegen sein, kurzfristig dominiert das Geld die Transformer
📰 Vision für newsrooms: Ein World Model, das nicht nur digitale Texte generiert, sondern per 3D-Drucker handgeschriebene Zeitungen in individueller Handschrift produziert