Partner im RedaktionsNetzwerk Deutschland
PodcastsWissenschaftStreuspanne – Statistik und ihre Kuriositäten

Streuspanne – Statistik und ihre Kuriositäten

Fraunhofer ITWM
Streuspanne – Statistik und ihre Kuriositäten
Neueste Episode

Verfügbare Folgen

5 von 39
  • »Streuspanne-Lexikon« – W wie Wurstkatastrophe
    Der neue Eintrag unseres Streuspanne-Lexikons beschäftigt sich mit einem Begriff, der auf den ersten Blick eher nach Imbissbude als nach Mathematik klingt: der Wurstkatastrophe.Dabei geht’s nicht um Frühstück und schon gar nicht um Fleisch – sondern rein um Mathematik. Diese Wurst ist also zu 100 Prozent vegan – und zu 100 Prozent nerdig.Wir klären, warum Kugeln, die wie Würste aussehen, plötzlich eine Katastrophe auslösen – und was das Ganze mit konvexen Hüllen, Clusterbildungen und optimalem Packen zu tun hat.Klingt schräg? Ist es auch. Und trotzdem steckt echte Mathematik dahinter, mit Anwendungen von der Materialforschung bis zur Kryptographie.Vielen Dank an die treue Hörerin für die Anregung zu diesem Lexikon-Eintrag – Habt Ihr selbst kuriose Begriffe oder mathematische Fragen, die wir im »Streuspanne«-Podcast aufgreifen sollen? Dann schreibt uns gerne an [email protected] – wir freuen uns auf Eure Ideen!Falls Ihr von einer regulären Episode hierher gefunden habt: springt schnell zurück, dort geht’s weiter!
    --------  
    4:25
  • Künstliche Intelligenz mit Tiefgang – Deep Learning, Sprachmodelle und die Frage nach dem Bewusstsein (Folge 29)
    In der finalen Folge unserer Mini-Serie zu »Künstlicher Intelligenz (KI) und Statistik« wird es tiefgründig – im wahrsten Sinne des Wortes. Unser Podcast-Team – bestehend aus Esther Packullat, Sascha Feth und Jochen Fiedler – beschäftigt sich mit den großen Sprachmodellen wie GPT-4, Llama oder Gemini.Wir werfen einen Blick hinter die Kulissen und diskutieren spannende Fragen wie:• Was macht diese Modelle so leistungsfähig?• Wie funktionieren große Sprachmodelle eigentlich?• Was heißt Deep Learning – und was unterscheidet es von Shallow Learning?• Wie arbeiten Neuronale Netze – und warum spielt ihre Topologie eine entscheidende Rolle?• Inwiefern lassen sich die Fähigkeiten großer KI-Modelle wirklich vorhersagen?• Warum ist Deep Learning mehr als nur angewandte Statistik?• Was ist Emergenz – und warum überrascht uns KI manchmal selbst?• Und schließlich die große Frage: Werden KI-Systeme eines Tages ein Bewusstsein entwickeln? Was würde das bedeuten?Unsere beiden Statistik-Kollegen sind sich einig: Die Entwicklung geht in eine spannende Richtung – und wir stehen erst am Anfang.Buchtipps aus der Folge:Metzinger, Thomas (2014). Der Ego-Tunnel: Eine neue Philosophie des Selbst: Von der Hirnforschung zur Bewusstseinsethik. Piper Verlag. Ramakrishnan, Venkatraman (2024). Warum wir sterben: die neue Wissenschaft des Alterns und die Suche nach dem ewigen Leben. Klett-Cotta. Gestalte unseren Podcast mit!Du hast ein Zahlenphänomen entdeckt, das wir besprechen sollen? Oder eine Statistik in den Medien gelesen, die wir in der »Streuspanne« einmal genauer unter die Lupe nehmen sollen? Dann melde Dich gerne über [email protected] bei uns!
    --------  
    41:00
  • Der Fluch einfacher statischer Maßzahlen – Harm-to-Benefit-Ratio bei Zulassungsstudien (Folge 28)
    In der aktuellen Folge unseres Podcasts »Streuspanne« heißt es back to the roots! Wir werfen erneut einen kritischen Blick auf die Bewertung der Wirksamkeit von Corona-Impfstoffen – wie schon in unserer allerersten Folge. Diesmal dreht sich alles um das sogenannte Harm-to-Benefit-Ratio, eine vermeintlich neue Kennzahl, die das Schaden-Nutzen-Verhältnis von Impfstoffen besser messbar machen soll. Grundlage der Diskussion ist eine Publikation einer universitär angesiedelten Gruppe um Falk Mörl, Michael Günther und Robert Rockenfeller mit dem Titel: »Is the Harm-to-Benefit Ratio a Key Criterion in Vaccine Approval?«Fünf Jahre nach dem ersten COVID-19-Fall gibt es immer wieder Versuche, neue Analysen oder sogar Kennzahlen für die »Risiko-Nutzen-Abwägung« von Impfstoffen zu etablieren. Der freie Journalist Martin Rücker hat uns auf eine solche neu vorgeschlagene Maßzahl und die Diskussion rund um ihren Nutzen aufmerksam gemacht. Laut den Berechnungen würde der BioNTech-Impfstoff dabei besonders schlecht abschneiden.Doch wie belastbar ist dieser Wert wirklich? Und ist das zugrunde liegende Modell überhaupt geeignet, in der konkreten Anwendung eine valide Aussage über das Schaden-Nutzen-Verhältnis zu treffen?Unsere bloggenden Statistiker Sascha Feth und Jochen Fiedler schauen sich das genauer an und äußern Zweifel an den wissenschaftlichen Techniken und Methoden. Gemeinsam mit den beiden Experten diskutiert Esther Packullat unter anderem folgende Punkte:• Harm-to-Benefit-Ratio: Was ist das überhaupt für ein Wert und wie wird er berechnet?• Wie sieht die Kritik an diesem vorgeschlagenen Wert aus?• Ist der Nutzen der Impfung angemessen berücksichtigt, wenn man sich auf den – relativ kurzen – Beobachtungszeitraum der Zulassungsstudie bezieht?• Ist die neue Kennzahl überhaupt nützlich?• Warum ist die Diskussion um die sogenannten »severe adverse events« und das gesamte Wording so entscheidend und gleichzeitig so schwierig für die Interpretation der Ergebnisse?In der aktuellen Folge erwähnen wir folgende Links, Artikel und Podcasts:• Meinungsartikel zur Einführung des »Harm-to-Benefit Ratios« nach Mörl et al.: https://s.fhg.de/Harm-to-Benefit-Ratio• Zulassungsstudie von BioNTech und Supplementary Material: https://s.fhg.de/Zulassungsstudie• Unsere erste Streuspanne-Folge unter dem Titel »Was bedeutet Wirksamkeit bei Corona-Impfungen?«: https://s.fhg.de/Wirksamkeit-Corona-ImpfstoffAußerdem sind im Nachgang zu unseren Experten-Statements folgende Artikel von Martin Rücker erschienen (beide hinter Bezahlschranke):• Martin Rücker auf www.riffreporter.de: »Corona-Impfstoffe: 25-mal mehr Schaden als Nutzen? Wo eine spektakuläre Analyse falsch liegt«: https://s.fhg.de/Artikel-Corona-Impfstoff-Kritik• Martin Rücker in der Berliner Zeitung »Corona-Impfstoff: Kritik an Analyse zum Schaden-Nutzen-Verhältnis«: https://s.fhg.de/Artikel-Corona-ImpfstoffeGestaltet unseren Podcast mit!Ihr habt ein Zahlenphänomen entdeckt, das wir besprechen sollen? Oder eine Statistik in den Medien gelesen, die wir in der »Streuspanne« einmal genauer unter die Lupe nehmen sollen? Dann meldet Euch gerne über presse(at)itwm.fraunhofer.de bei uns!
    --------  
    52:21
  • Kann man mit Statistik den nächsten Bundeskanzler vorhersagen? (Folge 27)
    In der aktuellen Folge unseres Podcasts »Streuspanne« dreht sich alles um Wahlumfragen, Prognosen und ihre Unsicherheiten. Anlässlich der überraschend deutlichen Wiederwahl von Donald Trump werfen wir einen genaueren Blick darauf, wie solche Prognosen entstehen, welche Fallstricke sie bergen und wie wir ihre Qualität bewerten können. Schließlich stehen auch bei uns in Deutschland Wahlen vor der Tür und wir möchten wissen, ob uns eine ähnliche Überraschung wie in Amerika erwartet. Mit den Statistik-Experten Sascha Feth und Jochen Fiedler diskutiert Esther Packullat unter anderem folgende Punkte: · Warum Wahlumfragen keine eigentlichen Prognosen sind · Wie sich Prognosen und Unsicherheiten mathematisch bewerten lassen · Warum Mittelwerte aus mehreren Prognosen oft zuverlässiger sind · Weshalb Trumps Wahlsieg 2024 zeigt, dass systematische Fehler in Prognosen ein großes Problem sind Außerdem gibt es spannende Vergleiche zu Wettervorhersagen, Quizsendungen und sogar zur Anzahl verkaufter Schlitten! Wir erwähnen folgende Links, Artikel und Podcasts in der aktuellen Folge: · Streuspanne-Folge 4 »Wie funktionieren Wahlprognosen?«: www.itwm.fraunhofer.de/wahlprognose · Streuspanne Folge 20 »Viel Lärm um Bias«: https://www.itwm.fraunhofer.de/podcast-noise · Streuspanne Folge 6 »Haben Sie schon mal in den Badesee gemacht?«: https://www.itwm.fraunhofer.de/Streuspanne-Badesee · Streuspanne Lexikon »K wie Konfidenzintervall“: Podcast »Streuspanne –Statistik und ihre Kuriositäten«: K wie Konfidenzintervall - Fraunhofer ITWM · US-Wahlergebnisse in den Swingstates: https://s.fhg.de/us-wahlergebnisse-24 · Sonntagsfrage Allensbach https://s.fhg.de/sonntagsfrage-allensbach-25 · US-Election Forecast von fivethirtyeigth.com: https://s.fhg.de/US-election-forecast · Link zur Datei: https://s.fhg.de/datei-fivethirtyeight · Video von INSA zu sicheren Stimmen und maximal möglichem Potential: https://s.fhg.de/insa-meinungstrend Gestaltet unseren Podcast mit und meldet Euch! Ihr habt ein Zahlenphänomen entdeckt, das wir besprechen sollen oder eine Statistik in den Medien gelesen und wollt, dass wir sie in der »Streuspanne« zum Thema machen? Dann meldet Euch gerne bei uns.
    --------  
    40:19
  • KI in seichten Datengewässern - Dritter Teil der Miniserie »Künstliche Intelligenz (KI) und Statistik«
    In der dritten Folge unserer Miniserie »Künstliche Intelligenz (KI) und Statistik« dreht sich alles um »Shallow Learning« oder auch in Deutsch »Seichtes Lernen«. Unser Podcast-Team –bestehend aus Sascha Feth, Jochen Fiedler und Esther Packullat – klärt in dieser Episode, was sich hinter diesem Konzept verbirgt. Gemeinsam beleuchten wir, wie unzureichende Trainingsdaten und historische Verzerrungen (Stichwort Bias) die Leistungsfähigkeit von KI-Systemen beeinflussen. Außerdem hinterfragen wir, ob Fehler in Algorithmen bereits vor der Entwicklung von KI-gestützten Systemen auftraten – und wie sich solche Probleme beheben lassen.  Schon bald wird klar: Ohne hochwertige Daten kann keine KI ihr volles Potenzial entfalten. Um das greifbar zu machen, bringen wir konkrete Beispiele ins Spiel:  Nicht repräsentative Trainingsdaten: Warum das KI-Bestellsystem von McDonald's scheiterte und welche Einblicke das Buch »Unsichtbare Frauen« liefert  Historischer Bias: Was wir aus Episode 20 »Viel Lärm um Bias« lernen können  Menschliche Entscheidungen versus KI: Welche Entscheidungen müssen bei einem Menschen verbleiben und die Meinung der »UNESCO«   Softwarefehler vor dem KI-Zeitalter: Welche Fehler in den 90er Jahren die Raumfahrt herausforderten  Probleme des Community-Engagements: Der Fall des Microsoft-Chatbots »Tay«  Im nächsten Teil unserer Miniserie richten wir den Blick auf »Unsupervised Learning«. Hier lernen Modelle selbstständig und entdecken Muster – ganz wie Archäologen, die versuchen, eine alte Sprache zu entschlüsseln.  Gestaltet unseren Podcast mit!  Wie immer gilt: Ihr habt ein Zahlenphänomen entdeckt, das wir besprechen sollen oder eine Statistik in den Medien gelesen, die wir in der »Streuspanne« analysieren sollen? Dann meldet Euch gerne bei uns und wir bringen Euer Thema in die nächste Folge!  Darauf wird in dieser Folge verwiesen:  Weiterführende Artikel:  https://s.fhg.de/mcdonalds-ai-drive-thru   https://s.fhg.de/ki-unesco  https://s.fhg.de/softwarefehler-raumfahrt  https://s.fhg.de/microsoft-chatbot-tay   Buchtipp:   Caroline Criado-Perez: Unsichtbare Frauen – Wie eine von Daten beherrschte Welt die Hälfte der Bevölkerung ignoriert. München: btb Verlag (2020).  Passende Folge aus der »Streuspanne«-Welt: Folge 20: Viel Lärm um Bias – Wie Noise Entscheidungen und Statistiken verzerrt: https://www.itwm.fraunhofer.de/podcast-noise     Folge 6: Haben Sie schon mal in den Badesee gemacht?  https://www.itwm.fraunhofer.de/de/abteilungen/mf/aktuelles/blog-streuspanne/podcast-badesee-statistik-peinlichkeiten.html 
    --------  
    26:18

Weitere Wissenschaft Podcasts

Über Streuspanne – Statistik und ihre Kuriositäten

Streuspanne, dein Podcast für spannende Neuigkeiten, lustige Fun-Facts und interessantes Hintergrundwissen rund um das Thema Statistik.
Podcast-Website

Hören Sie Streuspanne – Statistik und ihre Kuriositäten, Sternengeschichten und viele andere Podcasts aus aller Welt mit der radio.at-App

Hol dir die kostenlose radio.at App

  • Sender und Podcasts favorisieren
  • Streamen via Wifi oder Bluetooth
  • Unterstützt Carplay & Android Auto
  • viele weitere App Funktionen
Rechtliches
Social
v7.17.1 | © 2007-2025 radio.de GmbH
Generated: 5/9/2025 - 7:48:54 PM