004 – „Ökologische Kommunikation“ von Niklas Luhmann

In dieser vierten Folge stellen wir euch ein etwas älteres Buch vor: Es geht darum, wie über ökologische Themen und Probleme geredet, geschrieben und gestritten wird. Unter den Begriff „Ökologie“ fällt dabei alles, was man gemeinhin so als „vom Klimawandel betroffen“ verstehen könnte.

„Ökologische Kommunikation“ von Niklas Luhmann zeigt, warum es so schwierig ist, erfolgreiche Strategien gegen den Klimawandel zu finden: Verschiedene Eigenlogiken in verschiedenen gesellschaftlichen Systemen haben nämlich gar keine direkte Möglichkeit, ökologische Probleme produktiv intern zu verarbeiten. Wo Luhmann schon 1986(!) noch die größten Chancen auf Erfolg sah, erfahrt ihr in dieser Folge.

Shownotes

Mehr Bücher

Quellen und so

Intro und Outro der Episode stammen aus dem Stück Maxixe von Agustin Barrios Mangore, eingespielt von Edson Lopes (CC-BY).

Das Umblättern zwischen den Teilen des Podcasts kommt hingegen von hoerspielbox.de.

Zwischen zwei Deckeln findest du auch im sozialen Medium deiner Wahl: Twitter, Mastodon, Instagram und Facebook.

Transkript (automatisch erstellt)

Einstieg

[0:00] Music.

[0:16] Herzlich willkommen zur 54. Folge von Zwischen zwei Deckeln, eurem Sachbuch-Podcast.
Ich bin Christoph und heute Holger mit dabei.
Hallo! Bevor wir gleich zu dem Buch kommen, das Holger uns heute mitgebracht hat, erzähle ich euch einmal, was mich gerade so beschäftigt.
Ich schlage mich gerade ein bisschen so in der Breite mit dem Thema der digital-ökologischen Transformation der Wirtschaft und lese mich da gerade noch mal verstärkt ein, was es so gibt, wie das hier bei mir in der Umgebung aussieht.
Und ja, damit bin ich gerade ganz intensiv dabei.
Und ich lese gerade das Buch über Wintern von Catherine May.
Ich glaube, die kommt aus dem UK.
Und ja, sie geht in dem Buch ein bisschen der Frage nach, wie man eigentlich mit persönlichen Krisen umgehen kann und orientiert sich dabei so ein bisschen an der Tierwelt auch.
Guckt da ein bisschen nach, guckt aber auch nach Finnland, weil da so viel Winter ist und so viel Vorbereitung darauf stattfindet.

[1:17] Und ja, es ist irgendwie so ein bisschen zwischen Essay und Sachbuch angesiedelt. Also es ist irgendwie ganz, ganz spannend zu lesen. Ja, Holger, was…
Ich hoffe aber, dass du es nicht aus eigenem Bedarf liest, sondern aus Interesse.
Ja, genau. Ja, ja, das ist aus Interesse. Wobei eine These aus dem Buch ist, dass so persönliche Winter oder Krisen einen immer mal ereilen und man davor nicht gefeit ist und deswegen es eigentlich ganz klug ist, sich einfach mal damit auseinanderzusetzen, wie man damit umgehen möchte, weil man solchen persönlichen Krisen oder Wintern, so wie sie das eben nennt, nicht aus dem Weg gehen kann, weil immer mal irgendwas Unvorhergesehenes passiert, was nicht so erquicklich ist.
Also quasi das Leben besteht, sie sagt, das Leben ist nicht ein durchgehender Sommer, auch wenn das irgendwie so eine Wunschvorstellung ist und deswegen sei es vielleicht gar nicht so verkehrt, mal sich dem Thema anzunehmen und sich darauf einzulassen.
Ja.
Ja, nee, das ist sicher richtig. Es ist auch immer besser, wenn man auf Dinge vorbereitet ist, also sich immer damit beschäftigt hat, bevor es dann passiert.
Bringt ja auch meistens nichts, wenn man dann in dem Moment, wo ein akutes Problem da ist, dann versucht, allgemeine Strategien zu entwickeln.
Ja, das stimmt.
Da kann man dann das Problem, das man gerade hat, versuchen zu lösen, aber so ein zu breiter Blick hilft einem da dann meistens ja auch nicht bei und den kann man sich unter Umständen auch gar nicht erlauben.
Ja, das stimmt. So Krisen können ja auch sehr stressig sein. Wie ist es denn bei dir? Welche Themen hast du gerade in deinem Leben?

[2:47] Ja, also ich hatte ein bisschen, ich nenne es mal positiven Stress am Wochenende.
Da habe ich eine Veranstaltung organisiert und wir nehmen jetzt ja einen Montag auf für die Zuhörer.
Ich bin deswegen auch immer noch ein bisschen müde und das hat mich die letzte Woche sehr gut auf Trab gehalten.
Ansonsten…
Überlege ich mal wieder, in welche Richtung es mit dem Lesen jetzt als nächstes weitergeht.
Ich habe angefangen die Entdeckung der Unendlichkeit, bin da noch so ein bisschen.

[3:26] Ja, hatte das für die ganzen Sachen der letzten Wochen mal zur Seite gelegt und werde das aber hoffentlich bald weiterlesen können und überlege auch an Sachbüchern vielleicht auch noch mal ein, zwei andere Bücher zu Mathematik, die ich hier rumliegen habe, zu lesen.
Vielleicht kommt da auch noch was rum, was ich in Zukunft noch mal vorstellen werde.
Genau. Also ich hab dann so, versuch dann so ein bisschen dieses Thema abzudecken.
Also die Amanda hat ja auch, hat ja auch Themen teilweise in die Richtung.
Ja das stimmt. Und das ist dann vielleicht ein bisschen Kontrast zu den eher soziologischen Büchern.
Wobei da habe ich auch ein, zwei hier liegen, aber ich weiß nicht, ob ich mich da traue.
Was hast du denn da liegen? Die kann einem Soziologen vorzustellen. Also ich habe mit dem Taxi durch die Gesellschaft heißt das eine glaube ich.
Oh ja.

[4:18] Und das das integrations paradox glaube ich. Ja doch ich glaube beide habe ich schon mal irgendwie so am rande mitgekriegt ach ich glaube ich glaube die kannst du allen dreien von uns vorstellen je nach also egal wer wer da irgendwie als zuhörer in dabei sein könnte das wird schon passen.
Ja, muss man halt, wie gesagt, da denke ich manchmal muss ich vielleicht ein bisschen vorsichtig sein, aber lesen möchte ich die auf jeden Fall. Die Frage ist, ob sie es dann ins Podcast schaffen oder von meiner Seite in den Podcast schaffen. Kann ja auch gerne jemand anders vorstellen.
Sehr gut. Ja, mit den Büchern zur Mathematik sind wir dann auch schon bei der heutigen Folge angekommen.
Du hast uns nämlich mitgebracht Bernoullis‘ Falsi von Aubrey Clayton.
Der Untertitel von dem Buch ist Statistical Illogic and the Crisis of Modern Science.
Ich bin sehr gespannt darauf. Der Herr Clayton, habe ich mir ergoogelt, ist selbst Mathematiker und unterrichtet Philosophie der Wahrscheinlichkeit an verschiedensten Universitäten, so wie es für mich aussah.

[5:24] Denn zumindest auf seiner Webseite finden sich auch verschiedene Vorlesungen als so YouTube-Mitschnitte.
Also wenn man da nach dieser Folge vielleicht Interesse hat, sich nochmal den Herrn live in action anzugucken, gibt es da die Möglichkeit.
Also ich bin sehr gespannt, was es damit auf sich hat.
Meine Gedanken vorab waren, naja, das klingt so ein bisschen nach Wissenschaftstheorie oder so in die Richtung.
Oder eine Kritik der gängigen Wissenschaftstheorien.
Und dazu haben wir, glaube ich, einige Folgen. Ich habe jetzt mal drei mitgebracht.
Und zwar hat Niels in Folge 8, also schon ein bisschen her, das Buch Objektivität von Lorraine Desten und Peter Gellison vorgestellt, wo es eben, glaube ich, ja so um die, historische Entwicklung und Darstellung von Wissenschaft geht, wenn ich mich recht entsinne.

[6:12] Eine folge später habe ich mir jetzt damals das metrische wir von steffen mau vorgestellt wo steffen mau.

[6:19] Ja, im prinzip zeigt wie sehr unsere gesellschaft auf vermessung, sich verlegt hat als irgendwie ordnungsprinzip möchte ich mal sagen und damit sich selbst begreift also So eine zahlenversessenheit kann man da vielleicht auch zu machen und jetzt vor gar nicht allzu langer zeit hat Amanda uns linke Daten, rechte Daten von Tim Fischer vorgestellt, wo es eben auch so um Dateninterpretation in der heutigen Gesellschaft geht. Genau, die drei Folgen habe ich mitgebracht und damit, ja, ich kann auch sagen, dass das Buch 2021 erschienen ist und zwar bei Columbia University Press und damit würde ich an dich und deine Kurzzusammenfassung übergeben.
Danke sehr. Also, als TLDR, in Bernoullis‘ Fallacy stellt Aubrey Clayton dar, dass die
Tl;Dl

[7:15] allgemein üblich verwendeten Methoden der Statistik einen grundlegenden Fehler in den zugrundeliegenden Annahmen haben und wie sich diese durchsetzen konnten, heute aber zu Problemen führen. Er schlägt vor, stärker den Ansatz von bedingten Wahrscheinlichkeiten als Norm der Statistik zu verwenden und generell anzuerkennen, dass die Erwartungen der Auswertenden immer einen Einfluss auf die Interpretation von Statistiken haben werden.
Buchvorstellung

[7:42] Das klingt sehr interessant. Ich muss sagen, ich bin wirklich kein sonderlich beschlagener Statistiker und bin deswegen so ein bisschen blank an der Stelle.
Bin brav durch meine Methodenkurse an der Uni gekommen, aber darüber hinaus habe ich mich da nicht rein vertieft.
Ich bin eher auf der qualitativen Seite unterwegs und ja, deswegen bin ich sehr gespannt, wie du mich hier durchs Buch führst und ob ich da gut kritisch einhaken und nachfragen kann.
Also feuerfrei quasi.
Im Grunde sind Menschen wie du glaube ich, die den Robert Clayton auch helfen möchte, weil er auch denkt, dass durch diese Fehlannahme, die ich gleich dann auch beschreiben werde, dass dadurch die ganze Sache, der Statistik viel komplizierter ist im letzten Endes als sie sein müsste.
Ah, okay. Na dann bin ich umso gespannter, wie er mir helfen kann.

[8:45] Ja, genau. Also, er beginnt also mit seiner These, dass wir einen logischen Fehler haben in der Art, wie wir Statistik betreiben.

[8:57] Und dass er auch ein bisschen das Ziel hat, die Wissenschaft dadurch zu verbessern, Indem die Statistik besser wird, indem man eben diesen logischen Fehler rausnimmt.
Ja. Und ich sagte es auch schon am Anfang, im Grunde gibt es zwei Schulen, wie man an Statistik rangehen kann, also das wird dann im Laufe des Buches noch weiter erläutert.
Aber die kann man jetzt auch schon mal nennen, also so der Standardansatz.
Das ist der Ansatz, ich benutze jetzt mal die englischen Wörter, weil ich nicht ganz genau weiß, wie man die im Deutschen sagt.
Das sind die Frequentists.
Das sind im Prinzip die Leute, die sagen, wenn wir Statistik machen, dann zählen wir einfach nur Ereignisse.
Und daraus versuchen wir dann Rückschlüsse auf die Dinge hinter den Daten zu ziehen, sag ich mal.
Und der andere Ansatz, das sind die Bayesians, die sind nach dem Begründer der bedingten Wahrscheinlichkeit, Bayes, benannt.
Und die gehen eben von bedingten Wahrscheinlichkeiten aus und sagen, wir haben immer Vorwissen und, was wir im Grunde machen, wenn wir irgendwelche neuen Beobachtungen machen, dann benutzen wir die, um unser Wissen zu verbessern.
Aber alles, was wir schon wissen, berücksichtigen wir auch immer bei der Auswertung.

[10:18] Okay, ja, ich bin gespannt, wie man das in eine konkrete empirische Untersuchung einpreist. Noch ist das für mich ein bisschen schemenhaft, aber schon mal.
Ja, also es ist ein recht philosophisches Buch, aber ich werde auch gleich so ein paar Beispiele haben, wie man jetzt im belgisischen daran geht.
Okay, gut.
Das Buch ist auch so eine kleine Geschichte der Statistik. Also das kann ich jetzt nicht alles nacherzählen, das ist wirklich ein großer Teil des Buches, aber es gibt so ein paar Kern, so ein paar signifikante Punkte, die ich jetzt so ein bisschen rausgreifen werde und die da auch Thema sind.
Und anfangen tut’s mit dem Namensgeber Bernoulli, der ja auch hier in dem Buch im Titel vorkommt.
Und Bernoulli gilt also als Begründer der modernen Wahrscheinlichkeitsrechnung.
Ja, vorher gab’s das auch schon, das war aber so ein bisschen Spielerei, um zu verstehen, wie man jetzt …
Und welche Würfelspiele, was da passiert, wurde größtenteils auf verschiedene Spiele …

[11:27] Angewandt. Aber Bernoulli hatte wahrscheinlich auch so ein bisschen durch die politische Situation der italienischen Stadt, wo er gelebt hat, wo halt die Wahl des Dojen unglaublich kompliziert war.
Und man dann auch versucht hat, ein bisschen Wahrscheinlichkeit zu verstehen, um ein bisschen besser vorhersagen zu können, wer Doje wird.
Also es war irgendwie ein Verfahren, das wird auch im Buch beschrieben, das kriege ich gar nicht zusammen. Das hat irgendwie mehrere Schritte, bei denen teilweise dann gelost wird und dann verschiedene Leute dann, die gelost werden, dann irgendwie abstimmen dürfen. Aber das eben irgendwie mit drei oder vier Zwischenschritten, also wirklich extrem kompliziertes Verfahren.
Wir sind irgendwo so 17. bis 18. Jahrhundert irgendwo in der Ecke müsste das sein.
Ja genau.
Ja. und ähm…

[12:18] Genau und deswegen hatte Bernoulli also ein Interesse daran, wie man besser Wahrscheinlichkeitsschlüsse ziehen kann, also wie man Vorhersagen treffen kann. Ja.
Ja und dann kommt man so ein bisschen in die Welt der Wahrscheinlichkeit natürlich rein.
Ja. Und was er dann, er hat dann, ist dann auf die Idee gekommen, aha, wenn ich jetzt irgendwas sample und ich mach das sehr oft, dann nährt sich das irgendwie der realen Wahrscheinlichkeit an, also dann lässt der Zufall sozusagen nach. Ja.
Und das ist dann die Annahme, wenn ich ein großes Sample habe, also eine große Anzahl an Daten, dann wird es meine Wahrscheinlichkeiten gut widerspiegeln.
Ja.
Dabei hat er aber, der Denkfehler, den Aubrey Clayton hier sieht, ist, dass er aber so ein bisschen falsch rumgeht.
Ja, also er versucht von der Wahrscheinlichkeit die Beobachtung zu bekommen, die er sieht, zieht er einen Rückschluss auf die Hypothese.
Ja. Aubrey Clayton sagt, eigentlich, so muss man es andersrum machen, er sagt, man muss eigentlich die Hypothese denken und dann die Wahrscheinlichkeit angucken, die beobachtenden Daten zu kriegen.

[13:37] Ja, okay. Und das ist das, was sich dann immer durchs Buch zählt, dass es einfach der falsche Ansatz ist.
Und dieser Ansatz ist, sieht man schon, wenn ich nur auf die Daten gucke, dann nehme ich halt eigentlich meine Hypothese komplett raus.

[13:53] Und dann muss ich wieder irgendwelche Gymnastik machen, um diese Hypothese später reinzukriegen.
Kriegen. Da sage ich dann, also dann muss ich irgendwelche komplizierten Tests mir überlegen, ja, wie kann ich jetzt wieder irgendwie gegen eine Hypothese testen? Und dann kommt man bei vielen dieser Standardmethoden in der Statistik an, wo man dann irgendwie eine Nullhypothese aufstellt. Und diese Nullhypothese muss man dann schön mathematisch formulieren. Und dann muss ich, meistens formuliere ich die so, dass ich die eigentlich wieder legen will, damit ich sage, ich finde was anderes, da muss ich irgendwie festlegen, wann kann ich denn sagen, dass ich was anderes gefunden habe und da ist auch eine gewisse Willkür drin, wann ich das als was anderes betrachte und dann kommen wir bei vielen der Themen an, die man heute in der Statistik hat, viele der Probleme, dass das so ein bisschen willkürliche Punkte sind, die da abgeschnitten sind und dass viele Forschende eigentlich gar nicht die statistischen Kenntnisse haben, um diese Nullhypothesen sauber zu formulieren und dann zu irgendwelchen Statistikexperten erstmal gehen müssen, um sich eine Nullhypothese mathematisch formulieren zu lassen, gegen sie, die sie dann testen können. Und das ist was, wo Clayton sagt, das ist eigentlich…

[15:13] Überflüssig. Ja, also wenn man den Ansatz nimmt, der Bayesischen Statistik, ja, der hat sich dann etwas später, also auch, jetzt habe ich mir gar keine Jahreszeiten aufgeschrieben, aber ich glaube, das war auch im 19., also war im 19. Jahrhundert, wenn ich mich recht erinnere, hat Bayes, das war also ein Geistlicher, der sich dann angefangen hat, für Statistiken zu interessieren, und der hat dann die Grundlage der bedingten Wahrscheinlichkeiten formuliert.
Eine normale Wahrscheinlichkeit würde ich jetzt sagen, was ist die Wahrscheinlichkeit dafür, dass eine bestimmte Sache passiert, ohne irgendeinen Kontext.
Und eine bedingte Wahrscheinlichkeit ist, wenn ich sage, wenn ich jetzt zwei Sachen habe, eine weiß ich, bei der anderen will ich die Wahrscheinlichkeit wissen, und die hängen zusammen, dann kann ich sagen, es gibt eine…
Also einmal kann ich sagen, was ist die Wahrscheinlichkeit, dass die mir unbekannte Sache passiert, mit dem Wissen über die Sache, die mir bekannt ist.

[16:14] Also ich weiß nicht, ob das nachvollziehbar ist. Kannst du nochmal wiederholen?
Was ist die Wahrscheinlichkeit, dass eine Sache passiert mit dem Wissen, dass ich über die andere Sache habe?
Ah, ja, okay, das ergibt Sinn. Ja, also sowas, was ist die Wahrscheinlichkeit, dass es um 9 Uhr hell ist, ja?
Wenn ich weiß, dass gestern die Sonne um 8 Uhr aufgegangen ist.
Also jetzt als so ein absolutes banales Beispiel. Aber im Grunde ist das genau das Denken dahinter.
Okay. Ja.
Und… Es klingt so, als würde man sich primär einfach ein bisschen mehr Gedanken darüber machen, was man da untersuchen will.
Genau. Und was man erwartet vor allem. Und also die Formel, die mathematische Formel für diese bedingten Wahrscheinlichkeiten, die ist auch in jedem Statistikkurs, ist die irgendwo mal drin.
Ja, Satz von Weiß hatte ich auch mal irgendwann. Genau, aber das wird dann halt irgendwie so einmal erwähnt, für die Fälle, wo man das machen möchte, aber in den Methoden spielt das eigentlich keine Rolle.
Oder wenig Rolle. Mir fällt dazu ein, zu dem ganzen Komplex, ein Professor von mir hat mal gesagt, und es war kein Statistikkurs.

[17:32] Wenn wir bei, also in meinem, also dabei ging es um Politik, aber wenn wir Vermögen, Geschlecht und Bildung reinwerfen in unsere Untersuchung, dann finden wir schon irgendwas raus.
Was glaube ich ein schönes Beispiel dafür ist, wie man es vielleicht nicht unbedingt machen sollte.
Also da war so, also das war wirklich ein Hinweis auf, naja, die Hypothesen könnt ihr im Zweifel auch nachher bilden. Das passt schon.
Genau, ne, und das ist halt, wenn man jetzt von vornherein dieses Denken von den bedingten Wahrscheinlichkeiten hat, wo man einfach sagt, ich hab immer Vorbedingungen in dem, was ich beobachte, ne, dann muss ich eigentlich auch meine Vorbedingungen, bevor ich die Auswertung mache, mir klar machen.
Also Daten kann ich vielleicht vorher auch schon sammeln, aber wenn ich es auswerte, dann muss ich mir das halt doch irgendwie überlegen.

[18:23] Ja. Ja. Also nochmal, viele der Probleme der Statistik, die man da mit Wahrscheinlichkeiten hat, kommen daher, weil man vom Sampling oder von den Wahrscheinlichkeiten für Sampling ausgeht, statt von der Wahrscheinlichkeit der Hypothese.
Und es gibt dann ein sehr berühmtes Beispiel, also zumindest glaube ich, ist es recht berühmt, dass glaube ich jetzt auch in der Corona-Zeit spätestens mal vielen Leuten über den Weg gelaufen ist.
Das ist denn die Frage, wenn ich jetzt auf einen Test habe, ob ich eine Krankheit habe, der eine gewisse Genauigkeit hat.
Und da kommt jetzt ein positives Ergebnis raus, wie wahrscheinlich ist es denn, dass ich die Krankheit wirklich habe.
Ja, oh ja, das war sehr spannend. Und da ist einfach der Punkt, dass ich… es reicht nicht, nur den Test zu machen, um…
Also wenn ich jetzt sage, ich habe einen Test, bei dem wird…

[19:21] 99 Prozent der Kranken werden auch als krank angezeigt. Und ein Prozent der.

[19:30] Kranken wird falsch als gesund angezeigt.
Und ich habe aber auf der anderen Seite auch, dass eine bestimmte Zahl, sagen wir, der Einfachheit halber nehmen wir dieselben Zahlen.
99 Prozent der Gesunden werden als gesund angezeigt, aber ein Prozent der Gesunden wird als krank angezeigt.
Und diese Zahlen müssen nicht ganz gleich sein, das hängt wieder vom Test ab, aber der Einfachheit halber.
Und ich habe einen positiven Test, dann neigt man mental erstmal dazu zu gucken, die Wahrscheinlichkeit, dass ich, wenn ich krank bin, als gesund angezeigt werde, ist so gering, dass ich ziemlich sicher krank bin.
Aber das ist ein falsches Denken, sondern eigentlich muss ich das als bedingte Wahrscheinlichkeit betrachten und muss noch weiteres Wissen mit reinnehmen, nämlich in dem Fall das Wissen, wie viele Leute in der gesamten Bevölkerung haben denn überhaupt diese Krankheit?
Ja. Und wenn ich das nicht weiß, dann ist im Grunde diese Aussage, der Test ist positiv für mich, gar nicht so aussagekräftig, ob ich wirklich krank bin.
Ja.
Ja, wie war das, genau, während Corona war, wenn die Fallzahlen insgesamt niedrig sind, ist dein positiver Test vermutlich ein korrekt positiver Test, ne?
Genau. Wenn du sehr hohe Fallzahlen hast, dann ist dein positiver Test mit einer höheren Wahrscheinlichkeit falsch positiv.
Genau, weil ich einfach gucken muss, wenn jetzt irgendwie jeder …

[20:55] Wenn wir 1000 Leute haben und da haben 10 die Krankheit von, das wäre 1%, dann ist es relativ symmetrisch.
Aber wenn wir 1000 Leute haben und 400 Leute haben die Krankheit, dann ist es eine sehr häufige Krankheit. Und dann ist meine Wahrscheinlichkeit, wenn ich den positiven Test habe, jetzt auf die Gesamtwirkung betrachtet, halt einfach niedriger.
Und das ist auch so ein Standardbeispiel für Denkfehler, die man hat, wenn man sich mit solchen bedingten Wahrscheinlichkeiten beschäftigt.
Weil man denkt meistens nicht so weit und dann kommen einem Ergebnisse auch kontraintuitiv vor.
Ja, ich wollte grad sagen, es ist ein sehr schönes Beispiel für Kontraintuitivität.
Das finde ich ja sehr viel zu haben. Das mag ich sehr gerne.

[21:40] Ein anderes Beispiel, das hätte ich jetzt ein bisschen später vorgestellt, kann ich aber auch jetzt machen, ist so das berühmte Ziegenproblem.
Oh Gott, das werde ich in meinem, ich werde, also erzählts gerne gleich, aber ich komme mental da nicht mehr hinter, ich werde es in diesem Leben nicht mehr schaffen vermutlich.
Ja, das witzige ist, also er stellt das Ziegenproblem auch da in dem Buch, aber er macht es ein bisschen anders als sonst immer gemacht wird.
Okay, ja dann, ich bin ganz gespannt.
Ich erzähle erst mal so ein bisschen wie es sonst gemacht wird also für diejenigen die das noch nie gehört haben es ist also ein problem oder ein, wir haben mathematisches problem mit wahrscheinlichkeiten und es geht darauf zurück oder die situation geht auf eine fernsehsendung zurück eine fernsehshow und ich glaube in deutschland gab es das auch mal irgendwie mit dem zong oder so, Ich weiß nicht genau, wie die Sendung hieß, aber es gibt drei Türen und der Kandidat hinter einem der Türen ist ein Preis und hinter den anderen Türen ist halt nichts. Ich glaube, in der deutschen Sendung hieß das dann der Zonk. Dann hat man halt verloren.
Und jetzt sucht man am Anfang eine Tür aus, ja, und dann, also so wie es normal erzählt wird, ist es so, dass dann der Moderator einem sagt, okay, ich mache jetzt eine von den beiden anderen Türen, die mache ich auf, ja, da ist nichts hinter.

[23:03] Und dann ist die Frage, ist es als Kandidat besser, die Tür zu wechseln oder nicht?
Ja, ist es besser, bei seiner Tür zu bleiben? Ja.
So, und die intuitive Antwort, die man hat, die hatte ich auch lange.
Also, wenn ihr drüber nachdenken wollt, ist jetzt euer Moment, kurz zu pausieren und eure Antwort zu wählen, würdet ihr die Tür wechseln oder nicht?
Und dann gucken wir mal, wie es weitergeht.
Ja, und für die, die es schon kennen, trotzdem gleich weiterhören, weil dann kommt noch ein Twist zu der normalen Antwort, die ich jetzt erzählen werde. Okay.
Also, die normale Antwort ist, wenn man sich das einfach mit den Wahrscheinlichkeiten durchrechnet, dann kommt raus, dass man wechseln sollte.
Ja, und die Intuition ist bei vielen Menschen so, dass man nicht wechseln soll.
Und das war, wie gesagt, auch bei mir lange die Intuition. Meine Intuition ist, ist es nicht einfach egal?
Genau. Entschuldigung. Ja, die Intuition ist, dass es egal ist.
Ich hab’s falsch formuliert. Aber wenn man das mathematisch durchgeht, kommt raus, dass man wechseln sollte, weil die doppelt so hohe Chance ist, dass man es gewinnt.
Und das hängt damit zusammen, wie das Problem immer dargestellt wird, weil es wird gesagt, der Moderator macht auf jeden Fall eine Tür auf.
Und er wird immer eine Tür aufmachen, wo nichts hinter ist. Und was er damit tut, ist eigentlich verändert er die Situation.

[24:26] Ja, also man kann das jetzt mit Formeln machen, das ist aber im Podcast glaube ich nicht so förderlich. Aber der Gedanke, der mir geholfen hat zu verstehen, warum sich da was ändert, ist, dass der Moderator ja eine Information hat, die der Kandidat nicht hat, nämlich er weiß, welche von den, wenn jetzt, wenn man die richtige Tür ausgesucht hat, dann ist egal, welche Tür er aufmacht.
Von den beiden anderen. Aber wenn man die falsche ausgesucht hat, der Moderator weiß immer hinter welcher ist nichts. Das heißt, er wird immer die aufmachen und dadurch verändert er die Wahrscheinlichkeit, weil er eine neue Situation, neue Informationen reinbringt.
Ja, okay. Ja, verstehe ich. Und deswegen ändern sich die Wahrscheinlichkeiten.
Und wenn man das dann durchrechnet, kommt raus, dass es besser ist, zu wechseln.
Interessanterweise ist das aber nur so, wenn man die Grundannahme trifft, dass der Moderator immer eine Tür aufmachen muss.

[25:24] Und dass er diese Tür sozusagen, das Einzige bei dieser Tür, was er auswählt, ist, dass es eine ist, wo nichts hinter ist.
Aber wenn man die Grundannahmen ändert, dann kann man auch zu anderen Wahrscheinlichkeiten kommen.
Wenn man also etwas über den, wenn man noch weitere Informationen hat. Wenn man jetzt zum Beispiel weiß, dass die Leute, die die Fernsehsendung machen, halt ganz gerne häufiger es hinter Tür A stellen meinetwegen. Dann habe ich, das ändert meine Wahrscheinlichkeit, wenn ich wissen will, was meine richtige Entscheidung ist. Weil wenn ich dann Tür A wähle, dann, und er eröffnet eine der anderen Türen, in der normalen Darstellung sind alle drei Türen gleich wahrscheinlich, das was dahinter ist. Ja? Aber wenn hinter Tür A es häufiger ist, dann muss ich dafür eine höhere Wahrscheinlichkeit machen, das verändert dann meine ganze Rechnung. Und genauso ist dann die Frage, ob der Moderator, ja, muss der denn eine Tür aufmachen? Vielleicht muss der gar keine Tür aufmachen.

[26:32] Und vielleicht öffnet der halt eine bestimmte Tür immer gerne und öffnet immer nur diese Tür, wenn da nichts hinter ist und sonst öffnet er gar nichts.
Das ändert auch die Wahrscheinlichkeit. Das heißt im Grunde ist das Vorwissen, das ich habe, beeinflusst extrem stark, was passieren kann.
Und lustigerweise, also im Englischen heißt es das Monty-Haw-Problem, nach dem Moderator dieser Sendung im amerikanischen Fernsehen.
Und es war wohl so, dass dieser Moderator das mit den Wahrscheinlichkeiten schon so ein bisschen verstanden hat.
Und der musste die Tür auch nicht aufmachen und der hat dadurch auch bewusst versucht, so kein System drin zu haben.
Was dann diese ganzen Wahrscheinlichkeitsabschätzungen, die immer dargestellt werden, dann wieder total verändert.
Das ist ja interessant. Okay, das wusste ich nicht, dass er nicht unbedingt was aufmachen muss.
Ja, also wusste ich vorher auch nicht. Aber das zeigt so ein bisschen das Setup meines Problems.
Gerade wenn ich mit solchen bedingten Wahrscheinlichkeiten arbeite, das ändert extrem mein Ergebnis.
Ja, zeigt Herr Clayton auch auf, wo das uns im Alltag abseits von Corona oder anderen Krankheitstests noch Probleme bereitet?

[27:49] Also es geht vor allem natürlich um Forschung, wo man Statistiken benutzt. Ich mache jetzt gerade nochmal einen Schritt zurück. Wie gesagt, ich bin gerade ein bisschen nach vorne gesprungen. Ja.
Ja, erstmal sagt er, ein besserer Umgang mit Wahrscheinlichkeiten ist, dass man es einfach sieht als Wahrscheinlichkeiten sind die Fortsetzung von logischen Überlegungen oder von Logik unter Berücksichtigung von Unsicherheit.
Ja, das klingt sehr intuitiv, da kann ich gut mitgehen. Genau. Und das finde ich auch ist eine sehr schöne, treffende Art, damit umzugehen.
Ja.

[28:31] Er geht dann so ein bisschen nochmal auf die Geschichte ein. Ich hatte ja am Anfang gesagt, es gibt diese beiden Denkschulen, die der Frequentisten oder Frequentists, die halt einfach sagen, wir gucken nur auf das, was wir beobachten. Also wir sozusagen etwas böse gesagt, wir zählen nur.

[28:47] Und die haben sich in der Geschichte durchgesetzt und ist so ein bisschen die Frage, warum eigentlich?
Und man muss dazu sagen, diese Methode, wir zählen nur die Daten, die ist eine Methode, die ist gut dafür geeignet, wenn man halt eigentlich keine Vorinformationen hat und man hat irgendwas, wo man wirklich viele Daten hat, die man zählen kann.
Genau. Und das, das in der Frühzeit der Statistik waren viele der Probleme, mit denen man sich beschäftigt hat, waren halt genau solche.
Wobei es auch in der Frühzeit schon gewisse Kritikpunkte gab, also einer der frühen Statistiker, der wollte dann Statistik machen über die Bevölkerung, ich, von Belgien, wenn ich mich recht erinnere, und da gab es schon den Kritikpunkt, naja, du kannst jetzt nicht einfach über das ganze Land zählen, weil Landbewohner sind anders als Stadtbewohner und je nach Region sind die unterschiedlich, Das heißt dieses Bewusstsein, dass das vielleicht so ein bisschen zu einfach ist, ist jetzt was, was auch vorher schon vorhanden war.
Was dann aber die Leute, die sich durchgesetzt haben, haben es halt geschafft, das irgendwie so ein bisschen wegzuschieben.

[30:02] Wobei ich mich da jetzt gerade frage, ich habe ja in der letzten Folge auch kurz über so die Anfänge der Nationalökonomie und so gesprochen.
Also ist nicht auch ein Ziel dieser ersten statistischen Bevölkerungserfassungsversuche überhaupt erstmal zu verstehen, was für eine Bevölkerung man vor sich hat?
Also gerade darüber, dass man so genau zählt und probiert so viel abzubilden und die ersten großen statistischen Daten hat und sie aggregiert, entwickelst du ja auch erst ein Verständnis darüber, welche Spezifika du quasi vor dir liegen hast.

[30:34] Ja, du hast mich bei einer Ungenauigkeit erwischt. Nein, nein, das ist ja gut, deswegen macht man das ja nicht alleine. Also der Kritikpunkt ist aufgekommen, weil das Datensammeln ist noch nicht die Frage. Die Frage ist, ziehe ich daraus allgemeine Schlüsse?
Also mache ich sowas wie den durchschnittlichen Bürger. Und in dem Moment ist natürlich so, dass man da natürlich dann schon sagen kann, okay, vielleicht ist es nicht so angemessen, den durchschnittlichen Bürger einfach über das ganze Land zu nehmen.
Ja. Ja. Oder zu sagen, jetzt aufs ganze Land bezogen, weiß ich nicht, die Hälfte aller Belgier hat diese Eigenschaft und die andere Hälfte hat diese, sondern dass man sagen muss, naja, dass diese Verteilung, die schwanken schon je nach Region.
Und letzten Endes ist das halt auch wieder eine Frage des Umgangs mit Daten.
Ja, das wird ja auch in Zukunft sehr spannend sein, wenn wir sehr mächtige Datentools quasi kriegen im ganzen Kontext von Big Data und auch künstlicher Prozessierung.
Wie sehr muss man Daten überhaupt noch aggregieren für irgendwie verallgemeinerte Aussagen?

[31:46] Weil das vielleicht gar nicht mehr so notwendig sein wird, wenn man so viel Technik einsetzen kann, dass man eben sehr präzise über Einzelfälle sprechen kann und man dann gar nicht mehr so das Problem hat, dass Menschen diese Daten verarbeiten müssen.
Und das muss irgendwie eben so ein bisschen …

[32:04] Ich sag mal, man hat so Klumpenrisiken dann da drin, weil man eben aggregieren muss, weil wir leider nicht dazu in der Lage sind, unfassbar viele Daten genauestens zu sezieren.
Und ja, mal gucken, was so die nächsten Jahre bringen, wie das sich weiterentwickeln wird.
Ich glaube, das kann auch sehr, sehr spannend werden.
Weil ich könnte mir vorstellen, dass wir gar nicht so schlechte, aggregierte Aussagen quasi kriegen, weil wir so genau hingucken können genau analysieren können und so riesige Datenmengen auch haben.
Ja, aber auch da muss man vorsichtig sein. Das auf jeden Fall, ja.
Ich spring jetzt schon ein bisschen zu seiner, zum Ende des Buches eigentlich, aber das ist jetzt ganz, passt jetzt genau zu dem, was du gerade gesagt hast.
Eigentlich muss man sich, wenn man mit den Daten umgeht, muss man sich klar machen, dass die Art, wie man sie interpretiert, hängt halt von dem Interpretierenden ab.

[32:59] Das ist das, was in diesem Bayesischen Ansatz auch mit drinsteckt.
Da steckt noch mehr drin. Aber eine Sache, die da drinsteckt, ist halt, naja, ich habe erstmal die Daten und normalerweise kann ich diese Daten immer auf verschiedene Weise interpretieren.
Und die Aufgabe des, ich sage jetzt mal des Forschers oder einfach der Person, die mit diesen Daten umgeht, ist dann irgendwie so ein bisschen die beste Interpretation zu finden.
Aber wenn du das automatisierst, dann ist es so, das ist glaube ich das, was du mit so Klumpeffekten vielleicht meintest, so ein Machine Learning System, das hat halt irgendwie schon eine Richtung, in die es guckt.

[33:38] Das hat aber nur eine Interpretation, die es ausspuckt. Und das muss jetzt nicht die richtige Interpretation sein.
Und das hängt auch vom Vorwissen ab. Und gerade bei Machine Learning ist es ja so, dass du die trainierst. Das heißt, über diese Trainingsrechnung lässt du die im Prinzip Erfahrung sammeln, lässt du die Vorwissen sammeln.
Aber du musst natürlich auch aufpassen, dass dieses Vorwissen auch vernünftig ist, sonst da gibt es ja durchaus Probleme, wenn du irgendwie Bilderkennung machst und du trainierst die künstliche Intelligenz immer nur mit den Gesichtern von weißen Computernerds, dann hat das halt Probleme, zum Beispiel dunkelhäutige Menschen richtig zu identifizieren.

[34:32] Oder du baust halt ganz klassisch auch so rassistische Verzerrung und so ein. Ich habe irgendwann, ich habe vergessen, welche Folge das ist, aber habe ich Hello World von Hannah Fry vorgestellt, wo es eben auch so um algorithmisches Lernen geht und da sezieren wir das in Länge. Also wenn ihr da reinhören wollt, verlinke ich auch in den Shownotes.
Ja genau, das finde ich ist ein wichtiger Hinweis, dass man da natürlich auch die eigenen Verzerrungen mit in irgendwelche Algorithmen einbaut.
Und das ist, ich springe jetzt ein bisschen im Buch, aber ich versuche gleich wieder zu dem Punkt, wo ich gerade war, zu kommen.
Aber das ist eben aber auch ein Punkt, wo dann diese, warum er diesen Ansatz von Bayes vorschlägt, dieses in bedingten Wahrscheinlichkeiten rechnen.
Weil da einfach das Bewusstsein dafür da ist, was sind denn meine Vorbedingungen.
Und eigentlich muss ich bei der Auswertung auch wissen, was die Vorbedingungen sind.

[35:25] Und was auch ein Teil dessen ist, was sehr wichtig ist, dass mit jeder Beobachtung ändert sich mein Wissen, aber es ist nie fertig, weil es ich immer nur sozusagen die Vorbedingung für das nächste, was ich angucke, verbessere.
Das heißt, in diesem Ansatz, den die Bayesianer haben, ist halt schon drin, dass ich immer wieder mein Wissen verbessere mit jeder Beobachtung, die ich mache.
Ja, und genau, also das ist, deswegen fand ich, finde ich das auch so spannend, diesen Ansatz und auch wie er das in dem Buch so darstellt.
Aber ich wollte nochmal zurück zu der Geschichte, wir sind jetzt gerade ein bisschen gesprungen. Also die Frequentisten haben sich durchgesetzt, weil sie zu der Zeit, als sie das gemacht haben, eigentlich auch relativ gut mit den Problemen umgehen konnten.
Weil die halt genau von der Art waren, wo man auch, wenn man jetzt den Ansatz vom BASE nimmt, einfach wenig, keine Vorbedingungen hat und dann würde man das auch sehr ähnlich machen.
Ja.

[36:32] Ja, und es gab dann so ein paar, so Anfang, ja, an der Jahrhundertwende, 18. zu, ne, 19. zu 20. Jahrhundert, da gab es dann einige bedeutende Statistiker, die im Grunde so das durchgesetzt haben, womit wir heute vor allem Statistik machen. Mhm.
Ja, und also er weist auch nochmal darauf, na, wie formuliere ich das am besten?
Also diese bekannten Personen waren alle Kinder ihrer Zeit und in ihrer Zeit gab es so diese eugenische Bewegung.
Und sie waren auch alle Anhänger dieses Denkens. Also für diejenigen Zuhörer, die das vielleicht noch nicht gehört haben, Eugenik ist so das Denken, das…

[37:32] Ja, man Menschen so ein bisschen wie Zuchttiere betrachtet, sag ich mal. Und dass man dann sagt, es gibt bestimmte Menschen oder bestimmte Gruppen von Menschen, die sind besser als andere Gruppen von Menschen.
Also man merkt da auch, das ist im Prinzip der Versuch, so ein bisschen den Rassismus und Kulturschauvinismus der westlichen Welt irgendwie durch Wissenschaft zu begründen.
Dass man also sagt, es gibt bestimmte Menschengruppen, die sind besser und die sollte man pflegen, wie man jetzt auch irgendwie es in der Rinderzucht machen würde.
Das heißt, man muss diejenigen, die man für besser hält, die muss man fördern und man muss auch, das ging dann auch so weit, dass man gesagt hat, in einer Bevölkerung, also jetzt in einem Land, also es war ironischerweise gerade in den USA eine sehr starke Bewegung, die ja eigentlich so ein sehr freiheitliches Land sind, aber wo dieser Rassismus zu der Zeit wirklich sehr extrem war.

[38:34] Und es ging dann auch so weit, dass man gesagt hat, wenn Menschen also irgendwelche Mängel haben, sage ich mal, Mängel in Anführungszeichen, also sprich Menschen mit Behinderung oder Menschen, die andere irgendwie Eigenschaften hatten, die die Gesellschaft schlecht findet, dass man denen sogar verbieten sollte, sich fortzupflanzen, was dann teilweise auch wirklich zu so Sterilisationskampagnen geführt hat.
Also das ist wirklich keine schöne Sache.

[39:02] Wenn euch das interessiert, ich habe ein bisschen darüber gesprochen, glaube ich in Folge 21, da habe ich euch Moderne und Amivalenz von Sigmund Baumann vorgestellt und Baumann macht da im Prinzip die These stark.
Holger hat das jetzt gerade kritisch ausgelegt und gesagt, naja, das war der Versuch, den Rassismus in eine wissenschaftliche Form zu gießen oder das irgendwie zu untermauern.

[39:26] Und Baumann sagt, naja, das, grad was dann, also Holocaust, Shoah, Poraimus, hier in Deutschland oder auf deutschem Boden, das was hier entstanden ist, ist ein Stück weit Stand der Wissenschaft gewesen.
Also das, was da als rassistisches Vernichtungsprogramm umgesetzt wurde, ließ sich durchaus ganz gut wissenschaftlich begründen zu der Zeit.
Und in anderen Ländern wurde das nicht umgesetzt, aber den quasi den, ja ich sag mal, den Unterbau dafür hätte es auch in anderen Ländern gegeben. Ja, aber, und jetzt kommen wir wieder zum Buch zurück, dieser wissenschaftliche Unterbau, der wurde von diesen frühen Statistikern gemacht, in dem sie so getan haben, als hätten sie keine Vorannahmen und die Daten mit dieser frequentistischen Methode analysiert haben und natürlich so ausgelegt haben, dass es zu ihrer Meinung passt. Das heißt, dieser wissenschaftliche Unterbau, zumindest sofern er auf Statistik aufgebaut war, ist durchaus zweifelhaft. Aber er hat echt Fläche bekommen.

[40:33] Ja, aber das zeigt eben auch, nur weil etwas wissenschaftlich die Meinung ist, heißt es nicht, dass das, wenn man es genau untersucht, dann auch richtig ist.
Ja, finde ich wichtig.
Und in dem Falle ist es halt so, dass sie wirklich versucht haben, ihre rassistischen Meinungen zu begründen.

[40:58] Indem sie statistische Untersuchungen gemacht haben.

[41:00] Und sie haben diese frequentistische Methode benutzt und sozusagen sie auch benutzt, benutzt, um sich als objektiv zu zeigen.
Wobei dieselben Personen aber dann, wenn das Ergebnis nicht in die Richtung ging, die ihnen gepasst hat, dann durchaus auch Argumente gefunden haben, warum man das dann doch in dem Moment nicht so interpretieren konnte.
Ja, also das…
Das heißt nicht, dass diese Methoden falsch sind, das sagt er auch, das muss man auch dazu sagen, nur weil Menschen das falsch benutzt haben, heißt nicht, dass die Methode an sich falsch ist.
In dem Moment ist halt der Denkfehler, dass das halt ein Fall ist, wo man eigentlich von seinem Vorwissen her die Sachen betrachten muss und das haben sie eben nicht gemacht.
Wie gesagt, es gibt Fälle, für die dieser statistische Ansatz genau richtig ist, aber in dem Fall kann man das sehr stark hinterfragen, inwieweit da wirklich eine Objektivität da war bei der Betrachtung.
Und es ist auch eine Sache, das fand ich auch spannend, sagen wir mal, nicht unbedingt auf gute Art, aber spannend, wo Clayton dann darauf hinweist, dass viele der Begriffe, der Standardbegriffe in der Statistik aus dieser Zeit kommen.

[42:20] Ja, das ist interessant, das stimmt, ja. Also es ist sowas wie, man spricht halt in der Statistik immer noch viel von Population. Und das kommt daher, dass die Leute, die diese Methoden etabliert haben, haben von Bevölkerungsgruppen geredet.
Und genauso, die sprechen dann von Homogenität der Daten, wenn man dann weiß, dass da dieses rassistische Denken drin gesteckt hat, als sie diese Begriffe geprägt haben, dann guckt man auch ein bisschen anders auf den Begriff. Ja, ja.
Also auch der Begriff der Regression ist ein ganz neutraler Standardbegriff in der Statistik heute, war aber in der ursprünglichen Verwendung halt wirklich, also Regression ist ja sowas wie eine Rückentwicklung und wurde wirklich aus diesem eugenischen Denken geprägt.
Also das ist auch eine der, ich sag mal eine Nebenforderung, ist nicht die Hauptforderung, aber es ist eine Nebenforderung, die er dann am Ende macht, dass man vielleicht auch die Sprache in der Statistik noch mal überdenken sollte, um ein bisschen dieses eugenische Erbe vielleicht daraus zu entfernen.
Ja, finde ich, ist ja vielleicht gar nicht so schwierig, das hinzukriegen.

[43:31] Genau, da habe ich jetzt auch schon gesagt, dass da auch dieser Gedanke dann drin war, dass man versucht, objektiv zu erscheinen.
Genau. Was dann im Folgenden passiert ist, diese Vertreter dieser frequentistischen Schule, die waren sehr einflussreich und haben irgendwie diesen baisischen Ansatz sehr abgelehnt.
Also teilweise auch bei denjenigen, die jetzt nicht so dieser Eugenik angehangen haben, die haben trotzdem teilweise den Ansatz von BICE abgelehnt, weil dann manchmal nicht intuitive Ergebnisse rauskommen.
Also das war dann eher…

[44:13] Ja, das hat sich halt nicht richtig angefühlt. Ja.
Auf der anderen Seite hat sich dann aber auch irgendwie gezeigt, wenn ich jetzt Untersuchungen machen will, sich halt doch gegen irgendwelche Annahmentesten, gegen irgendwelche Hypothesentesten. Und dann wurde halt so diese, was du wahrscheinlich dann auch mal gelernt hast, diese ganze Methode mit Hypothesentests etc. wurde deswegen entwickelt. Weil man dann irgendwie versucht hat, irgendwie dieses frequentistische Denken von den Daten her zu behalten, aber dann in der Praxis halt doch irgendwie mit Hypothesen vergleichen musste. Und dann hat man sich diese komplizierten Hypothesentests und so weiter überlegt, die aber laut.

[44:59] Clayton nicht ähm, nichts in sich ein, so richtig stringent sind, ne, sondern es ist eher so eine Ansammlung von verschiedenen gemachten Erfahrungen, ne, und dann gibt’s verschiedene Tests für verschiedene Situationen, die man dann anwenden soll, etc.
Aber es ist nicht, äh, nicht basierend auf einer, ja, ich sag jetzt mal mathematisch schön sauber stringenten, äh, Theorie, sondern es ist einfach eher so, ja, ne, halt so, so ein bisschen Werkzeuge, die da gesammelt wurden.
Und manches ist auch eine gewisse Willkür, dass man zum Beispiel sagt, es gibt so was wie Konfidenzintervalle und ich setze halt fest, bei welcher Konfidenz betrachte ich es als richtig.
Also für Zuhörer, die jetzt nicht so in der Statistik sind, ganz kurz gesagt, im Prinzip sagt man, ich gucke mir an, wie wahrscheinlich ist es, dass ich das Ergebnis, das ich gemessen habe, durch puren Zufall bekomme.
Und dann sagt man, wir gehen davon aus, dass das Ergebnis richtig ist, wenn dieser Zufall so ist, dass es nur, wenn ich 20 mal das mache, dass es nur einmal passiert.

[46:08] Ja genau also genau 95 genau typisch sind so 95 prozentiges konfidenzintervall oder 99 prozent und dann kannst du das halt immer weiter steigern und das wird dann in diesen tabellen schön angegeben mit so einem p wert genau aber man hat sich einfach so drauf geeinigt naja wenn es nur in einem von 20 fällen quasi aus zufall entsteht dann passt das schon.
Genau. Und das ist auch was, das ist relativ willkürlich gesetzt, aber teilweise heute in der Wissenschaft, wenn man eine Veröffentlichung machen möchte, dann möchte man halt zeigen, dass das Ergebnis irgendwie was zählt.
Und dann möchte man halt immer eigentlich nur, dass man unter diesem 1 in 20 Ausschlusskriterium landet.
Und das hat dann wieder in der Wissenschaft auch Effekte, die vielleicht nicht immer so So.

[46:58] Das gewollte sind. Ja, dann kann man nämlich irgendwann anfangen, so lange rum zu testen, bis man in seinen Daten etwas findet, was diesem Konfidenzintervall entspricht. Und dann kannst du im Zweifel deine Hypothese halt vielleicht ein bisschen anpassen. Also genau, das ist nicht die Idee davon, wie das laufen sollte.
Genau. Und was man dann noch macht, was man dann auch entwickelt hat, dass man gesagt hat, ah, wir wollen eine bessere Datenbasis haben, dann macht man sogenannte Meta-Analysen, dann versucht man die Daten aus verschiedenen wissenschaftlichen Studien zusammen zu kombinieren, um eine bessere Statistik zu haben, um bessere Ergebnisse zu finden. Und da war es dann so ein bisschen, was Clayton dann sagt, im Grunde, wenn ich jetzt irgendwie von vornherein mit der Bayesian Methode mache, das heißt, dass ich immer von dem, was ich an Vorwissen oder Vorannahme habe, ausgehe und es von da ausgehend meine Analyse mache, dann mache ich eigentlich jedes Mal eine Meta-Analyse, weil da immer schon mein Wissen von den allen mir vorher bekannten Sachen mit drin steckt. Ja, stimmt.

[48:04] Ja, das ergibt Sinn für mich, ja. Also, das, ich hatte ja schon gesagt, er nimmt schon eine klare Seite zwischen diesen beiden philosophischen Schulen ein, wo er dann so ein bisschen – also ich habe jetzt viel von der geschichtlichen Entwicklung ein bisschen übersprungen, ja. Und dann kommen wir zu der Replication Crisis, also der Replikationskrise. Das ist also ein Problem, was vor allem bekannt ist aus der Psychologie, glaube ich, was aber auch in anderen Wissenschaften auftritt, dass man das Problem hat, Ergebnisse von wissenschaftlichen Untersuchungen zu replizieren, das heißt nochmal mit einer anderen Untersuchung zu bestätigen.

[48:49] B1 – Genau, also das Problem ist im Prinzip, so wie ich das mal irgendwann kennengelernt habe, dass man, also eine Studie wird veröffentlicht und dann probiert man nach ein paar Jahren einfach das gleiche nochmal zu machen. Man hat da natürlich nicht genau die gleichen Leute vor Aber man probiert einfach im Prinzip, die Studie noch mal eins zu eins durchzuführen und hat dann das Problem, dass man gar nicht mehr nachweisen kann, was ursprünglich nachgewiesen wurde.
Und das wurde für ganz viele Studien gemacht. Und ja, dann hat man halt irgendwann das Problem zu sagen, wie aussagekräftig sind eigentlich die Sachen, die da durchgeführt wurden. wurden.
Ja. Genau. Und Clayton sagt also, dass das möglicherweise auch auf die statistischen Methoden zurückzuführen ist.
Also zum einen, weil man ja immer so ein bisschen darauf zielt, dass man bestimmte etwas willkürliche statistische Maßstäbe dann trifft, aber auch, weil man in der Auswertung der einzelnen Ergebnisse.

[49:51] Vorwissen nicht berücksichtigt.
Also wir haben bei der Replikationskrise das Problem, dass wir die Daten nicht nachvollziehen können.
Und das hängt möglicherweise auch damit zusammen, dass wir einfach die Statistik falsch machen.

[50:06] Und da sind viele Kritikpunkte drin. Also es fängt schon damit an, dass eigentlich dieser statistische Ansatz, der Standardansatz geht immer davon aus, dass ich was habe, was ich beliebig oft machen kann, da kommt immer dasselbe raus.
Ist aber eigentlich gar nicht so gut geeignet, wenn ich jetzt zum Beispiel so was seltenes damit versuche, statistisch zu untersuchen.
Das ist eigentlich gar nicht vorgesehen, aber relativ viel Forschung macht genau das.
Und es ist auch so, in der Forschung sucht man immer so ein bisschen nach dem herausragenden Ergebnis, dass das irgendwie dem widerspricht, was man erwarten würde.
Das heißt, man sucht natürlich auch nach Ergebnissen, wo genau sowas dann dabei rauskommt in der Auswertung.
Aber das ist eigentlich vielleicht gar nicht so der richtige Ansatz, sondern, also vor allem, weil man dann auch, ne, schon mal passieren kann, dass jemand halt einfach irgendwie erst mal Daten erzeugt und sich dann irgendwie anguckt, ob er bei verschiedenen Arten auf die Daten zu gucken, irgendwo dann die Kriterien trifft, dass das ja irgendwie was Neues ist, und das veröffentlicht er dann.
Ne, das, äh, was dann aber heißen kann, ne, wenn ich, äh, wenn ich sage, ich guck mir den Fall an, wo in einem von 20 Fällen oder nur in einem von 20 Fällen es nicht.

[51:24] Es Zufall ist. Ja, und ich gucke mir 20 verschiedene Arten an, diese Daten zu analysieren.
Dann ist es gar nicht so überraschend, wenn bei einer von diesen 20 was Überraschendes rauskommt.
Weil das ist dann ja eine zufällige Fall. Aber ich veröffentliche halt, wenn ich das veröffentliche, sage ich halt nicht, dass ich noch 19 Arten hatte, mir die Daten anzugucken, wo nichts Besonderes war.
Aber wo er dann sagt, die Lösung ist, wir sollten halt weggehen von dieser Frequentist-Methode.
Und wir sollten halt auch keine Angst mehr davon haben, dass wir Vorannahmen haben, sondern wir sollten sagen, wir haben diese Vorannahmen.
Und wenn ich die reinnehme, dann kann ich halt auch bestimmte, dann habe ich automatisch auch so ein bisschen diesen in meiner Methode drin, dass je.

[52:14] Je unwahrscheinlicher die Aussage ist oder je überraschender, desto stärker ist der Maßstab, den sie erfüllen muss, um bewiesen zu werden.
Oh ja, ja, ja, klar. Und das passiert so ein bisschen automatisch, wenn ich das mache.
Und dann hätte man zum Beispiel auch viele Forschungen, wo man, wenn man jetzt drauf guckt, sagt, das ist jetzt sehr unerwartet und teilweise auch abstrus.
Also da gab es mal irgendwie solche Untersuchungen, wo jemand dann, ich glaube auch ein bisschen um dieses Problem zu zeigen, ja, Und wo dann Untersuchungen gaben, dass wenn man irgendwie Beatles Musik hört, man sich so und so für jünger ist, ist körperlich. Oder viel von der Forschung, die so in, bei solchen Psy-Phänomenen, also irgendwelche, dass man irgendwelche Karten vorhersagen kann oder sowas, ne, wo man dann sagt, naja, aber wenn ich das jetzt nur rein die Daten angucke, ne, und dann kann ich da schon irgendwie statistische Signifikanz rauskriegen.
Aber wenn ich das jetzt bayesisch machen würde, dann würde ich sagen, naja, also eigentlich spricht meine Vorerwartung erstmal dagegen und der Auswertung, ne, bräuchte ich viel stärkere Effekte, um gegen das ganze Vorwissen anzukommen, dass das irgendwie dann rausstechen würde.
Ja, also das ist dann auch wieder ein Argument für diesen baisischen Ansatz.

[53:32] Also er geht dann auch so weit zu sagen, man sollte auch viele dieser Standardtests, die man macht, der Signifikanztest, sollte man einfach sein lassen.
Und man sollte auch dahin kommen, dass man einfach zugibt, oder nein, nicht zugibt, dass man auch damit umgehen kann, dass diese Antworten, die man gibt, dass die halt nicht sicher sind.
Sondern dass die erstmal immer nur eine Annäherung an die, ich sag mal, objektive Wahrheit sind, weil man sowieso nicht wirklich objektiv sein kann, sondern immer von seinen Vorannahmen ausgeht.

[54:08] Und entsprechend sollte man das anerkennen und die Ergebnisse auch immer so betrachten, dass man nämlich immer sagt, das ist einfach der beste Stand, den wir jetzt haben.
Und wenn wir neue Ergebnisse bekommen, dann passen wir den Stand an.
Und das ist also eher so ein rekursiver Prozess, wo man sich immer weiter verbessert, dass man diesen Ansatz auch generell in der Statistik annehmen könnte.
Und dass man auch von dieser Idee wegkommen soll, dass man objektiv sein kann, sondern dass man einfach gucken soll, ob die Sachen valide sind, also dass sie so weit wie man es sein kann korrekt sind und dass sie irgendwie, ich sag mal, in irgendeiner Weise nützlich sind.

[54:49] Ja, also und das war jetzt auch im Prinzip schon so, dass das Ende des Buches, so das Plädoyer eben diesen anderen Umgang mit der, mit Statistik zu haben, ne, oder vor allem auch mit der Auswertung von Statistik, um dann auch ein besseres Verständnis daherzukriegen.
Und als Nebeneffekt vielleicht auch ein bisschen so der zufälligen Komplexität aus der Statistik rauszunehmen.
Ja, ich danke dir für diese Buchvorstellung. Eine Sache, die mir gerade noch eingefallen ist, ich lese immer mal wieder so Überschriften und ich finde, das geht in die Richtung, wo gesagt wird, Millionäre tragen diese vier Uhrenmarken oder so.
Was daran liegt, dass ich mich ein bisschen für Automatikuhren interessiere. Und die implizite Annahme ist ja dahinter, dass wenn man sich diese Uhrenmarken kauft und sofern man sie sich leisten kann, dass man dann selbst zum Millionär wird.
Und das ist irgendwie, ja, das ist so dieses auch typische Storch auf dem Dach, Kinder und so Probleme.

[55:53] Ja und dazu kommt ja noch, dass ja die Statistik ja vielleicht gar nicht so gut ist.
Ja, das vielleicht auch noch.
Und mit so normalen statistischen Methoden, weil es gar nicht, vielleicht gar nicht so viele Millionäre gibt, dass man da eh jetzt in der frequentistischen Methode gar keine saubere Statistik machen könnte.
Das sowieso, aber auch so Kausalitäten werden ja einfach häufig mal einfach fallen gelassen.
Also so wie unabhängige und abhängige Variablen, das ist halt kein Spaß.
Da muss man sich schon auch ernsthaft mit auseinandersetzen.
Mehr Literatur

[56:27] Aber kommen wir mal zu weiterführender Literatur oder Beiträgen, wie auch immer.
Ich habe zwei Sachen rausgesucht.
Einerseits gibt es eine Buchreihe, die heißt Shortcuts.
Da die, ich glaube, die war die von 2001, also vom 2001 Verlag, Ich glaube, da wurden für verschiedene Autoren, ich glaube, es sind nur Männer, so Kurzbeiträge versammelt und es gibt, glaube ich, sieben oder acht Bände.
Und einen gibt es eben auch zu Michel Foucault, der auch ganz viel so historische Forschung gemacht hat und ganz viel quasi kritische Beobachtung der zumindest westlichen Welt im Sinne von, wann ist was entstanden und welche Einzelereignisse oder Zeitpunkte in der Welt haben irgendwie starke Vorannahmen für uns alle geprägt.
Und ich glaube, in dem Band sind viele Texte zur Sexualität, weil das einfach ein großes Forschungsthema von ihm war.
Aber ich glaube, da ist auch was zur Wissenschaft mit drin. Und das könnte durchaus, glaube ich, ganz spannend sein, weil der auch so einen sehr schönen, kritischen Blick auf die Welt hat.
Und dann habe ich ganz klassisch noch gedacht, das wurde als Vortrag gehalten, Wissenschaft als Beruf von Max Weber.

[57:46] Ja er im prinzip ja über den beruf eben des wissenschaftlers spricht und ja so auch sowieso fortschritt zum thema macht und sich fragt wie inwiefern das noch möglich ist und er spricht viel da über die entzauberung der welt durch die wissenschaft also ja ich glaube genau hat er irgendwie 1917 ja doch während des ersten weltkriegs auf jeden fall gehalten und genau gerade unter so einem Vorschrittsparadigma ist das, glaube ich, ganz interessant. Ja, das sind die beiden Sachen, die ich mitgebracht habe, zusammen mit den Folgen, die ich euch am Anfang und ja zwischendurch auch schon genannt habe. Ja, hast du noch Sachen, die du unseren ZuhörerInnen mit auf den Weg geben willst?

[58:31] B1 Ja, ein paar Sachen habe ich. Also zum einen alte Folgen von uns. Also da hatte ich auch, was du schon gesagt hattest, an die Folge 51 linkere Daten, rechte Daten gedacht, wo es ja auch darum geht, wie man so den Blick auf Daten hat und damit umgeht. Das heißt, ich glaube, das passt sehr gut zusammen. Dann habe ich auch noch mal zwei Bücher, die ich vorgeschlagen habe oder schon vorgestellt habe, nämlich in der Folge 49 The Collapse of Chaos und in der Folge 37 Im Wald vor lauter Bäumen. Da geht es nicht so sehr, Da geht’s so ein bisschen was, ne, was, wie man mit Erkenntnissen und Daten umgeht, geht’s da so ein bisschen.
Und wie man da einen breiteren Blick haben kann.

[59:16] Und deswegen denke ich, dass das irgendwie schon ganz gut dazu passt.
Ich hätte noch drei Buchtipps und einen YouTube-Kanal.
Und zwar einmal von Tim Harford, How to Make the World Add Up.
Das ist, finde ich, ein sehr spannendes Buch, wo er auch ein bisschen so dem Laien.

[59:42] Tipps an die Hand gibt, wie man, wenn man irgendwo Zahlen sieht, wie man mit denen umgehen kann.
Also so ein bisschen, klar, es kommt auch so von statistischem Wissen, statistischem Verständnis her, aber ist auch ein bisschen breiter, ne, so, ich sag mal, so ein bisschen alltagstauglich, wie gehe ich eigentlich damit um, wenn ich irgendwelche Zahlen zu Gesicht bekomme.
Dann von, oh, ich muss bei dem Namen, hab ich immer Angst, dass ich den total falsch ausspreche, von Mai Thi Nguyen Kim, die kleinste gemeinsame Wirklichkeit, das habe ich glaube ich auch schon ein, zweimal hier empfohlen. Das ist, finde ich, auch sehr schön, einfach eine Einführung in wissenschaftliches Denken, wo natürlich auch so ein bisschen statistisches Denken rein spielt.
Wobei es sehr naturwissenschaftliche Wissenschaft ist. Also ganz viel Wissenschaft erfasst sie in meinen Augen auch einfach nicht.
Also aber egal. Ja, bei uns weiterhin so ein Hinweis, gerade für so Statistikthemen. Ja.
Mit der kleinen Anmerkung, dass vieles, was Sie sagen, natürlich von denen auch auf den statistischen Methoden aufbaut, die jetzt Clayton kritisieren würde. Trotzdem finde ich, dass es spannend ist.
Und dann ein Buch von Nicolas Taleb Nassim, sein erstes Buch, Fooled by Randomness, wo Also sein Schreibstil ist teilweise ein bisschen…

[1:01:07] Ja, aber inhaltlich sehr spannend und in dem Buch geht’s so ein bisschen darum, wie man auch in eigentlich zufällige Prozesse Dinge reininterpretiert, wo man dann sagen müsste, im Grunde habt ihr einfach nur nicht verstanden, wie das bestimmte Dinge zufällig auftreten und wie man damit das besser versteht.
Und das, als ich das vor vielen Jahren zufällig gefunden hatte, also das war bevor er mit The Black Swarm bekannter geworden ist, hat mir das doch über einige Sachen neue, spannende neue Blickwinkel gegeben, sagen wir mal.

[1:01:47] Und dann habe ich noch einen YouTube-Kanal, nämlich von Richard McElrath.
Das ist ein Professor, der ist an einem Max-Planck-Institut und der ist auch Sozialwissenschaftler.
Ich weiß gerade nicht mehr, an welchem Max-Planck-Institut er ist, muss ich gestehen.
Und der hält jedes Jahr auch online verfügbar eine Vorlesung über die Bayesische Statistik.
Das heißt, auf seinem Kanal, da gibt es jetzt auch gerade den Durchgang für 2023, gibt aber auch die von Vorjahren da noch zu bekommen.
Also er ist Amerikaner, aber wie gesagt, in Deutschland an einem Max-Planck-Institut.
Er ist am Max-Planck-Institut for Evolutionary Anthropology.
Anthropology, genau, Anthropologe ist er. Anthropologe in Leipzig, genau.

[1:02:45] Guckt dann also auch, ist dann nicht nur Naturwissenschaftler, sondern auch wirklich mal ein Geisteswissenschaftler, der aber trotzdem diese statistischen Methoden benutzt.
Und für jemanden, der sich da wirklich jetzt interessiert ist, wie diese bayesische Statistik funktioniert, das kann man sich angucken.
Oder man kann auch auf den, sich auf den YouTube-Kanal von Aubrey Clayton gehen.
Den hab ich, den kenne ich aber ehrlich gesagt, kannte ich vorhin noch nicht.
Den muss ich mir jetzt gleich mal angucken. teilweise habe ich ungefähr 60 Sekunden eines Vortrags mir angeguckt, aber das war irgendwie eingängig und klang so ganz locker gut zum zum zuzuhören, wie auch immer. Also so als wäre das irgendwie ein guter Einstieg.

[1:03:28] Dann können wir den YouTube-Kanal vielleicht ergänzen, ich den dann gleich auch noch in die Show Notes, falls jemand da gucken möchte.
Genau, das wären meine weiterführenden Tipps.
Ausstieg

[1:03:42] Alles klar, vielen Dank dir. Ja, dann bleibt mir gar nicht mehr noch irgendwas hinzuzufügen.

[1:03:50] Außer, dass ihr gerne auf unserer Webseite vorbeischauen könnt.
Das ist zwischenzweideckeln.de, alles zusammen und klein geschrieben.
Und wenn ihr Lust habt, uns auf Social Media zu folgen, dann findet ihr uns unter zwischenzweideckeln auf Facebook und unter dem Händel deckeln, also letztes Wort vom Podcast, auf Instagram und Twitter.
Und auf Mastodon sind wir at zzd.podcast.social. findet ihr auch in den Show Notes. Also ich hoffe, Mastodon habe ich jetzt gerade richtig genannt, aber doch ist auf jeden Fall auf dem Podcast.social Server. Und wenn ihr Lust habt, uns eine Review da zu lassen, freuen wir uns natürlich sehr. Das geht mindestens bei Apple und auch bei Spotify und hilft anderen Leuten, den Podcast zu finden. Nicht mehr suchen und finden müssen Sie den Podcast, wenn ihr ihn einfach weiterempfehlt. Also euren FreundInnen oder Familien oder wie auch immer. Wir freuen uns, wenn noch mehr Menschen uns zuhören können. Und ja, in drei Wochen weiß ich gar nicht mehr, wer dann vorstellt, aber ich glaube, müsste dann zumindest Amanda oder Nils sein. Und genau, ja, ja, Amanda ist dran.
Das Buch wissen wir, glaube ich, beide noch nicht. Mal gucken, wer ihr zuhört. Aber genau, dann im April geht es weiter und bis dahin viel Spaß beim Hören. Macht’s gut! Tschüß!

[1:05:13] Music.

Intro und Outro der Episode stammen aus dem Stück Maxixe von Agustin Barrios Mangore, eingespielt von Edson Lopes (CC-BY).

Das Umblättern zwischen den Teilen des Podcasts kommt hingegen von hoerspielbox.de.

Zwischen zwei Deckeln findest du auch im sozialen Medium deiner Wahl: Twitter, Mastodon, Instagram und Facebook.

Transkript (automatisch erstellt)

Einstieg

[0:00] Music.

[0:16] Herzlich willkommen zur 54. Folge von Zwischen zwei Deckeln, eurem Sachbuch-Podcast.
Ich bin Christoph und heute Holger mit dabei.
Hallo! Bevor wir gleich zu dem Buch kommen, das Holger uns heute mitgebracht hat, erzähle ich euch einmal, was mich gerade so beschäftigt.
Ich schlage mich gerade ein bisschen so in der Breite mit dem Thema der digital-ökologischen Transformation der Wirtschaft und lese mich da gerade noch mal verstärkt ein, was es so gibt, wie das hier bei mir in der Umgebung aussieht.
Und ja, damit bin ich gerade ganz intensiv dabei.
Und ich lese gerade das Buch über Wintern von Catherine May.
Ich glaube, die kommt aus dem UK.
Und ja, sie geht in dem Buch ein bisschen der Frage nach, wie man eigentlich mit persönlichen Krisen umgehen kann und orientiert sich dabei so ein bisschen an der Tierwelt auch.
Guckt da ein bisschen nach, guckt aber auch nach Finnland, weil da so viel Winter ist und so viel Vorbereitung darauf stattfindet.

[1:17] Und ja, es ist irgendwie so ein bisschen zwischen Essay und Sachbuch angesiedelt. Also es ist irgendwie ganz, ganz spannend zu lesen. Ja, Holger, was…
Ich hoffe aber, dass du es nicht aus eigenem Bedarf liest, sondern aus Interesse.
Ja, genau. Ja, ja, das ist aus Interesse. Wobei eine These aus dem Buch ist, dass so persönliche Winter oder Krisen einen immer mal ereilen und man davor nicht gefeit ist und deswegen es eigentlich ganz klug ist, sich einfach mal damit auseinanderzusetzen, wie man damit umgehen möchte, weil man solchen persönlichen Krisen oder Wintern, so wie sie das eben nennt, nicht aus dem Weg gehen kann, weil immer mal irgendwas Unvorhergesehenes passiert, was nicht so erquicklich ist.
Also quasi das Leben besteht, sie sagt, das Leben ist nicht ein durchgehender Sommer, auch wenn das irgendwie so eine Wunschvorstellung ist und deswegen sei es vielleicht gar nicht so verkehrt, mal sich dem Thema anzunehmen und sich darauf einzulassen.
Ja.
Ja, nee, das ist sicher richtig. Es ist auch immer besser, wenn man auf Dinge vorbereitet ist, also sich immer damit beschäftigt hat, bevor es dann passiert.
Bringt ja auch meistens nichts, wenn man dann in dem Moment, wo ein akutes Problem da ist, dann versucht, allgemeine Strategien zu entwickeln.
Ja, das stimmt.
Da kann man dann das Problem, das man gerade hat, versuchen zu lösen, aber so ein zu breiter Blick hilft einem da dann meistens ja auch nicht bei und den kann man sich unter Umständen auch gar nicht erlauben.
Ja, das stimmt. So Krisen können ja auch sehr stressig sein. Wie ist es denn bei dir? Welche Themen hast du gerade in deinem Leben?

[2:47] Ja, also ich hatte ein bisschen, ich nenne es mal positiven Stress am Wochenende.
Da habe ich eine Veranstaltung organisiert und wir nehmen jetzt ja einen Montag auf für die Zuhörer.
Ich bin deswegen auch immer noch ein bisschen müde und das hat mich die letzte Woche sehr gut auf Trab gehalten.
Ansonsten…
Überlege ich mal wieder, in welche Richtung es mit dem Lesen jetzt als nächstes weitergeht.
Ich habe angefangen die Entdeckung der Unendlichkeit, bin da noch so ein bisschen.

[3:26] Ja, hatte das für die ganzen Sachen der letzten Wochen mal zur Seite gelegt und werde das aber hoffentlich bald weiterlesen können und überlege auch an Sachbüchern vielleicht auch noch mal ein, zwei andere Bücher zu Mathematik, die ich hier rumliegen habe, zu lesen.
Vielleicht kommt da auch noch was rum, was ich in Zukunft noch mal vorstellen werde.
Genau. Also ich hab dann so, versuch dann so ein bisschen dieses Thema abzudecken.
Also die Amanda hat ja auch, hat ja auch Themen teilweise in die Richtung.
Ja das stimmt. Und das ist dann vielleicht ein bisschen Kontrast zu den eher soziologischen Büchern.
Wobei da habe ich auch ein, zwei hier liegen, aber ich weiß nicht, ob ich mich da traue.
Was hast du denn da liegen? Die kann einem Soziologen vorzustellen. Also ich habe mit dem Taxi durch die Gesellschaft heißt das eine glaube ich.
Oh ja.

[4:18] Und das das integrations paradox glaube ich. Ja doch ich glaube beide habe ich schon mal irgendwie so am rande mitgekriegt ach ich glaube ich glaube die kannst du allen dreien von uns vorstellen je nach also egal wer wer da irgendwie als zuhörer in dabei sein könnte das wird schon passen.
Ja, muss man halt, wie gesagt, da denke ich manchmal muss ich vielleicht ein bisschen vorsichtig sein, aber lesen möchte ich die auf jeden Fall. Die Frage ist, ob sie es dann ins Podcast schaffen oder von meiner Seite in den Podcast schaffen. Kann ja auch gerne jemand anders vorstellen.
Sehr gut. Ja, mit den Büchern zur Mathematik sind wir dann auch schon bei der heutigen Folge angekommen.
Du hast uns nämlich mitgebracht Bernoullis‘ Falsi von Aubrey Clayton.
Der Untertitel von dem Buch ist Statistical Illogic and the Crisis of Modern Science.
Ich bin sehr gespannt darauf. Der Herr Clayton, habe ich mir ergoogelt, ist selbst Mathematiker und unterrichtet Philosophie der Wahrscheinlichkeit an verschiedensten Universitäten, so wie es für mich aussah.

[5:24] Denn zumindest auf seiner Webseite finden sich auch verschiedene Vorlesungen als so YouTube-Mitschnitte.
Also wenn man da nach dieser Folge vielleicht Interesse hat, sich nochmal den Herrn live in action anzugucken, gibt es da die Möglichkeit.
Also ich bin sehr gespannt, was es damit auf sich hat.
Meine Gedanken vorab waren, naja, das klingt so ein bisschen nach Wissenschaftstheorie oder so in die Richtung.
Oder eine Kritik der gängigen Wissenschaftstheorien.
Und dazu haben wir, glaube ich, einige Folgen. Ich habe jetzt mal drei mitgebracht.
Und zwar hat Niels in Folge 8, also schon ein bisschen her, das Buch Objektivität von Lorraine Desten und Peter Gellison vorgestellt, wo es eben, glaube ich, ja so um die, historische Entwicklung und Darstellung von Wissenschaft geht, wenn ich mich recht entsinne.

[6:12] Eine folge später habe ich mir jetzt damals das metrische wir von steffen mau vorgestellt wo steffen mau.

[6:19] Ja, im prinzip zeigt wie sehr unsere gesellschaft auf vermessung, sich verlegt hat als irgendwie ordnungsprinzip möchte ich mal sagen und damit sich selbst begreift also So eine zahlenversessenheit kann man da vielleicht auch zu machen und jetzt vor gar nicht allzu langer zeit hat Amanda uns linke Daten, rechte Daten von Tim Fischer vorgestellt, wo es eben auch so um Dateninterpretation in der heutigen Gesellschaft geht. Genau, die drei Folgen habe ich mitgebracht und damit, ja, ich kann auch sagen, dass das Buch 2021 erschienen ist und zwar bei Columbia University Press und damit würde ich an dich und deine Kurzzusammenfassung übergeben.
Danke sehr. Also, als TLDR, in Bernoullis‘ Fallacy stellt Aubrey Clayton dar, dass die
Tl;Dl

[7:15] allgemein üblich verwendeten Methoden der Statistik einen grundlegenden Fehler in den zugrundeliegenden Annahmen haben und wie sich diese durchsetzen konnten, heute aber zu Problemen führen. Er schlägt vor, stärker den Ansatz von bedingten Wahrscheinlichkeiten als Norm der Statistik zu verwenden und generell anzuerkennen, dass die Erwartungen der Auswertenden immer einen Einfluss auf die Interpretation von Statistiken haben werden.
Buchvorstellung

[7:42] Das klingt sehr interessant. Ich muss sagen, ich bin wirklich kein sonderlich beschlagener Statistiker und bin deswegen so ein bisschen blank an der Stelle.
Bin brav durch meine Methodenkurse an der Uni gekommen, aber darüber hinaus habe ich mich da nicht rein vertieft.
Ich bin eher auf der qualitativen Seite unterwegs und ja, deswegen bin ich sehr gespannt, wie du mich hier durchs Buch führst und ob ich da gut kritisch einhaken und nachfragen kann.
Also feuerfrei quasi.
Im Grunde sind Menschen wie du glaube ich, die den Robert Clayton auch helfen möchte, weil er auch denkt, dass durch diese Fehlannahme, die ich gleich dann auch beschreiben werde, dass dadurch die ganze Sache, der Statistik viel komplizierter ist im letzten Endes als sie sein müsste.
Ah, okay. Na dann bin ich umso gespannter, wie er mir helfen kann.

[8:45] Ja, genau. Also, er beginnt also mit seiner These, dass wir einen logischen Fehler haben in der Art, wie wir Statistik betreiben.

[8:57] Und dass er auch ein bisschen das Ziel hat, die Wissenschaft dadurch zu verbessern, Indem die Statistik besser wird, indem man eben diesen logischen Fehler rausnimmt.
Ja. Und ich sagte es auch schon am Anfang, im Grunde gibt es zwei Schulen, wie man an Statistik rangehen kann, also das wird dann im Laufe des Buches noch weiter erläutert.
Aber die kann man jetzt auch schon mal nennen, also so der Standardansatz.
Das ist der Ansatz, ich benutze jetzt mal die englischen Wörter, weil ich nicht ganz genau weiß, wie man die im Deutschen sagt.
Das sind die Frequentists.
Das sind im Prinzip die Leute, die sagen, wenn wir Statistik machen, dann zählen wir einfach nur Ereignisse.
Und daraus versuchen wir dann Rückschlüsse auf die Dinge hinter den Daten zu ziehen, sag ich mal.
Und der andere Ansatz, das sind die Bayesians, die sind nach dem Begründer der bedingten Wahrscheinlichkeit, Bayes, benannt.
Und die gehen eben von bedingten Wahrscheinlichkeiten aus und sagen, wir haben immer Vorwissen und, was wir im Grunde machen, wenn wir irgendwelche neuen Beobachtungen machen, dann benutzen wir die, um unser Wissen zu verbessern.
Aber alles, was wir schon wissen, berücksichtigen wir auch immer bei der Auswertung.

[10:18] Okay, ja, ich bin gespannt, wie man das in eine konkrete empirische Untersuchung einpreist. Noch ist das für mich ein bisschen schemenhaft, aber schon mal.
Ja, also es ist ein recht philosophisches Buch, aber ich werde auch gleich so ein paar Beispiele haben, wie man jetzt im belgisischen daran geht.
Okay, gut.
Das Buch ist auch so eine kleine Geschichte der Statistik. Also das kann ich jetzt nicht alles nacherzählen, das ist wirklich ein großer Teil des Buches, aber es gibt so ein paar Kern, so ein paar signifikante Punkte, die ich jetzt so ein bisschen rausgreifen werde und die da auch Thema sind.
Und anfangen tut’s mit dem Namensgeber Bernoulli, der ja auch hier in dem Buch im Titel vorkommt.
Und Bernoulli gilt also als Begründer der modernen Wahrscheinlichkeitsrechnung.
Ja, vorher gab’s das auch schon, das war aber so ein bisschen Spielerei, um zu verstehen, wie man jetzt …
Und welche Würfelspiele, was da passiert, wurde größtenteils auf verschiedene Spiele …

[11:27] Angewandt. Aber Bernoulli hatte wahrscheinlich auch so ein bisschen durch die politische Situation der italienischen Stadt, wo er gelebt hat, wo halt die Wahl des Dojen unglaublich kompliziert war.
Und man dann auch versucht hat, ein bisschen Wahrscheinlichkeit zu verstehen, um ein bisschen besser vorhersagen zu können, wer Doje wird.
Also es war irgendwie ein Verfahren, das wird auch im Buch beschrieben, das kriege ich gar nicht zusammen. Das hat irgendwie mehrere Schritte, bei denen teilweise dann gelost wird und dann verschiedene Leute dann, die gelost werden, dann irgendwie abstimmen dürfen. Aber das eben irgendwie mit drei oder vier Zwischenschritten, also wirklich extrem kompliziertes Verfahren.
Wir sind irgendwo so 17. bis 18. Jahrhundert irgendwo in der Ecke müsste das sein.
Ja genau.
Ja. und ähm…

[12:18] Genau und deswegen hatte Bernoulli also ein Interesse daran, wie man besser Wahrscheinlichkeitsschlüsse ziehen kann, also wie man Vorhersagen treffen kann. Ja.
Ja und dann kommt man so ein bisschen in die Welt der Wahrscheinlichkeit natürlich rein.
Ja. Und was er dann, er hat dann, ist dann auf die Idee gekommen, aha, wenn ich jetzt irgendwas sample und ich mach das sehr oft, dann nährt sich das irgendwie der realen Wahrscheinlichkeit an, also dann lässt der Zufall sozusagen nach. Ja.
Und das ist dann die Annahme, wenn ich ein großes Sample habe, also eine große Anzahl an Daten, dann wird es meine Wahrscheinlichkeiten gut widerspiegeln.
Ja.
Dabei hat er aber, der Denkfehler, den Aubrey Clayton hier sieht, ist, dass er aber so ein bisschen falsch rumgeht.
Ja, also er versucht von der Wahrscheinlichkeit die Beobachtung zu bekommen, die er sieht, zieht er einen Rückschluss auf die Hypothese.
Ja. Aubrey Clayton sagt, eigentlich, so muss man es andersrum machen, er sagt, man muss eigentlich die Hypothese denken und dann die Wahrscheinlichkeit angucken, die beobachtenden Daten zu kriegen.

[13:37] Ja, okay. Und das ist das, was sich dann immer durchs Buch zählt, dass es einfach der falsche Ansatz ist.
Und dieser Ansatz ist, sieht man schon, wenn ich nur auf die Daten gucke, dann nehme ich halt eigentlich meine Hypothese komplett raus.

[13:53] Und dann muss ich wieder irgendwelche Gymnastik machen, um diese Hypothese später reinzukriegen.
Kriegen. Da sage ich dann, also dann muss ich irgendwelche komplizierten Tests mir überlegen, ja, wie kann ich jetzt wieder irgendwie gegen eine Hypothese testen? Und dann kommt man bei vielen dieser Standardmethoden in der Statistik an, wo man dann irgendwie eine Nullhypothese aufstellt. Und diese Nullhypothese muss man dann schön mathematisch formulieren. Und dann muss ich, meistens formuliere ich die so, dass ich die eigentlich wieder legen will, damit ich sage, ich finde was anderes, da muss ich irgendwie festlegen, wann kann ich denn sagen, dass ich was anderes gefunden habe und da ist auch eine gewisse Willkür drin, wann ich das als was anderes betrachte und dann kommen wir bei vielen der Themen an, die man heute in der Statistik hat, viele der Probleme, dass das so ein bisschen willkürliche Punkte sind, die da abgeschnitten sind und dass viele Forschende eigentlich gar nicht die statistischen Kenntnisse haben, um diese Nullhypothesen sauber zu formulieren und dann zu irgendwelchen Statistikexperten erstmal gehen müssen, um sich eine Nullhypothese mathematisch formulieren zu lassen, gegen sie, die sie dann testen können. Und das ist was, wo Clayton sagt, das ist eigentlich…

[15:13] Überflüssig. Ja, also wenn man den Ansatz nimmt, der Bayesischen Statistik, ja, der hat sich dann etwas später, also auch, jetzt habe ich mir gar keine Jahreszeiten aufgeschrieben, aber ich glaube, das war auch im 19., also war im 19. Jahrhundert, wenn ich mich recht erinnere, hat Bayes, das war also ein Geistlicher, der sich dann angefangen hat, für Statistiken zu interessieren, und der hat dann die Grundlage der bedingten Wahrscheinlichkeiten formuliert.
Eine normale Wahrscheinlichkeit würde ich jetzt sagen, was ist die Wahrscheinlichkeit dafür, dass eine bestimmte Sache passiert, ohne irgendeinen Kontext.
Und eine bedingte Wahrscheinlichkeit ist, wenn ich sage, wenn ich jetzt zwei Sachen habe, eine weiß ich, bei der anderen will ich die Wahrscheinlichkeit wissen, und die hängen zusammen, dann kann ich sagen, es gibt eine…
Also einmal kann ich sagen, was ist die Wahrscheinlichkeit, dass die mir unbekannte Sache passiert, mit dem Wissen über die Sache, die mir bekannt ist.

[16:14] Also ich weiß nicht, ob das nachvollziehbar ist. Kannst du nochmal wiederholen?
Was ist die Wahrscheinlichkeit, dass eine Sache passiert mit dem Wissen, dass ich über die andere Sache habe?
Ah, ja, okay, das ergibt Sinn. Ja, also sowas, was ist die Wahrscheinlichkeit, dass es um 9 Uhr hell ist, ja?
Wenn ich weiß, dass gestern die Sonne um 8 Uhr aufgegangen ist.
Also jetzt als so ein absolutes banales Beispiel. Aber im Grunde ist das genau das Denken dahinter.
Okay. Ja.
Und… Es klingt so, als würde man sich primär einfach ein bisschen mehr Gedanken darüber machen, was man da untersuchen will.
Genau. Und was man erwartet vor allem. Und also die Formel, die mathematische Formel für diese bedingten Wahrscheinlichkeiten, die ist auch in jedem Statistikkurs, ist die irgendwo mal drin.
Ja, Satz von Weiß hatte ich auch mal irgendwann. Genau, aber das wird dann halt irgendwie so einmal erwähnt, für die Fälle, wo man das machen möchte, aber in den Methoden spielt das eigentlich keine Rolle.
Oder wenig Rolle. Mir fällt dazu ein, zu dem ganzen Komplex, ein Professor von mir hat mal gesagt, und es war kein Statistikkurs.

[17:32] Wenn wir bei, also in meinem, also dabei ging es um Politik, aber wenn wir Vermögen, Geschlecht und Bildung reinwerfen in unsere Untersuchung, dann finden wir schon irgendwas raus.
Was glaube ich ein schönes Beispiel dafür ist, wie man es vielleicht nicht unbedingt machen sollte.
Also da war so, also das war wirklich ein Hinweis auf, naja, die Hypothesen könnt ihr im Zweifel auch nachher bilden. Das passt schon.
Genau, ne, und das ist halt, wenn man jetzt von vornherein dieses Denken von den bedingten Wahrscheinlichkeiten hat, wo man einfach sagt, ich hab immer Vorbedingungen in dem, was ich beobachte, ne, dann muss ich eigentlich auch meine Vorbedingungen, bevor ich die Auswertung mache, mir klar machen.
Also Daten kann ich vielleicht vorher auch schon sammeln, aber wenn ich es auswerte, dann muss ich mir das halt doch irgendwie überlegen.

[18:23] Ja. Ja. Also nochmal, viele der Probleme der Statistik, die man da mit Wahrscheinlichkeiten hat, kommen daher, weil man vom Sampling oder von den Wahrscheinlichkeiten für Sampling ausgeht, statt von der Wahrscheinlichkeit der Hypothese.
Und es gibt dann ein sehr berühmtes Beispiel, also zumindest glaube ich, ist es recht berühmt, dass glaube ich jetzt auch in der Corona-Zeit spätestens mal vielen Leuten über den Weg gelaufen ist.
Das ist denn die Frage, wenn ich jetzt auf einen Test habe, ob ich eine Krankheit habe, der eine gewisse Genauigkeit hat.
Und da kommt jetzt ein positives Ergebnis raus, wie wahrscheinlich ist es denn, dass ich die Krankheit wirklich habe.
Ja, oh ja, das war sehr spannend. Und da ist einfach der Punkt, dass ich… es reicht nicht, nur den Test zu machen, um…
Also wenn ich jetzt sage, ich habe einen Test, bei dem wird…

[19:21] 99 Prozent der Kranken werden auch als krank angezeigt. Und ein Prozent der.

[19:30] Kranken wird falsch als gesund angezeigt.
Und ich habe aber auf der anderen Seite auch, dass eine bestimmte Zahl, sagen wir, der Einfachheit halber nehmen wir dieselben Zahlen.
99 Prozent der Gesunden werden als gesund angezeigt, aber ein Prozent der Gesunden wird als krank angezeigt.
Und diese Zahlen müssen nicht ganz gleich sein, das hängt wieder vom Test ab, aber der Einfachheit halber.
Und ich habe einen positiven Test, dann neigt man mental erstmal dazu zu gucken, die Wahrscheinlichkeit, dass ich, wenn ich krank bin, als gesund angezeigt werde, ist so gering, dass ich ziemlich sicher krank bin.
Aber das ist ein falsches Denken, sondern eigentlich muss ich das als bedingte Wahrscheinlichkeit betrachten und muss noch weiteres Wissen mit reinnehmen, nämlich in dem Fall das Wissen, wie viele Leute in der gesamten Bevölkerung haben denn überhaupt diese Krankheit?
Ja. Und wenn ich das nicht weiß, dann ist im Grunde diese Aussage, der Test ist positiv für mich, gar nicht so aussagekräftig, ob ich wirklich krank bin.
Ja.
Ja, wie war das, genau, während Corona war, wenn die Fallzahlen insgesamt niedrig sind, ist dein positiver Test vermutlich ein korrekt positiver Test, ne?
Genau. Wenn du sehr hohe Fallzahlen hast, dann ist dein positiver Test mit einer höheren Wahrscheinlichkeit falsch positiv.
Genau, weil ich einfach gucken muss, wenn jetzt irgendwie jeder …

[20:55] Wenn wir 1000 Leute haben und da haben 10 die Krankheit von, das wäre 1%, dann ist es relativ symmetrisch.
Aber wenn wir 1000 Leute haben und 400 Leute haben die Krankheit, dann ist es eine sehr häufige Krankheit. Und dann ist meine Wahrscheinlichkeit, wenn ich den positiven Test habe, jetzt auf die Gesamtwirkung betrachtet, halt einfach niedriger.
Und das ist auch so ein Standardbeispiel für Denkfehler, die man hat, wenn man sich mit solchen bedingten Wahrscheinlichkeiten beschäftigt.
Weil man denkt meistens nicht so weit und dann kommen einem Ergebnisse auch kontraintuitiv vor.
Ja, ich wollte grad sagen, es ist ein sehr schönes Beispiel für Kontraintuitivität.
Das finde ich ja sehr viel zu haben. Das mag ich sehr gerne.

[21:40] Ein anderes Beispiel, das hätte ich jetzt ein bisschen später vorgestellt, kann ich aber auch jetzt machen, ist so das berühmte Ziegenproblem.
Oh Gott, das werde ich in meinem, ich werde, also erzählts gerne gleich, aber ich komme mental da nicht mehr hinter, ich werde es in diesem Leben nicht mehr schaffen vermutlich.
Ja, das witzige ist, also er stellt das Ziegenproblem auch da in dem Buch, aber er macht es ein bisschen anders als sonst immer gemacht wird.
Okay, ja dann, ich bin ganz gespannt.
Ich erzähle erst mal so ein bisschen wie es sonst gemacht wird also für diejenigen die das noch nie gehört haben es ist also ein problem oder ein, wir haben mathematisches problem mit wahrscheinlichkeiten und es geht darauf zurück oder die situation geht auf eine fernsehsendung zurück eine fernsehshow und ich glaube in deutschland gab es das auch mal irgendwie mit dem zong oder so, Ich weiß nicht genau, wie die Sendung hieß, aber es gibt drei Türen und der Kandidat hinter einem der Türen ist ein Preis und hinter den anderen Türen ist halt nichts. Ich glaube, in der deutschen Sendung hieß das dann der Zonk. Dann hat man halt verloren.
Und jetzt sucht man am Anfang eine Tür aus, ja, und dann, also so wie es normal erzählt wird, ist es so, dass dann der Moderator einem sagt, okay, ich mache jetzt eine von den beiden anderen Türen, die mache ich auf, ja, da ist nichts hinter.

[23:03] Und dann ist die Frage, ist es als Kandidat besser, die Tür zu wechseln oder nicht?
Ja, ist es besser, bei seiner Tür zu bleiben? Ja.
So, und die intuitive Antwort, die man hat, die hatte ich auch lange.
Also, wenn ihr drüber nachdenken wollt, ist jetzt euer Moment, kurz zu pausieren und eure Antwort zu wählen, würdet ihr die Tür wechseln oder nicht?
Und dann gucken wir mal, wie es weitergeht.
Ja, und für die, die es schon kennen, trotzdem gleich weiterhören, weil dann kommt noch ein Twist zu der normalen Antwort, die ich jetzt erzählen werde. Okay.
Also, die normale Antwort ist, wenn man sich das einfach mit den Wahrscheinlichkeiten durchrechnet, dann kommt raus, dass man wechseln sollte.
Ja, und die Intuition ist bei vielen Menschen so, dass man nicht wechseln soll.
Und das war, wie gesagt, auch bei mir lange die Intuition. Meine Intuition ist, ist es nicht einfach egal?
Genau. Entschuldigung. Ja, die Intuition ist, dass es egal ist.
Ich hab’s falsch formuliert. Aber wenn man das mathematisch durchgeht, kommt raus, dass man wechseln sollte, weil die doppelt so hohe Chance ist, dass man es gewinnt.
Und das hängt damit zusammen, wie das Problem immer dargestellt wird, weil es wird gesagt, der Moderator macht auf jeden Fall eine Tür auf.
Und er wird immer eine Tür aufmachen, wo nichts hinter ist. Und was er damit tut, ist eigentlich verändert er die Situation.

[24:26] Ja, also man kann das jetzt mit Formeln machen, das ist aber im Podcast glaube ich nicht so förderlich. Aber der Gedanke, der mir geholfen hat zu verstehen, warum sich da was ändert, ist, dass der Moderator ja eine Information hat, die der Kandidat nicht hat, nämlich er weiß, welche von den, wenn jetzt, wenn man die richtige Tür ausgesucht hat, dann ist egal, welche Tür er aufmacht.
Von den beiden anderen. Aber wenn man die falsche ausgesucht hat, der Moderator weiß immer hinter welcher ist nichts. Das heißt, er wird immer die aufmachen und dadurch verändert er die Wahrscheinlichkeit, weil er eine neue Situation, neue Informationen reinbringt.
Ja, okay. Ja, verstehe ich. Und deswegen ändern sich die Wahrscheinlichkeiten.
Und wenn man das dann durchrechnet, kommt raus, dass es besser ist, zu wechseln.
Interessanterweise ist das aber nur so, wenn man die Grundannahme trifft, dass der Moderator immer eine Tür aufmachen muss.

[25:24] Und dass er diese Tür sozusagen, das Einzige bei dieser Tür, was er auswählt, ist, dass es eine ist, wo nichts hinter ist.
Aber wenn man die Grundannahmen ändert, dann kann man auch zu anderen Wahrscheinlichkeiten kommen.
Wenn man also etwas über den, wenn man noch weitere Informationen hat. Wenn man jetzt zum Beispiel weiß, dass die Leute, die die Fernsehsendung machen, halt ganz gerne häufiger es hinter Tür A stellen meinetwegen. Dann habe ich, das ändert meine Wahrscheinlichkeit, wenn ich wissen will, was meine richtige Entscheidung ist. Weil wenn ich dann Tür A wähle, dann, und er eröffnet eine der anderen Türen, in der normalen Darstellung sind alle drei Türen gleich wahrscheinlich, das was dahinter ist. Ja? Aber wenn hinter Tür A es häufiger ist, dann muss ich dafür eine höhere Wahrscheinlichkeit machen, das verändert dann meine ganze Rechnung. Und genauso ist dann die Frage, ob der Moderator, ja, muss der denn eine Tür aufmachen? Vielleicht muss der gar keine Tür aufmachen.

[26:32] Und vielleicht öffnet der halt eine bestimmte Tür immer gerne und öffnet immer nur diese Tür, wenn da nichts hinter ist und sonst öffnet er gar nichts.
Das ändert auch die Wahrscheinlichkeit. Das heißt im Grunde ist das Vorwissen, das ich habe, beeinflusst extrem stark, was passieren kann.
Und lustigerweise, also im Englischen heißt es das Monty-Haw-Problem, nach dem Moderator dieser Sendung im amerikanischen Fernsehen.
Und es war wohl so, dass dieser Moderator das mit den Wahrscheinlichkeiten schon so ein bisschen verstanden hat.
Und der musste die Tür auch nicht aufmachen und der hat dadurch auch bewusst versucht, so kein System drin zu haben.
Was dann diese ganzen Wahrscheinlichkeitsabschätzungen, die immer dargestellt werden, dann wieder total verändert.
Das ist ja interessant. Okay, das wusste ich nicht, dass er nicht unbedingt was aufmachen muss.
Ja, also wusste ich vorher auch nicht. Aber das zeigt so ein bisschen das Setup meines Problems.
Gerade wenn ich mit solchen bedingten Wahrscheinlichkeiten arbeite, das ändert extrem mein Ergebnis.
Ja, zeigt Herr Clayton auch auf, wo das uns im Alltag abseits von Corona oder anderen Krankheitstests noch Probleme bereitet?

[27:49] Also es geht vor allem natürlich um Forschung, wo man Statistiken benutzt. Ich mache jetzt gerade nochmal einen Schritt zurück. Wie gesagt, ich bin gerade ein bisschen nach vorne gesprungen. Ja.
Ja, erstmal sagt er, ein besserer Umgang mit Wahrscheinlichkeiten ist, dass man es einfach sieht als Wahrscheinlichkeiten sind die Fortsetzung von logischen Überlegungen oder von Logik unter Berücksichtigung von Unsicherheit.
Ja, das klingt sehr intuitiv, da kann ich gut mitgehen. Genau. Und das finde ich auch ist eine sehr schöne, treffende Art, damit umzugehen.
Ja.

[28:31] Er geht dann so ein bisschen nochmal auf die Geschichte ein. Ich hatte ja am Anfang gesagt, es gibt diese beiden Denkschulen, die der Frequentisten oder Frequentists, die halt einfach sagen, wir gucken nur auf das, was wir beobachten. Also wir sozusagen etwas böse gesagt, wir zählen nur.

[28:47] Und die haben sich in der Geschichte durchgesetzt und ist so ein bisschen die Frage, warum eigentlich?
Und man muss dazu sagen, diese Methode, wir zählen nur die Daten, die ist eine Methode, die ist gut dafür geeignet, wenn man halt eigentlich keine Vorinformationen hat und man hat irgendwas, wo man wirklich viele Daten hat, die man zählen kann.
Genau. Und das, das in der Frühzeit der Statistik waren viele der Probleme, mit denen man sich beschäftigt hat, waren halt genau solche.
Wobei es auch in der Frühzeit schon gewisse Kritikpunkte gab, also einer der frühen Statistiker, der wollte dann Statistik machen über die Bevölkerung, ich, von Belgien, wenn ich mich recht erinnere, und da gab es schon den Kritikpunkt, naja, du kannst jetzt nicht einfach über das ganze Land zählen, weil Landbewohner sind anders als Stadtbewohner und je nach Region sind die unterschiedlich, Das heißt dieses Bewusstsein, dass das vielleicht so ein bisschen zu einfach ist, ist jetzt was, was auch vorher schon vorhanden war.
Was dann aber die Leute, die sich durchgesetzt haben, haben es halt geschafft, das irgendwie so ein bisschen wegzuschieben.

[30:02] Wobei ich mich da jetzt gerade frage, ich habe ja in der letzten Folge auch kurz über so die Anfänge der Nationalökonomie und so gesprochen.
Also ist nicht auch ein Ziel dieser ersten statistischen Bevölkerungserfassungsversuche überhaupt erstmal zu verstehen, was für eine Bevölkerung man vor sich hat?
Also gerade darüber, dass man so genau zählt und probiert so viel abzubilden und die ersten großen statistischen Daten hat und sie aggregiert, entwickelst du ja auch erst ein Verständnis darüber, welche Spezifika du quasi vor dir liegen hast.

[30:34] Ja, du hast mich bei einer Ungenauigkeit erwischt. Nein, nein, das ist ja gut, deswegen macht man das ja nicht alleine. Also der Kritikpunkt ist aufgekommen, weil das Datensammeln ist noch nicht die Frage. Die Frage ist, ziehe ich daraus allgemeine Schlüsse?
Also mache ich sowas wie den durchschnittlichen Bürger. Und in dem Moment ist natürlich so, dass man da natürlich dann schon sagen kann, okay, vielleicht ist es nicht so angemessen, den durchschnittlichen Bürger einfach über das ganze Land zu nehmen.
Ja. Ja. Oder zu sagen, jetzt aufs ganze Land bezogen, weiß ich nicht, die Hälfte aller Belgier hat diese Eigenschaft und die andere Hälfte hat diese, sondern dass man sagen muss, naja, dass diese Verteilung, die schwanken schon je nach Region.
Und letzten Endes ist das halt auch wieder eine Frage des Umgangs mit Daten.
Ja, das wird ja auch in Zukunft sehr spannend sein, wenn wir sehr mächtige Datentools quasi kriegen im ganzen Kontext von Big Data und auch künstlicher Prozessierung.
Wie sehr muss man Daten überhaupt noch aggregieren für irgendwie verallgemeinerte Aussagen?

[31:46] Weil das vielleicht gar nicht mehr so notwendig sein wird, wenn man so viel Technik einsetzen kann, dass man eben sehr präzise über Einzelfälle sprechen kann und man dann gar nicht mehr so das Problem hat, dass Menschen diese Daten verarbeiten müssen.
Und das muss irgendwie eben so ein bisschen …

[32:04] Ich sag mal, man hat so Klumpenrisiken dann da drin, weil man eben aggregieren muss, weil wir leider nicht dazu in der Lage sind, unfassbar viele Daten genauestens zu sezieren.
Und ja, mal gucken, was so die nächsten Jahre bringen, wie das sich weiterentwickeln wird.
Ich glaube, das kann auch sehr, sehr spannend werden.
Weil ich könnte mir vorstellen, dass wir gar nicht so schlechte, aggregierte Aussagen quasi kriegen, weil wir so genau hingucken können genau analysieren können und so riesige Datenmengen auch haben.
Ja, aber auch da muss man vorsichtig sein. Das auf jeden Fall, ja.
Ich spring jetzt schon ein bisschen zu seiner, zum Ende des Buches eigentlich, aber das ist jetzt ganz, passt jetzt genau zu dem, was du gerade gesagt hast.
Eigentlich muss man sich, wenn man mit den Daten umgeht, muss man sich klar machen, dass die Art, wie man sie interpretiert, hängt halt von dem Interpretierenden ab.

[32:59] Das ist das, was in diesem Bayesischen Ansatz auch mit drinsteckt.
Da steckt noch mehr drin. Aber eine Sache, die da drinsteckt, ist halt, naja, ich habe erstmal die Daten und normalerweise kann ich diese Daten immer auf verschiedene Weise interpretieren.
Und die Aufgabe des, ich sage jetzt mal des Forschers oder einfach der Person, die mit diesen Daten umgeht, ist dann irgendwie so ein bisschen die beste Interpretation zu finden.
Aber wenn du das automatisierst, dann ist es so, das ist glaube ich das, was du mit so Klumpeffekten vielleicht meintest, so ein Machine Learning System, das hat halt irgendwie schon eine Richtung, in die es guckt.

[33:38] Das hat aber nur eine Interpretation, die es ausspuckt. Und das muss jetzt nicht die richtige Interpretation sein.
Und das hängt auch vom Vorwissen ab. Und gerade bei Machine Learning ist es ja so, dass du die trainierst. Das heißt, über diese Trainingsrechnung lässt du die im Prinzip Erfahrung sammeln, lässt du die Vorwissen sammeln.
Aber du musst natürlich auch aufpassen, dass dieses Vorwissen auch vernünftig ist, sonst da gibt es ja durchaus Probleme, wenn du irgendwie Bilderkennung machst und du trainierst die künstliche Intelligenz immer nur mit den Gesichtern von weißen Computernerds, dann hat das halt Probleme, zum Beispiel dunkelhäutige Menschen richtig zu identifizieren.

[34:32] Oder du baust halt ganz klassisch auch so rassistische Verzerrung und so ein. Ich habe irgendwann, ich habe vergessen, welche Folge das ist, aber habe ich Hello World von Hannah Fry vorgestellt, wo es eben auch so um algorithmisches Lernen geht und da sezieren wir das in Länge. Also wenn ihr da reinhören wollt, verlinke ich auch in den Shownotes.
Ja genau, das finde ich ist ein wichtiger Hinweis, dass man da natürlich auch die eigenen Verzerrungen mit in irgendwelche Algorithmen einbaut.
Und das ist, ich springe jetzt ein bisschen im Buch, aber ich versuche gleich wieder zu dem Punkt, wo ich gerade war, zu kommen.
Aber das ist eben aber auch ein Punkt, wo dann diese, warum er diesen Ansatz von Bayes vorschlägt, dieses in bedingten Wahrscheinlichkeiten rechnen.
Weil da einfach das Bewusstsein dafür da ist, was sind denn meine Vorbedingungen.
Und eigentlich muss ich bei der Auswertung auch wissen, was die Vorbedingungen sind.

[35:25] Und was auch ein Teil dessen ist, was sehr wichtig ist, dass mit jeder Beobachtung ändert sich mein Wissen, aber es ist nie fertig, weil es ich immer nur sozusagen die Vorbedingung für das nächste, was ich angucke, verbessere.
Das heißt, in diesem Ansatz, den die Bayesianer haben, ist halt schon drin, dass ich immer wieder mein Wissen verbessere mit jeder Beobachtung, die ich mache.
Ja, und genau, also das ist, deswegen fand ich, finde ich das auch so spannend, diesen Ansatz und auch wie er das in dem Buch so darstellt.
Aber ich wollte nochmal zurück zu der Geschichte, wir sind jetzt gerade ein bisschen gesprungen. Also die Frequentisten haben sich durchgesetzt, weil sie zu der Zeit, als sie das gemacht haben, eigentlich auch relativ gut mit den Problemen umgehen konnten.
Weil die halt genau von der Art waren, wo man auch, wenn man jetzt den Ansatz vom BASE nimmt, einfach wenig, keine Vorbedingungen hat und dann würde man das auch sehr ähnlich machen.
Ja.

[36:32] Ja, und es gab dann so ein paar, so Anfang, ja, an der Jahrhundertwende, 18. zu, ne, 19. zu 20. Jahrhundert, da gab es dann einige bedeutende Statistiker, die im Grunde so das durchgesetzt haben, womit wir heute vor allem Statistik machen. Mhm.
Ja, und also er weist auch nochmal darauf, na, wie formuliere ich das am besten?
Also diese bekannten Personen waren alle Kinder ihrer Zeit und in ihrer Zeit gab es so diese eugenische Bewegung.
Und sie waren auch alle Anhänger dieses Denkens. Also für diejenigen Zuhörer, die das vielleicht noch nicht gehört haben, Eugenik ist so das Denken, das…

[37:32] Ja, man Menschen so ein bisschen wie Zuchttiere betrachtet, sag ich mal. Und dass man dann sagt, es gibt bestimmte Menschen oder bestimmte Gruppen von Menschen, die sind besser als andere Gruppen von Menschen.
Also man merkt da auch, das ist im Prinzip der Versuch, so ein bisschen den Rassismus und Kulturschauvinismus der westlichen Welt irgendwie durch Wissenschaft zu begründen.
Dass man also sagt, es gibt bestimmte Menschengruppen, die sind besser und die sollte man pflegen, wie man jetzt auch irgendwie es in der Rinderzucht machen würde.
Das heißt, man muss diejenigen, die man für besser hält, die muss man fördern und man muss auch, das ging dann auch so weit, dass man gesagt hat, in einer Bevölkerung, also jetzt in einem Land, also es war ironischerweise gerade in den USA eine sehr starke Bewegung, die ja eigentlich so ein sehr freiheitliches Land sind, aber wo dieser Rassismus zu der Zeit wirklich sehr extrem war.

[38:34] Und es ging dann auch so weit, dass man gesagt hat, wenn Menschen also irgendwelche Mängel haben, sage ich mal, Mängel in Anführungszeichen, also sprich Menschen mit Behinderung oder Menschen, die andere irgendwie Eigenschaften hatten, die die Gesellschaft schlecht findet, dass man denen sogar verbieten sollte, sich fortzupflanzen, was dann teilweise auch wirklich zu so Sterilisationskampagnen geführt hat.
Also das ist wirklich keine schöne Sache.

[39:02] Wenn euch das interessiert, ich habe ein bisschen darüber gesprochen, glaube ich in Folge 21, da habe ich euch Moderne und Amivalenz von Sigmund Baumann vorgestellt und Baumann macht da im Prinzip die These stark.
Holger hat das jetzt gerade kritisch ausgelegt und gesagt, naja, das war der Versuch, den Rassismus in eine wissenschaftliche Form zu gießen oder das irgendwie zu untermauern.

[39:26] Und Baumann sagt, naja, das, grad was dann, also Holocaust, Shoah, Poraimus, hier in Deutschland oder auf deutschem Boden, das was hier entstanden ist, ist ein Stück weit Stand der Wissenschaft gewesen.
Also das, was da als rassistisches Vernichtungsprogramm umgesetzt wurde, ließ sich durchaus ganz gut wissenschaftlich begründen zu der Zeit.
Und in anderen Ländern wurde das nicht umgesetzt, aber den quasi den, ja ich sag mal, den Unterbau dafür hätte es auch in anderen Ländern gegeben. Ja, aber, und jetzt kommen wir wieder zum Buch zurück, dieser wissenschaftliche Unterbau, der wurde von diesen frühen Statistikern gemacht, in dem sie so getan haben, als hätten sie keine Vorannahmen und die Daten mit dieser frequentistischen Methode analysiert haben und natürlich so ausgelegt haben, dass es zu ihrer Meinung passt. Das heißt, dieser wissenschaftliche Unterbau, zumindest sofern er auf Statistik aufgebaut war, ist durchaus zweifelhaft. Aber er hat echt Fläche bekommen.

[40:33] Ja, aber das zeigt eben auch, nur weil etwas wissenschaftlich die Meinung ist, heißt es nicht, dass das, wenn man es genau untersucht, dann auch richtig ist.
Ja, finde ich wichtig.
Und in dem Falle ist es halt so, dass sie wirklich versucht haben, ihre rassistischen Meinungen zu begründen.

[40:58] Indem sie statistische Untersuchungen gemacht haben.

[41:00] Und sie haben diese frequentistische Methode benutzt und sozusagen sie auch benutzt, benutzt, um sich als objektiv zu zeigen.
Wobei dieselben Personen aber dann, wenn das Ergebnis nicht in die Richtung ging, die ihnen gepasst hat, dann durchaus auch Argumente gefunden haben, warum man das dann doch in dem Moment nicht so interpretieren konnte.
Ja, also das…
Das heißt nicht, dass diese Methoden falsch sind, das sagt er auch, das muss man auch dazu sagen, nur weil Menschen das falsch benutzt haben, heißt nicht, dass die Methode an sich falsch ist.
In dem Moment ist halt der Denkfehler, dass das halt ein Fall ist, wo man eigentlich von seinem Vorwissen her die Sachen betrachten muss und das haben sie eben nicht gemacht.
Wie gesagt, es gibt Fälle, für die dieser statistische Ansatz genau richtig ist, aber in dem Fall kann man das sehr stark hinterfragen, inwieweit da wirklich eine Objektivität da war bei der Betrachtung.
Und es ist auch eine Sache, das fand ich auch spannend, sagen wir mal, nicht unbedingt auf gute Art, aber spannend, wo Clayton dann darauf hinweist, dass viele der Begriffe, der Standardbegriffe in der Statistik aus dieser Zeit kommen.

[42:20] Ja, das ist interessant, das stimmt, ja. Also es ist sowas wie, man spricht halt in der Statistik immer noch viel von Population. Und das kommt daher, dass die Leute, die diese Methoden etabliert haben, haben von Bevölkerungsgruppen geredet.
Und genauso, die sprechen dann von Homogenität der Daten, wenn man dann weiß, dass da dieses rassistische Denken drin gesteckt hat, als sie diese Begriffe geprägt haben, dann guckt man auch ein bisschen anders auf den Begriff. Ja, ja.
Also auch der Begriff der Regression ist ein ganz neutraler Standardbegriff in der Statistik heute, war aber in der ursprünglichen Verwendung halt wirklich, also Regression ist ja sowas wie eine Rückentwicklung und wurde wirklich aus diesem eugenischen Denken geprägt.
Also das ist auch eine der, ich sag mal eine Nebenforderung, ist nicht die Hauptforderung, aber es ist eine Nebenforderung, die er dann am Ende macht, dass man vielleicht auch die Sprache in der Statistik noch mal überdenken sollte, um ein bisschen dieses eugenische Erbe vielleicht daraus zu entfernen.
Ja, finde ich, ist ja vielleicht gar nicht so schwierig, das hinzukriegen.

[43:31] Genau, da habe ich jetzt auch schon gesagt, dass da auch dieser Gedanke dann drin war, dass man versucht, objektiv zu erscheinen.
Genau. Was dann im Folgenden passiert ist, diese Vertreter dieser frequentistischen Schule, die waren sehr einflussreich und haben irgendwie diesen baisischen Ansatz sehr abgelehnt.
Also teilweise auch bei denjenigen, die jetzt nicht so dieser Eugenik angehangen haben, die haben trotzdem teilweise den Ansatz von BICE abgelehnt, weil dann manchmal nicht intuitive Ergebnisse rauskommen.
Also das war dann eher…

[44:13] Ja, das hat sich halt nicht richtig angefühlt. Ja.
Auf der anderen Seite hat sich dann aber auch irgendwie gezeigt, wenn ich jetzt Untersuchungen machen will, sich halt doch gegen irgendwelche Annahmentesten, gegen irgendwelche Hypothesentesten. Und dann wurde halt so diese, was du wahrscheinlich dann auch mal gelernt hast, diese ganze Methode mit Hypothesentests etc. wurde deswegen entwickelt. Weil man dann irgendwie versucht hat, irgendwie dieses frequentistische Denken von den Daten her zu behalten, aber dann in der Praxis halt doch irgendwie mit Hypothesen vergleichen musste. Und dann hat man sich diese komplizierten Hypothesentests und so weiter überlegt, die aber laut.

[44:59] Clayton nicht ähm, nichts in sich ein, so richtig stringent sind, ne, sondern es ist eher so eine Ansammlung von verschiedenen gemachten Erfahrungen, ne, und dann gibt’s verschiedene Tests für verschiedene Situationen, die man dann anwenden soll, etc.
Aber es ist nicht, äh, nicht basierend auf einer, ja, ich sag jetzt mal mathematisch schön sauber stringenten, äh, Theorie, sondern es ist einfach eher so, ja, ne, halt so, so ein bisschen Werkzeuge, die da gesammelt wurden.
Und manches ist auch eine gewisse Willkür, dass man zum Beispiel sagt, es gibt so was wie Konfidenzintervalle und ich setze halt fest, bei welcher Konfidenz betrachte ich es als richtig.
Also für Zuhörer, die jetzt nicht so in der Statistik sind, ganz kurz gesagt, im Prinzip sagt man, ich gucke mir an, wie wahrscheinlich ist es, dass ich das Ergebnis, das ich gemessen habe, durch puren Zufall bekomme.
Und dann sagt man, wir gehen davon aus, dass das Ergebnis richtig ist, wenn dieser Zufall so ist, dass es nur, wenn ich 20 mal das mache, dass es nur einmal passiert.

[46:08] Ja genau also genau 95 genau typisch sind so 95 prozentiges konfidenzintervall oder 99 prozent und dann kannst du das halt immer weiter steigern und das wird dann in diesen tabellen schön angegeben mit so einem p wert genau aber man hat sich einfach so drauf geeinigt naja wenn es nur in einem von 20 fällen quasi aus zufall entsteht dann passt das schon.
Genau. Und das ist auch was, das ist relativ willkürlich gesetzt, aber teilweise heute in der Wissenschaft, wenn man eine Veröffentlichung machen möchte, dann möchte man halt zeigen, dass das Ergebnis irgendwie was zählt.
Und dann möchte man halt immer eigentlich nur, dass man unter diesem 1 in 20 Ausschlusskriterium landet.
Und das hat dann wieder in der Wissenschaft auch Effekte, die vielleicht nicht immer so So.

[46:58] Das gewollte sind. Ja, dann kann man nämlich irgendwann anfangen, so lange rum zu testen, bis man in seinen Daten etwas findet, was diesem Konfidenzintervall entspricht. Und dann kannst du im Zweifel deine Hypothese halt vielleicht ein bisschen anpassen. Also genau, das ist nicht die Idee davon, wie das laufen sollte.
Genau. Und was man dann noch macht, was man dann auch entwickelt hat, dass man gesagt hat, ah, wir wollen eine bessere Datenbasis haben, dann macht man sogenannte Meta-Analysen, dann versucht man die Daten aus verschiedenen wissenschaftlichen Studien zusammen zu kombinieren, um eine bessere Statistik zu haben, um bessere Ergebnisse zu finden. Und da war es dann so ein bisschen, was Clayton dann sagt, im Grunde, wenn ich jetzt irgendwie von vornherein mit der Bayesian Methode mache, das heißt, dass ich immer von dem, was ich an Vorwissen oder Vorannahme habe, ausgehe und es von da ausgehend meine Analyse mache, dann mache ich eigentlich jedes Mal eine Meta-Analyse, weil da immer schon mein Wissen von den allen mir vorher bekannten Sachen mit drin steckt. Ja, stimmt.

[48:04] Ja, das ergibt Sinn für mich, ja. Also, das, ich hatte ja schon gesagt, er nimmt schon eine klare Seite zwischen diesen beiden philosophischen Schulen ein, wo er dann so ein bisschen – also ich habe jetzt viel von der geschichtlichen Entwicklung ein bisschen übersprungen, ja. Und dann kommen wir zu der Replication Crisis, also der Replikationskrise. Das ist also ein Problem, was vor allem bekannt ist aus der Psychologie, glaube ich, was aber auch in anderen Wissenschaften auftritt, dass man das Problem hat, Ergebnisse von wissenschaftlichen Untersuchungen zu replizieren, das heißt nochmal mit einer anderen Untersuchung zu bestätigen.

[48:49] B1 – Genau, also das Problem ist im Prinzip, so wie ich das mal irgendwann kennengelernt habe, dass man, also eine Studie wird veröffentlicht und dann probiert man nach ein paar Jahren einfach das gleiche nochmal zu machen. Man hat da natürlich nicht genau die gleichen Leute vor Aber man probiert einfach im Prinzip, die Studie noch mal eins zu eins durchzuführen und hat dann das Problem, dass man gar nicht mehr nachweisen kann, was ursprünglich nachgewiesen wurde.
Und das wurde für ganz viele Studien gemacht. Und ja, dann hat man halt irgendwann das Problem zu sagen, wie aussagekräftig sind eigentlich die Sachen, die da durchgeführt wurden. wurden.
Ja. Genau. Und Clayton sagt also, dass das möglicherweise auch auf die statistischen Methoden zurückzuführen ist.
Also zum einen, weil man ja immer so ein bisschen darauf zielt, dass man bestimmte etwas willkürliche statistische Maßstäbe dann trifft, aber auch, weil man in der Auswertung der einzelnen Ergebnisse.

[49:51] Vorwissen nicht berücksichtigt.
Also wir haben bei der Replikationskrise das Problem, dass wir die Daten nicht nachvollziehen können.
Und das hängt möglicherweise auch damit zusammen, dass wir einfach die Statistik falsch machen.

[50:06] Und da sind viele Kritikpunkte drin. Also es fängt schon damit an, dass eigentlich dieser statistische Ansatz, der Standardansatz geht immer davon aus, dass ich was habe, was ich beliebig oft machen kann, da kommt immer dasselbe raus.
Ist aber eigentlich gar nicht so gut geeignet, wenn ich jetzt zum Beispiel so was seltenes damit versuche, statistisch zu untersuchen.
Das ist eigentlich gar nicht vorgesehen, aber relativ viel Forschung macht genau das.
Und es ist auch so, in der Forschung sucht man immer so ein bisschen nach dem herausragenden Ergebnis, dass das irgendwie dem widerspricht, was man erwarten würde.
Das heißt, man sucht natürlich auch nach Ergebnissen, wo genau sowas dann dabei rauskommt in der Auswertung.
Aber das ist eigentlich vielleicht gar nicht so der richtige Ansatz, sondern, also vor allem, weil man dann auch, ne, schon mal passieren kann, dass jemand halt einfach irgendwie erst mal Daten erzeugt und sich dann irgendwie anguckt, ob er bei verschiedenen Arten auf die Daten zu gucken, irgendwo dann die Kriterien trifft, dass das ja irgendwie was Neues ist, und das veröffentlicht er dann.
Ne, das, äh, was dann aber heißen kann, ne, wenn ich, äh, wenn ich sage, ich guck mir den Fall an, wo in einem von 20 Fällen oder nur in einem von 20 Fällen es nicht.

[51:24] Es Zufall ist. Ja, und ich gucke mir 20 verschiedene Arten an, diese Daten zu analysieren.
Dann ist es gar nicht so überraschend, wenn bei einer von diesen 20 was Überraschendes rauskommt.
Weil das ist dann ja eine zufällige Fall. Aber ich veröffentliche halt, wenn ich das veröffentliche, sage ich halt nicht, dass ich noch 19 Arten hatte, mir die Daten anzugucken, wo nichts Besonderes war.
Aber wo er dann sagt, die Lösung ist, wir sollten halt weggehen von dieser Frequentist-Methode.
Und wir sollten halt auch keine Angst mehr davon haben, dass wir Vorannahmen haben, sondern wir sollten sagen, wir haben diese Vorannahmen.
Und wenn ich die reinnehme, dann kann ich halt auch bestimmte, dann habe ich automatisch auch so ein bisschen diesen in meiner Methode drin, dass je.

[52:14] Je unwahrscheinlicher die Aussage ist oder je überraschender, desto stärker ist der Maßstab, den sie erfüllen muss, um bewiesen zu werden.
Oh ja, ja, ja, klar. Und das passiert so ein bisschen automatisch, wenn ich das mache.
Und dann hätte man zum Beispiel auch viele Forschungen, wo man, wenn man jetzt drauf guckt, sagt, das ist jetzt sehr unerwartet und teilweise auch abstrus.
Also da gab es mal irgendwie solche Untersuchungen, wo jemand dann, ich glaube auch ein bisschen um dieses Problem zu zeigen, ja, Und wo dann Untersuchungen gaben, dass wenn man irgendwie Beatles Musik hört, man sich so und so für jünger ist, ist körperlich. Oder viel von der Forschung, die so in, bei solchen Psy-Phänomenen, also irgendwelche, dass man irgendwelche Karten vorhersagen kann oder sowas, ne, wo man dann sagt, naja, aber wenn ich das jetzt nur rein die Daten angucke, ne, und dann kann ich da schon irgendwie statistische Signifikanz rauskriegen.
Aber wenn ich das jetzt bayesisch machen würde, dann würde ich sagen, naja, also eigentlich spricht meine Vorerwartung erstmal dagegen und der Auswertung, ne, bräuchte ich viel stärkere Effekte, um gegen das ganze Vorwissen anzukommen, dass das irgendwie dann rausstechen würde.
Ja, also das ist dann auch wieder ein Argument für diesen baisischen Ansatz.

[53:32] Also er geht dann auch so weit zu sagen, man sollte auch viele dieser Standardtests, die man macht, der Signifikanztest, sollte man einfach sein lassen.
Und man sollte auch dahin kommen, dass man einfach zugibt, oder nein, nicht zugibt, dass man auch damit umgehen kann, dass diese Antworten, die man gibt, dass die halt nicht sicher sind.
Sondern dass die erstmal immer nur eine Annäherung an die, ich sag mal, objektive Wahrheit sind, weil man sowieso nicht wirklich objektiv sein kann, sondern immer von seinen Vorannahmen ausgeht.

[54:08] Und entsprechend sollte man das anerkennen und die Ergebnisse auch immer so betrachten, dass man nämlich immer sagt, das ist einfach der beste Stand, den wir jetzt haben.
Und wenn wir neue Ergebnisse bekommen, dann passen wir den Stand an.
Und das ist also eher so ein rekursiver Prozess, wo man sich immer weiter verbessert, dass man diesen Ansatz auch generell in der Statistik annehmen könnte.
Und dass man auch von dieser Idee wegkommen soll, dass man objektiv sein kann, sondern dass man einfach gucken soll, ob die Sachen valide sind, also dass sie so weit wie man es sein kann korrekt sind und dass sie irgendwie, ich sag mal, in irgendeiner Weise nützlich sind.

[54:49] Ja, also und das war jetzt auch im Prinzip schon so, dass das Ende des Buches, so das Plädoyer eben diesen anderen Umgang mit der, mit Statistik zu haben, ne, oder vor allem auch mit der Auswertung von Statistik, um dann auch ein besseres Verständnis daherzukriegen.
Und als Nebeneffekt vielleicht auch ein bisschen so der zufälligen Komplexität aus der Statistik rauszunehmen.
Ja, ich danke dir für diese Buchvorstellung. Eine Sache, die mir gerade noch eingefallen ist, ich lese immer mal wieder so Überschriften und ich finde, das geht in die Richtung, wo gesagt wird, Millionäre tragen diese vier Uhrenmarken oder so.
Was daran liegt, dass ich mich ein bisschen für Automatikuhren interessiere. Und die implizite Annahme ist ja dahinter, dass wenn man sich diese Uhrenmarken kauft und sofern man sie sich leisten kann, dass man dann selbst zum Millionär wird.
Und das ist irgendwie, ja, das ist so dieses auch typische Storch auf dem Dach, Kinder und so Probleme.

[55:53] Ja und dazu kommt ja noch, dass ja die Statistik ja vielleicht gar nicht so gut ist.
Ja, das vielleicht auch noch.
Und mit so normalen statistischen Methoden, weil es gar nicht, vielleicht gar nicht so viele Millionäre gibt, dass man da eh jetzt in der frequentistischen Methode gar keine saubere Statistik machen könnte.
Das sowieso, aber auch so Kausalitäten werden ja einfach häufig mal einfach fallen gelassen.
Also so wie unabhängige und abhängige Variablen, das ist halt kein Spaß.
Da muss man sich schon auch ernsthaft mit auseinandersetzen.
Mehr Literatur

[56:27] Aber kommen wir mal zu weiterführender Literatur oder Beiträgen, wie auch immer.
Ich habe zwei Sachen rausgesucht.
Einerseits gibt es eine Buchreihe, die heißt Shortcuts.
Da die, ich glaube, die war die von 2001, also vom 2001 Verlag, Ich glaube, da wurden für verschiedene Autoren, ich glaube, es sind nur Männer, so Kurzbeiträge versammelt und es gibt, glaube ich, sieben oder acht Bände.
Und einen gibt es eben auch zu Michel Foucault, der auch ganz viel so historische Forschung gemacht hat und ganz viel quasi kritische Beobachtung der zumindest westlichen Welt im Sinne von, wann ist was entstanden und welche Einzelereignisse oder Zeitpunkte in der Welt haben irgendwie starke Vorannahmen für uns alle geprägt.
Und ich glaube, in dem Band sind viele Texte zur Sexualität, weil das einfach ein großes Forschungsthema von ihm war.
Aber ich glaube, da ist auch was zur Wissenschaft mit drin. Und das könnte durchaus, glaube ich, ganz spannend sein, weil der auch so einen sehr schönen, kritischen Blick auf die Welt hat.
Und dann habe ich ganz klassisch noch gedacht, das wurde als Vortrag gehalten, Wissenschaft als Beruf von Max Weber.

[57:46] Ja er im prinzip ja über den beruf eben des wissenschaftlers spricht und ja so auch sowieso fortschritt zum thema macht und sich fragt wie inwiefern das noch möglich ist und er spricht viel da über die entzauberung der welt durch die wissenschaft also ja ich glaube genau hat er irgendwie 1917 ja doch während des ersten weltkriegs auf jeden fall gehalten und genau gerade unter so einem Vorschrittsparadigma ist das, glaube ich, ganz interessant. Ja, das sind die beiden Sachen, die ich mitgebracht habe, zusammen mit den Folgen, die ich euch am Anfang und ja zwischendurch auch schon genannt habe. Ja, hast du noch Sachen, die du unseren ZuhörerInnen mit auf den Weg geben willst?

[58:31] B1 Ja, ein paar Sachen habe ich. Also zum einen alte Folgen von uns. Also da hatte ich auch, was du schon gesagt hattest, an die Folge 51 linkere Daten, rechte Daten gedacht, wo es ja auch darum geht, wie man so den Blick auf Daten hat und damit umgeht. Das heißt, ich glaube, das passt sehr gut zusammen. Dann habe ich auch noch mal zwei Bücher, die ich vorgeschlagen habe oder schon vorgestellt habe, nämlich in der Folge 49 The Collapse of Chaos und in der Folge 37 Im Wald vor lauter Bäumen. Da geht es nicht so sehr, Da geht’s so ein bisschen was, ne, was, wie man mit Erkenntnissen und Daten umgeht, geht’s da so ein bisschen.
Und wie man da einen breiteren Blick haben kann.

[59:16] Und deswegen denke ich, dass das irgendwie schon ganz gut dazu passt.
Ich hätte noch drei Buchtipps und einen YouTube-Kanal.
Und zwar einmal von Tim Harford, How to Make the World Add Up.
Das ist, finde ich, ein sehr spannendes Buch, wo er auch ein bisschen so dem Laien.

[59:42] Tipps an die Hand gibt, wie man, wenn man irgendwo Zahlen sieht, wie man mit denen umgehen kann.
Also so ein bisschen, klar, es kommt auch so von statistischem Wissen, statistischem Verständnis her, aber ist auch ein bisschen breiter, ne, so, ich sag mal, so ein bisschen alltagstauglich, wie gehe ich eigentlich damit um, wenn ich irgendwelche Zahlen zu Gesicht bekomme.
Dann von, oh, ich muss bei dem Namen, hab ich immer Angst, dass ich den total falsch ausspreche, von Mai Thi Nguyen Kim, die kleinste gemeinsame Wirklichkeit, das habe ich glaube ich auch schon ein, zweimal hier empfohlen. Das ist, finde ich, auch sehr schön, einfach eine Einführung in wissenschaftliches Denken, wo natürlich auch so ein bisschen statistisches Denken rein spielt.
Wobei es sehr naturwissenschaftliche Wissenschaft ist. Also ganz viel Wissenschaft erfasst sie in meinen Augen auch einfach nicht.
Also aber egal. Ja, bei uns weiterhin so ein Hinweis, gerade für so Statistikthemen. Ja.
Mit der kleinen Anmerkung, dass vieles, was Sie sagen, natürlich von denen auch auf den statistischen Methoden aufbaut, die jetzt Clayton kritisieren würde. Trotzdem finde ich, dass es spannend ist.
Und dann ein Buch von Nicolas Taleb Nassim, sein erstes Buch, Fooled by Randomness, wo Also sein Schreibstil ist teilweise ein bisschen…

[1:01:07] Ja, aber inhaltlich sehr spannend und in dem Buch geht’s so ein bisschen darum, wie man auch in eigentlich zufällige Prozesse Dinge reininterpretiert, wo man dann sagen müsste, im Grunde habt ihr einfach nur nicht verstanden, wie das bestimmte Dinge zufällig auftreten und wie man damit das besser versteht.
Und das, als ich das vor vielen Jahren zufällig gefunden hatte, also das war bevor er mit The Black Swarm bekannter geworden ist, hat mir das doch über einige Sachen neue, spannende neue Blickwinkel gegeben, sagen wir mal.

[1:01:47] Und dann habe ich noch einen YouTube-Kanal, nämlich von Richard McElrath.
Das ist ein Professor, der ist an einem Max-Planck-Institut und der ist auch Sozialwissenschaftler.
Ich weiß gerade nicht mehr, an welchem Max-Planck-Institut er ist, muss ich gestehen.
Und der hält jedes Jahr auch online verfügbar eine Vorlesung über die Bayesische Statistik.
Das heißt, auf seinem Kanal, da gibt es jetzt auch gerade den Durchgang für 2023, gibt aber auch die von Vorjahren da noch zu bekommen.
Also er ist Amerikaner, aber wie gesagt, in Deutschland an einem Max-Planck-Institut.
Er ist am Max-Planck-Institut for Evolutionary Anthropology.
Anthropology, genau, Anthropologe ist er. Anthropologe in Leipzig, genau.

[1:02:45] Guckt dann also auch, ist dann nicht nur Naturwissenschaftler, sondern auch wirklich mal ein Geisteswissenschaftler, der aber trotzdem diese statistischen Methoden benutzt.
Und für jemanden, der sich da wirklich jetzt interessiert ist, wie diese bayesische Statistik funktioniert, das kann man sich angucken.
Oder man kann auch auf den, sich auf den YouTube-Kanal von Aubrey Clayton gehen.
Den hab ich, den kenne ich aber ehrlich gesagt, kannte ich vorhin noch nicht.
Den muss ich mir jetzt gleich mal angucken. teilweise habe ich ungefähr 60 Sekunden eines Vortrags mir angeguckt, aber das war irgendwie eingängig und klang so ganz locker gut zum zum zuzuhören, wie auch immer. Also so als wäre das irgendwie ein guter Einstieg.

[1:03:28] Dann können wir den YouTube-Kanal vielleicht ergänzen, ich den dann gleich auch noch in die Show Notes, falls jemand da gucken möchte.
Genau, das wären meine weiterführenden Tipps.
Ausstieg

[1:03:42] Alles klar, vielen Dank dir. Ja, dann bleibt mir gar nicht mehr noch irgendwas hinzuzufügen.

[1:03:50] Außer, dass ihr gerne auf unserer Webseite vorbeischauen könnt.
Das ist zwischenzweideckeln.de, alles zusammen und klein geschrieben.
Und wenn ihr Lust habt, uns auf Social Media zu folgen, dann findet ihr uns unter zwischenzweideckeln auf Facebook und unter dem Händel deckeln, also letztes Wort vom Podcast, auf Instagram und Twitter.
Und auf Mastodon sind wir at zzd.podcast.social. findet ihr auch in den Show Notes. Also ich hoffe, Mastodon habe ich jetzt gerade richtig genannt, aber doch ist auf jeden Fall auf dem Podcast.social Server. Und wenn ihr Lust habt, uns eine Review da zu lassen, freuen wir uns natürlich sehr. Das geht mindestens bei Apple und auch bei Spotify und hilft anderen Leuten, den Podcast zu finden. Nicht mehr suchen und finden müssen Sie den Podcast, wenn ihr ihn einfach weiterempfehlt. Also euren FreundInnen oder Familien oder wie auch immer. Wir freuen uns, wenn noch mehr Menschen uns zuhören können. Und ja, in drei Wochen weiß ich gar nicht mehr, wer dann vorstellt, aber ich glaube, müsste dann zumindest Amanda oder Nils sein. Und genau, ja, ja, Amanda ist dran.
Das Buch wissen wir, glaube ich, beide noch nicht. Mal gucken, wer ihr zuhört. Aber genau, dann im April geht es weiter und bis dahin viel Spaß beim Hören. Macht’s gut! Tschüß!

[1:05:13] Music.

Verfasst von:

2 Kommentare

  1. 8. Juni 2020
    Antworten

    Hallo ihr Beiden,
    ich habe eben euren Podcast zum Thema „Ökologische Kommunikation“ von Niklas Luhmann gehört und möchte einfach nur Danke sagen! Ich arbeite mich gerade für meine Masterarbeit in das Thema ein und hatte bis heute echt Schwierigkeiten in Luhmanns Systemtheorie durchzublicken! Ihr habt mir mega weiter geholfen und außerdem noch interessante Anhaltspunkte geliefert. Durch diese Basis an Grundverständnis kann ich jetzt tiefer in die Recherche gehen. Mega!
    Ihr macht das wirklich toll, ein kleiner Kritikpunkt, ein Mikro hat nicht so gut funktioniert aber da es ja schon ein Jahr her ist dass es aufgezeichnet wurde, habt ihr da sicher schon was gemacht. Aber ansonsten, weiter so! Macht Spaß euch zuzuhören!
    Ganz liebe Grüße aus Luxemburg!
    Lena

    • Christoph
      10. Juni 2020
      Antworten

      Hallo liebe Lena,

      hab vielen lieben Dank für deinen Kommentar! Das freut mich natürlich riesig, dass ich und wir hiermit einen Einstieg bieten konnten. Ich empfehle die Ökologische Kommunikation weiter sehr gern als Einstiegswerk in die Luhmann’sche Systemtheorie.

      Was das Mikro angeht habe ich ein wenig aufgerüstet mittlerweile – manchmal macht mein Internet hier aber leider nicht so ganz mit, vielleicht lag es auch daran.

      Liebe Grüße
      Christoph

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert