Von Denkfehlern und Massentestungen

Liebe Leser,
habt Ihr schon mal vom Prävalenzfehler gehört? Solltet Ihr aber!
Der Prävalenzfehler (eng. base-rate-fallacy) ist ein weit verbreiteter Denkfehler: Man überschätzt konkrete Einzelfall-Informationen und unterschätzt die zugrundeliegende Häufigkeit (Prävalenz, Basisrate) eines Ereignisses. Häh? Was bedeutet das konkret?

Beispiel 1 – Horst

„Horst ist schüchtern, zurückgezogen, hilfsbereit, ordnungsliebend, detailverliebt und wenig an Menschen oder der realen Welt interessiert. Ist er von Beruf eher Bibliothekar oder Bauer?“

Die meisten halten ihn vermutlich für einen Bibliothekar – obwohl es (in den USA, bei uns wird es nicht viel anders sein) mehr als 10x so viele Landwirte als Bibliothekare gibt. Die schiere Anzahl der Bauern macht es wahrscheinlicher, dass ein schüchterner, ordentlicher Mensch trotzdem Bauer ist. Noch klarer wird es bei extremen Verhältnissen: Horst liebt Astronomie. Ist er eher Banker oder Astronaut? Hier würden die meisten dann doch auf einen Banker tippen.

So gewappnet, kommen wir jetzt zu

Beispiel 2 – Medizinischer Test

Eine tödliche Krankheit tritt bei 1 von 1000 Menschen auf. Du lässt dich zufällig (also anlasslos) darauf testen. Der Test ist sehr gut: 100 % Sensitivität (keine falsch-negativen Ergebnisse) und
99 % Spezifität (nur 1 % falsch-positive Ergebnisse). Dein Test ist leider positiv. Wie hoch ist die Wahrscheinlichkeit, dass du die Krankheit hast?
1%, 9%, 10%, 90% oder 99%?

Versuche selbst, auf die Lösung zu kommen!

Hier Groks Versuch eines Bauer-Bibliothekar-Hybrids:
image (4).jpg

Die richtige Antwort ist 9%!
Warum?

Bei 1000 Getesteten erwarten wir:

  • 1 echter Kranker → 1 richtig Positiver
  • aufgrund der 99% Spezifität 1% also 10 falsch Positive
    Von 11 positiven Ergebnissen ist also nur eines echt. Dein positives Testergebnis ist also mit 9% (=1 aus 11) richtig positiv.

Hier anschaulicher zu sehen:
image.png
https://www.scientificamerican.com/article/the-false-positive-paradox-explains-why-you-misjudge-risk/

Der Prävalenzfehler wird daher auch false positive paradoxon genannt. Je seltener eine Erkrankung ist, desto mehr falsch-positive Ergebnisse produziert selbst ein sehr guter Test. Konsequenz in der Praxis: Massenscreenings auf seltene Krankheiten erzeugen meist mehr Schaden (unnötige Behandlungen, Angst, Kosten) als Nutzen. Bestes Beispiel waren die anlasslosen Massentestungen auf Covid mit fragwürdigen Tests (mehr dazu hier)! Aber dort ging es ja darum, die Angstlevels hoch zu halten, um die Restriktionen aufrechtzuerhalten und dafür waren die vielen Falschpositiven durchaus nützlich.

Deshalb sollte man immer gezielt testen, wenn bereits Symptome oder andere Risikofaktoren vorliegen – dann steigt die Vortest-Wahrscheinlichkeit deutlich und ein positiver Befund wird aussagekräftiger. Daher hatte ich im Beispiel auch dazugeschrieben, dass Du Dich anlasslos hast testen lassen. Wenn die Krankheit z.B. bestimmte Symptome gehabt hätte, die nur jeder 10. Mensch hat und Dich der Arzt deshalb für den Test ausgewählt hätte, dann wäre auch das Ergebnis wesentlich aussagekräftiger (nämlich 50% statt 9%)!

Beispiel 3 - Überwachung

Beim Champions League Finale 2017 in Cardiff scannte die Polizei mit Gesichtserkennung von öffentlichen Kameras die Gesichter von ca. 170.000 Personen, um "persons of interest" (also bekannte Straftäter) aufzuspüren. Ergebnis: 2470 Treffer, davon 2297 falsch positiv! Das System war nicht defekt – es litt einfach unter der extrem niedrigen Basisrate echter Krimineller. Ähnlich werden vermutlich datenintensive "Terrorabwehr-Programme" (zb. eine Chatkontrolle) scheitern: Bei winziger Basisrate echter Krimineller produzieren selbst gute Algorithmen Millionen falscher Treffer, binden Ressourcen und verletzen Bürgerrechte.

image.png

Fazit:

Der Prävalenzfehler zeigt: Je seltener etwas ist, desto mehr falsche Alarme gibt es – egal wie gut das Verfahren ist (eventuell gibt es in Zukunft mit AI noch bessere Verfahren, aber noch ist es nicht soweit). Das gilt für Medizin, Sicherheitspolitik und viele andere Bereiche.
Statistisches Wissen (das in der Schule leider nicht gelehrt wird) ist daher essenziell, um vernünftige Entscheidungen zu treffen. Und auch um abzuwägen, wann Falschpositive in Kauf genommen werden sollten und wann nicht. Auch bei den Feuermeldern sind die meiste Alarme falsch-positiv. Aber hier ist es vertretbar, da durch die wenigen echten Alarme viele Leben gerettet werden.

Quellen:
https://de.wikipedia.org/wiki/Pr%C3%A4valenzfehler
https://www.scientificamerican.com/article/the-false-positive-paradox-explains-why-you-misjudge-risk/

Verwandte Posts:
So durchschaust Du die gängigsten Statistik-Tricks



0
0
0.000
8 comments
avatar

Even with fire alarms, most alarms are false positives. But here it is tolerable, as the few real alarms save many lives.

It is kind of that way here to. But, they prosecute people who pull them intentionally for false reasons.

0
0
0.000
avatar

If you create a false alarm intentionally and create costs, of course it should be punished.

0
0
0.000
avatar
(Edited)

Hello @stayoutoftherz! I read your post using a translator, and it is absolutely fascinating. With my background in agriculture, I really enjoyed the 'Horst' example (the farmer vs. librarian paradox). It perfectly illustrates how we often ignore basic statistics in favor of stereotypes. The medical test example also blew my mind—only a 9% actual probability of being sick despite a 99% specific test is a huge eye-opener about the dangers of mass screening. Thank you for making such complex statistical concepts so easy to understand. Great read!

0
0
0.000
avatar

Ja das Falsch-Positiv-Phänomen ist ja bekannt bzw. bedingte Wahrscheinlichkeiten. Auch wenn dieses wissenschaftlich unumstrittene Phänom seit 2020 meiner Erfahrung nach stark unterdrückt und relativiert wurde.
Was ich ja auch ein Unding finde, dass überhaupt nicht mit zufälligen Stichproben gearbeitet wurde. Als hätte man Wissen von vor 2020 einfach "vergessen".

0
0
0.000
avatar

Das habe ich mir schon bei den Corona Tests gedacht, auch mit Symptomen in deinem Bespiel ist die Wahrscheinlichkeit nur 50%, auch nicht sehr gut. Daran sieht man, wie schwierig es ist, aussagekräftige Tests für seltene Krankheiten zu machen, vor allem wenn die Tests noch dazu fragwürdig sind.

0
0
0.000
avatar

Congratulations @stayoutoftherz! You received a personal badge!

You powered-up at least 10 HIVE on Hive Power Up Day!
Wait until the end of Power Up Day to find out the size of your Power-Bee.
May the Hive Power be with you!

You can view your badges on your board and compare yourself to others in the Ranking

Check out our last posts:

Hive Power Up Month Challenge - March 2026 Winners List
Be ready for the April edition of the Hive Power Up Month!
Hive Power Up Day - April 1st 2026
0
0
0.000
avatar

Congratulations @stayoutoftherz! You received a personal badge!

You powered-up at least 100 HP on Hive Power Up Day! This entitles you to a level 3 badge
Participate in the next Power Up Day and try to power-up more HIVE to get a bigger Power-Bee.
May the Hive Power be with you!

You can view your badges on your board and compare yourself to others in the Ranking

Check out our last posts:

Hive Power Up Month Challenge - March 2026 Winners List
Be ready for the April edition of the Hive Power Up Month!
Hive Power Up Day - April 1st 2026
0
0
0.000
avatar

Klarer Fall für Statistik-Laien. Horst wäre sicher nicht Psychiater.

0
0
0.000