Uniwersytet Warszawski - Centralny System Uwierzytelniania
Strona główna

Kult istotności statystycznej. Ukryte niepewności losowe w nauce, ich źródła w ludzkim umyśle i nieoczekiwane skutki

Informacje ogólne

Kod przedmiotu: 1400-236UNS-OG
Kod Erasmus / ISCED: 11.204 Kod klasyfikacyjny przedmiotu składa się z trzech do pięciu cyfr, przy czym trzy pierwsze oznaczają klasyfikację dziedziny wg. Listy kodów dziedzin obowiązującej w programie Socrates/Erasmus, czwarta (dotąd na ogół 0) – ewentualne uszczegółowienie informacji o dyscyplinie, piąta – stopień zaawansowania przedmiotu ustalony na podstawie roku studiów, dla którego przedmiot jest przeznaczony. / (0542) Statystyka Kod ISCED - Międzynarodowa Standardowa Klasyfikacja Kształcenia (International Standard Classification of Education) została opracowana przez UNESCO.
Nazwa przedmiotu: Kult istotności statystycznej. Ukryte niepewności losowe w nauce, ich źródła w ludzkim umyśle i nieoczekiwane skutki
Jednostka: Wydział Biologii
Grupy: Przedmioty ogólnouniwersyteckie na Uniwersytecie Warszawskim
Przedmioty ogólnouniwersyteckie ścisłe
Strona przedmiotu: http://www.biol.uw.edu.pl/stat
Punkty ECTS i inne: (brak) Podstawowe informacje o zasadach przyporządkowania punktów ECTS:
  • roczny wymiar godzinowy nakładu pracy studenta konieczny do osiągnięcia zakładanych efektów uczenia się dla danego etapu studiów wynosi 1500-1800 h, co odpowiada 60 ECTS;
  • tygodniowy wymiar godzinowy nakładu pracy studenta wynosi 45 h;
  • 1 punkt ECTS odpowiada 25-30 godzinom pracy studenta potrzebnej do osiągnięcia zakładanych efektów uczenia się;
  • tygodniowy nakład pracy studenta konieczny do osiągnięcia zakładanych efektów uczenia się pozwala uzyskać 1,5 ECTS;
  • nakład pracy potrzebny do zaliczenia przedmiotu, któremu przypisano 3 ECTS, stanowi 10% semestralnego obciążenia studenta.

zobacz reguły punktacji
Język prowadzenia: polski
Rodzaj przedmiotu:

ogólnouniwersyteckie

Założenia (opisowo):

Wykład: Przydatny jest wcześniejszy kontakt z zagadnieniami wnioskowania statystycznego.


Ćwiczenia: Przydatna jest podstawowa znajomość pakietu R i odrobina doświadczeń w programowaniu; ich brak nie przekreśla możliwości udziału w zajęciach, ale spowoduje konieczność poniesienia większych nakładów pracy (zajęcia nie są kursem programowania w R).


Tryb prowadzenia:

mieszany: w sali i zdalnie

Skrócony opis:

Wykład poświęcony jest powszechnej praktyce sprowadzania wnioskowania statystycznego do testów istotności statystycznej, możliwym jej przyczynom i negatywnym dla nauki skutkom. Punktem wyjścia i powtarzającym się motywem jest relacja między pytaniem "czy w ogóle coś się dzieje, czy istnieje jakiś efekt?" a pytaniem "jak właściwie może być, jak silny może być rzeczywisty efekt?" - związek między testami istotności statystycznej a przedziałami ufności określającymi granice niepewności co do rzeczywistej wartości parametrów interesujących badaczy. Celem jest pokazanie w jaki sposób dominacja pierwszego pytania prowadzi, z powodu błędnych interpretacji odpowiedzi, do ukrycia nieuniknionych niepewności statystycznych oraz jak przyczynia się ona do kryzysu powtarzalności wyników w nauce, echa którego znalazły się już na łamach gazet. Wykład jest w możliwie najmniejszym stopniu zmatematyzowany; obliczeniowe i techniczne aspekty poruszanych kwestii są przedmiotem ćwiczeń.

Pełny opis:

Należy się zapoznać z ważnymi informacjami!

Treść wykładu. Wykład poświęcony jest powszechnej praktyce sprowadzania wnioskowania statystycznego do testów istotności statystycznej, możliwym jej przyczynom i negatywnym dla nauki skutkom. Stanowi on wprowadzenie do wybranych metod statystycznych, z naciskiem na określanie niepewności ilościowych oraz pokazanie, jak skromnej ilości informacji dostarcza testowanie i jak bardzo jest przeceniane. Jednocześnie, analizowane są różne powszechnie występujące przejawy błędnych przekonań na temat istotności statystycznej lub jej braku. Pytanie o ich przyczyny prowadzi do rozważań nad ludzkim umysłem, także w kontekście ewolucyjnym. Zaś pytanie o skutki – do rozpatrzenia możliwej roli paradygmatu testowania statystycznego w coraz powszechniej dostrzeganym kryzysie powtarzalności wyników w nauce.

Wybrane metody statystyczne rozpatrywane są nie tyle w kontekście szczegółów ich podstaw matematycznych, co głównie w aspekcie charakteru odpowiedzi których dostarczają na temat badanych fragmentów rzeczywistości. Omawiane są metody parametryczne i nieparametryczne dla jednej i dwu prób, analiza wariancji w klasyfikacji pojedynczej i podwójnej, metody analizy częstości, analiza korelacji, regresji liniowej i regresji logistycznej, przykłady metod wielowymiarowych. Szczególna uwaga poświęcona jest analizie interakcji, jako jednej z kwestii bardziej zaniedbywanych w podręcznikach.

Omówienie powyższych metod daje podstawę do rozpatrzenia kwestii i pytań ogólniejszych, które zajmują znaczącą część wykładu, np.:

(1) Ważniejsze argumenty w trwającej przez dziesięciolecia debacie na temat użyteczności testów istotności – od akceptacji, przez uznanie konieczności, po postulat wyeliminowania testów z praktyki naukowej. Moc testu statystycznego. Rozpowszechnione, ale rzadko respektowane zalecenia dotyczące wystarczającej mocy statystycznej. Paradoks nadmiernej mocy, wynikający z błędnego rozumienia testów. Moc testów a precyzja oszacowań.

(2) Współczesny paradygmat testowania istotności statystycznej jako zadziwiający produkt ewolucji kulturowej – hybryda różnych koncepcji, których autorzy najpewniej by się pod obecnym wynikiem nie podpisali.

(3) Czym jest wynik negatywny? Wnioskowanie z niewiedzy, wszechobecność błędów II rodzaju. Kiedy wynik negatywny jest wynikiem, a kiedy brakiem wyniku? Wiedza o braku znacznych efektów może być ważną wiedzą, czasami o taką właśnie chodzi. Ważne nauki płynące z metod testowania (bio)równoważności. Dokonywana wbrew ogólnej regule akceptacja hipotez zerowych jako często występujący element procedur statystycznych, jej poważny negatywny wpływ na poprawność wnioskowań. Skrajne konsekwencje poglądów Johna Ioannidisa: kiedy zaawansowana aparatura badawcza zostaje sprowadzona do roli najdroższego generatora liczb losowych?

(4) "Polowanie" na istotność statystyczną, tzw. torturowanie danych, a czasem wręcz torturowanie rzeczywistości. Interpretacje wyników "prawie istotnych" statystycznie, co może tkwić u ich podstaw? Tradycyjne rozróżnienie między istotnością statystyczną a istotnością merytoryczną i jego niekompletność z punktu widzenia kontroli ryzyka błędu.

(5) Istotność statystyczna postrzegana – absurdalnie – jako wymiar rzeczywistości. Elementy analizy języka używanego w opisie statystycznej analizy wyników badań. Pomieszanie stwierdzeń dotyczących prób ze stwierdzeniami dotyczącymi zbiorowości. Figury retoryczne pozwalające uniknąć nie tylko pytań ilościowych, ale też spełnienia powszechnie wymaganego kryterium istotności statystycznej. Jak bardzo poważnie jest traktowane wnioskowanie statystyczne przez badaczy? Oczekiwania badaczy w stosunku do statystyków, faktyczne miejsce wnioskowań statystycznych w procesach badawczych. Istotność statystyczna, empatia i etyka analizy danych.

(6) Zmniejszanie się efektów w kolejnych badaniach tego samego zjawiska. Tzw. filtr istotności i przeszacowywanie efektów, "przekleństwo zwycięzcy". Poprawki na wielokrotne testowanie, rozbieżności poglądów statystyków na celowość ich stosowania, częstość fałszywych odkryć, selektywne przedstawianie wyników.

(7) Jak silną chcemy mieć pewność i czego ma ona dotyczyć? Ryzyka błędów I rodzaju i III rodzaju (kierunkowego, typu S) a poziomy ufności. Pomyłka Jerzego Neymana, uznawanego za ojca przedziałów ufności, w uzasadnieniu potrzeby ich wyznaczania – czy badacze rzeczywiście chcą oszacowań przedziałowych? Wcześniejsza historia przedziałów ufności, powracające mało skuteczne nawoływania do stosowania estymacji przedziałowej, tzw. "reforma statystyczna" i "nowa statystyka".

(8) Dwie ważne przeszkody na które napotyka myślenie w kategoriach przedziałowych: niechęć do niepewności i nadmierny optymizm. Aspekty psychologiczne i próby wyjaśnień ewolucyjnych. Prawo wielkich liczb i wiara w "prawo małych liczb" (sensu Tversky i Kahnemann). Zachowania w obliczu niepewności, Zasada Rzeczy Pewnej (Sure Thing Principle) L. Savage'a i jej częste naruszenia. Realizm depresyjny a ewolucja nadmiernego optymizmu. Optymizm jako strategia osobnika lub jako realizowanie przez osobnika strategii ewolucyjnej, w którą zdarzyło mu się zostać wpisanym. Z jakiego punktu widzenia "obsesja średnich" jest błędem, a z jakiego nim nie jest?

(9) Kryzys odtwarzalności i powtarzalności w nauce (irreproducibility crisis), jego nagłośnienie w ciągu ostatniej dekady, inicjatywy podjęte w celu zrozumienia problemu. Odtwarzalność i powtarzalność w ujęciu metrologii a mniej precyzyjne rozumienie tych terminów w nauce czystej. Kiedy uznaje się, że wynik wcześniejszego doświadczenia udało się powtórzyć? Prawdopodobna rola paradygmatu testowania statystycznego w kryzysie powtarzalności. Kult istotności statystycznej jako zjawisko odwracające uwagę od ważnych pytań.

Treść ćwiczeń. Duża ich część polega na znajdowaniu przedziałów ufności w sytuacjach gdy nie są dostępne surowe dane, a jedynie wyniki ich analizy dokonanej za pomocą statystycznych testów istotności, czyli zgodnej z powszechnym standardem postępowania. W ten sposób ujawnione i określone zostają niepewności co do rzeczywistej wielkości efektów, które pozostają ukryte gdy końcowym produktem analizy jest istotność statystyczna.

Pierwszym przykładem może być porównanie dwu grup, doświadczalnej i kontrolnej, dla którego dysponujemy p-wartością w teście t Studenta i wyliczonymi średnimi, chcemy zaś się dowiedzieć jaka co najmniej, lub jaka co najwyżej jest prawdziwa wielkość rzeczywistego efektu (różnica średnich populacyjnych). Można do tego dojść przez "rozgryzanie" (reverse engineering). Takie właśnie "rozgryzanie" stanowi znaczną część kursu. Ta formuła zajęć wymaga uważnego wniknięcia w szczegóły rozpatrywanych i używanych metod, a tym samym daje ich dokładną znajomość.

Tego rodzaju postępowanie jest w trakcie zajęć stosowane do różnych metod: porównania średnich, częstości, analizy wariancji, korelacji, regresji. Kiedy nie są możliwe rozwiązania dokładne, szukamy przybliżeń. W przypadku dwuwymiarowej analizy wariancji szczególna uwaga jest poświęcona analizie interakcji. Gdy to możliwe, uwzględniane są metody permutacyjne (rerandomizacyjne) i bootstrapowe. Obliczenia wykonywane są głównie za pomocą systemu R, wykorzystywane są też kalkulatory internetowe dedykowane rozpatrywanym zagadnieniom. Używane są przykłady stylizowane, ale zachowujące znaczne podobieństwo do sytuacji powszechnie spotykanych w literaturze naukowej.

Uzupełnieniem są symulacje Monte Carlo pokazujące zmienność wyników pomiędzy powtórzeniami tego samego doświadczenia, a tym samym zmienność wniosków, do których można na podstawie tych wyników dojść. Dają one możliwy obraz niepewności statystycznych w przypadkach bardziej złożonych, gdy nie istnieją proste sposoby przejścia od istotności statystycznej do przedziału ufności.

Literatura:

Uszczegółowienie listy i uzupełnienia w trakcie zajęć.

Bird KD. 2004. Analysis of Variance via Confidence Intervals. SAGE.

Berry D.A. 1996. Statistics. A Bayesian Perspective. Duxbury Press.

Boyd B. 2009. On the Origin of Stories. Evolution, Cognition, and Fiction. Harvard University Press.

Burton R.A. 2008. On Being Certain. Believing You Are Right Even When You're Not. St. Martin's Griffin.

Cumming G. 2011. Understanding the New Statistics: Effect Sizes, Confidence Intervals, and Meta-Analysis. Routledge.

Dawkins R. 1982. The Extended Phenotype. The Gene as the Unit of Selection. Freeman. [Fenotyp rozszerzony. Dalekosiężny gen. 2003, Prószyński i S-ka]

Distin K. 2005. The Selfish Meme. A Critical Reassessment. Cambridge University Press.

Gigerenzer G. 2008. Rationality for Mortals. How People Cope with Uncertainty. Oxford University Press.

Halsey LG, Curran-Everett D., Vowler SL, Drummond G. 2015. The fickle P value generates irreproducible results. Nature Methods, 12: 179-185.

Harlow L, Mulaik S, Steiger J, editors. 1997. What If There Were No Significance Tests? Lawrence Erlbaum Associates.

Hogarth R.M. 2001. Educating Intuition. University od Chicago Press.

Ioannidis J.P.A. 2005. Why most published research findings are false. PLoS Med 2(8): e124.

Jackman S. 2009. Bayesian Analysis for the Social Sciences. Wiley.

Kahnemann D. 2011. Thinking, Fast and Slow. Farrar, Straus and Giroux. [Pułapki myślenia. O myśleniu szybkim i wolnym. 2012, Media Rodzina]

Kline R.B. 2004. Beyond SignificanceTesting. Reforming Data Analysis Methods in Behavioral Research. American Psychological Association.

Kurzban R. 2012. Why Everybody (Else) Is a Hypocrite: Evolution and the Modular Mind. Princeton University Press.

Lazzeroni LC, Lu Y, Belitskaya-Levy I. 2014. P-values in genomics: Apparent precision masks high uncertainty. Molecular Psychiatry, 19: 1336–1340.

Lecoutre B, Poitvineau J. 2014. TheSignificance Test Controversy Revisited. The Fiducial Bayesian Alternative. Springer.

Motulsky H. 2014. Intuitive Biostatistics, 3rd edition. Oxford University Press.

Nature Publishing Group. 2013. Announcement: Reducing our irreproducibility. Nature 496: 398.

Nuzzo R. 2014. Scientific method: statistical errors. Nature 506: 150-152.

Panter A, Sterba S, editors. 2011. Handbook of Ethics in Quantitative Methodology. Routledge.

Salsburg D. 2001. The Lady Tasting Tea. How Statistics Revolutionized Science In the Twentieth Century. Holt.

Savage S. 2012. The Flaw of Averages: Why We Underestimate Risk in the Face of Uncertainty. Wiley.

Wang C. 1992. Sense and Nonsense of Statistical Inference: Controversy, Misuse, and Subtlety. CRC Press.

Ziliak S.T., McCloskey D.N. 2008. The Cult of Statistical Significance. How the Standard Error Costs us Jobs, Justice, and Lives. Michigan University Press

Efekty uczenia się:

Po zaliczeniu kursu student:

- zna powiązania między testowaniem hipotez statystycznych i przedziałową estymacją parametrów i ocenia odmienność informacji otrzymywanych za pomocą tych metod;

- jest świadom znacznych rozmiarów losowej zmienności wyników doświadczeń i jej konsekwencji dla wyników testowania hipotez i estymacji przedziałowej oraz niskiej powtarzalności wyników doświadczeń.

- rozumie potrzebę kwantyfikacji niepewności statystycznych i zna stosowane w tym celu metody;

- wykazuje zmniejszoną podatność na uleganie urokowi istotności statystycznej;

- potrafi odnosić się krytycznie do stwierdzeń napotkanych w literaturze;

- jest wyczulony na rozróżnienie merytorycznych i społecznych uwarunkowań wnioskowania w badaniach naukowych;

- potrafi używać spójnej i wnikliwej argumentacji do pokazania obszarów niepewności;

- dostrzega potrzebę analizowania wyników badań z różnych punktów widzenia;

- umie wykorzystywać argumenty pochodzące z formalizmu matematycznego i symulacji komputerowej do okreśenia zakresów

niepewności.

Metody i kryteria oceniania:

Zaliczenie ćwiczeń na podstawie sumy punktów uzyskanych za rozwiązania zadań i problemów w trakcie zajęć.

Zaliczenie wykładu – Końcowy test pisemny dotyczący treści wykładu. Wymagana jest obecność na co najmniej 80% wykładów.

Przedmiot nie jest oferowany w żadnym z aktualnych cykli dydaktycznych.
Opisy przedmiotów w USOS i USOSweb są chronione prawem autorskim.
Właścicielem praw autorskich jest Uniwersytet Warszawski.
Krakowskie Przedmieście 26/28
00-927 Warszawa
tel: +48 22 55 20 000 https://uw.edu.pl/
kontakt deklaracja dostępności USOSweb 7.0.3.0 (2024-03-22)