Uniwersytet Warszawski - Centralny System Uwierzytelniania
Strona główna

Algorytmy i społeczeństwo nadzoru

Informacje ogólne

Kod przedmiotu: 3500-SCC-asn
Kod Erasmus / ISCED: 14.2 Kod klasyfikacyjny przedmiotu składa się z trzech do pięciu cyfr, przy czym trzy pierwsze oznaczają klasyfikację dziedziny wg. Listy kodów dziedzin obowiązującej w programie Socrates/Erasmus, czwarta (dotąd na ogół 0) – ewentualne uszczegółowienie informacji o dyscyplinie, piąta – stopień zaawansowania przedmiotu ustalony na podstawie roku studiów, dla którego przedmiot jest przeznaczony. / (0314) Socjologia i kulturoznawstwo Kod ISCED - Międzynarodowa Standardowa Klasyfikacja Kształcenia (International Standard Classification of Education) została opracowana przez UNESCO.
Nazwa przedmiotu: Algorytmy i społeczeństwo nadzoru
Jednostka: Wydział Socjologii
Grupy:
Punkty ECTS i inne: 6.00 Podstawowe informacje o zasadach przyporządkowania punktów ECTS:
  • roczny wymiar godzinowy nakładu pracy studenta konieczny do osiągnięcia zakładanych efektów uczenia się dla danego etapu studiów wynosi 1500-1800 h, co odpowiada 60 ECTS;
  • tygodniowy wymiar godzinowy nakładu pracy studenta wynosi 45 h;
  • 1 punkt ECTS odpowiada 25-30 godzinom pracy studenta potrzebnej do osiągnięcia zakładanych efektów uczenia się;
  • tygodniowy nakład pracy studenta konieczny do osiągnięcia zakładanych efektów uczenia się pozwala uzyskać 1,5 ECTS;
  • nakład pracy potrzebny do zaliczenia przedmiotu, któremu przypisano 3 ECTS, stanowi 10% semestralnego obciążenia studenta.
Język prowadzenia: polski
Rodzaj przedmiotu:

obowiązkowe

Założenia (opisowo):

Konieczna znajomość angielskiego umożliwiająca czytanie tekstów w języku angielskim

Tryb prowadzenia:

w sali

Skrócony opis:

Algorytmy są wszędzie i gdy sprawnie działają zazwyczaj ich nie zauważamy. Wykorzystuje się je m. in. do oceny zdolności kredytowej, oceny kandydatów do pracy, targetowania reklam czy zapobiegania atakom terrorystycznym. Są tak powszechne, bo pozwalają na uproszczenie skomplikowanych zjawisk i przetworzenie ogromnej ilości danych, ułatwiając podejmowanie decyzji. Wbrew pozorom nie są to jednak neutralne i obiektywne narzędzia, które wyłącznie usprawniają zarządzanie złożonymi problemami.

Celem zajęć jest przyjrzenie się temu jak tworzone są algorytmy, na jakich zasadach działają oraz jakie są społeczne i polityczne konsekwencje ich użycia. Nacisk położymy na odsłanianie założeń wartościujących, które leżą u podstaw wybranych algorytmów. Skupimy się również na generowanych przez nie zagrożeniach: wzmacnianiu nierówności, utrudnianiu demokratycznej kontroli procesów politycznych, ingerencji w prywatność.

Pełny opis:

Algorytmy są wszędzie i gdy sprawnie działają zazwyczaj ich nie zauważamy. Wykorzystuje się je m. in. do oceny zdolności kredytowej, oceny kandydatów do pracy, targetowania reklam czy zapobiegania atakom terrorystycznym. Są tak powszechne, bo pozwalają na uproszczenie skomplikowanych zjawisk i przetworzenie ogromnej ilości danych, ułatwiając podejmowanie decyzji. Wbrew pozorom nie są to jednak neutralne i obiektywne narzędzia, które wyłącznie usprawniają zarządzanie złożonymi problemami – przy ich projektowaniu dokonuje się wielu wartościujących wyborów, a z ich stosowanie może mieć również liczne negatywne skutki społeczne i polityczne.

Celem zajęć jest przyjrzenie się temu jak tworzone są algorytmy, na jakich zasadach działają oraz jakie są społeczne i polityczne konsekwencje ich użycia. Nacisk położymy na odsłanianie założeń wartościujących, które leżą u podstaw wybranych algorytmów. Skupimy się również na generowanych przez nie zagrożeniach: wzmacnianiu nierówności, utrudnianiu demokratycznej kontroli procesów politycznych, ingerencji w prywatność.

Zajęcia będą miały również na celu zapoznanie studentów z podstawowymi tekstami teoretycznymi dotyczącymi zagadnień nadzoru i kontroli (w tym nadzoru powiązanego z technologią) oraz identyfikacji i kategoryzacji jednostek, tzn. tego w jaki sposób zbieranie danych o jednostkach używane jest do „sortowania” ich na lepsze i gorsze (lepszych i gorszych obywateli, klientów, pracowników).

Podczas zajęć będziemy analizować wybrane przypadki wykorzystania technologii opartych na algorytmach, zastanawiając się nad szerszymi zagadnieniami takimi jak granice prywatności, odhumanizowanie procesów decyzyjnych, słabość mechanizmów demokratycznych wobec nowych technik nadzoru nad jednostkami, etc. Interesować nas będą przede wszystkim systemy scoringowe (scoring kredytowy i modele predykcyjne), systemy profilowania (profilowanie przestępczości, profilowanie migrantów, profilowanie bezrobotnych) oraz inne zautomatyzowane systemy klasyfikacji i oceny jednostek (np. zautomatyzowane zarządzanie zasobami ludzkimi i oceny pracownicze). Będziemy się zastanawiać nad tym jakie założenia wartościujące na temat jednostek (obywateli, klientów, pracowników) są podstawą tych systemów oraz jakie są społeczne i polityczne skutki ich stosowania. Do analizy będziemy wykorzystywać zróżnicowane źródła: literaturę naukową, raporty organizacji strażniczych, publikacje mediów oraz filmy dokumentalne.

Literatura:

Bowker, G. C. & Star, S. L. (1999) Sorting things out: classification and its consequences, MIT Press, Cambridge, Mass.

Bovens, M., Zouridis, S. (2002) From Street-Level to System-Level Bureaucracies: How Information and Communication Technology is Transforming Administrative Discretion and Constitutional Control, Public Administration Review, Vol. 62, No. 2, pp. 174-184.

Citron D.K, Pasqualle F. (2014) The Scored Society: Due Process for Automated Predictions, University of Maryland Francis King Carey School of Law Legal Studies Research Paper No. 2014 – 8.

Collingridge, D., and Reeve, C. (1986). Science Speaks to Power: The Role of Experts in Policy Making. New York: St. Martin’s Press

Foucault, M. (1998) Nadzorować i karać: narodziny więzienia. (Warszawa: Fundacja Aletheia).

Garfinkel, S. (2001) Database Nation: The Death of Privacy in the 21st Century. Cambridge, MA: O’Reilly.

Gilliom, J. (2001) Overseers of the poor: surveillance, resistance, and the limits of privacy, University of Chicago Press, Chicago.

Hacking, I. (1986), Making Up People, in Heller, Sosna, and Wellbery (eds), Reconstructing Individualism: Autonomy, Individuality, and the Self in Western Thought, Stanford: Stanford University Press, pp. 222-236.

Lyon, D. (1994) The Electronic Eye: The Rise of Surveillance Society. Cambridge, MA: Polity Press.

Lyon, D. (ed.) (2006) Theorizing Surveillance: The Panopticon and Beyond. Cullompton, UK: Willan.

Lyon D. (2015) ‘Citizenfour Alert!’ and ‘Snowden Storm’ in Surveillance After Snowden

Niklas, J., Sztandar-Sztanderska, K. & Szymielewicz, K. (2015) Profiling the Unemployed in Poland. Social and Political Implications of Algorithmic Decision Making. Warszawa, Panoptykon Foundation.

O’Neil, Cathy 2017 Broń matematycznej zagłady: jak algorytmy zwiększają nierówności i zagrażają demokracji. Marcin Z Zieliński, tran. Warszawa: Państwowe Wydawnictwo Naukowe PWN

Scheiner B. (2015) Data and Goliath: The Hidden Battles to Collect Your Data and Control Your World, New York: W. W. Norton & Company.

Scott, J. C. (1998) Seeing like a state: how certain schemes to improve the human condition have failed, Yale University Press, New Haven, dobrać fragment.

Szadkowski K. (2015) Uniwersytet jako dobro wspólne. Warszawa: Scholar

Whitaker, R. (1999) The End of Privacy: How Total Surveillance is Becoming a Reality. New York: The New Press

Efekty uczenia się:

K_W04 rozumie szczególny ​charakter zmian zachodzących we współczesnych społeczeństwach w związku z rozwojem nowych technologii

K_W06 rozumienie zagrożenia wynikającego z używania nowych technologii i wykorzystywania dużych zbiorów danych

K_W10 posiada pogłębioną wiedzę na temat najważniejszych międzynarodowych i krajowych badań socjologicznych odnoszących się do technologii informacyjnych i algorytmów

K_W11 posiada pogłębioną wiedzę o technologiach informacyjnych i algorytmach jako narzędziach odpowiedzialnych za transmisję norm i reguł w społeczeństwie

K_U06 potrafi posługiwać się kategoriami teoretycznymi do opisu i analizy procesów zachodzących we współczesnych społeczeństwach

K_U10 potrafi dokonać krytycznej i refleksyjnej analizy konsekwencji zastosowania technologii informacyjnych i algorytmów we współczesnych społeczeństwach

K_K01 jest świadom dylematów etycznych związanych z wykorzystaniem danych cyfrowych

K_K02 potrafi dokonać krytycznej analizy procesów społecznych zachodzących w środowisku cyfrowym

Metody i kryteria oceniania:

Podstawą zaliczenia zajęć jest obecność na zajęciach (dopuszczalne są 2 nieobecności). Ocena opiera się na aktywności i pracy na zajęciach oraz wykonywaniu zadań (40% oceny), przygotowaniu i wygłoszeniu prezentacji dotyczącej wybranej technologii (60 % oceny). Prezentacje raportów będą komentowane przez zaproszonych gości – badaczy lub praktyków, którzy specjalizują się w interesującej nas tematyce.

Zajęcia w cyklu "Semestr zimowy 2023/24" (zakończony)

Okres: 2023-10-01 - 2024-01-28
Wybrany podział planu:
Przejdź do planu
Typ zajęć:
Konwersatorium, 45 godzin, 30 miejsc więcej informacji
Koordynatorzy: Marianna Zieleńska
Prowadzący grup: Marianna Zieleńska
Lista studentów: (nie masz dostępu)
Zaliczenie: Przedmiot - Zaliczenie na ocenę
Konwersatorium - Zaliczenie na ocenę
Opisy przedmiotów w USOS i USOSweb są chronione prawem autorskim.
Właścicielem praw autorskich jest Uniwersytet Warszawski.
Krakowskie Przedmieście 26/28
00-927 Warszawa
tel: +48 22 55 20 000 https://uw.edu.pl/
kontakt deklaracja dostępności USOSweb 7.0.3.0 (2024-03-22)