University of Warsaw - Central Authentication System
Strona główna

Ethics of Artificial Intelligence

General data

Course ID: 3800-ESI24-S
Erasmus code / ISCED: 08.1 Kod klasyfikacyjny przedmiotu składa się z trzech do pięciu cyfr, przy czym trzy pierwsze oznaczają klasyfikację dziedziny wg. Listy kodów dziedzin obowiązującej w programie Socrates/Erasmus, czwarta (dotąd na ogół 0) – ewentualne uszczegółowienie informacji o dyscyplinie, piąta – stopień zaawansowania przedmiotu ustalony na podstawie roku studiów, dla którego przedmiot jest przeznaczony. / (0223) Philosophy and ethics The ISCED (International Standard Classification of Education) code has been designed by UNESCO.
Course title: Ethics of Artificial Intelligence
Name in Polish: Etyka sztucznej inteligencji
Organizational unit: Faculty of Philosophy
Course groups: (in Polish) Seminaria (studia stacjonarne, filozofia)
ECTS credit allocation (and other scores): 3.00 Basic information on ECTS credits allocation principles:
  • the annual hourly workload of the student’s work required to achieve the expected learning outcomes for a given stage is 1500-1800h, corresponding to 60 ECTS;
  • the student’s weekly hourly workload is 45 h;
  • 1 ECTS point corresponds to 25-30 hours of student work needed to achieve the assumed learning outcomes;
  • weekly student workload necessary to achieve the assumed learning outcomes allows to obtain 1.5 ECTS;
  • work required to pass the course, which has been assigned 3 ECTS, constitutes 10% of the semester student load.
Language: Polish
Type of course:

elective seminars

Prerequisites (description):

(in Polish) Znajomość angielskiego umożliwiająca czytanie ze zrozumieniem literatury naukowej.

Short description: (in Polish)

Czy sztuczna inteligencja jest rasistą? Czy problem dyskryminacji algorytmicznej można rozwiązać poprzez mierzalne metryki sprawiedliwości? Czy AI narusza prawa autorskie innych twórców? Czy chatbot może zastąpić przyjaciela? Kiedy wyłączenie maszyny byłoby morderstwem?

Celem zajęć jest omówienie wybranych etycznych wyzwań związanych z dynamicznym rozwojem sztucznej inteligencji. Przedmiotem dyskusji będą zarówno aktualne, najbardziej palące społeczne problemy związane z rozwojem AI, jak i fundamentalne, od dawna dyskutowane, filozoficzne pytania etyki AI.

Full description: (in Polish)

Czy sztuczna inteligencja jest rasistą? Czy problem dyskryminacji algorytmicznej można rozwiązać poprzez mierzalne metryki sprawiedliwości? Czy AI narusza prawa autorskie innych twórców? Czy chatbot może zastąpić przyjaciela? Kiedy wyłączenie maszyny byłoby morderstwem?

Celem zajęć jest omówienie wybranych etycznych oraz społecznych wyzwań związanych z dynamicznym rozwojem sztucznej inteligencji. Przedmiotem dyskusji będą zarówno aktualne, najbardziej palące społeczne problemy związane z rozwojem AI, jak i fundamentalne, od dawna dyskutowane, filozoficzne pytania etyki AI.

W czasie zajęć omówione zostaną m.in. następujące zagadnienia:

- Czym jest sztuczna inteligencja? Co jest konieczne do jej powstania?

- Krótko- i długoterminowe ryzyka sztucznej inteligencji

- Dyskryminacja algorytmiczna

- The black box problem i spór o opozycję „efektywność czy wytłumaczalność”

- Value alignment i problem kontroli nad technologią

- Kto odpowiada za błędy autonomicznych systemów? Problem luk w odpowiedzialności

- Generatywna sztuczna inteligencja a prawa autorskie i przyszłość pracy kreatywnej

- Rola etyków w projektowaniu sztucznej inteligencji

- Podejście Ethics by design

- Status moralny sztucznej inteligencji

- Etyczny behawioryzm

- Efekt Elizy i emocjonalne relacje człowieka ze sztuczną inteligencją

- Przemoc symboliczna i seksroboty

- Sztuczna inteligencja na wojnie – roboty bojowe i broń autonomiczna

Zajęcia będą prowadzone metodą pracy w grupach, wspólnej analizy tekstu, kazusów, gier dydaktycznych oraz dyskusji.

Bibliography: (in Polish)

- Kate Crawford (2024), Generative AI is guzzling water and energy, Nature 626, doi: https://doi.org/10.1038/d41586-024-00478-x

- Sætra, H.S., Danaher, J. Resolving the battle of short- vs. long-term AI risks. AI Ethics (2023)

- Nick Bostrom, Eliezer Yudkowsky, 2011, The Ethics of Artificial Intelligence, Cambridge Handbook of Artificial Intelligence, eds. William Ramsey and Keith Frankish, Cambridge University Press

- Baker, R.S., Hawn, A. Algorithmic Bias in Education. International Journal of Artificial Intelligence in Education 32, 1052–1092 (2022). https://doi.org/10.1007/s40593-021-00285-9

- Ruha Benjamin, Race after technology, Polity Press 2019

- London A. J. (2019). Artificial Intelligence and Black-Box Medical Decisions: Accuracy versus Explainability. The Hastings Center report, 49(1), 15–21. https://doi.org/10.1002/hast.973

- Kawamleh, S. Against explainability requirements for ethical artificial intelligence in health care. AI Ethics 3, 901–916 (2023). https://doi.org/10.1007/s43681-022-00212-1

- Sven Nyholm, Artificial Intelligence, Value Alignment, and the Control Problem, Rozdział 4 [w:] This is technology ethics. An introduction. Willey Blackwell, 2023, str. 76 – 99.

- Nick Bostrom, Rodzaje złośliwych usterek [w:] Superinteligencja. Scenariusze, strategie, zagrożenia, Helion, 2016, str. 179-189.

- Sven Nyholm, Responsibility and Technology: Mind the Gap(s)?, Rozdział 6 [w:] This is technology ethics. An introduction. Willey Blackwell, 2023, str. 127 – 145.

- Santoni de Sio, F., Mecacci, G. Four Responsibility Gaps with Artificial Intelligence: Why they Matter and How to Address them. Philosophy & Technology 34, 1057–1084 (2021). https://doi.org/10.1007/s13347-021-00450-x

- Brey, P., Dainow, B. Ethics by design for artificial intelligence. AI Ethics (2023). https://doi.org/10.1007/s43681-023-00330-4

- Floridi, L. Translating Principles into Practices of Digital Ethics: Five Risks of Being Unethical. Philosophy & Technology 32, 185–193 (2019). https://doi.org/10.1007/s13347-019-00354-

- Gibert, M., Martin, D. In search of the moral status of AI: why sentience is a strong argument. AI & Society 37, 319–330 (2022)

- Coeckelbergh M., The Moral Standing of Machines: Towards a Relational and Non-Cartesian Moral Hermeneutics, Philosophy & Technology volume 27, pages61–77 (2014).

- Danaher J. (2020), Welcoming Robots into the Moral Circle: A Defence of Ethical Behaviourism, Science and Engineering Ethics (2020) 26: 2023–2049.

- Coeckelbergh M. (2010), Moral appearances: emotions, robots, and human morality, Ethics and Information Technology 12: 235–241.

- Bryson, J. J. Robots Should Be Slaves. In: Y. Wilks (Ed.), Close Engagements with Artificial Companions: Key Social, Psychological, Ethical and Design Issues, Amsterdam: John Benjamins 2010.

- Sparrow, R., Sparrow, L. (2006). In the hands of machines? The future of aged care. Minds and Machines, 16(2), 141–161.

- Scheutz, M. (2011). “The inherent dangers of unidirectional emotional bonds between humans and social robots,” in: Robot Ethics: The Ethical and Social Implications of Robotics, eds P. Lin, G. Bekey, and K. Abney, Cambridge, MA: MIT Press, pp. 205 – 219.

- Prescott, T. J., & Robillard, J. M. (2020). Are friends electric? The benefits and risks of human-robot relationships. iScience, 24(1), 101993, 1 – 11.

- Weber‑Guskar E. (2021) How to feel about emotionalized artificial intelligence? When robot pets, holograms, and chatbots become affective partners. Ethics and Information Technology 23: 601–610.

- Weijers D. and Munn N., Human-AI Friendship: Rejecting the Appropriate Sentimentality Criterion, in: “Philosophy and Theory of Artificial Intelligence 2021”, ed. Vincent C. Müller, SAPERE, Springer, pp. 209 - 223.

- Sparrow, R. Robots, Rape, and Representation. International Journal of Social Robotics 9, 465–477 (2017).

- Richardson, K. (2016). The asymmetrical “relationship.” ACM SIGCAS Computers and Society, 45(3), 290–293.

- Peter Asaro, Autonomous Weapons and the Ethics of Artificial Intelligence [w:] S. Matthew Liao (ed.), Ethics of Artificial Intelligence, Oxford University Press 2020.

- Müller, Vincent C. (2016), Autonomous killer robots are probably good news, In Ezio DiNucci and Filippo Santoni de Sio (eds.), Drones and responsibility: Legal, philosophical and sociotechnical perspectives on the use of remotely controlled weapons (London: Ashgate), 67-81.

Pełna lista lektur zostanie podana na pierwszych zajęciach.

Learning outcomes: (in Polish)

Nabyta wiedza:

Po zaliczeniu przedmiotu student/ka w pogłębionym stopniu zna i rozumie:

- rolę etyki i bioetyki w namyśle i badaniach nad sztuczną inteligencją,

- interdyscyplinarną terminologię stosowaną w dyskusjach z zakresu etyki sztucznej inteligencji i bioetyki;

- naczelne zagadnienia i problemy, a także główne stanowiska filozoficzne, podejścia normatywne oraz strategie argumentacyjne spotykane we współczesnych dyskusjach dotyczących etyki sztucznej inteligencji,

- znaczenie czynników społeczno-kulturowych, prawnych i polityczno-ekonomicznych dla praktyki i rozwoju sztucznej inteligencji.

Nabyte umiejętności:

Po zaliczeniu przedmiotu student/ka potrafi:

- identyfikować i analizować problemy i konflikty etyczne związane z rozwojem sztucznej inteligencji,

- krytycznie analizować poglądy i argumenty innych autorów, w tym pozostałych uczestników zajęć, oraz zalecane lektury z zakresu tematyki seminarium;

- przygotować krótką pracę pisemną z zakresu tematyki seminarium;

- przygotować i wygłosić wystąpienie ustne z zakresu tematyki seminarium.

Nabyte kompetencje społeczne:

Po zaliczeniu przedmiotu student/ka jest gotów/gotowa do:

- krytycznego oceniania pozyskiwanych informacji i odbieranych treści;

- uznawania znaczenia wiedzy z zakresu etyki w rozwiązywaniu problemów, jakie rodzi sztuczna inteligencja,

- rzetelnego i odpowiedzialnego rozwijania dorobku bioetyki, a zwłaszcza etyki sztucznej inteligencji, jako dziedziny teoretycznej i praktyki społecznej;

- dostrzegania problemów i wyzwań etycznych związanych z własną pracą badawczą i zawodową oraz przestrzegania, rozwijania i promowania etycznych standardów tej pracy.

Assessment methods and assessment criteria: (in Polish)

(1) aktywność (przygotowanie oraz konstruktywny udział w dyskusjach i zadaniach grupowych realizowanych na zajęciach) + wygłoszenie jednego, krótkiego referatu z lektury dodatkowej – 60%

(2) przygotowanie (w parach lub w zespołach 3-osobowych) pracy pisemnej będącej analizą wybranego problemu, argumentu lub kazusu związanego z tematyką zajęć – 40%

Dopuszczalna liczba nieobecności podlegających usprawiedliwieniu: 2

Classes in period "Winter semester 2024/25" (future)

Time span: 2024-10-01 - 2025-01-26
Selected timetable range:
Navigate to timetable
Type of class:
Seminar, 30 hours, 17 places more information
Coordinators: Emilia Kaczmarek
Group instructors: Emilia Kaczmarek
Students list: (inaccessible to you)
Examination: Course - Grading
Seminar - Grading
Course descriptions are protected by copyright.
Copyright by University of Warsaw.
Krakowskie Przedmieście 26/28
00-927 Warszawa
tel: +48 22 55 20 000 https://uw.edu.pl/
contact accessibility statement USOSweb 7.0.3.0 (2024-03-22)