University of Warsaw - Central Authentication System
Strona główna

AI versus Good and the Law: Ethical and Legal Consequences of the Development of Artificial Intelligence

General data

Course ID: 3700-KON336-AL-OG
Erasmus code / ISCED: 08.0 Kod klasyfikacyjny przedmiotu składa się z trzech do pięciu cyfr, przy czym trzy pierwsze oznaczają klasyfikację dziedziny wg. Listy kodów dziedzin obowiązującej w programie Socrates/Erasmus, czwarta (dotąd na ogół 0) – ewentualne uszczegółowienie informacji o dyscyplinie, piąta – stopień zaawansowania przedmiotu ustalony na podstawie roku studiów, dla którego przedmiot jest przeznaczony. / (0220) Humanities (except languages), not further defined The ISCED (International Standard Classification of Education) code has been designed by UNESCO.
Course title: AI versus Good and the Law: Ethical and Legal Consequences of the Development of Artificial Intelligence
Name in Polish: AI a dobro i prawo. Etyczne i prawne skutki rozwoju sztucznej inteligencji
Organizational unit: Faculty of "Artes Liberales"
Course groups: General university courses
General university courses in the humanities
ECTS credit allocation (and other scores): (not available) Basic information on ECTS credits allocation principles:
  • the annual hourly workload of the student’s work required to achieve the expected learning outcomes for a given stage is 1500-1800h, corresponding to 60 ECTS;
  • the student’s weekly hourly workload is 45 h;
  • 1 ECTS point corresponds to 25-30 hours of student work needed to achieve the assumed learning outcomes;
  • weekly student workload necessary to achieve the assumed learning outcomes allows to obtain 1.5 ECTS;
  • work required to pass the course, which has been assigned 3 ECTS, constitutes 10% of the semester student load.

view allocation of credits
Language: Polish
Type of course:

general courses

Prerequisites (description):

(in Polish) Od uczestników oczekuje się umiejętności pracy z tekstem naukowym w języku angielskim.

Short description: (in Polish)

Sztuczna inteligencja to zbiorowy termin obejmujący różne systemy, które łączy to, że ich funkcjonowanie do pewnego stopnia przypomina działanie ludzi. Systemy tego rodzaju naśladują nasze funkcje poznawcze, takie jak postrzeganie zmysłowe, gromadzenie i przetwarzanie danych albo przeprowadzanie rozumowań. Zgodnie z jedną z klasycznych definicji sztucznej inteligencji są to systemy działające w taki sposób, który zostałby uznany za inteligentny, gdyby było to działanie człowieka.

Sztuczna inteligencja uchodzi za technologiczną nowość, tymczasem jest starsza na przykład od inżynierii genetycznej. Jednak współcześnie jesteśmy świadkami bezprecedensowego rozwoju tej technologii dzięki znacznemu zwiększeniu mocy obliczeniowej komputerów oraz ogromnej ilości danych dostępnych głównie dzięki internetowi.

Full description: (in Polish)

Upowszechnienie systemów sztucznej inteligencji, którego obecnie jesteśmy świadkami, można traktować jak wielki eksperyment społeczny, którego skutków nie jesteśmy pewni, choć możemy być pewni, że będzie on miał poważne konsekwencje etyczne i prawne.

Podobnie rzecz się miała z innymi wielkimi innowacjami technologicznymi. Przykładowo wynalezienie i upowszechnienie maszyny parowej miało nieprzewidziane następstwa. Początkowo zastępowała jedynie pracę ludzi i zwierząt, jednak wykorzystanie jej jako napędu w pierwszej lokomotywie doprowadziło do nieoczekiwanych i nieodwracalnych zmian w sposobie podróżowania i transportu, handlu czy prowadzeniu wojen.

Jedną z cech charakterystycznych postępu technicznego jest to, że na podstawie jego dotychczasowego przebiegu nie jesteśmy w stanie przewidzieć kolejnych stadiów rozwoju technologii. Co więcej, konsekwencje społeczne wcześniejszych stadiów nie dają nam dobrych podstaw do przewidywania skutków dalszych zmian technologicznych. Problem pogłębia brak dobrych analogii historycznych. Możliwości przetwarzania informacji jakie dają różne technologie sztucznej inteligencji można porównać jedynie ze zmianami w gromadzeniu, przechowywaniu, przekazywaniu i użytkowaniu informacji, jakie spowodowało wynalezienie pisma. Dlatego jej dotychczasowy rozwój nie pozwala nam sformułować wiarygodnych prognoz co do dalszych postępów w tej dziedzinie.

Następstwem tego jest to, że z rozwojem sztucznej inteligencji wiąże się zarówno przesadne nadzieje, jak i nieuzasadnione obawy. W dyskursie publicznym i kulturze popularnej upowszechnił się taki obraz tej technologii, który ma niewiele wspólnego z aktualnym stanem tej dziedziny. Takie nieadekwatne wyobrażenia społeczne mogą mieć istotne konsekwencje etyczne, o których będziemy dyskutować podczas zajęć.

Etyka sztucznej inteligencji zajmuje się zastosowaniem teorii etycznych do rozwiązywania problemów, jakie rodzi upowszechnienie sztucznej inteligencji. Można ją podzielić na dwa działy: etykę dla sztucznej inteligencji i etykę w sztucznej inteligencji. Pierwszy obejmuje kwestie etyczne dotyczące relacji między ludźmi, którzy tworzą, wykorzystują i użytkują sztuczną inteligencję. Drugi zagadnienia etyczne odnoszące się do relacji między systemami sztucznej inteligencji i ludźmi, czyli przede wszystkim implementację reguł etycznych w systemach działających w świecie fizycznym.

Etyka dla sztucznej inteligencji ma charakter antropocentryczny, ponieważ są to systemy tworzone przez ludzi do wykorzystania przez ludzi. Ze względu na to, że relacje między twórcami, operatorami i użytkownikami różnią się od siebie w zależności od tego, jaką rolę odgrywają w funkcjonowaniu systemów sztucznej inteligencji, domenę etyki dla sztucznej można podzielić na: projektowanie i tworzenie sztucznej inteligencji; jej wykorzystanie przez operatorów oraz jej wpływ na użytkowników. Każdy z tych obszarów związany jest z odmiennymi wartościami, które wymagają ochrony.

Część systemów sztucznej inteligencji wchodzi w interakcje z ludźmi w świecie fizycznym. Najbardziej oczywistymi przykładami są roboty, w tym drony i pojazdy autonomiczne, a do pewnego stopnia również asystenci głosowi, boty i urządzenia tworzące rozwijający się internet rzeczy (IoT). Tego rodzaju interakcje rodzą wiele problemów etycznych związanych na przykład z możliwością skrzywdzenia lub wyrządzenia szkody ludziom. Prowadzi to konieczności implementacji wartości i zasad etycznych w takich systemach sztucznej inteligencji, co pozwoli zapewnić przewidywalność ich zachowań oraz ochronę praw ludzi wchodzących z nimi w interakcje. Niezależnie od technicznych problemów związanych z przełożeniem wymogów etycznych na kod źródłowy, rodzi się pytanie o to, jakie powinno być źródło implementowanych wartości i zasad. Możliwości są dwie: empiryczne zbadanie poglądów moralnych potencjalnych użytkowników lub aplikacja dobrze ugruntowanych teorii etycznych. Te dwie opcje omówimy na przykładzie głośnego programu The Moral Machine realizowanego przez Massachusetts Institute of Technology oraz prób zastosowania teorii sprawiedliwości Johna Rawlsa w uczeniu maszynowym i samochodach autonomicznych. Przeanalizujemy również dotychczasowe praktyczne implementacje zasad etycznych w maszynach wyposażonych w sztuczną inteligencję na przykładzie robota Nao. Zastanowimy się również nad możliwością stworzenia tak zwanych sztucznych podmiotów moralnych, czyli maszyn posiadających podmiotowość moralną, które wymagałyby etycznego traktowania.

Zajęcia dotyczyć będą również prawnych aspektów sztucznej inteligencji w dwóch kontekstach: (a) na ile sztuczna inteligencja może być podmiotem praw i obowiązków prawnych (b) w jakim stopniu i w jakich kierunkach podstawowe instytucje prawne ulegają ewolucji z powodu powszechnego zastosowania obiektów i rozwiązań opartych na sztucznej inteligencji.

Co do pierwszej kwestii zastanowimy się, w jakim stopniu (i czy w ogóle) pojawiające się postulaty przyznania osobowości prawnej sztucznej inteligencji są do pogodzenia z fundamentami współczesnych systemów prawnych oraz na ile nadanie sztucznej inteligencji praw oraz obowiązków (kategorie rozpatrywane oddzielnie) jest możliwe bez nadania jej takiej osobowości. Poświęcimy także uwagę temu jakie konsekwencje dla samego rozumienia pojęć „praw” i „obowiązków prawnych” miałoby wyposażenie w nie sztucznej inteligencji.

Co do drugiego kontekstu to skoncentrujemy się na takich instytucjach prawnych oraz pojęciach rozpoznawanych przez prawo jak: (1) wina i odpowiedzialność ponoszona za zawinione działanie, (2) autonomia jednostki i prawo do samodecydowania (3) prawo do informacji oraz przekazy reklamowe, (4) prywatność i poufność, (5) utwór i twórczość. Analizując powyższe będziemy stawiać obiekty oraz rozwiązania sztuczno-inteligentne nie tylko w pozycji narzędzi mający wpływ na ewolucję powyższych instytucji i pojęć, ale także w pozycji narzędzi pełniących jako element samego systemu prawo funkcje arbitrów oraz decydentów co do znaczenia powyższych pojęć, a przez to funkcjonowania tych instytucji.

This course is not currently offered.
Course descriptions are protected by copyright.
Copyright by University of Warsaw.
Krakowskie Przedmieście 26/28
00-927 Warszawa
tel: +48 22 55 20 000 https://uw.edu.pl/
contact accessibility statement USOSweb 7.0.3.0 (2024-03-22)