Uniwersytet Warszawski - Centralny System UwierzytelnianiaNie jesteś zalogowany | zaloguj się
katalog przedmiotów - pomoc

AI a dobro i prawo. Etyczne i prawne skutki rozwoju sztucznej inteligencji

Informacje ogólne

Kod przedmiotu: 3700-KON336-AL-OG Kod Erasmus / ISCED: 08.0 / (0220) Nauki humanistyczne
Nazwa przedmiotu: AI a dobro i prawo. Etyczne i prawne skutki rozwoju sztucznej inteligencji
Jednostka: Wydział "Artes Liberales"
Grupy: Przedmioty ogólnouniwersyteckie humanistyczne
Przedmioty ogólnouniwersyteckie na Uniwersytecie Warszawskim
Przedmioty ogólnouniwersyteckie wystawiane przez Kolegium Artes Liberales
Punkty ECTS i inne: 4.00
zobacz reguły punktacji
Język prowadzenia: polski
Rodzaj przedmiotu:

ogólnouniwersyteckie

Założenia (opisowo):

Od uczestników oczekuje się umiejętności pracy z tekstem naukowym w języku angielskim.

Skrócony opis:

Sztuczna inteligencja to zbiorowy termin obejmujący różne systemy, które łączy to, że ich funkcjonowanie do pewnego stopnia przypomina działanie ludzi. Systemy tego rodzaju naśladują nasze funkcje poznawcze, takie jak postrzeganie zmysłowe, gromadzenie i przetwarzanie danych albo przeprowadzanie rozumowań. Zgodnie z jedną z klasycznych definicji sztucznej inteligencji są to systemy działające w taki sposób, który zostałby uznany za inteligentny, gdyby było to działanie człowieka.

Sztuczna inteligencja uchodzi za technologiczną nowość, tymczasem jest starsza na przykład od inżynierii genetycznej. Jednak współcześnie jesteśmy świadkami bezprecedensowego rozwoju tej technologii dzięki znacznemu zwiększeniu mocy obliczeniowej komputerów oraz ogromnej ilości danych dostępnych głównie dzięki internetowi.

Pełny opis:

Upowszechnienie systemów sztucznej inteligencji, którego obecnie jesteśmy świadkami, można traktować jak wielki eksperyment społeczny, którego skutków nie jesteśmy pewni, choć możemy być pewni, że będzie on miał poważne konsekwencje etyczne i prawne.

Podobnie rzecz się miała z innymi wielkimi innowacjami technologicznymi. Przykładowo wynalezienie i upowszechnienie maszyny parowej miało nieprzewidziane następstwa. Początkowo zastępowała jedynie pracę ludzi i zwierząt, jednak wykorzystanie jej jako napędu w pierwszej lokomotywie doprowadziło do nieoczekiwanych i nieodwracalnych zmian w sposobie podróżowania i transportu, handlu czy prowadzeniu wojen.

Jedną z cech charakterystycznych postępu technicznego jest to, że na podstawie jego dotychczasowego przebiegu nie jesteśmy w stanie przewidzieć kolejnych stadiów rozwoju technologii. Co więcej, konsekwencje społeczne wcześniejszych stadiów nie dają nam dobrych podstaw do przewidywania skutków dalszych zmian technologicznych. Problem pogłębia brak dobrych analogii historycznych. Możliwości przetwarzania informacji jakie dają różne technologie sztucznej inteligencji można porównać jedynie ze zmianami w gromadzeniu, przechowywaniu, przekazywaniu i użytkowaniu informacji, jakie spowodowało wynalezienie pisma. Dlatego jej dotychczasowy rozwój nie pozwala nam sformułować wiarygodnych prognoz co do dalszych postępów w tej dziedzinie.

Następstwem tego jest to, że z rozwojem sztucznej inteligencji wiąże się zarówno przesadne nadzieje, jak i nieuzasadnione obawy. W dyskursie publicznym i kulturze popularnej upowszechnił się taki obraz tej technologii, który ma niewiele wspólnego z aktualnym stanem tej dziedziny. Takie nieadekwatne wyobrażenia społeczne mogą mieć istotne konsekwencje etyczne, o których będziemy dyskutować podczas zajęć.

Etyka sztucznej inteligencji zajmuje się zastosowaniem teorii etycznych do rozwiązywania problemów, jakie rodzi upowszechnienie sztucznej inteligencji. Można ją podzielić na dwa działy: etykę dla sztucznej inteligencji i etykę w sztucznej inteligencji. Pierwszy obejmuje kwestie etyczne dotyczące relacji między ludźmi, którzy tworzą, wykorzystują i użytkują sztuczną inteligencję. Drugi zagadnienia etyczne odnoszące się do relacji między systemami sztucznej inteligencji i ludźmi, czyli przede wszystkim implementację reguł etycznych w systemach działających w świecie fizycznym.

Etyka dla sztucznej inteligencji ma charakter antropocentryczny, ponieważ są to systemy tworzone przez ludzi do wykorzystania przez ludzi. Ze względu na to, że relacje między twórcami, operatorami i użytkownikami różnią się od siebie w zależności od tego, jaką rolę odgrywają w funkcjonowaniu systemów sztucznej inteligencji, domenę etyki dla sztucznej można podzielić na: projektowanie i tworzenie sztucznej inteligencji; jej wykorzystanie przez operatorów oraz jej wpływ na użytkowników. Każdy z tych obszarów związany jest z odmiennymi wartościami, które wymagają ochrony.

Część systemów sztucznej inteligencji wchodzi w interakcje z ludźmi w świecie fizycznym. Najbardziej oczywistymi przykładami są roboty, w tym drony i pojazdy autonomiczne, a do pewnego stopnia również asystenci głosowi, boty i urządzenia tworzące rozwijający się internet rzeczy (IoT). Tego rodzaju interakcje rodzą wiele problemów etycznych związanych na przykład z możliwością skrzywdzenia lub wyrządzenia szkody ludziom. Prowadzi to konieczności implementacji wartości i zasad etycznych w takich systemach sztucznej inteligencji, co pozwoli zapewnić przewidywalność ich zachowań oraz ochronę praw ludzi wchodzących z nimi w interakcje. Niezależnie od technicznych problemów związanych z przełożeniem wymogów etycznych na kod źródłowy, rodzi się pytanie o to, jakie powinno być źródło implementowanych wartości i zasad. Możliwości są dwie: empiryczne zbadanie poglądów moralnych potencjalnych użytkowników lub aplikacja dobrze ugruntowanych teorii etycznych. Te dwie opcje omówimy na przykładzie głośnego programu The Moral Machine realizowanego przez Massachusetts Institute of Technology oraz prób zastosowania teorii sprawiedliwości Johna Rawlsa w uczeniu maszynowym i samochodach autonomicznych. Przeanalizujemy również dotychczasowe praktyczne implementacje zasad etycznych w maszynach wyposażonych w sztuczną inteligencję na przykładzie robota Nao. Zastanowimy się również nad możliwością stworzenia tak zwanych sztucznych podmiotów moralnych, czyli maszyn posiadających podmiotowość moralną, które wymagałyby etycznego traktowania.

Zajęcia dotyczyć będą również prawnych aspektów sztucznej inteligencji w dwóch kontekstach: (a) na ile sztuczna inteligencja może być podmiotem praw i obowiązków prawnych (b) w jakim stopniu i w jakich kierunkach podstawowe instytucje prawne ulegają ewolucji z powodu powszechnego zastosowania obiektów i rozwiązań opartych na sztucznej inteligencji.

Co do pierwszej kwestii zastanowimy się, w jakim stopniu (i czy w ogóle) pojawiające się postulaty przyznania osobowości prawnej sztucznej inteligencji są do pogodzenia z fundamentami współczesnych systemów prawnych oraz na ile nadanie sztucznej inteligencji praw oraz obowiązków (kategorie rozpatrywane oddzielnie) jest możliwe bez nadania jej takiej osobowości. Poświęcimy także uwagę temu jakie konsekwencje dla samego rozumienia pojęć „praw” i „obowiązków prawnych” miałoby wyposażenie w nie sztucznej inteligencji.

Co do drugiego kontekstu to skoncentrujemy się na takich instytucjach prawnych oraz pojęciach rozpoznawanych przez prawo jak: (1) wina i odpowiedzialność ponoszona za zawinione działanie, (2) autonomia jednostki i prawo do samodecydowania (3) prawo do informacji oraz przekazy reklamowe, (4) prywatność i poufność, (5) utwór i twórczość. Analizując powyższe będziemy stawiać obiekty oraz rozwiązania sztuczno-inteligentne nie tylko w pozycji narzędzi mający wpływ na ewolucję powyższych instytucji i pojęć, ale także w pozycji narzędzi pełniących jako element samego systemu prawo funkcje arbitrów oraz decydentów co do znaczenia powyższych pojęć, a przez to funkcjonowania tych instytucji.

Zajęcia w cyklu "Semestr zimowy 2019/20" (zakończony)

Okres: 2019-10-01 - 2020-01-27
Wybrany podział planu:


powiększ
zobacz plan zajęć
Typ zajęć: Konwersatorium, 30 godzin, 3 miejsc więcej informacji
Koordynatorzy: Łukasz Kowalczyk, Sebastian Szymański
Prowadzący grup: Łukasz Kowalczyk, Sebastian Szymański
Lista studentów: (nie masz dostępu)
Zaliczenie: Przedmiot - Zaliczenie na ocenę
Konwersatorium - Zaliczenie na ocenę
Opisy przedmiotów w USOS i USOSweb są chronione prawem autorskim.
Właścicielem praw autorskich jest Uniwersytet Warszawski.