Uniwersytet Warszawski - Centralny System Uwierzytelniania
Strona główna

Statystyczne uczenie maszynowe

Informacje ogólne

Kod przedmiotu: 1000-1M18SUM
Kod Erasmus / ISCED: (brak danych) / (brak danych)
Nazwa przedmiotu: Statystyczne uczenie maszynowe
Jednostka: Wydział Matematyki, Informatyki i Mechaniki
Grupy: Przedmioty monograficzne dla matematyki 2 stopnia
Przedmioty obieralne na studiach drugiego stopnia na kierunku bioinformatyka
Punkty ECTS i inne: 6.00 Podstawowe informacje o zasadach przyporządkowania punktów ECTS:
  • roczny wymiar godzinowy nakładu pracy studenta konieczny do osiągnięcia zakładanych efektów uczenia się dla danego etapu studiów wynosi 1500-1800 h, co odpowiada 60 ECTS;
  • tygodniowy wymiar godzinowy nakładu pracy studenta wynosi 45 h;
  • 1 punkt ECTS odpowiada 25-30 godzinom pracy studenta potrzebnej do osiągnięcia zakładanych efektów uczenia się;
  • tygodniowy nakład pracy studenta konieczny do osiągnięcia zakładanych efektów uczenia się pozwala uzyskać 1,5 ECTS;
  • nakład pracy potrzebny do zaliczenia przedmiotu, któremu przypisano 3 ECTS, stanowi 10% semestralnego obciążenia studenta.

zobacz reguły punktacji
Język prowadzenia: angielski
Kierunek podstawowy MISMaP:

informatyka
matematyka

Rodzaj przedmiotu:

monograficzne

Założenia (opisowo):

Wykład może być kontynuacją "Statystycznej analizy danych" lub "Statystyki" lub "Rachunku Prawdopodobieństwa i Statystyki".

Tryb prowadzenia:

w sali
zdalnie

Skrócony opis:

Wykład jest wprowadzeniem do uczenia pod nadzorem, inaczej predykcji statystycznej, zogniskowanym na nowoczesnych metodach liniowych i opartym w dużej mierze (ok. 2/3) na monografii Hastiego, Tibshiraniego i Friedmana pt. “The Elements of Statistical Learning”.

Pełny opis:

W ostatnich latach klaruje się pogląd, że głębokie sieci neuronowe są skuteczne tam, gdzie danych jest dużo, zmienne wyjaśniające mają pewną przestrzenną lub czasową organizację (jak np. sygnały, teksty czy obrazy) i stosunek sygnału do szumu jest duży. Natomiast tam, gdzie danych jest mało lub nie mają specjalnej organizacji lub sygnał jest słaby lub ważna jest interpretowalność wyników -- tam lepsze są nowoczesne metody liniowe, jak lasso czy gradient boosting (Robert Tibshirani, wykład laureata nagrody ISI, 2021). Wykład "Statystyczne uczenie maszynowe" jest wprowadzeniem do uczenia pod nadzorem, inaczej predykcji statystycznej, zogniskowanym na takich właśnie metodach liniowych i opartym w dużej mierze (ok. 2/3) na monografii Hastiego, Tibshiraniego i Friedmana pt. “The Elements of Statistical Learning”.

W pierwszej części omawiam podstawową metodę predykcji cechy ciągłej, czyli model regresji liniowej, a ponadto regresję grzbietową, lasso oraz wybór podzbioru zmiennych wyjaśniających. W drugiej części przedstawiam liniowe metody predykcji cechy dyskretnej, czyli klasyfikacji takie, jak liniowa analiza dyskryminacyjna Fishera, regresja logistyczna czy maszyny wektorów podpierających. W części trzeciej omawiam uniwersalne, nieliniowe predyktory takie, jak metoda k-najbliższych sąsiadów oraz drzewa decyzyjne. Część czwarta jest poświęcona metodom regularyzacji uczenia i wzmacniania siły predykcji - omawiam: penalizację błądu predykcji, kernelizację zmiennych wyjaśniających oraz boosting (kombinacje liniowe “słabych” predyktorów).

Wykład jest zogniskowany na ważnych metodach uczenia maszynowego, które są rozwiązaniami zadania minimalizacji penalizowanego błędu predykcji na danych uczących. W ten sposób otrzymujemy zbiory funkcji predykcyjnych indeksowanych “hiperparametrem” (np. wagą kary na parametrach funkcji predykcyjnej), którego wartość obliczamy na dodatkowych danych walidacyjnych lub za pomocą kroswalidacji na danych uczących. Wiele uwagi poświęcę, aby w możliwie ścisły sposób uzasadnić popularne postępowania walidacyjne.

Wykład można zaliczyć na podstawie dwóch rodzajów aktywności: rozwiązywania zadań matematycznych lub programowania i eksperymentów komputerowych.

Literatura:

1. Tibshirani R., http://statweb.stanford.edu/~tibs/ftp/ISI.pdf, 2021.

2. Hastie T., Tibshirani R. and Friedman J. The Elements of Statistical Learning, Springer 2009.

3. Shalev-Shwartz S. and Ben-David S. Understanding Machine Learning: From Theory to Algorithms, Cambridge University Press 2014.

Efekty uczenia się:

Wiedza i umiejętności:

1. Rozumie podstawowe metody predykcji.

2. Umie nauczyć/dopasować funkcję predykcyjną do danych uczących, wybrać hiperparametr na danych walidacyjnych, oszacować błąd predykcji na danych testowych.

Kompetencje społeczne:

Potrafi zastosować predykcję do badania zjawisk przyrodniczych czy społecznych.

Metody i kryteria oceniania:

Ocena końcowa będzie równa maksimum z:

-- oceny za aktywność na zajęciach (np wychwycenie błędu w rachunkach, podanie alternatywnego dowodu czy wyprowadzenia metody predykcji),

-- oceny za rozwiązywanie zadań w trakcie kursu,

-- oceny z egzaminu ustnego lub projektu programistycznego.

Zajęcia w cyklu "Semestr zimowy 2023/24" (zakończony)

Okres: 2023-10-01 - 2024-01-28
Wybrany podział planu:
Przejdź do planu
Typ zajęć:
Ćwiczenia, 30 godzin więcej informacji
Wykład, 30 godzin więcej informacji
Koordynatorzy: Piotr Pokarowski
Prowadzący grup: Piotr Pokarowski
Lista studentów: (nie masz dostępu)
Zaliczenie: Egzamin
Opisy przedmiotów w USOS i USOSweb są chronione prawem autorskim.
Właścicielem praw autorskich jest Uniwersytet Warszawski.
Krakowskie Przedmieście 26/28
00-927 Warszawa
tel: +48 22 55 20 000 https://uw.edu.pl/
kontakt deklaracja dostępności USOSweb 7.0.1.0-2 (2024-02-19)