SylabUZ
Nazwa przedmiotu | Uczenie maszynowe |
Kod przedmiotu | 11.9-WE-INFD-UczenieMaszyn |
Wydział | Wydział Nauk Inżynieryjno-Technicznych |
Kierunek | Informatyka |
Profil | ogólnoakademicki |
Rodzaj studiów | drugiego stopnia z tyt. magistra inżyniera |
Semestr rozpoczęcia | semestr zimowy 2021/2022 |
Semestr | 1 |
Liczba punktów ECTS do zdobycia | 6 |
Typ przedmiotu | obowiązkowy |
Język nauczania | polski |
Sylabus opracował |
|
Forma zajęć | Liczba godzin w semestrze (stacjonarne) | Liczba godzin w tygodniu (stacjonarne) | Liczba godzin w semestrze (niestacjonarne) | Liczba godzin w tygodniu (niestacjonarne) | Forma zaliczenia |
Wykład | 30 | 2 | 18 | 1,2 | Egzamin |
Laboratorium | 30 | 2 | 18 | 1,2 | Zaliczenie na ocenę |
Zapoznanie studentów z pojęciem uczenia maszynowego oraz jego zastosowaniem do analizy dużych zbiorów danych w systemach ERP oraz nowoczesnych aplikacjach e-biznesowych.
Nauczenie studentów doboru odpowiednich technik uczenia maszynowego w zależności od skali rozpatrywanego problemu oraz rodzaju przeprowadzanej analizy (w czasie rzeczywistym, w trybie batch, przetwarzanie strumieni danych).
Nauczenie studentów pracy z wykorzystaniem nowoczesnych języków i platform ukierunkowanych na uczenie maszynowe, takich jak Python, R i JMP.
Znajomość podstaw rachunku prawdopodobieństwa i statystyki
Znajomość metody numerycznych
Umiejętność programowania w języku Python
Liniowe metody klasyfikacji: klasyfikacja pod nadzorem; liniowa analiza dyskryminacyjna; dyskryminacja w oparciu o regresję liniową i logistyczną; diagnostyka modelu.
Klasyfikacja w oparciu o rozkłady prawdopodobieństwa: klasyfikator bayesowski i metoda największej wiarygodności; optymalność reguły Bayesa; praktyczna konstrukcja klasyfikatorów.
Klasyfikacja w oparciu o nieparametryczną estymację rozkładów prawdopodobieństwa: estymacja rozkładów w klasach; metoda najbliższych sąsiadów.
Drzewa klasyfikacyjne i rodziny klasyfikatorów: reguły podziału; reguły przycinania drzew; algorytmy bagging i boosting; lasy losowe.
Analiza regresji: globalne modele parametryczne; regresja nieparametryczna; efekty losowe i liniowe modele mieszane.
Uogólnienia metod liniowych: dyskryminacja elastyczna; maszyny wektorów podpierających.
Metody rzutowania i detekcja zmiennych ukrytych: systemy uczące się bez nadzoru; analiza składowych głównych; analiza czynnikowa; skalowanie wielowymiarowe.
Analiza skupień: metody kombinatoryczne; metody hierarchiczne.
Deep learning: głębokie sieci jednokierunkowe; regularyzacja; sieci splotowe; sieci rekurencyjne i rekursywne.
wykład konwencjonalny, dyskusja, wykład problemowy, ćwiczenia laboratoryjne, praca w zespole
Opis efektu | Symbole efektów | Metody weryfikacji | Forma zajęć |
Wykład - warunkiem zaliczenia jest uzyskanie pozytywnej oceny z egzaminu przeprowadzonego w formie zaproponowanej przez prowadzącego
Laboratorium - warunkiem zaliczenia jest uzyskanie ocen pozytywnych z wszystkich ćwiczeń laboratoryjnych
Składowe oceny końcowej = wykład: 50% + laboratorium: 50%
Zmodyfikowane przez prof. dr hab. inż. Dariusz Uciński (ostatnia modyfikacja: 26-04-2021 14:31)