SylabUZ
Course name | Machine learning |
Course ID | 11.9-WE-INFD-UczenieMaszyn |
Faculty | Faculty of Computer Science, Electrical Engineering and Automatics |
Field of study | Computer Science |
Education profile | academic |
Level of studies | Second-cycle studies leading to MSc degree |
Beginning semester | winter term 2022/2023 |
Semester | 1 |
ECTS credits to win | 5 |
Course type | obligatory |
Teaching language | polish |
Author of syllabus |
|
The class form | Hours per semester (full-time) | Hours per week (full-time) | Hours per semester (part-time) | Hours per week (part-time) | Form of assignment |
Lecture | 30 | 2 | 18 | 1,2 | Exam |
Laboratory | 30 | 2 | 18 | 1,2 | Credit with grade |
Zapoznanie studentów z pojęciem uczenia maszynowego oraz jego zastosowaniem do analizy dużych zbiorów danych w systemach ERP oraz nowoczesnych aplikacjach e-biznesowych.
Nauczenie studentów doboru odpowiednich technik uczenia maszynowego w zależności od skali rozpatrywanego problemu oraz rodzaju przeprowadzanej analizy (w czasie rzeczywistym, w trybie batch, przetwarzanie strumieni danych).
Nauczenie studentów pracy z wykorzystaniem nowoczesnych języków i platform ukierunkowanych na uczenie maszynowe, takich jak Python, R i JMP.
Znajomość podstaw rachunku prawdopodobieństwa i statystyki
Znajomość metody numerycznych
Umiejętność programowania w języku Python
Liniowe metody klasyfikacji: klasyfikacja pod nadzorem; liniowa analiza dyskryminacyjna; dyskryminacja w oparciu o regresję liniową i logistyczną; diagnostyka modelu.
Klasyfikacja w oparciu o rozkłady prawdopodobieństwa: klasyfikator bayesowski i metoda największej wiarygodności; optymalność reguły Bayesa; praktyczna konstrukcja klasyfikatorów.
Klasyfikacja w oparciu o nieparametryczną estymację rozkładów prawdopodobieństwa: estymacja rozkładów w klasach; metoda najbliższych sąsiadów.
Drzewa klasyfikacyjne i rodziny klasyfikatorów: reguły podziału; reguły przycinania drzew; algorytmy bagging i boosting; lasy losowe.
Analiza regresji: globalne modele parametryczne; regresja nieparametryczna; efekty losowe i liniowe modele mieszane.
Uogólnienia metod liniowych: dyskryminacja elastyczna; maszyny wektorów podpierających.
Metody rzutowania i detekcja zmiennych ukrytych: systemy uczące się bez nadzoru; analiza składowych głównych; analiza czynnikowa; skalowanie wielowymiarowe.
Analiza skupień: metody kombinatoryczne; metody hierarchiczne.
Deep learning: głębokie sieci jednokierunkowe; regularyzacja; sieci splotowe; sieci rekurencyjne i rekursywne.
wykład konwencjonalny, dyskusja, wykład problemowy, ćwiczenia laboratoryjne, praca w zespole
Outcome description | Outcome symbols | Methods of verification | The class form |
Wykład - warunkiem zaliczenia jest uzyskanie pozytywnej oceny z egzaminu przeprowadzonego w formie zaproponowanej przez prowadzącego
Laboratorium - warunkiem zaliczenia jest uzyskanie ocen pozytywnych z wszystkich ćwiczeń laboratoryjnych
Składowe oceny końcowej = wykład: 50% + laboratorium: 50%
Modified by prof. dr hab. inż. Dariusz Uciński (last modification: 20-04-2022 16:32)