SylabUZ
Nazwa przedmiotu | Systemy wizyjne |
Kod przedmiotu | 11.9-WE-AiRP-SW |
Wydział | Wydział Nauk Inżynieryjno-Technicznych |
Kierunek | Automatyka i robotyka |
Profil | ogólnoakademicki |
Rodzaj studiów | pierwszego stopnia z tyt. inżyniera |
Semestr rozpoczęcia | semestr zimowy 2021/2022 |
Semestr | 6 |
Liczba punktów ECTS do zdobycia | 4 |
Typ przedmiotu | obieralny |
Język nauczania | polski |
Sylabus opracował |
|
Forma zajęć | Liczba godzin w semestrze (stacjonarne) | Liczba godzin w tygodniu (stacjonarne) | Liczba godzin w semestrze (niestacjonarne) | Liczba godzin w tygodniu (niestacjonarne) | Forma zaliczenia |
Wykład | 30 | 2 | 18 | 1,2 | Zaliczenie na ocenę |
Laboratorium | 30 | 2 | 18 | 1,2 | Zaliczenie na ocenę |
· zapoznanie studentów z kolejnymi etapami działania systemu wizyjnego (od procesu akwizycji do wyniku działania algorytmu klasyfikacji)
· ukształtowanie umiejętności korzystania z systemu wizyjnego i konfigurowania jego podstawowych funkcji oraz wykorzystywania informacji z systemu wizyjnego w procesie sterowania robotem
Podstawy robotyki, Cyfrowe przetwarzanie sygnałów, Systemy wspomagania decyzji
Charakterystyka i architektura systemu wizyjnego. Konfiguracje kamery: „Eye in the hand” i „Eye off the hand”. Podstawowe parametry systemu. Potencjalne zastosowania. Działanie toru wizyjnego. Wyzwania i problemy. Integracja systemu wizyjnego z urządzeniami wykonawczymi (robotami). Standardowe zadania (pick and place, kontrola jakości itd).
Optyka: budowa obiektywu, parametry obiektywu: ogniskowa, jasność, abberacje, dystorsja, winietowanie. Metody ustawiania ostrości. Głębia ostrości. Ustawianie ekspozycji.
Akwizycja obrazów. Zakres światła widzialnego, pasmo podczerwone i nadfioletowe. Matryce światłoczułe, zasada działania, parametry (rozdzielczość matryc, rozmiary
i proporcje). Typy matryc: CMOS, CCD i inne. Filtry RGGB (siatka Beyera). Czułość w skali ISO. Ekspozycja klatki.
Systemy doświetleń: „back-light”, „front-light (light field, dark field)”, „diffuse-light (axial diffuse-light)”. Tryby pracy: ciągły i wyzwalany. Wpływ barwy światła doświetlającego.
Technologie stosowane do transmisji obrazów.
Cyfrowa reprezentacja obrazu. Formaty plików graficznych: RAW, TiFF i JPEG. Reprezentacja stratna i bezstratna. Modele barw: RGB, CMYK, HSV, xyz i inne. Konwersja między modelami barw.
Przetwarzanie obrazów. Operacje na histogramach (normalizacja, wyrównywanie, rozciąganie). Operacje bezkontekstowe: arytmetyczne, nieliniowe (korekcja gamma). Operacje kontekstowe (filtracja): filtry dolnoprzepustowe (uśredniające, wygładzające), górnoprzepustowe (wyostrzające, kierunkowe, wykrywające krawędzie), filtr medianowy.
Operacje morfologiczne. Erozja i dylatacja. Domknięcie i otwarcie. Operacje Hit Or Miss, Top-Hat, Bottom-Hat. Ekstrakcja krawędzi. Szkieletyzacja. Operacje morfologiczne dla obrazów w odcieniach szarości.
Metody segmentacji obiektów. Progowanie. Algorytm Otsu.
Podstawy ekstrakcji i selekcji cech obiektów.
Podstawowe metody rozpoznawania wzorców. Metoda dopasowania wzorca (ang. template matching).
Kalibracja kamery. Lokalizacja i orientacja kamery w układzie bazowym robota.
Sterowanie manipulatorem z wykorzystaniem informacji z systemu wizyjnego. Programowanie robota.
wykład: wykład konwencjonalny, dyskusja
laboratorium: ćwiczenia laboratoryjne
Opis efektu | Symbole efektów | Metody weryfikacji | Forma zajęć |
Wykład – warunkiem zaliczenia jest uzyskanie pozytywnych ocen z sprawdzianów wiedzy w formie pisemnej, przeprowadzonych co najmniej raz w semestrze
Laboratorium – warunkiem zaliczenia jest realizacja co najmniej 80% przewidzianych ćwiczeń laboratoryjnych i uzyskanie pozytywnych ocen ze sprawdzianów weryfikujących wiedzę i umiejętności zdobyte podczas ćwiczeń
Składowe oceny końcowej = wykład: 50% + laboratorium: 50%
1. P. I. Corke, Robotics, Vision and Control Fundamental Algorithms in MATLAB, wyd. II. Springer, 2017, www.petercorke.com
2. M. Wysocki i T. Kapuścinski, Systemy wizyjne, Rzeszów, 2013
3. R. Tadeusiewicz, P. Kohoroda, Komputerowa analiza i przetwarzanie obrazów, Wyd. Fundacji Postępu Telekomunikacji, 1997,
4. B. K. P. Horn, Robot Vision, MIT Press, McGraw–Hill, 1986
1. D. Sankowski, W. Mosorov, K. Strzecha, Przetwarzanie i analiza obrazów w systemach przemysłowych, PWN, 2011.
2. P. I. Corke, VISUAL CONTROL OF ROBOTS: High-Performance Visual Servoing, (dostepna online)
3. W. Skarbek, Metody reprezentacji obrazów cyfrowych, PLJ, Warszawa, 1993.
4. R. C. Gonzales, P. Wintz, Digital Image Processing, Addison–Wesley, London, 1977.
5. D. H. Ballard, C. M. Brown, Computer Vision, Prentice–Hall, New York, 1982.
6. Z. Wróbel, R. Koprowski, Praktyka przetwarzania obrazów w programie Matlab, EXIT 2004
Zmodyfikowane przez dr hab. inż. Bartłomiej Sulikowski, prof. UZ (ostatnia modyfikacja: 30-04-2021 13:43)