SylabUZ

Wygeneruj PDF dla tej strony

Systemy wizyjne - opis przedmiotu

Informacje ogólne
Nazwa przedmiotu Systemy wizyjne
Kod przedmiotu 11.9-WE-AiRP-SW
Wydział Wydział Informatyki, Elektrotechniki i Automatyki
Kierunek Automatyka i robotyka
Profil ogólnoakademicki
Rodzaj studiów pierwszego stopnia z tyt. inżyniera
Semestr rozpoczęcia semestr zimowy 2017/2018
Informacje o przedmiocie
Semestr 6
Liczba punktów ECTS do zdobycia 4
Typ przedmiotu obieralny
Język nauczania polski
Sylabus opracował
  • dr hab. inż. Bartłomiej Sulikowski, prof. UZ
Formy zajęć
Forma zajęć Liczba godzin w semestrze (stacjonarne) Liczba godzin w tygodniu (stacjonarne) Liczba godzin w semestrze (niestacjonarne) Liczba godzin w tygodniu (niestacjonarne) Forma zaliczenia
Wykład 30 2 18 1,2 Zaliczenie na ocenę
Laboratorium 30 2 18 1,2 Zaliczenie na ocenę

Cel przedmiotu

·        zapoznanie studentów z kolejnymi etapami działania systemu wizyjnego (od procesu akwizycji do wyniku działania algorytmu klasyfikacji)

·        ukształtowanie umiejętności korzystania z systemu wizyjnego i konfigurowania jego podstawowych funkcji oraz wykorzystywania informacji z systemu wizyjnego w procesie sterowania robotem

Wymagania wstępne

Podstawy robotyki, Cyfrowe przetwarzanie sygnałów, Systemy wspomagania decyzji

Zakres tematyczny

Charakterystyka i architektura systemu wizyjnego. Konfiguracje kamery: „Eye in the hand”
i „Eye off the hand”. Podstawowe parametry systemu. Potencjalne zastosowania. Działanie toru wizyjnego. Wyzwania i problemy. Integracja systemu wizyjnego z urządzeniami wykonawczymi (robotami). Standardowe zadania (pick and place, kontrola jakości itd).

Optyka: budowa obiektywu, parametry obiektywu: ogniskowa, jasność, abberacje, dystorsja, winietowanie. Metody ustawiania ostrości. Głębia ostrości.

Akwizycja obrazów. Zakres światła widzialnego, pasmo podczerwone i nadfioletowe. Matryce światłoczułe, zasada działania, parametry (rozdzielczość matryc, rozmiary
i proporcje). Typy matryc: CMOS, CCD i inne. Filtry RGGB (siatka Beyera). Czułość w skali ISO. Ekspozycja klatki.

Systemy doświetleń: „back-light”, „front-light (light field, dark field)”, „diffuse-light (axial diffuse-light)”. Tryby pracy: ciągły i wyzwalany. Wpływ barwy światła doświetlającego.

Technologie stosowane do transmisji obrazów.

Cyfrowa reprezentacja obrazu. Formaty plików graficznych: RAW, TiFF i JPEG. Reprezentacja stratna i bezstratna. Modele barw: RGB, CMYK, HSV, xyz i inne. Konwersja między modelami barw.

Przetwarzanie obrazów. Operacje na histogramach (normalizacja, wyrównywanie, rozciąganie). Operacje bezkontekstowe: arytmetyczne, nieliniowe (korekcja gamma). Operacje kontekstowe (filtracja): filtry dolnoprzepustowe (uśredniające, wygładzające), górnoprzepustowe (wyostrzające, kierunkowe, wykrywające krawędzie), filtr medianowy.

Operacje morfologiczne. Erozja i dylatacja. Domknięcie i otwarcie. Operacje Hit Or Miss, Top-Hat, Bottom-Hat. Ekstrakcja krawędzi. Szkieletyzacja. Operacje morfologiczne dla obrazów w odcieniach szarości.

Metody segmentacji obiektów. Progowanie. Algorytm Otsu.

Podstawy ekstrakcji i selekcji cech obiektów.

Podstawowe metody rozpoznawania wzorców. Metoda dopasowania wzorca (ang. template matching).

Kalibracja kamery. Lokalizacja i orientacja kamery w układzie bazowym robota.

Sterowanie manipulatorem Kawasaki z wykorzystaniem informacji z systemu wizyjnego. Programowanie robota.

Metody kształcenia

wykład: wykład konwencjonalny, dyskusja

laboratorium: ćwiczenia laboratoryjne

Efekty uczenia się i metody weryfikacji osiągania efektów uczenia się

Opis efektu Symbole efektów Metody weryfikacji Forma zajęć

Warunki zaliczenia

Wykład – warunkiem zaliczenia jest uzyskanie pozytywnych ocen z sprawdzianów wiedzy w formie pisemnej, przeprowadzonych co najmniej raz w semestrze

Laboratorium – warunkiem zaliczenia jest realizacja co najmniej 80% przewidzianych ćwiczeń laboratoryjnych i uzyskanie pozytywnych ocen ze sprawdzianów weryfikujących wiedzę i umiejętności zdobyte podczas ćwiczeń

Składowe oceny końcowej = wykład: 50% + laboratorium: 50%

Literatura podstawowa

1.        P. I. Corke, Robotics, Vision and Control Fundamental Algorithms in MATLAB, Springer, 2011, www.petercorke.com

2.        M. Wysocki i T.  Kapuścinski, Systemy wizyjne, Rzeszów, 2013

3.        R. Tadeusiewicz, P. Kohoroda, Komputerowa analiza i przetwarzanie obrazów, Wyd.

 Fundacji Postępu Telekomunikacji, 1997,

4.        B. K. P. Horn, Robot Vision, MIT Press, McGraw–Hill, 1986

Literatura uzupełniająca

1.        D. Sankowski, W. Mosorov, K. Strzecha, Przetwarzanie i analiza obrazów
w systemach przemysłowych, PWN, 2011.

2.        P. I. Corke, VISUAL CONTROL OF ROBOTS: High-Performance Visual Servoing,

 (dostepna online)

3.        W. Skarbek, Metody reprezentacji obrazów cyfrowych, PLJ, Warszawa, 1993.

4.        R. C. Gonzales, P. Wintz, Digital Image Processing, Addison–Wesley, London, 1977.

5.        D. H. Ballard, C. M. Brown, Computer Vision, Prentice–Hall, New York, 1982.

6.        Z. Wróbel, R. Koprowski, Praktyka przetwarzania obrazów w programie Matlab, EXIT 2004

Uwagi


Zmodyfikowane przez dr hab. inż. Wojciech Paszke, prof. UZ (ostatnia modyfikacja: 30-04-2020 16:53)