Inteligencja Obliczeniowa Metody oparte na podobieństwie do wzorców.

Slides:



Advertisements
Podobne prezentacje
Szymon Grabowski Katedra Informatyki Stosowanej Politechniki Łódzkiej
Advertisements

Sztuczna Inteligencja Reprezentacja wiedzy I Logika przybliżona
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Inteligencja Obliczeniowa Sieci dynamiczne cd.
Inteligencja Obliczeniowa Indukcja reguł - modele.
Inteligencja Obliczeniowa Binarne modele pamięci skojarzeniowych
Inteligencja Obliczeniowa Sieci RBF.
Inteligencja Obliczeniowa Otwieranie czarnej skrzynki.
Katedra Informatyki Stosowanej UMK
Inteligencja Obliczeniowa Drzewa Decyzji.
Katedra Informatyki Stosowanej UMK
Uczenie konkurencyjne.
Samoorganizacja: uczenie bez nadzoru.
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Metody probabilistyczne.
Inteligencja Obliczeniowa Systemy neurorozmyte.
Wykład 28 Włodzisław Duch Uniwersytet Mikołaja Kopernika
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
Inteligencja Obliczeniowa Feature Space Mapping.
Badania operacyjne. Wykład 1
Badania operacyjne. Wykład 2
Sztuczne sieci neuronowe
Sztuczna Inteligencja Reprezentacja wiedzy I Logika przybliżona
Ulepszenia metody Eigenfaces
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Sztuczna Inteligencja Reprezentacja wiedzy I Wstęp. Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch.
Inteligencja Obliczeniowa Klasteryzacja i uczenie bez nadzoru.
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010Optymalizacja miary efektywności działania sztucznych sieci neuronowych Dr hab. inż. Kazimierz Duzinkiewicz,
Komputerowe Wspomaganie Decyzji 2010/2011 Zagadnienia wielocelowe II Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Metody.
Paweł Kramarski Seminarium Dyplomowe Magisterskie 2
Eksperymentalna ocena jakości rozpoznawania
Klasyfikacja Obcinanie drzewa Naiwny klasyfikator Bayes’a kNN
Linear Methods of Classification
Additive Models, Trees, and Related Methods
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Klasyfikacja dokumentów za pomocą sieci radialnych
Klasyfikacja dokumentów za pomocą sieci radialnych Paweł Rokoszny Emil Hornung Michał Ziober Tomasz Bilski.
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
MECHANIKA NIEBA WYKŁAD r.
Stabilność Stabilność to jedno z najważniejszych pojęć teorii sterowania W większości przypadków, stabilność jest warunkiem koniecznym praktycznego zastosowania.
Dana jest sieć dystrybucji wody w postaci: Ø      m- węzłów,
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
III EKSPLORACJA DANYCH
VI EKSPLORACJA DANYCH Zadania eksploracji danych: klasyfikacja
VII EKSPLORACJA DANYCH
Politechniki Poznańskiej
IV EKSPLORACJA DANYCH Zadania eksploracji danych: klasyfikacja
Adaptacyjne Systemy Inteligentne Maciej Bielski, s4049.
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
Wybrane zagadnienia inteligencji obliczeniowej Zakład Układów i Systemów Nieliniowych I-12 oraz Katedra Mikroelektroniki i Technik Informatycznych proponują.
Metody Inteligencji Obliczeniowej
Przypomnienie: Przestrzeń cech, wektory cech
Metody Inteligencji Obliczeniowej Adrian Horzyk Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Struktury i algorytmy wspomagania decyzji
Learnmatrix, Adaline, Madaline i modele liniowe
Systemy neuronowo – rozmyte
Perceptrony o dużym marginesie błędu
Co do tej pory robiliśmy:
Perceptrony o dużym marginesie błędu
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Inteligencja Obliczeniowa Perceptrony
Katedra Informatyki Stosowanej UMK
Programowanie sieciowe Laboratorium 4
Inteligencja Obliczeniowa Sieci RBF.
Zapis prezentacji:

Inteligencja Obliczeniowa Metody oparte na podobieństwie do wzorców. Wykład 26 Włodzisław Duch Uniwersytet Mikołaja Kopernika

Co było Odkrywanie wiedzy metodami neuronowymi Stosowanie reguł Drzewa decyzji Metody indukcyjne

Co będzie Metody oparte na podobieństwie k-nn - metoda najbliższych sąsiadów Ogólna teoria metod opartych na podobieństwie

Co to jest Poszukaj najbardziej podobnych przypadków i przypisz nieznany przypadek do tej samej grupy. W sztucznej inteligencji mamy: Memory-Based Methods (MBM), Instance-Based Methods (IBM), Case-Based Methods (CBM), Case-Based Reasoning (CBR), Memory-Based Reasoning (MBR), Similarity-Based Reasoning (SBR). Wszystkie te nazwy odnoszą się do metod wykorzystujących podobieństwo; inspiracje z pattern recognition - teorii rozpoznawania struktur.

SBL ogólnie Mając dany zbiór referencyjny wektorów i ich klas: {X(k), Ck = C(X(k))} należy określić klasę wektora X lub p(Ci|X; M) p(Ci|X; M) prawdopodobieństwo klasyfikacji, d(X, X(k)) miara podobieństwa (miara odległości) M = parametry i procedury modelu (metric function etc). Uczenie leniwe (lazy learning) i „pracowite” Metody oparte na podobieństwie obejmują wszystkie metody generujące prototypy, np. kNN, RBF, LVQ, SOM, ... Metody oparte na funkcjach dyskryminujących można również zaliczyć do tej klasy.

k-NN Metoda k najbliższych sąsiadów Mając {X(k), Ck = C(X(k))} określ p(Ci|X; M) 1. Przygotuj dane: średnia zero, standaryzacja wariancji 2. Zdefinuj funkcję odległości, np. Euklidesową lub Manhattan 3. Klasyfikuj (nie ma uczenia!) Dla 1-NN znajdź w zbiorze referencyjnym mink d(X, R(k)) , przyjmij p(Ci|X; M) = 1 dla Ci = C(R(k)) Dla k-NN: wybierz k (uczenie), min. l. błedów w L-1-O na zb. treningowym znajdź k najbliższych sąsiadów; Jeśli ki wektorów z klasy Ci to p(Ci|X; M) = ki /k

Subtelności k-NN Prosta ale ... Standaryzacja może pogarszać zamiast polepszać. Problem impasów: dla danych dyskretnych i parzystego k może być kilka wektorów referencyjnych w tej samej odległości: Używaj nieparzystego k Zwiększ k aż impas zostanie przełamany Zmiejsz k Przyjmij klasę a priori bardziej prawdopodobną Odrzuć impasy jako niemożliwe do klasyfikacji Przełam impas w przypadkowy sposób Obliczaj prawdopodobieństwa zamiast przewidywania klas Sieć Hamminga - realizacja sieciowa.

Zalety k-NN Liczne zalety 1) Liczba klas nie jest ograniczona. 2) Łatwo jest dodać interpolację liniową, pozwalającą na lokalne uśrednienie wartości i zastosowania do aproksymacji. 3) Klasyfikator lub pamięć heteroasocjacyjna: dowolne cechy pozwalają na przewidywania pozostałych (opt. k i inne parametry mogą być różne). 4) Stabilność: NN, DT, systemy regułowe to systemy niestabilne przy perturbacji zbioru uczącego, knn jest metodą stabilną. 5) P-reguły są bardziej ogólne od C i F-reguł (?) 6) Bardzo proste metody, należy ich zawsze używać najpierw. 7) Nie ma uczenia; nie ma parametrów do manipulacji 8) Łatwo zrobić test „bez jednego” (leave-one-out) 9) Często daje b. dobre wyniki (zwłaszcza dla obrazów)

Wady k-NN ... i parę wad 1) Potrzeba wiele przykładów treningowych by uzyskać dobre wyniki. 2) Trzyma się wszystkie dane treningowe, konieczna duża pamięć. 3) Obliczanie odległości wymaga O(n2) operacji, potrzebna duża pamięć. 4) Może być powolne na etapie klasyfikacji. 5) Brak selekcji cech może powodować trudności w interpretacji i mylne wyniki. Regiony decyzyjne: wypukłe wielościany. Błąd dla k ® ¥ i dla liczby wektorów referencyjnych ® ¥ osiąga optymalne wartości statystyczne (Bayesowskie).  W praktyce twierdzenia asymptotyczne nie mają zastosowania.

Ogólna teoria Jak można sparametryzować wyrażenia na prawd. klasyfikacji? Model M zawiera: · k to liczba uwzględnianych wektorów ref. w otoczeniu wektora X; · d(×; r) f. odległości (podobieństwa), r = maks. promień sfery i pozostałe parametry adaptacyjne. · G(d(X, Rp)), f. ważąca wpływ wektorów Rp na p-stwo klasyfikacji; · {Rp} to zbiór wektorów ref. utworzonym ze zbioru treningowego {Xp}; · E[×] jest f. kosztu minimalizowaną podczas uczenia; · K[×] jest f. skalującą wpływ błędu dla danego prototypu z bazy treningowej na f. kosztu. Liczne procedury: selekcja cech/prototypów, wartości brakujące, minimalizacja, realizacja sieciowa, komitety ...

Przykłady metod Wiele znanych metod to szczególne przypadki SBM kNN Uogólnione kNN - ważenie f. odległości r-NN LVQ Klasyfikatory Gaussowskie Sieci RBF Sieci MLP - po odpowiednim uogólnieniu na D-MLP Nowe modele: szukanie w przestrzeni modeli Wykład Karola - szczegóły

Koniec wykładu 26 Dobra - jeszcze nie noc !