Wykład 28 Włodzisław Duch Uniwersytet Mikołaja Kopernika

Slides:



Advertisements
Podobne prezentacje
Mechanizm wnioskowania rozmytego
Advertisements

STATYSTYKA WYKŁAD 03 dr Marek Siłuszyk.
Inteligencja Obliczeniowa Metody oparte na podobieństwie do wzorców.
Inteligencja Obliczeniowa Indukcja reguł - modele.
Inteligencja Obliczeniowa Sieci RBF.
Inteligencja Obliczeniowa Otwieranie czarnej skrzynki.
Katedra Informatyki Stosowanej UMK
Inteligencja Obliczeniowa Drzewa Decyzji.
Katedra Informatyki Stosowanej UMK
Uczenie konkurencyjne.
Samoorganizacja: uczenie bez nadzoru.
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Metody probabilistyczne.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
Inteligencja Obliczeniowa Feature Space Mapping.
Badania operacyjne. Wykład 2
Ulepszenia metody Eigenfaces
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Inteligencja Obliczeniowa Klasteryzacja i uczenie bez nadzoru.
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010Optymalizacja miary efektywności działania sztucznych sieci neuronowych Dr hab. inż. Kazimierz Duzinkiewicz,
Niepewności przypadkowe
Grupowanie.
Klasyfikacja Obcinanie drzewa Naiwny klasyfikator Bayes’a kNN
Linear Methods of Classification
Cluster Analysis and Self-Organizing Maps Analiza skupień i metody SOM
OPORNOŚĆ HYDRAULICZNA, CHARAKTERYSTYKA PRZEPŁYWU
Paweł Stasiak Radosław Sobieraj Michał Wronko
Klasyfikacja dokumentów za pomocą sieci radialnych
Seminarium 2 Krzywe kalibracyjne – rodzaje, wyznaczanie, obliczanie wyników Równanie regresji liniowej Współczynnik korelacji.
Analiza współzależności cech statystycznych
Metody matematyczne w Inżynierii Chemicznej
MECHANIKA NIEBA WYKŁAD r.
Zadanie programowania liniowego PL dla ograniczeń mniejszościowych
Wspomaganie decyzji nie zwalnia od decyzji...
Elementy Rachunku Prawdopodobieństwa i Statystyki
Techniki eksploracji danych
GŁOSOWA ŁĄCZNOŚĆ Z KOMPUTEREM
Zadanie programowania liniowego PL dla ograniczeń mniejszościowych
Zakładamy a priori istnienie rozwiązania α układu równań.
Modelowanie i identyfikacja 2010/2011Optymalizacja miary efektywności działania sztucznych sieci neuronowych Dr hab. inż. Kazimierz Duzinkiewicz, Katedra.
Dana jest sieć dystrybucji wody w postaci: Ø      m- węzłów,
Elementy Rachunku Prawdopodobieństwa i Statystyki
III EKSPLORACJA DANYCH
VI EKSPLORACJA DANYCH Zadania eksploracji danych: klasyfikacja
II Zadanie programowania liniowego PL
Regresja wieloraka.
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Wykład Rozwinięcie potencjału znanego rozkładu ładunków na szereg momentów multipolowych w układzie sferycznym Rozwinięcia tego można dokonać stosując.
D. Ciołek BADANIA OPERACYJNE – wykład 2
Metody Inteligencji Obliczeniowej
Dynamika bryły sztywnej
© Prof. Antoni Kozioł, Wydział Chemiczny Politechniki Wrocławskiej MATEMATYCZNE MODELOWANIE PROCESÓW BIOTECHNOLOGICZNYCH Temat – 5 Modelowanie różniczkowe.
STATYSTYKA – kurs podstawowy wykład 8 dr Dorota Węziak-Białowolska Instytut Statystyki i Demografii.
Treść dzisiejszego wykładu l Analiza wrażliwości –zmiana wartości współczynników funkcji celu, –zmiana wartości prawych stron ograniczeń. l Podejścia do.
Trochę matematyki - dywergencja Dane jest pole wektora. Otoczymy dowolny punkt P zamkniętą powierzchnią A. P w objętości otoczonej powierzchnią A pole.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Elementy cyfrowe i układy logiczne
Learnmatrix, Adaline, Madaline i modele liniowe
Podstawowe rodzaje modeli rozmytych
Systemy neuronowo – rozmyte
Perceptrony o dużym marginesie błędu
Metody sztucznej inteligencji
Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Perceptrony
Katedra Informatyki Stosowanej UMK
MIARY STATYSTYCZNE Warunki egzaminu.
Inteligencja Obliczeniowa Sieci RBF.
Zapis prezentacji:

Wykład 28 Włodzisław Duch Uniwersytet Mikołaja Kopernika Inteligencja Obliczeniowa Inspiracje statystyczne: rozpoznawanie struktur. Wykład 28 Włodzisław Duch Uniwersytet Mikołaja Kopernika

Co było Odkrywanie wiedzy metodami neuronowymi Stosowanie reguł Drzewa decyzji

Co będzie Kwantyzacja wektorowa Klasyfikatory statystyczne Liniowa dyskryminacja Fisherowska dyskryminacja Logistyczna dyskryminacja

Kwantyzacja wektorowa Statystyczna teoria decyzji. Statystyczne rozpoznawanie struktur: klasyfikacja próbek danych. Wektory X = X(t) Î Rn, t = 0,1,2... , należące do klas wi. Zadanie: zdefiniować optymalne powierzchnie decyzji w n-1 wymiarach tak, by podzielić Rn na obszary odpowiadające różnym klasom. Uczenie: zmiana powierzchni decyzji w miarę napływania nowych informacji. Jedno z podejść: podzielić (skwantyzować) Rn na obszary wpływów, określając w tych obszarach odpowiednie gęstości prawd.

Statystyczne oceny Jeśli każdej decyzji dotyczącej klasyfikacji przypiszemy tą samą wagę to średnią liczbę błędnych klasyfikacji można zminimalizować wyznaczając powierzchnie decyzji za pomocą: gdzie wi, wj to sąsiadujące ze sobą klasy, P(wi ) jest prawdopodobieństwem a priori pojawienia się klasy wi p(X|wi ) jest gęstością prawd. próbek X należących do klasy wi Metody parametryczne: specyficzna forma funkcji gęstości jest znana, jej parametry oceniane są na podstawie analizy próbek. Metody nieparametryczne: uniwersalne rozwinięcia. ,,Okna Parzena”: ustalone centra, wokół których przyjmuje się symetryczne okienka prostopadłościenne lub sferyczne i zlicza w nich próbki.

Kwantyzacja wektorowa VQ - w każdym obszarze Rn wyróżnia się ,,wektory kodujące” (codebook vectors) tak umieszczone, że reguła najbliższego sąsiada pozwala określić dla nowej próbki X do której należy klasy. LVQ: wektory kodujące przemieszczają się w najbardziej optymalne z punktu widzenia dokładności klasyfikacji miejsca w miarę napływu nowych danych. Jak wybrać początkowe położenie wektorów kodujących? Jak optymalizować położenie wektorów kodujących? Najprostsza wersja: kNN (k-najbliższych sąsiadów), przyjmuje za wektory kodujące wektory otrzymane z próbek. Zbiór wektorów kodujących mk przybliżający rozkład p(X); najbliższy wektor kodujący mc dla X

LVQ Najprostsza reguła uczenia LVQ: Współczynnik uczenia h może zależeć od czasu. Inna reguła: LVQ2: stosuj powyższą regułę uczenia tylko jeśli: 1. X jest niewłaściwie klasyfikowany przez najbliższego sąsiada m1 ; 2. drugi najbliższy sąsiad m2 jest z tej samej klasy co X ; 3. X leży dostatecznie blisko granicy pomiędzy m1 i m2 Wówczas: przysuń m2 i odsuń m1. Zastosowania: klasyfikacja, klasteryzacja, kompresja danych, zastępując konkretne dane prototypami.

Klasyfikatory statystyczne Nazwa Powierzchnia decyzji Funkcja dyskryminująca Liniowy, logika pro- gowa, min. odległości hiperpłaszczyzny kNN fragmenty hiperpłaszczyzn najczęstsza klasa wśród k sąsiadów Kwadratowy powierzchnie drugiego rzędu Gaussowski hiperelipsoidy, z centrum w C i dyspersią s Funkcji potencjalnych czynniki 1/r Ograniczonej Energii Kulombowskiej (RCE) kombinacja hipersfer Funkcji bazowych (F) dowolne

LDA Dyskryminacja liniowa: znajdź najlepszą hiperpłaszczyznę dzielącą dane. Zamień X na -X dla klas wi, i = 2..K Zbierz wszystkie Xi w prostokątnej macierzy A. Rozwiąż: Im większe współczynniki tym większy margines klasyfikatora. Wiele metod rozwiązywania w sensie LMS. Dla K klas rozdzielanie klas parami.

FDA Dyskryminacja Fishera: znajdź najlepszą prostą, na którą można rzutować dane tak, by skupienia wewnątrz klasy były jak najmniejsze a separacja pomiędzy klasami jak największa. Macierz rozrzutu dla wektorów z tej samej klasy: Pomiędzy klasami: Maksymalizowana funkcja Wynik:

Dyskryminacja logistyczna LogDA Ulepszona dyskryminacja liniowa; modelowany jest stosunek: P. posterioryczne modelowane są więc przez f. logistyczne: ale parametry znajdowane odmiennie niż w preceptronie: maks. metodami iteracyjnymi iloczyn:

Podsumowanie Metody statystyczne nadają się do klasyfikacji i regresji. LVQ jest stosowane w analizie sygnałów. FDA i LDA są tanie obliczeniowo i stosunkowo łatwe numerycznie; QDA ma już zbyt dużo parametrów i wymaga dodatkowych warunków; LogDA jest kosztowna ale daje dobre wyniki, używa LDA jako startu. GLM, ogólne modele liniowe, obejmują LogDA. Metody statystyczne działają dobrze dla rozkładów normalnych. Brak dobrych programów dla klasyfikatorów statystycznych. Niektóre modele można znaleźć w większych pakietach statystycznych. SVM rozszerza możliwości LDA i jest obecnie popularne. Dla klas niejednorodnych: kombinacja klasteryzacji i dyskryminacji.

I to niestety tyle ! Kropla w morzu wiedzy ... Koniec wykładu 28 I to niestety tyle ! Kropla w morzu wiedzy ...