Linear Methods of Classification

Slides:



Advertisements
Podobne prezentacje
Regresja i korelacja materiały dydaktyczne.
Advertisements

I część 1.
Klasyfikacja danych Metoda hierarchiczne
Nieliniowa metoda najmniejszych kwadratów
Zmienne losowe i ich rozkłady
Metody rozwiązywania układów równań liniowych
WYKŁAD 6 ATOM WODORU W MECHANICE KWANTOWEJ (równanie Schrődingera dla atomu wodoru, separacja zmiennych, stan podstawowy 1s, stany wzbudzone 2s i 2p,
Inteligencja Obliczeniowa Metody probabilistyczne.
Wykład 28 Włodzisław Duch Uniwersytet Mikołaja Kopernika
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
BUDOWA MODELU EKONOMETRYCZNEGO
Badania operacyjne. Wykład 2
Metody ekonometryczne
Metody ekonometryczne
Ulepszenia metody Eigenfaces
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Uogólniony model liniowy
Mgr Sebastian Mucha Schemat doświadczenia:
Analiza korelacji.
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010Optymalizacja miary efektywności działania sztucznych sieci neuronowych Dr hab. inż. Kazimierz Duzinkiewicz,
Systemy dynamiczneOdpowiedzi systemów – modele różniczkowe i różnicowe Kazimierz Duzinkiewicz, dr hab. inż.Katedra Inżynierii Systemów Sterowania 1 Systemy.
Perceptrony proste liniowe - Adaline
Prognozowanie na podstawie modelu ekonometrycznego
Eksperymentalna ocena jakości rozpoznawania
Modele (hipotezy) zagnieżdżone
Cluster Analysis and Self-Organizing Maps Analiza skupień i metody SOM
Additive Models, Trees, and Related Methods
Korelacje, regresja liniowa
Wykład 4. Rozkłady teoretyczne
Metody analizy danych w badaniach marketingowych 2013
Rozpoznawanie twarzy Wprowadzenie Algorytmy PCA ICA
Testowanie hipotez statystycznych
Analiza współzależności cech statystycznych
Ekonometria szeregów czasowych
Elementy Rachunku Prawdopodobieństwa i Statystyki
Prognozowanie z wykorzystaniem modeli ekonometrycznych
Modelowanie ekonometryczne
Zakładamy a priori istnienie rozwiązania α układu równań.
Ekonometria Analiza dyskryminacyjna
Modelowanie i identyfikacja 2010/2011Optymalizacja miary efektywności działania sztucznych sieci neuronowych Dr hab. inż. Kazimierz Duzinkiewicz, Katedra.
Sterowanie – metody alokacji biegunów II
Analiza dyskryminacji
Ekonometryczne modele nieliniowe
Regresja wieloraka.
Seminarium licencjackie Beata Kapuścińska
Ekonometryczne modele nieliniowe
Ekonometryczne modele nieliniowe
Ekonometryczne modele nieliniowe
Ekonometryczne modele nieliniowe
Filtr Kalmana (z ang. Kalman Filter w skrócie KF)
Ekonometria stosowana
WIELORÓWNANIOWE MODELE EKONOMETRYCZNE
Metody rozwiązywania układów równań nieliniowych
Program przedmiotu “Opracowywanie danych w chemii” 1.Wprowadzenie: przegląd rodzajów danych oraz metod ich opracowywania. 2.Podstawowe pojęcia rachunku.
Rozkład wariancji z próby (rozkład  2 ) Pobieramy próbę x 1,x 2,...,x n z rozkładu normalnego o a=0 i  =1. Dystrybuanta rozkładu zmiennej x 2 =x 1 2.
Analiza numeryczna i symulacja systemów
Treść dzisiejszego wykładu l Weryfikacja statystyczna modelu ekonometrycznego –błędy szacunku parametrów, –istotność zmiennych objaśniających, –autokorelacja,
Treść dzisiejszego wykładu l Klasyfikacja zmiennych modelu wielorównaniowego l Klasyfikacja modeli wielorównaniowych l Postać strukturalna i zredukowana.
Ekonometria stosowana Heteroskedastyczność składnika losowego Piotr Ciżkowicz Katedra Międzynarodowych Studiów Porównawczych.
Treść dzisiejszego wykładu l Szeregi stacjonarne, l Zintegrowanie szeregu, l Kointegracja szeregów.
STATYSTYKA – kurs podstawowy wykład 8 dr Dorota Węziak-Białowolska Instytut Statystyki i Demografii.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Model Poissona w ujęciu bayesowskim
EKONOMETRIA W3 prof. UG, dr hab. Tadeusz W. Bołt
Perceptrony o dużym marginesie błędu
Jednorównaniowy model regresji liniowej
Perceptrony o dużym marginesie błędu
MNK – podejście algebraiczne
Dr Dorota Rozmus Katedra Analiz Gospodarczych i Finansowych
Programowanie sieciowe Laboratorium 3
Zapis prezentacji:

Linear Methods of Classification T. Hastie, R. Tibshirani, J. Friedman „The Element of Statistical Learning” Chapter 4 Linear Methods of Classification

Metody klasyfikacji liniowej Wyznaczanie liniowej funkcji dyskryminacyjnej dla każdej z klas: Regresja liniowa Liniowa analiza dyskryminacyjna Regresja logistyczna Wyznaczanie liniowych hiperpłaszczyzn rozdzielających klasy: ‘Separating Hyperplanes’

Funkcja dyskryminacyjna k(x) Postać funkcji dyskryminacyjnej k(x): W zależności od modelu: regresja liniowa analiza dyskryminacyjna regresja logistyczna Hiperpłaszczyzna rozgraniczająca klasy k oraz l: Nowa obserwacja zaklasyfikowana do grupy o największej wartości k(x)

Regresja liniowa Estymacja modelu liniowego (MNK): (1) (2) Wartości funkcji dla nowej obserwacji (K wektor): (3) Reguła dyskryminacyjna: (4)

Maskowanie klas Gdy K > 2 istnieje niebezpieczeństwo maskowania klas.

Estymacja za pomocą funkcji kwadratowej, zamiast liniowej. Generalnie, dla k klas wymagany wielomian stopnia k-1. Duża złożoność obliczeniowa.

Liniowa analiza dyskryminacyjna Liniowa i kwadratowa analiza dyskryminacyjna ‘Regularized discriminant analysis’ ‘Reduced-rank linear discriminant’

Reguła Bayesa Funkcja gęstości (wiarygodność): oraz Prawdopodobieństwo a priori: oraz Prawdopodobieństwo a posteriori: (5)

Funkcja gęstości Zmienne mają łącznie wielowymiarowy rozkład normalny. (6) Wspólna macierz wariancji i kowariancji  dla wszystkich klas. (7)

Estymacja parametrów Prawdopodobieństwo a piori: (8) Wektor wartości średnich: (9) Macierz wariancji i kowariancji: (10)

Dyskryminacja liniowa a regresja Klasyfikacja binarna: hiperpłaszczyzny są równoległe. Więcej niż dwie klasy: różnica pomiędzy rozwiązaniami. Nie występuje problem maskowania klas [Hastie et al, 1994].

Dyskryminacja kwadratowa Dwa podejścia: Brak założenia o równości macierzy wariancji i kowariancji. Zwiększenie wymiaru przestrzeni cech: X1, X2  X1, X2, X1X2 , X12, X22 Podobne rezultaty.

‘Regularized discriminant analysis’ Kompromis pomiędzy dyskryminacją liniową a kwadratową [Friedman, 1989]. Postać macierzy kowariancji: (11)

‘Reduced-rank linear discriminant’ Redukcja wymiaru przestrzeni cech pozwala na lepszą identyfikację istotnych różnic między klasami. Redukcja ta jest możliwa dopóki liczba cech P  K-1. Analiza głównych składowych.

Regresja logistyczna Liniowe logarytmy ilorazów wiarygodności: (12) Rozwiązanie: (13) (14)

Estymacja parametrów  Metoda największej wiarygodności Funkcja wiarygodności: (15) Logarytm funkcji wiarygodności (względy obliczeniowe): (16) Szukamy maksimum L().

Przykład: klasyfikacja binarna Wskaźnik y = 1 dla klasy 1 oraz y = 0 dla klasy 2 Prawdopodobieństwo a posteriori: p1(x; ) = p(x;) p2(x;) = 1-p(x;) Logarytm funkcji wiarygodności: (17)

Obliczanie  (18) P+1 równań nieliniowych względem  Iteracyjna metoda wyznaczania  - algorytm Newton-Raphson: (19)

Dyskryminacja liniowa: (20) Regresja logistyczna: (21)

‘Separating Hyperplanes’ Metoda perceptronowa [Rosenblatt, 1958] ‘Optimal Separating Hyperplanes’

Metoda perceptronowa Rosenblatta Kryterium perceptronowe: Minimalizacja odległości pomiędzy źle sklasyfikowanymi obiektami a hiperpłaszczyzną. (22) Algorytm: metoda najszybszego spadku (23)

Wady Zadania liniowo separowalne: wiele rozwiązań w zależności od punktu startowego. Algorytm może zbiegać w bardzo długim czasie. Zadania nieseparowalne liniowo: algorytm nie jest zbieżny.

‘Optimal Separating Hyperplane’ Kryterium: Maksymalizacja odległości pomiędzy hiperpłaszczyzną a najbliższymi obiektami. Jedno rozwiązanie. Lepsza klasyfikacja elementów zbioru testowego.

W skrócie... Regresja liniowa i problem maskowania klas Dyskryminacja liniowa z założeniem normalnego rozkładu funkcji gęstości Regresja logistyczna ‘Separating Hyperplanes’