Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Linear Methods of Classification

Podobne prezentacje


Prezentacja na temat: "Linear Methods of Classification"— Zapis prezentacji:

1 Linear Methods of Classification
T. Hastie, R. Tibshirani, J. Friedman „The Element of Statistical Learning” Chapter 4 Linear Methods of Classification

2

3 Metody klasyfikacji liniowej
Wyznaczanie liniowej funkcji dyskryminacyjnej dla każdej z klas: Regresja liniowa Liniowa analiza dyskryminacyjna Regresja logistyczna Wyznaczanie liniowych hiperpłaszczyzn rozdzielających klasy: ‘Separating Hyperplanes’

4 Funkcja dyskryminacyjna k(x)
Postać funkcji dyskryminacyjnej k(x): W zależności od modelu: regresja liniowa analiza dyskryminacyjna regresja logistyczna Hiperpłaszczyzna rozgraniczająca klasy k oraz l: Nowa obserwacja zaklasyfikowana do grupy o największej wartości k(x)

5

6 Regresja liniowa Estymacja modelu liniowego (MNK): (1) (2)
Wartości funkcji dla nowej obserwacji (K wektor): (3) Reguła dyskryminacyjna: (4)

7 Maskowanie klas Gdy K > 2 istnieje niebezpieczeństwo maskowania klas.

8 Estymacja za pomocą funkcji kwadratowej, zamiast liniowej.
Generalnie, dla k klas wymagany wielomian stopnia k-1. Duża złożoność obliczeniowa.

9 Liniowa analiza dyskryminacyjna
Liniowa i kwadratowa analiza dyskryminacyjna ‘Regularized discriminant analysis’ ‘Reduced-rank linear discriminant’

10 Reguła Bayesa Funkcja gęstości (wiarygodność): oraz
Prawdopodobieństwo a priori: oraz Prawdopodobieństwo a posteriori: (5)

11 Funkcja gęstości Zmienne mają łącznie wielowymiarowy rozkład normalny.
(6) Wspólna macierz wariancji i kowariancji  dla wszystkich klas. (7)

12 Estymacja parametrów Prawdopodobieństwo a piori: (8)
Wektor wartości średnich: (9) Macierz wariancji i kowariancji: (10)

13 Dyskryminacja liniowa a regresja
Klasyfikacja binarna: hiperpłaszczyzny są równoległe. Więcej niż dwie klasy: różnica pomiędzy rozwiązaniami. Nie występuje problem maskowania klas [Hastie et al, 1994].

14 Dyskryminacja kwadratowa
Dwa podejścia: Brak założenia o równości macierzy wariancji i kowariancji. Zwiększenie wymiaru przestrzeni cech: X1, X2  X1, X2, X1X2 , X12, X22 Podobne rezultaty.

15 ‘Regularized discriminant analysis’
Kompromis pomiędzy dyskryminacją liniową a kwadratową [Friedman, 1989]. Postać macierzy kowariancji: (11)

16 ‘Reduced-rank linear discriminant’
Redukcja wymiaru przestrzeni cech pozwala na lepszą identyfikację istotnych różnic między klasami. Redukcja ta jest możliwa dopóki liczba cech P  K-1. Analiza głównych składowych.

17 Regresja logistyczna Liniowe logarytmy ilorazów wiarygodności: (12)
Rozwiązanie: (13) (14)

18 Estymacja parametrów 
Metoda największej wiarygodności Funkcja wiarygodności: (15) Logarytm funkcji wiarygodności (względy obliczeniowe): (16) Szukamy maksimum L().

19 Przykład: klasyfikacja binarna
Wskaźnik y = 1 dla klasy 1 oraz y = 0 dla klasy 2 Prawdopodobieństwo a posteriori: p1(x; ) = p(x;) p2(x;) = 1-p(x;) Logarytm funkcji wiarygodności: (17)

20 Obliczanie  (18) P+1 równań nieliniowych względem 
Iteracyjna metoda wyznaczania  - algorytm Newton-Raphson: (19)

21 Dyskryminacja liniowa:
(20) Regresja logistyczna: (21)

22 ‘Separating Hyperplanes’
Metoda perceptronowa [Rosenblatt, 1958] ‘Optimal Separating Hyperplanes’

23 Metoda perceptronowa Rosenblatta
Kryterium perceptronowe: Minimalizacja odległości pomiędzy źle sklasyfikowanymi obiektami a hiperpłaszczyzną. (22) Algorytm: metoda najszybszego spadku (23)

24 Wady Zadania liniowo separowalne: wiele rozwiązań w zależności
od punktu startowego. Algorytm może zbiegać w bardzo długim czasie. Zadania nieseparowalne liniowo: algorytm nie jest zbieżny.

25 ‘Optimal Separating Hyperplane’
Kryterium: Maksymalizacja odległości pomiędzy hiperpłaszczyzną a najbliższymi obiektami. Jedno rozwiązanie. Lepsza klasyfikacja elementów zbioru testowego.

26 W skrócie... Regresja liniowa i problem maskowania klas
Dyskryminacja liniowa z założeniem normalnego rozkładu funkcji gęstości Regresja logistyczna ‘Separating Hyperplanes’


Pobierz ppt "Linear Methods of Classification"

Podobne prezentacje


Reklamy Google