Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

SZTUCZNA INTELIGENCJA DIAGRAMY oraz DRZEWA DECYZYJNE i KLASYFIKUJĄCE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki.

Podobne prezentacje


Prezentacja na temat: "SZTUCZNA INTELIGENCJA DIAGRAMY oraz DRZEWA DECYZYJNE i KLASYFIKUJĄCE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki."— Zapis prezentacji:

1 SZTUCZNA INTELIGENCJA DIAGRAMY oraz DRZEWA DECYZYJNE i KLASYFIKUJĄCE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium Biocybernetyki Kraków, al. Mickiewicza 30, paw. C3/205 Google: Adrian Horzyk

2 DRZEWA DECYZYJNE DECISION TREES Wspomagają podejmowanie decyzji. Wspomagają podejmowanie decyzji. Uwzględniają wyniki zdarzeń losowych, kosztów, zasobów, użyteczności itp. Uwzględniają wyniki zdarzeń losowych, kosztów, zasobów, użyteczności itp. Umożliwiają określenie najbardziej prawdopodobnej lub korzystnej strategii osiągnięcia zaplanowanego celu. Umożliwiają określenie najbardziej prawdopodobnej lub korzystnej strategii osiągnięcia zaplanowanego celu. Są proste do zrozumienia oraz interpretacji wyników (biała skrzynka – white box), więc łatwe w stosowaniu. Są proste do zrozumienia oraz interpretacji wyników (biała skrzynka – white box), więc łatwe w stosowaniu. Nie wymagają wstępnej obróbki danych, normalizacji, standaryzacji ani konwersji na dane liczbowe. Nie wymagają wstępnej obróbki danych, normalizacji, standaryzacji ani konwersji na dane liczbowe.

3 Tworzenie i optymalizacja drzew decyzyjnych Przy konstrukcji drzew decyzyjnych stosujemy entropię. Entropia H to średnia ilość informacji przypadająca na znak symbolizujący zajście zdarzenia x z pewnego zbioru. Każde zdarzenie i w tym n-elementowym zbiorze ma przypisane pewne prawdopodobieństwo wystąpienia p(i):

4 Własności entropii Entropia H jest:  Nieujemna.  Maksymalna, gdy prawdopodobieństwa zajść wszystkich zdarzeń są takie same.  Zerowa, gdy prawdopodobieństwa zajść zdarzeń przyjmują wartości tylko 0 lub 1.  Sumą entropii, gdy zdarzenia są niezależne (zachodzi tzw. superpozycją).

5 Zbiór uczący „ Golf ” przykład tworzenia drzewa decyzyjnego Zbiór uczący Golf prezentuje decyzje członków klubu golfowego o obecności w klubie i podjęciu gry w golfa w zależności od pogody wyrażonej przez zachmurzenie, temperaturę, wilgotność i wietrzność:

6 Przykład drzewa decyzyjnego dla zbioru „ Golf ”

7 Tworzenie drzewa decyzyjnego z wykorzystaniem entropii dla zbioru uczącego „ Golf ” Najpierw liczymy entropię dla różnych przypadków określonych w zbiorze uczącym: Zachmurzenie = słonecznie: Zachumurzenie = deszczowo: Zachumurzenie = pochmurno: Jeśli entropia = 0, oznacza to utworzenie liścia w drzewie.

8 Tworzenie drzewa decyzyjnego z wykorzystaniem entropii dla zbioru uczącego „ Golf ” Następnie na podstawie określonych entropii potomków wyznaczamy wartość entropii węzła z wykorzystaniem prawdopodobieństwa LaPlace’a wystąpienia danego zdarzenia losowego:

9 Warunek stopu oparty o zysk informacyjny dla tworzenie drzewa decyzyjnego „ Golf ” Drzewa decyzyjne możemy budować tak długo, dopóki otrzymujemy pewien zysk informacyjny wynikający z dalszych podziałów, obliczony jako różnica pomiędzy entropią przed podziałem i po podziale:

10 Przycinanie drzew decyzyjnych Przycinanie drzew decyzyjnych ma na celu uzyskanie lepszej zdolności do uogólniania, szczególnie w sytuacjach, gdy dane są zaszumione lub mogą w nich występować błędy. Można też wykorzystać zbiór testowy lub walidację krzyżową w celu uzyskania optymalnej wielkości strukturę drzewa decyzyjnego. Przycinać możemy:  Przez obcięcie (uniemożliwiając dalsze rozgałęzienia, zastępując węzeł liściem – etykietą klasy), jeśli węzeł reprezentuje generalnie wzorce jednej klasy.  Przez zamianę (zastępowanie węzła jednym z jego potomków), jeśli potomek jest repzentatywny dla danej gałęzi drzewa.

11 Algorytm tworzenia drzewa decyzyjnego C4.5 Rossa Quilana 1.Wybierz atrybut, który najbardziej różnicuje wartości wyjściowe atrybutów. 2.Stwórz oddzielną gałąź w drzewie dla każdej wartości wybranego atrybutu. 3.Podziel przypadki na podgrupy tak, aby odzwierciedlały wartości w wybranym węźle. 4.Dla każdej podgrupy zakończ proces wybierania kolejnych atrybutów, jeśli:  Wszystkie podgrupy mają taką samą wartość dla atrybutu wyjściowego.  Podgrupa zawiera pojedynczy węzeł. 5.Dla każdej podgrupy stworzonej w punkcie 3., która nie została określona jako liść, powtórz powyższy proces od punktu 1.

12 DRZEWA KLASYFIKUJĄCE CLASSIFICATION TREES Drzewa klasyfikujące to drzewa decyzyjne zastosowane do zadań klasyfikacji. W liściach drzew klasyfikujących znajdują się etykiety klas. W węzłach drzew klasyfikujących określone są reguły podziału podzbioru wzorców uczących względem jednego z atrybutów, który możliwie najbardziej różnicuje wzorce z tego podzbioru wzorców. Proces podziału drzewa klasyfikującego kończy się w momencie, gdy wzorce z podzbioru reprezentowanego przez dany węzeł reprezentują już tylko wzorce jednej klasy lub zasadniczo wzorce jednej klasy, a wtedy taki węzeł przekształcany jest na liść tego drzewa.

13 Wykorzystanie RapidMinera do budowy klasyfikującego drzewa decyzyjnego Wykorzystajmy teraz RapidMiner 6.5 Studio do zbudowania klasyfikującego drzewa decyzyjnego dla zbioru uczącego „ Golf ”.

14 Importowanie danych z Excela (*.xls) do RapidMiner 6.5 Studio:

15

16 Wykorzystanie RapidMinera do budowy klasyfikującego drzewa decyzyjnego Zaimportowane dane z Excela podłączamy do wyjścia res: Dane z uwzględnieniem określenia danych i identyfikacji klasy (label) możemy zapisać do lokalnego repozytorium: nadając nazwę plikowi danych w tym repozytorium. nadając nazwę plikowi danych w tym repozytorium.

17 Wykorzystanie RapidMinera do budowy klasyfikującego drzewa decyzyjnego

18

19 Porównanie wyniku uzyskanego RapidMinera z modelowanym drzewem

20 Sprawdzenie poprawności zbudowanego modelu – drzewa decyzyjnego

21 Sprawdzenie efektywności i precyzji działania modelu – drzewa decyzyjnego W tym przypadku wszystkie dane uczące udało się poprawnie sklasyfikować, wykorzystując zbudowane drzewo decyzyjne i osiągając 100% poprawność modelu.

22 DIAGRAMY DECYZYJNE DECISION DIAGRAMS Diagramy decyzyjne tworzymy poprzez redukcję drzew decyzyjnych na skutek: 1.łączenia (agregacji) liści o tych samych wartościach, 2.następnie poprzez redukcję węzłów, których wszystkie połączenia prowadzą do tego samego następnika. W taki sposób powstaje graf, który jest diagramem decyzyjnym, oszczędniejszym niż analogiczne drzewo decyzyjne. Jeśli każdy węzeł drzewa decyzyjnego posiada dokładnie dwa następniki, wtedy w wyniku takiego przekształcenia otrzymujemy binarny diagram decyzyjny (binary decision diagram).

23 Tworzenie diagramu decyzyjnego z drzewa decyzyjnego

24 AI CZY JEST JUŻ BLISKO?


Pobierz ppt "SZTUCZNA INTELIGENCJA DIAGRAMY oraz DRZEWA DECYZYJNE i KLASYFIKUJĄCE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki."

Podobne prezentacje


Reklamy Google