Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Wspomaganie decyzji nie zwalnia od decyzji...

Podobne prezentacje


Prezentacja na temat: "Wspomaganie decyzji nie zwalnia od decyzji..."— Zapis prezentacji:

1 Wspomaganie decyzji nie zwalnia od decyzji...
formalnie: Zastosowanie sieci neuronowych do wspomagania decyzji biznesowych Dorota Cendrowska nieformalnie: Wspomaganie decyzji nie zwalnia od decyzji...

2 Plan wykładu Zastosowania sieci neuronowych: klasyfikacja aproksymacja
prognozowanie filtrowanie asocjacje grupowanie

3 zagadnienie klasyfikacji
wymagania: znane kategorie zbiór uczący (reprezentatywny) decyzja do podjęcia: kodowanie wyjścia stosowane sieci: jednokierunkowe sieci neuronowe przykład: klasyfikacja formacji giełdowych

4 kodowanie wyjścia ?

5 kodowanie wyjścia

6 kodowanie wyjścia kodowanie „jeden na jeden”

7 kodowanie wyjścia kodowanie „binarne”

8 zagadnienie klasyfikacji (przykład)
wspomaganie decyzji biznesowych z wykorzystaniem sieci neuronowych wymaga m.in.: decyzji dotyczącej wyboru elementów analizy technicznej określenie okna czasowego stworzenie odpowiedniego zbioru uczącego źródło rysunków:

9 zagadnienie aproksymacji
klasyczna aproksymacja metodami numerycznymi napotyka na trudności, gdy: próbujemy przybliżyć funkcję znaną tylko dla ograniczonej liczby ustalonych punktów (zbyt mała liczba punktów próbkowania) gwałtowne zwroty wartości funkcji między tymi punktami. stosowane sieci: jednokierunkowe sieci neuronowe

10 zagadnienie prognozowania
prognozowanie jako szczególny rodzaj aproksymacji stosowane sieci: jednokierunkowe sieci neuronowe przykład: prognozowanie notowań giełdowych

11 zagadnienie prognozowania (przykład)
wspomaganie decyzji biznesowych z wykorzystaniem sieci neuronowych wymaga m.in.: decyzji dotyczącej wyboru szeregu czasowego liczby punktów z przeszłości (opóźnień) liczby punktów z przyszłości (np. prognozowanie na podstawie danych miesięcznych tego, co będzie się działo za rok) w przypadku notowań giełdowych: określenie okna czasowego eliminacja trendu

12 zagadnienie filtrowania danych
Sieć Hopfielda sieć jednowarstwowa ze sprzężeniem zwrotnym sygnał wejściowy dyskretny: -1, 1 funkcja aktywacji: uczenie jednoetapowe uruchamianie asynchroniczne

13 Sieć Hopfielda — uczenie
uczenie jednoetapowe:

14 Sieć Hopfielda — uczenie
uczenie jednoetapowe: lub (zapis macierzowy):

15 Sieć Hopfielda — uczenie (przykład)
obrazy do zapamiętania w sieci:

16 Sieć Hopfielda — uczenie (przykład)
obrazy do zapamiętania w sieci:

17 Sieć Hopfielda — uczenie (przykład)
obrazy do zapamiętania w sieci:

18 Sieć Hopfielda — uczenie (przykład)
obrazy do zapamiętania w sieci:

19 Sieć Hopfielda — uczenie (przykład)
macierz wag: symetryczna zera na przekątnej wagi neuronu (wiersz/kolumna) (przykład) wagi drugiego neuronu:

20 Sieć Hopfielda — uczenie (przykład)
macierz wag: symetryczna zera na przekątnej wagi neuronu (wiersz/kolumna) (przykład) wagi drugiego neuronu:

21 Sieć Hopfielda — uruchamianie
uruchamianie wieloetapowe: synchroniczne (?) asynchroniczne (?) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia

22 Uruchamianie synchroniczne (?)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów „kojarzy się” ?

23 Uruchamianie synchroniczne (?)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów „kojarzy się” ?

24 Uruchamianie synchroniczne (?)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów „kojarzy się” ?

25 Uruchamianie synchroniczne (?)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów „kojarzy się” ?

26 Uruchamianie synchroniczne (?)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów „kojarzy się” ?

27 Uruchamianie synchroniczne (?)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów „kojarzy się” ?

28 Uruchamianie synchroniczne (NIE!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów „kojarzy się” ? never ending story :(

29 Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia

30 Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia

31 Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia

32 Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia

33 Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia

34 Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia

35 Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia

36 Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia

37 Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia

38 Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia ?

39 Co „pamięta” sieć Hopfielda?
przynajmniej część obrazów intencjonalnie „zapamiętanych” + negatywy tych obrazów „skojarzenie”: wzorzec najbliższy wg miary Hamminga !

40 Co i ile „pamięta” sieć Hopfielda?
przynajmniej część obrazów intencjonalnie „zapamiętanych” + negatywy tych obrazów „skojarzenie”: wzorzec najbliższy wg miary Hamminga pojemność pamięci autoasocjacyjnej: P — liczba zapamiętanych obrazów z prawdopodobieństwem bliskim jedności

41 Hopfield — po co pamiętać?
zastosowanie pamięci autoasocjacyjnych: filtrowanie (odszumianie) uzupełnianie

42 sieć BAM (Kosko): asocjacje
architektura: dwuwarstwowa uczenie jednoetapowe uruchamianie synchroniczne dwa tryby: wejście: a, wyjście: b wejście: b, wyjście: a pojemność pamięci:

43 sieć BAM (Kosko): asocjacje
uczenie jednoetapowe:

44 sieć BAM (Kosko): asocjacje
uczenie jednoetapowe:

45 BAM: uczenie (przykład)
uczenie jednoetapowe:

46 BAM: uczenie (przykład)
uczenie jednoetapowe:

47 BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

48 BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

49 BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

50 BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

51 BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

52 BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

53 BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

54 BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

55 BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

56 zagadnienie grupowania danych
Sieć Kohonena sieć jednowarstwowa neurony o ciągłej funkcji aktywacji interpretacja geometryczna wag zdolność grupowania danych na N grup podobieństwo zdefiniowane jako: „jak najmniejsze różnice poszczególnych składowych wejściowych w stosunku do (?)”

57 Uruchamianie sieci Kohonena
interpretacja wag neuronu: „charakterystyczny” reprezentant grupy dane wejściowe zostają zaklasyfikowane do grupy reprezentowanej przez neuron o największej wartości wyjścia

58 Uruchamianie sieci Kohonena
interpretacja wag neuronu: „charakterystyczny” reprezentant grupy dane wejściowe zostają zaklasyfikowane do grupy reprezentowanej przez neuron o największej wartości wyjścia 58

59 Uruchamianie sieci Kohonena
interpretacja wag neuronu: „charakterystyczny” reprezentant grupy dane wejściowe zostają zaklasyfikowane do grupy reprezentowanej przez neuron o największej wartości wyjścia Jak teoria mijała się z prawdą 59

60 Wagi sieci Kohonena wymagana jest normalizacja wag:

61 Uczenie sieci Kohonena
reguła WINNER TAKES ALL korekcie wag podlega tylko neuron „zwycięzca” korekcie wag podlega nie tylko neuron „zwycięzca”, ale również neuronów należących do sąsiedztwa

62 Sieć Kohonena, problemy
wymagana znajomość maksymalnej liczby grup sieć „nie zna” odpowiedzi NIE WIEM każdy z obrazów wejściowych zostanie zaklasyfikowany do jednej z N grup

63 Sieć Kohonena, zaskakujące (?) własności
Kto tak naprawdę zwycięża i skąd to się bierze?

64 Sieć Kohonena, zaskakujące (?) własności
Kto tak naprawdę zwycięża i skąd to się bierze?

65 Sieć Kohonena, zaskakujące (?) własności
Kto tak naprawdę zwycięża i skąd to się bierze? 65

66 Sieci neuronowe (podsumowanie)
architektura: jednowarstowe/wielowarstwowe z/bez sprzężenia zwrotnego uczenie z/bez nauczyciela zastosowania: klasyfikacja aproksymacja, prognozowanie filtrowanie (auto/heteroasocjacja) grupowanie (detekcja regularności)

67 Nauka... jako konsekwencja decyzji
paradygmat naukowy rewolucja naukowa (Thomas Kuhn)

68 Nauka... jako konsekwencja decyzji
paradygmat naukowy rewolucja naukowa (Thomas Kuhn)

69 Nauka... jako konsekwencja decyzji
paradygmat naukowy rewolucja naukowa (Thomas Kuhn)

70 Nauka... jako konsekwencja decyzji
paradygmat naukowy rewolucja naukowa (Thomas Kuhn)

71 Nauka... jako konsekwencja decyzji
paradygmat naukowy rewolucja naukowa (Thomas Kuhn)

72 Problemy... rzeczywistość
Rozwiązywanie problemów vs podejmowanie decyzji

73 Strategie podejmowania decyzji

74 Problemy... sztuczne sieci neuronowe
Rozwiązywanie problemów vs podejmowanie decyzji


Pobierz ppt "Wspomaganie decyzji nie zwalnia od decyzji..."

Podobne prezentacje


Reklamy Google