Pobierz prezentację
Pobieranie prezentacji. Proszę czekać
OpublikowałLubomierz Chaber Został zmieniony 10 lat temu
1
Wspomaganie decyzji nie zwalnia od decyzji...
formalnie: Zastosowanie sieci neuronowych do wspomagania decyzji biznesowych Dorota Cendrowska nieformalnie: Wspomaganie decyzji nie zwalnia od decyzji...
2
Plan wykładu Zastosowania sieci neuronowych: klasyfikacja aproksymacja
prognozowanie filtrowanie asocjacje grupowanie
3
zagadnienie klasyfikacji
wymagania: znane kategorie zbiór uczący (reprezentatywny) decyzja do podjęcia: kodowanie wyjścia stosowane sieci: jednokierunkowe sieci neuronowe przykład: klasyfikacja formacji giełdowych
4
kodowanie wyjścia ?
5
kodowanie wyjścia
6
kodowanie wyjścia kodowanie „jeden na jeden”
7
kodowanie wyjścia kodowanie „binarne”
8
zagadnienie klasyfikacji (przykład)
wspomaganie decyzji biznesowych z wykorzystaniem sieci neuronowych wymaga m.in.: decyzji dotyczącej wyboru elementów analizy technicznej określenie okna czasowego stworzenie odpowiedniego zbioru uczącego źródło rysunków:
9
zagadnienie aproksymacji
klasyczna aproksymacja metodami numerycznymi napotyka na trudności, gdy: próbujemy przybliżyć funkcję znaną tylko dla ograniczonej liczby ustalonych punktów (zbyt mała liczba punktów próbkowania) gwałtowne zwroty wartości funkcji między tymi punktami. stosowane sieci: jednokierunkowe sieci neuronowe
10
zagadnienie prognozowania
prognozowanie jako szczególny rodzaj aproksymacji stosowane sieci: jednokierunkowe sieci neuronowe przykład: prognozowanie notowań giełdowych
11
zagadnienie prognozowania (przykład)
wspomaganie decyzji biznesowych z wykorzystaniem sieci neuronowych wymaga m.in.: decyzji dotyczącej wyboru szeregu czasowego liczby punktów z przeszłości (opóźnień) liczby punktów z przyszłości (np. prognozowanie na podstawie danych miesięcznych tego, co będzie się działo za rok) w przypadku notowań giełdowych: określenie okna czasowego eliminacja trendu
12
zagadnienie filtrowania danych
Sieć Hopfielda sieć jednowarstwowa ze sprzężeniem zwrotnym sygnał wejściowy dyskretny: -1, 1 funkcja aktywacji: uczenie jednoetapowe uruchamianie asynchroniczne
13
Sieć Hopfielda — uczenie
uczenie jednoetapowe:
14
Sieć Hopfielda — uczenie
uczenie jednoetapowe: lub (zapis macierzowy):
15
Sieć Hopfielda — uczenie (przykład)
obrazy do zapamiętania w sieci:
16
Sieć Hopfielda — uczenie (przykład)
obrazy do zapamiętania w sieci:
17
Sieć Hopfielda — uczenie (przykład)
obrazy do zapamiętania w sieci:
18
Sieć Hopfielda — uczenie (przykład)
obrazy do zapamiętania w sieci:
19
Sieć Hopfielda — uczenie (przykład)
macierz wag: symetryczna zera na przekątnej wagi neuronu (wiersz/kolumna) (przykład) wagi drugiego neuronu:
20
Sieć Hopfielda — uczenie (przykład)
macierz wag: symetryczna zera na przekątnej wagi neuronu (wiersz/kolumna) (przykład) wagi drugiego neuronu:
21
Sieć Hopfielda — uruchamianie
uruchamianie wieloetapowe: synchroniczne (?) asynchroniczne (?) kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia
22
Uruchamianie synchroniczne (?)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów „kojarzy się” ?
23
Uruchamianie synchroniczne (?)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów „kojarzy się” ?
24
Uruchamianie synchroniczne (?)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów „kojarzy się” ?
25
Uruchamianie synchroniczne (?)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów „kojarzy się” ?
26
Uruchamianie synchroniczne (?)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów „kojarzy się” ?
27
Uruchamianie synchroniczne (?)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów „kojarzy się” ?
28
Uruchamianie synchroniczne (NIE!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia z którym z zapamiętanych obrazów „kojarzy się” ? never ending story :(
29
Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia
30
Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia
31
Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia
32
Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia
33
Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia
34
Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia
35
Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia
36
Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia
37
Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia
38
Uruchamianie asynchroniczne (TAK!)
kryterium stopu: żaden z neuronów nie zmienia wartości swego wyjścia asynchroniczne — jeden neuron uaktualnia wartość wyjścia ?
39
Co „pamięta” sieć Hopfielda?
przynajmniej część obrazów intencjonalnie „zapamiętanych” + negatywy tych obrazów „skojarzenie”: wzorzec najbliższy wg miary Hamminga !
40
Co i ile „pamięta” sieć Hopfielda?
przynajmniej część obrazów intencjonalnie „zapamiętanych” + negatywy tych obrazów „skojarzenie”: wzorzec najbliższy wg miary Hamminga pojemność pamięci autoasocjacyjnej: P — liczba zapamiętanych obrazów z prawdopodobieństwem bliskim jedności
41
Hopfield — po co pamiętać?
zastosowanie pamięci autoasocjacyjnych: filtrowanie (odszumianie) uzupełnianie
42
sieć BAM (Kosko): asocjacje
architektura: dwuwarstwowa uczenie jednoetapowe uruchamianie synchroniczne dwa tryby: wejście: a, wyjście: b wejście: b, wyjście: a pojemność pamięci:
43
sieć BAM (Kosko): asocjacje
uczenie jednoetapowe:
44
sieć BAM (Kosko): asocjacje
uczenie jednoetapowe:
45
BAM: uczenie (przykład)
uczenie jednoetapowe:
46
BAM: uczenie (przykład)
uczenie jednoetapowe:
47
BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia
48
BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia
49
BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia
50
BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia
51
BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia
52
BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia
53
BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia
54
BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia
55
BAM: uruchamianie (przykład)
uruchamianie synchroniczne kryterium stopu: żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia
56
zagadnienie grupowania danych
Sieć Kohonena sieć jednowarstwowa neurony o ciągłej funkcji aktywacji interpretacja geometryczna wag zdolność grupowania danych na N grup podobieństwo zdefiniowane jako: „jak najmniejsze różnice poszczególnych składowych wejściowych w stosunku do (?)”
57
Uruchamianie sieci Kohonena
interpretacja wag neuronu: „charakterystyczny” reprezentant grupy dane wejściowe zostają zaklasyfikowane do grupy reprezentowanej przez neuron o największej wartości wyjścia
58
Uruchamianie sieci Kohonena
interpretacja wag neuronu: „charakterystyczny” reprezentant grupy dane wejściowe zostają zaklasyfikowane do grupy reprezentowanej przez neuron o największej wartości wyjścia 58
59
Uruchamianie sieci Kohonena
interpretacja wag neuronu: „charakterystyczny” reprezentant grupy dane wejściowe zostają zaklasyfikowane do grupy reprezentowanej przez neuron o największej wartości wyjścia Jak teoria mijała się z prawdą 59
60
Wagi sieci Kohonena wymagana jest normalizacja wag:
61
Uczenie sieci Kohonena
reguła WINNER TAKES ALL korekcie wag podlega tylko neuron „zwycięzca” korekcie wag podlega nie tylko neuron „zwycięzca”, ale również neuronów należących do sąsiedztwa
62
Sieć Kohonena, problemy
wymagana znajomość maksymalnej liczby grup sieć „nie zna” odpowiedzi NIE WIEM każdy z obrazów wejściowych zostanie zaklasyfikowany do jednej z N grup
63
Sieć Kohonena, zaskakujące (?) własności
Kto tak naprawdę zwycięża i skąd to się bierze?
64
Sieć Kohonena, zaskakujące (?) własności
Kto tak naprawdę zwycięża i skąd to się bierze?
65
Sieć Kohonena, zaskakujące (?) własności
Kto tak naprawdę zwycięża i skąd to się bierze? 65
66
Sieci neuronowe (podsumowanie)
architektura: jednowarstowe/wielowarstwowe z/bez sprzężenia zwrotnego uczenie z/bez nauczyciela zastosowania: klasyfikacja aproksymacja, prognozowanie filtrowanie (auto/heteroasocjacja) grupowanie (detekcja regularności)
67
Nauka... jako konsekwencja decyzji
paradygmat naukowy rewolucja naukowa (Thomas Kuhn)
68
Nauka... jako konsekwencja decyzji
paradygmat naukowy rewolucja naukowa (Thomas Kuhn)
69
Nauka... jako konsekwencja decyzji
paradygmat naukowy rewolucja naukowa (Thomas Kuhn)
70
Nauka... jako konsekwencja decyzji
paradygmat naukowy rewolucja naukowa (Thomas Kuhn)
71
Nauka... jako konsekwencja decyzji
paradygmat naukowy rewolucja naukowa (Thomas Kuhn)
72
Problemy... rzeczywistość
Rozwiązywanie problemów vs podejmowanie decyzji
73
Strategie podejmowania decyzji
74
Problemy... sztuczne sieci neuronowe
Rozwiązywanie problemów vs podejmowanie decyzji
Podobne prezentacje
© 2024 SlidePlayer.pl Inc.
All rights reserved.