Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych Dorota Cendrowska nieformalnie: Od czegoś trzeba zacząć...

Podobne prezentacje


Prezentacja na temat: "Formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych Dorota Cendrowska nieformalnie: Od czegoś trzeba zacząć..."— Zapis prezentacji:

1 formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych Dorota Cendrowska nieformalnie: Od czegoś trzeba zacząć...

2 Plan wykładu siedlisko inteligencji ludzkiej matematyczny model neuronu interpretacja parametrów neuronu perceptron/neuron (?) sieci jednokierunkowe vs perceptron zastosowania sieci jednokierunkowych testowanie sieci jednokierunkowych

3 Inspiracje neuron biologiczny Błona komórkowa aksonu i ciała neuronu zawiera kanały jonowe bramkowane elektrycznie (bramkowane potencjałem), które pozwalają neuronowi na generowanie i propagację (przesyłanie) impulsu elektrycznego (potencjał aktywacyjny). Te impulsy są wytwarzane i przesyłane przez jony obdarzone ładunkiem takie jak sód (Na + ), potas (K + ), chlor (Cl - ) oraz wapń (Ca 2+ ).

4 Model neuronu wejścia

5 Model neuronu wejścia NET

6 Model neuronu wejścia NET funkcja aktywacji wartość wyjścia

7 Funkcje aktywacji dyskretne ?

8 Funkcje aktywacji dyskretne (unipolarne)

9 Funkcje aktywacji dyskretne (bipolarne)

10 Neuron neuronowi (nie)równy schemat neuronu: alternatywnie (literatura):

11 Jeden neuron, wiele schematów (?)

12

13

14

15

16 Alternatywy cd.... sztuczny neuron w literaturze schemat neuronu w piśmiennictwie: L. Rutkowski, Metody i techniki sztucznej inteligencji

17 Alternatywy cd.... sztuczny neuron w literaturze schemat neuronu w piśmiennictwie: St. Osowski, Sieci neuronowe w ujęciu algorytmicznym

18 Alternatywy cd.... sztuczny neuron w literaturze schemat neuronu w piśmiennictwie: J. Korbicz, A. Obuchowicz, D. Uciński Sztuczne sieci neuronowe, podstawy i zastosowania

19 Funkcje aktywacji ciągłe unipolarne sigmoidalne ciągłe bipolarne tangensoidalne

20 ciągłe sigmoidalne Funkcje aktywacji

21 ciągłe sigmoidalne Funkcje aktywacji

22 ciągłe sigmoidalne Funkcje aktywacji ?

23 ciągłe sigmoidalne ciągłe tangensoidalne Funkcje aktywacji

24 Interpretacja geometryczna

25

26

27 x1x1 x2x2

28 [-3, 1] [w 1, w 2 ] [-3, 1]

29 Interpretacja geometryczna

30 ?

31

32 Dychotomizator: ręczna robota ?

33 ?

34 ? [-5, 2]

35 Dychotomizator: ręczna robota [w 1, w 2 ]=[-2, -5][w 1, w 2 ]=[2, 5] [-5, 2]

36 Dychotomizator: ręczna robota [w 1, w 2 ]=[-2, -5][w 1, w 2 ]=[2, 5]

37 Perceptron… perceptron: neuron o dyskretnej funkcji aktywacji zastosowanie: klasyfikacja zdolność do uogólniania (?)

38 Perceptron… perceptron: neuron o dyskretnej funkcji aktywacji zastosowanie: klasyfikacja zdolność do uogólniania (?)

39 sieć jednokierunkowa jednowarstwowa wejście: warstwa przetwarzająca wyjście:

40 Przetwarzanie... wejście: warstwa przetwarzająca wyjście:

41 Przetwarzanie... wejście: warstwa przetwarzająca wyjście:

42 Przetwarzanie... wejście: warstwa przetwarzająca wyjście:

43 Uczenie… wzorzec uczący: zbiór uczący:

44 Uczenie… wzorzec uczący: otrzymane wyjście: korekta wag*: * metoda perceptronowa lub metoda delty

45 Neuron (perceptron) i klasyfikacja zdolność do uogólniania (?)

46 Neuron (perceptron) i klasyfikacja zdolność do uogólniania (?)

47 Nieoczekiwany kłopot... Minsky i Papert (1969): udowodnili ograniczone możliwości sieci jednowarstwowych (perceptronów)

48 sieć jednokierunkowa wielowarstwowa wejście: przynajmniej jedna warstwa ukryta: warstwa wyjściowa wyjście:

49 Przetwarzanie... wejście: przynajmniej jedna warstwa ukryta: warstwa wyjściowa wyjście:

50 Przetwarzanie... wejście: przynajmniej jedna warstwa ukryta: warstwa wyjściowa wyjście:

51 Przetwarzanie... wejście: przynajmniej jedna warstwa ukryta: warstwa wyjściowa wyjście:

52 Przetwarzanie... wejście: przynajmniej jedna warstwa ukryta: warstwa wyjściowa wyjście:

53 Uczenie… wzorzec uczący: otrzymane wyjście: korekta wag (???): ?

54 Uczenie… korekta wag**: ** metoda propagacji wstecznej lub uogólniona metoda delty

55 Uczenie… korekta wag**: ** metoda propagacji wstecznej lub uogólniona metoda delty

56 warstwa wyjściowa: Uczenie…

57 warstwa wyjściowa: Uczenie…

58 warstwa wyjściowa:

59 Uczenie… warstwa wyjściowa:

60 Uczenie… warstwa wyjściowa:

61 Uczenie… warstwa wyjściowa:

62 Uczenie… warstwa wyjściowa:

63 Uczenie… warstwa wyjściowa:

64 Uczenie… warstwa wyjściowa:

65 Uczenie… warstwa wyjściowa:

66 Uczenie… warstwa wyjściowa:

67 Uczenie… warstwa wyjściowa:

68 Uczenie… warstwa wyjściowa:

69 Uczenie…

70 warstwa wyjściowa:

71 Uczenie… warstwa wyjściowa:

72 Uczenie… warstwa ukryta:

73 Uczenie… warstwa ukryta:

74 Uczenie… warstwa ukryta:

75 Uczenie… warstwa ukryta:

76 Uczenie… warstwa ukryta:

77 Uczenie… warstwa ukryta:

78 Uczenie… warstwa ukryta:

79 Uczenie… warstwa ukryta:

80 Uczenie… warstwa ukryta:

81 Uczenie… warstwa ukryta:

82 Uczenie… warstwa ukryta:

83 Uczenie…

84 warstwa ukryta: Uczenie…

85 warstwa ukryta: Uczenie…

86 warstwa ukryta: Uczenie…

87 warstwa ukryta: Uczenie…

88 warstwa ukryta: Uczenie…

89 warstwa ukryta: Uczenie…

90 warstwa ukryta: Uczenie…

91 warstwa ukryta: Uczenie…

92 warstwa ukryta: Uczenie…

93 * metoda propagacji wstecznej lub uogólniona metoda delty warstwa ukryta: warstwa wyjściowa*:

94 Uczenie… warstwa ukryta: warstwa wyjściowa*: * metoda propagacji wstecznej lub uogólniona metoda delty

95 Policzyć nieznane… znanym korekta wag*: * metoda perceptronowa lub metoda delty

96 Na ciut chłopski... rozum

97

98

99

100

101

102

103

104

105

106

107

108 korekta wag**: Uczenie sieci wielowarstwowej po ludzku… ** metoda propagacji wstecznej lub uogólniona metoda delty

109 korekta wag**: error i dla w. wyjściowej P : Uczenie sieci wielowarstwowej po ludzku…

110 korekta wag**: error i dla w. wyjściowej P : error i dla w. ukrytej p : Uczenie sieci wielowarstwowej po ludzku…

111 korekta wag**: error i dla w. wyjściowej P : error i dla w. ukrytej p : Uczenie sieci wielowarstwowej po ludzku…

112 korekta wag**: error i dla w. wyjściowej P : error i dla w. ukrytej p : Uczenie sieci wielowarstwowej po ludzku… obliczanie błędów

113 korekta wag**: error i dla w. wyjściowej P : error i dla w. ukrytej p : Uczenie sieci wielowarstwowej po ludzku… obliczanie błędów korekta wag

114 f(NET) ? Konsekwencje! f(NET) dla funkcji aktywacji funkcja ciągła unipolarna: funkcja ciągła bipolarna: funkcje dyskretne: X

115 Sieci jednokierunkowe Zastosowania: klasyfikatory aproksymatory Z twierdzenia Kołmogorowa: Sieci wielowarstwowe (minimum dwuwarstwowe) potrafią modelować dowolnie dokładnie przybliżać dowolne ciągłe funkcje rzeczywiste o wartościach z odcinka [0, 1].

116 Uwagi dotyczące uczenia terminy: zbiór uczący zbiór testujący jedna epoka

117 Uwagi dotyczące uczenia terminy: zbiór uczący zbiór testujący jedna epoka tryby uczenia: metoda on-line metoda batch-owa.

118 Uwagi dotyczące uczenia przyśpieszenie metody propagacji wstecznej przy zachowaniu stabilności (technika momentum):

119 Testowanie Zbiór danych (N wierszy)

120 Testowanie Zbiór danych (N wierszy) Metody testowania: Losowy podział zbioru danych na zbiór uczący i testowy

121 Testowanie Zbiór danych (N wierszy) Metody testowania: Losowy podział zbioru danych na zbiór uczący i testowy Walidacja krzyżowa (cross validation) [k-cv]

122 Testowanie Zbiór danych (N wierszy) Metody testowania: Losowy podział zbioru danych na zbiór uczący i testowy Walidacja krzyżowa (cross validation) [k-cv] Leave-one-out [N-cv]

123 Jednokierunkowe sieci neuronowe (podsumowanie) systemy adaptacyjne: sieć uczy się na podstawie przykładów sieć nie rozwiązuje zadanie według znanego algorytmu, bo ten nie jest znany realizują przetwarzanie nieliniowe mają własność generalizacji muszą być traktowane jako systemy typu black-box


Pobierz ppt "Formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych Dorota Cendrowska nieformalnie: Od czegoś trzeba zacząć..."

Podobne prezentacje


Reklamy Google