Systemy wspomagania decyzji

Slides:



Advertisements
Podobne prezentacje
Funkcje tworzące są wygodnym narzędziem przy badaniu zmiennych losowych o wartościach całkowitych nieujemnych. Funkcje tworzące pierwszy raz badał de.
Advertisements

Sieć jednokierunkowa wielowarstwowa
CIĄGI.
Układ sterowania otwarty i zamknięty
SIECI NEURONOWE Sztuczne sieci neuronowe są to układy elektroniczne lub optyczne, złożone z jednostek przetwarzających, zwanych neuronami, połączonych.
Wykład 6 Najkrótsza ścieżka w grafie z jednym źródłem
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Inteligencja Obliczeniowa Sieci dynamiczne cd.
Katedra Informatyki Stosowanej UMK
Samoorganizacja: uczenie bez nadzoru.
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Perceptrony
Badania operacyjne. Wykład 2
Czwórniki RC i RL.
Metody Numeryczne Wykład no 3.
Sieci pamieci skojarzeniowej
o radialnych funkcjach bazowych
Dobór optymalnej architektury
Sztuczne sieci neuronowe
Sprzężenie zwrotne Patryk Sobczyk.
Algorytm Rochio’a.
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
Metoda simpleks opracowanie na podstawie „Metody wspomagające podejmowanie decyzji w zarządzaniu” D. Witkowska, Menadżer Łódź Simpleks jest uniwersalną.
Sieci Hopfielda.
Sieci neuronowe jednokierunkowe wielowarstwowe
Metody matematyczne w Inżynierii Chemicznej
Sztuczne sieci neuronowe (SSN)
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Opis matematyczny elementów i układów liniowych
Systemy wspomagania decyzji
Systemy wspomagania decyzji
Sztuczne Sieci Neuronowe
Wykład III Sygnały elektryczne i ich klasyfikacja
Systemy Wspomagania Decyzji
Komputerowe Wspomaganie w Inżynierii Materiałowej
AUTOMATYKA i ROBOTYKA (wykład 6)
II Zadanie programowania liniowego PL
formalnie: Uczenie nienadzorowane
Wspomaganie decyzji nie zwalnia od decyzji...
Systemy Wspomagania Decyzji
Uczenie w Sieciach Rekurencyjnych
Zakładamy a priori istnienie rozwiązania α układu równań.
Wykład 2. Pojęcie regularnego odwzorowania powierzchni w powierzchnię i odwzorowania kartograficznego Wykład 2. Pojęcie regularnego odwzorowania powierzchni.
Modelowanie i Identyfikacja 2011/2012 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Warstwowe.
Teoria sterowania Wykład 9 Transmitancja operatorowa i stabilność liniowych układu regulacji automatycznej.
II. Matematyczne podstawy MK
Spis treści W świecie algortmów -Budowa algorytmu
FUNKCJE Opracował: Karol Kara.
Dynamika układu punktów materialnych
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
VI EKSPLORACJA DANYCH Zadania eksploracji danych: klasyfikacja
II Zadanie programowania liniowego PL
Systemy Wspomagania Decyzji
Metody numeryczne szukanie pierwiastka metodą bisekcji
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Wykład Rozwinięcie potencjału znanego rozkładu ładunków na szereg momentów multipolowych w układzie sferycznym Rozwinięcia tego można dokonać stosując.
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Rozpatrzmy następujące zadanie programowania liniowego:
Systemy neuronowo – rozmyte
3. Siła i ruch 3.1. Pierwsza zasada dynamiki Newtona
Kognitywne właściwości sieci neuronowych
Perceptrony o dużym marginesie błędu
Perceptrony o dużym marginesie błędu
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Inteligencja Obliczeniowa Perceptrony
POJĘCIE ALGORYTMU Wstęp do informatyki Pojęcie algorytmu
Zapis prezentacji:

Systemy wspomagania decyzji Sieć Kohonena, sieć Hamminga

Omówimy teraz prosty typ sieci Kohonena, która będzie klasyfikowała wektory wejściowe na p kategorii wykrywanych podczas grupowania zbioru uczącego. W wyniku rywalizacji podczas procesu uczenia sieć podlega procesowi samoorganizacji. W każdym kroku korygowany jest tylko wektor wag najbardziej podobny do aktualnie wprowadzonego.

Przed rozpoczęciem uczenia wektory wag są normalizowane gdzie jest wektorem wierszowym wag prowadzącym do i-tego neuronu. Norma jest euklidesowa:

Do korekcji wybierany jest taki neuron i=z (z — zwycięzca), dla którego odległości jest najmniejsza. Spełniona jest zatem następująca równość: 1) zwykłej odległości: albo 2) iloczynu skalarnego (typow dla sieci Kohonena): Korekta wag zwycięzcy (wz) ma na celu zbliżenie go do typowego reprezentanta, zatem Stałą uczenia h > 0 wybiera się zazwyczaj w przedziale [0.1, 0.7]

Podsumowanie reguły Kohonena

Przykład Ciąg uczący: Początkowe wagi Początkowe wagi po pierwszym kroku dla h=0.5 są

Po wielu iteracjach wagi ustawiają się wg następujących zależności Oznacza to, że wskazują one środki ciężkości wykrytych grup.

Schemat blokowy sieci Hamminga (model dwuwarstwowy)

Schemat połączeń w sieci Hamminga (model trójwarstwowy z dodatkową warstwą wyjścia) warstwa MAXNET x1 xN y1 yM w(1)=wH w(m) w(2) 1 P M warstwa wejściowa warstwa wyjściowa

Elementy sieci Hamminga: Do sieci prowadzi n sygnałów wejściowych. Z sieci wychodzi m sygnałów wyjściowych. Sieć posiada trzy warstwy lub dwie (w zależności od modelu). Warstwa pierwsza zawiera p neuronów. Warstwa druga też zawiera p neuronów. Jest to tzw. warstwa MAXNET. Warstwa wyjściowa (trzecia) zawiera m neuronów. Warstwa MAXNET (środkowa) zawiera sprzężenia wewnętrzne „każdy z każdym”. Sprzężenia pomiędzy różnymi neuronami tej warstwy są ujemne, a sprzężenia samych ze sobą są dodatnie i takie same w całej warstwie (na ogół: wii(m)=1).

Wagi Warstwa wejściowa (warstwa Hamminga): Warstwa MAXNET: Warstwa wyjściowa:

Uczenie sieci Hamminga Podobnie jak dla sieci Hopfielda uczenie jest procesem stosunkowo prostym i polega na użyciu pewnych wzorów, które nadają wartości wagom w jednym cyklu, bez konieczności iteracji. Dany jest ciąg uczący, składający się z par wektorów: Wektory x(i) oraz d(i) są bipolarne, tzn. składowe są równe 1 lub -1 (w niektórych wersjach 0 lub 1). Definiujemy wagi następująco:

Uczenie sieci Hamminga (c.d.) Warstwa MAXNET: wagi dobieramy tak, aby zachodziły relacje Na przykład w metodzie Lippmana przyjmujemy gdzie xij jest wartością losową o dostatecznie małej amplitudzie. Natomiast w metodzie Pao przyjmujemy z kolei

Działanie sieci Hamminga W działaniu sieci Hamminga można wyróżnić trzy etapy. Etap I - wprowadzany jest na wejście sieci N-elementowy wektor x. Na wyjściu neuronów warstwy pierwszej generowane są sygnały inicjalizujące stan początkowy neuronów warstwy drugiej (MAXNET). Etap II - Rozpoczyna się proces iteracyjny w warstwie MAXNET'u, zainicjowany stanem początkowym, wynikającym z fazy pierwszej. Proces iteracyjny trwa do chwili, aż wszystkie neurony z wyjątkiem jednego osiągną stan zerowy. Neuron o niezerowym sygnale wyjściowym (zwycięzca) reprezentuje klasę, do której należy wektor wejściowy. Etap III - neuron zwycięzca za pośrednictwem wag łączących go z neuronem warstwy wyjściowej wytwarza na wyjściu sieci odpowiedź stanowiącą wektor y, skojarzony z wektorem pobudzającym x.

Działanie sieci Hamminga (c.d.) Wartości sygnałów wyjściowych pierwszej warstwy są określone poprzez odległość Hamminga i wyrażają się wzorem: gdzie dH oznacza odległość Hamminga. Odległość ta jest równa liczbie składowych, którymi różnią się oba wektory. Na przykład dla x=(1,1,-1,1,-1), y=(1,-1,-1,1,1) mamy dH(x,y)=2. Zauważmy, że tak określone sygnały wyjściowe mieszczą się w przedziale [0, 1]. Wynika to stąd, że wektory x(i) oraz x mają N składowych (współrzędnych), więc dH(x,y){0,1,…,N}.

Działanie sieci Hamminga (c.d.) Sygnały neuronów warstwy pierwszej stają się stanami początkowymi neuronów warstwy MAXNET, po czym zostają usunięte. Zadaniem tej warstwy jest wyłonienie zwycięzcy, czyli neuronu, którego pobudzenie jest najbliższe wartości 1. Proces wyłaniania zwycięzcy jest procesem rekurencyjnym, przebiegającym wg schematu z wartością startową

Funkcja aktywności neuronów warstwy MAXNET jest postaci Proces iteracyjny w warstwie MAXNET jest powtarzany do momentu, w którym stan neuronów przestanie ulegać zmianie. Wtedy też jeden neuron powinien być aktywny a pozostałe powinny zwracać zero. Neuron aktywny nazywamy zwycięzcą. Teraz poprzez wagi w(2) warstwa trzecia wytwarza wektor y(i) skojarzony z wektorem uczącym x(i).

Przykład

Będziemy testować następujący wektor Odpowiedź warstwy Hamminga Wyjście z warstwy Hammiga jest określone wzorem

Teraz przechodzimy do warstwy MaxNet i wykonujemy kolejne iteracje: Krok 1:

Krok 2: Wykonując jeszcze dwie iteracje otrzymujemy yk+1=y4 dla k≥4