Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania

Slides:



Advertisements
Podobne prezentacje
Sieć jednokierunkowa wielowarstwowa
Advertisements

Mechanizm wnioskowania rozmytego
RACHUNEK ZDAŃ.
SIECI NEURONOWE Sztuczne sieci neuronowe są to układy elektroniczne lub optyczne, złożone z jednostek przetwarzających, zwanych neuronami, połączonych.
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Katedra Informatyki Stosowanej UMK
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Perceptrony
VI Rachunek predykatów
Badania operacyjne. Wykład 2
o radialnych funkcjach bazowych
Sztuczne sieci neuronowe
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Model lingwistyczny – wnioskowanie Mamdani’ego
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
DANE INFORMACYJNE Gimnazjum Nr 43 w Szczecinie ID grupy: 98/38_MF_G2
mgr inż. Rafał Komański styczeń 2004
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Sieci Hopfielda.
Sieci neuronowe jednokierunkowe wielowarstwowe
Sztuczne sieci neuronowe (SSN)
Klasyfikacja dokumentów za pomocą sieci radialnych
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Układy sekwencyjne pojęcia podstawowe.
Systemy wspomagania decyzji
Podstawy układów logicznych
Sztuczne Sieci Neuronowe
Wykład 25 Regulatory dyskretne
I. Informacje podstawowe
formalnie: Uczenie nienadzorowane
Uczenie w Sieciach Rekurencyjnych
Systemy wspomagania decyzji
Modelowanie i Identyfikacja 2011/2012 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Warstwowe.
Rachunki Gentzena Joanna Witoch.
Rozwiązanie zadań do zaliczenia I0G1S4 // indeks
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Do technik tych zalicza się: * sztuczne sieci neuronowe
Sieci neuronowe, falki jako przykłady metod analizy sygnałów
INŻYNIERIA BEZPIECZEŃSTWA Sztuczna Inteligencja
Modelowanie Kognitywne
4 lipca 2015 godz pok września 2015 godz pok. 212.
Systemy wspomagające dowodzenie twierdzeń
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody Sztucznej Inteligencji – technologie rozmyte i neuronowe Wnioskowanie Mamdani’ego - rozwinięcia  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii.
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
Wybrane zagadnienia inteligencji obliczeniowej Zakład Układów i Systemów Nieliniowych I-12 oraz Katedra Mikroelektroniki i Technik Informatycznych proponują.
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
Narzędzia AI Dominik Ślęzak, Pokój Wykład dostępny na:
KNW - wykład 3 LOGIKA MODALNA.
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Etapy procesu sterowania rozmytego
Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Systemy rozmyte – wnioskowanie Mamdani’ego I © Kazimierz Duzinkiewicz, dr hab.
Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Systemy rozmyte – wnioskowanie Mamdani’ego II © Kazimierz Duzinkiewicz, dr hab.
Belief Nets Autor: inż. 2013r źródło tła:
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Learnmatrix, Adaline, Madaline i modele liniowe
Podstawowe rodzaje modeli rozmytych
Systemy neuronowo – rozmyte
Kognitywne właściwości sieci neuronowych
Perceptrony o dużym marginesie błędu
Jednorównaniowy model regresji liniowej
Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe
Metody sztucznej inteligencji
Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Perceptrony
Katedra Informatyki Stosowanej UMK
Zapis prezentacji:

Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania

11 RACHUNEK ZDAŃ Opis cech otaczającego świata formułujemy w postaci zdań. Wnioskowanie wywodzi się z logiki dwuwartościowej. Zdania oznaczamy symbolami, np. A, B, C, D ... . Mogą one być łączone za pomocą spójników logicznych:  negacja,  koniunkcja,  alternatywa,  implikacja,  równoważność. Łącząc zdania spójnikami można tworzyć wyrażenia logiczne, tzw. formuły. Formuły, które zawsze dają zdanie prawdziwe niezależnie od wartości logicznych zmiennych zdaniowych nazywamy tautologiami. RACHUNEK PREDYKATÓW Rachunek predykatów jest rozszerzeniem rachunku zdań przez wprowadzenie: kwantyfikatora ogólnego x oznaczającego, że formuła jest prawdziwa dla wszystkich wartości związanych ze zmienną x, oraz kwantyfikatora szczegółowego x oznaczającego, że istnieje przynajmniej jedno znaczenie x, dla którego związana formuła jest słuszna. Rachunek predykatów składa się z: alfabetu, formalnego języka, aksjomatów i reguł wnioskowania.

17

18 a Modyfikatory zmieniające kształt zbioru rozmytego, spełniają podobną rolę , jak przysłówki w języku naturalnym. Mają za zadanie zmieniać znaczenie podstawowych terminów wykorzystywanych do modelowania wiedzy. Są heurezami, nie wynikającymi z teorii matematycznych. Definiowane są wyłącznie na podstawie oceny „odpowiedniości” wynikowych zbiorów rozmytych.

18 b Zaletą trapezoidalnych zbiorów rozmytych są właściwości zbliżone do trójkątnych (zbiór może być zdefiniowany przez cztery parametry: a, b, c, d). Zaletą trójkątnych zbiorów rozmytych jest bardzo prosta postać ich funkcji przynależności (zbiór może być zdefiniowany przez trzy parametry: a, b, c). Wartości funkcji mogą być znalezione przez prostą interpolację liniową: Do reprezentacji zbiorów nieograniczonych (takich jak np.: młody, dużo…) wykorzystane mogą zostac zbiory rozmyte stanowiące fragmenty trapezów złożone z krótszej podstawy oraz opadającego lub wznoszącego się ramienia.

23 Proces uczenia SSN polega na iteracyjnym modyfikowaniu współczynników wagowych połączeń jej neuronów. Ze względu na sposób prowadzenia treningu wyróżniamy dwie grupy algorytmów uczących: - uczenie nadzorowane (z nauczycielem); dane treningowe zawierają zestaw sygnałów wejściowych sieci oraz poprawnych reakcji systemu; uczenie polega na takiej modyfikacji wag, aby rzeczywiste wyjścia były jak najbliższe wartościom pożądanym. - uczenie bez nadzoru; dane treningowe obejmują jedynie zbiór sygnałów wejściowych (bez informacji o pożądanych reakcjach); sieć ma za zadanie samodzielnie przeanalizować zależności i korelacje w zbiorze treningowym (self-organising networks). Sztuczne sieci neuronowe są systemem wzajemnie połączonych prostych elementów przetwarzających informacje, zwanych neuronami, jednostkami lub węzłami. (SSN należą do klasy systemów uczących się). Do połączeń między elementami przyporządkowane są współczynniki wagowe, określające siłę powiązań i tworzące zbiór parametrów modelu. Współczynniki wagowe są przydzielone lub wyznaczone w procesie treningowym, zmierzającym do nauczenia SSN identyfikowania wzorców albo odwzorowywania przekształceń. Sieci neuronowej nadaje się pewną strukturę; jej jednostki grupowane są w tzw. warstwy (architektura SSN). Sztuczne sieci neuronowe realizują najczęściej następujące rodzaje przetwarzania: - przypominanie (odzyskiwanie lub interpretowanie) zmagazynowanych w S.S.N. informacji, - klasyfikowanie, - rozpoznawanie, - estymacja (aproksymacja, interpolacja, filtrowanie, prognozowanie, predykcja), - optymalizacja ( w tym rozwiązywanie równań liniowych i nieliniowych), - sterowanie inteligentne (bez konieczności opracowania modelu, oparte wyłącznie na doświadczeniu).

24 - model nieliniowy sigmoidalny, Sieć Hopfielda Najbardziej znanymi prostymi modelami neuronu są: - model nieliniowy sigmoidalny, - model nieliniowy skokowy tzn. ogranicznik twardy, Sieć Hamminga - model MADALINE (Many Adaptive Linear Neurons). - model ADALINE Przykładowa struktura perceptronu wielowarstwowego

26 Sieci Kohonena są specyficzną grupą sztucznych sieci neuronowych spełniających najczęściej funkcje klasyfikatorów względnie ułatwiających grupowanie danych. Składają się z warstwy wejściowej oraz warstwy neuronów przetwarzających. Każdy neuron w warstwie Kohonena połączony jest ze wszystkimi wejściami. W sieciach Kohonena stosowany jest algorytm uczenia, zwany uczeniem konkurencyjnym. Neurony w sieci, w odpowiedzi na sygnał wejściowy, rywalizują ze sobą. Neuron zwycięski oraz jego najbliższe otoczenie podlegają procesowi uczenia, polegającemu na zbliżeniu ich wag do wektora wejściowego. 26 Najczęściej wykorzystywanym rodzajem sieci Kohonena są sieci SOM (Self Organising Maps) . Warstwa konkurencyjna ma w nich z reguły postać dwu- lub jednowymiarowej tablicy neuronów. Połączone są one ze wszystkimi wejściami, a więc każdy neuron ma tyle współczynników wagowych, ile jest wejść sieci. Często wykorzystywanym rodzajem sieci Kohonena są Sieci LVQ (Learning Vector Quantization). Są one przykładem nadzorowanego uczenia konkurencyjnego. Każdy wektor treningowy musi musi być oznaczony etykietą swojej klasy. Poszczególnym klasom w sieci LVQ przyporządkowany jest jeden lub kilka neuronów w warstwie konkurencyjnej. Każda jednostka jest połączona ze wszystkimi wejściami.

27 W topologii sieci rekurencyjnych dopuszcza się zastosowanie połączeń wstecznych. Sygnał wyjściowy z dowolnej jednostki może być przekazany również (bezpośrednio lub za pośrednictwem innych neuronów) na jej wejście. Stan neuronu staje się więc zależny nie tylko od wartości sygnału wejsciowego, ale również od przeszłego stanu dowolnej jednostki, nie wykluczając tego właśnie neuronu. Najprostszym przykładem jest tu modyfikacja jednokierunkowej sieci typu wstecznej propagacji przez dodanie w warstwie wejściowej jednostek tzw. kontekstu.