Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.

Podobne prezentacje


Prezentacja na temat: "GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej."— Zapis prezentacji:

1 GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej skali integracji (LSI) 4.Układy bardzo dużej skali integracji (VLSI) 5. Układy VLSI przetwarzające wiedzę 6. Technologie optyczne i hybrydowe (neurokomputery) 7.Komputery molekularne Przetwarzanie szeregowe Przetwarzanie równoległe Przetwarzanie wiedzy

2 10. Narzędzia programowe do tworzenia baz wiedzy dla Systemów Ekspertowych. 10. Narzędzia programowe do tworzenia baz wiedzy dla Systemów Ekspertowych. Narzędzia programowe systemów ekspertowych (expert system tools) możemy podzielić na: 1. systemy szkieletowe (expert system shells) 2. środowiskowe programy ułatwiające implementację systemu (np. programy ułatwiające zarządzanie bazą wiedzy, programy grafiki komputerowej) 3. języki systemów ekspertowych (np. Clips, Flops, OPS5) 4. języki programowania symbolicznego (np. Lisp, Prolog) 5.języki algorytmiczne (np. Basic. Pascal, C, C ++...)

3 13. Metody nie symbolicznej reprezentacji wiedzy. Metody te odwołują się do obserwacji i doświadczeń zebranych z otaczającego nas świata żywych istot: – metoda sieci neuronowych: symuluje dynamiczne przetwarzanie wiedzy i właściwości jej reprezentacji w komórkach nerwowych ludzi i zwierząt (sposób połączeń poszczególnych neuronów oraz wartościowanie wag reprezentujących siłę tych połączeń), – metoda algorytmów genetycznych: technika reprezentacji zapisanej w genach wiedzy umożliwiająca przekazywanie wiedzy o całym gatunku; w kolejnych generacjach następuje poprawa cech całej populacji, – metoda systemów uczących się, – metoda strategii ewolucyjnych.

4 17 a. Działania na zbiorach rozmytych. Niech A, B będą zbiorami rozmytymi w przestrzeni X. Ich sumę A  B stanowi zbiór rozmyty, zdefiniowany następująco: Funkcja przynależności wyznaczona przez zacieniowany obszar stanowi przy dwóch zbiorów rozmytych.

5 17 b. Działania na zbiorach rozmytych. Niech A, B będą zbiorami rozmytymi w przestrzeni X. Ich iloczyn (część wspólną) A  B stanowi zbiór rozmyty, zdefiniowany następująco: Funkcja przynależności wyznaczona przez zacieniowany obszar stanowi przytych.

6 17c. Działania na zbiorach rozmytych. Niech A będzie zbiorem rozmytym w przestrzeni X. Dopełnieniem zbioru A będzie zbiór Ā, taki że:

7 21. Wnioskowanie w rozmytym systemie ekspertowym. Wyznacz wartości funkcji przynależności dla poszczególnych pojęć rozmytych występujących w warunkach reguł Na podstawie funkcji przynależności wyznacz obszary rozmyte odpowiadające zmiennej zawartej w konkluzji reguły Dokonaj zestawienia obszarów rozmytych wyznaczonych w poprzednim kroku Na podstawie otrzymanych obszarów rozmytych, wyznacz wynikowy obszar rozmyty Dokonaj defuzyfikacji (zamiany zbioru rozmytego na pewną wartość liczbową) wynikowego obszaru rozmytego.

8 25 a. Algorytmy uczenia sieci perceptronowej. Algorytm nadzorowanego uczenia sieci perceptronowej polega na wielokrotnym, iteracyjnym prezentowniu sieci par wektorów: wzorca wejściowego WW i odpowiadającego mu wzorca treningowego WT. Celem uczenia jest takie dostosowanie wag, aby reakcja sieci na WW była jak najbliższa wartościom pożądanym wzorca treningowego. Jednym z najczęściej stosowanych rozwiązań dla tego typu problemów jest metoda najmniejszych kwadratów (minimalizacja błędu średniokwadratowego modelu).

9 25 b. Algorytmy uczenia sieci perceptronowej. Uogólnieniem metody najmniejszych kwadratów na sieci wielowarstwowe jest tzw. algorytm wstecznej propagacji błędu. Pojedynczy krok tej metody nie wymaga dużych nakładów obliczeniowych. W rzeczywistości tysiące jego powtórzeń powodują, że czas uczenia sieci dochodzi do wielu godzin.

10 27 a. Rekurencyjne warianty Sztucznych Sieci Neuronowych. W topologii sieci rekurencyjnych dopuszcza się zastosowanie połączeń wstecznych. Sygnał wyjściowy z dowolnej jednostki może być przekazany również (bezpośrednio lub za pośrednictwem innych neuronów) na jej wejście. Stan neuronu staje się więc zależny nie tylko od wartości sygnału wejsciowego, ale również od przeszłego stanu dowolnej jednostki, nie wykluczając tego właśnie neuronu. Najprostszym przykładem jest tu modyfikacja jednokierunkowej sieci typu wstecznej propagacji przez dodanie w warstwie wejściowej jednostek tzw. kontekstu.

11 27 b. Rekurencyjne warianty Sztucznych Sieci Neuronowych.

12 32. Inteligentne Programowanie Ewolucyjne. Programowanie ewolucyjne jest w swojej idei zbliżone do koncepcji strategii ewolucyjnych. Obejmuje jednak bardziej złożone problemy związane ze sztuczną inteligencją. W programowaniu ewolucyjnym inteligentne zachowanie rozumiane jest jako zdolność przewidywania relacji pomiędzy środowiskiem a działaniem ukierunkowanym na określony cel. Środowisko zostało w idei programowania ewolucyjnego zasymulowane jako sekwencja symboli wziętych ze skończonego alfabetu. Praktyczną reprezentacją tego typu problemów jest model tak zwanego automatu ze skończoną liczbą stanów.


Pobierz ppt "GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej."

Podobne prezentacje


Reklamy Google