Programowanie sieciowe Laboratorium 4

Slides:



Advertisements
Podobne prezentacje
OBLICZENIA NUMERYCZNE
Advertisements

o radialnych funkcjach bazowych
Michał Kowalczykiewicz
Sieć jednokierunkowa wielowarstwowa
Predykcja współrzędnych x, y bieguna ziemskiego za pomocą sztucznych sieci neuronowych Maciej Kalarus Centrum Badań Kosmicznych PAN 5 grudnia 2003r.
Inteligencja Obliczeniowa Metody oparte na podobieństwie do wzorców.
Metody rozwiązywania układów równań liniowych
Algorytm Dijkstry (przykład)
Inteligencja Obliczeniowa Sieci RBF.
Inteligencja Obliczeniowa Otwieranie czarnej skrzynki.
Katedra Informatyki Stosowanej UMK
Samoorganizacja: uczenie bez nadzoru.
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Przegląd zastosowań.
o radialnych funkcjach bazowych
Problemy nieliniowe Rozwiązywanie równań nieliniowych o postaci:
Sztuczne sieci neuronowe
Sztuczne sieci neuronowe w doświadczeniach nad fizyką spinową w CERN
Programowanie liniowe całkowitoliczbowe
Materiały do zajęć z przedmiotu: Narzędzia i języki programowania Programowanie w języku PASCAL Część 7: Procedury i funkcje © Jan Kaczmarek.
Nieelitystyczne algorytmy ewolucyjnej optymalizacji wielokryterialnej
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Linear Methods of Classification
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Sieci Hopfielda.
Sieci neuronowe jednokierunkowe wielowarstwowe
WSN Ustalanie położenia czujników – cz. 3 (symulator)
Zastosowanie technologii CUDA w sztucznej inteligencji
Klasyfikacja dokumentów za pomocą sieci radialnych Paweł Rokoszny Emil Hornung Michał Ziober Tomasz Bilski.
Klasyfikacja dokumentów za pomocą sieci radialnych
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Sztuczne Sieci Neuronowe
formalnie: Uczenie nienadzorowane
GŁOSOWA ŁĄCZNOŚĆ Z KOMPUTEREM
Modelowanie matematyczne jako podstawa obliczeń naukowo-technicznych:
Model I/O bazujący na HSWN Problem uczenia sieci HSWN
Marcin Jaruszewicz Jacek Mańdziuk
Ekonometria stosowana
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
VII EKSPLORACJA DANYCH
Metody numeryczne szukanie pierwiastka metodą bisekcji
Metody Numeryczne Ćwiczenia 3
OPTYMALIZACJA DZIAŁANIA PROGRAMU. 1. OPTYMALIZACJA Optymalizacja to sposób wyznaczania najlepszego rozwiązania. W programowaniu komputerowym są sposoby.
Algorytm kaskadowej korelacji
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
Wybrane zagadnienia inteligencji obliczeniowej Zakład Układów i Systemów Nieliniowych I-12 oraz Katedra Mikroelektroniki i Technik Informatycznych proponują.
Ekonometria Metody estymacji parametrów strukturalnych modelu i ich interpretacja dr hab. Mieczysław Kowerski.
METODA OPERACYJNEGO PROGNOZOWAN IA WIELKOŚCI POPYTU UWZGLĘDNIAJĄCA DETERMINANTY RYNKU Doktorant: mgr inż. Łukasz Mach Warszawa 2005 Promotor: prof. dr.
METODY PROGNOZOWANIA SPRZEDAŻY W PRZEDSIĘBIORSTWIE Opole 2006 Politechnika Opolska Instytut Inżynierii Produkcji Dr inż. Łukasz MACH.
RODZAJE ALGORYTMÓW 2.-warunkowe 1.-liniowe i=i+1 3.-iteracyjne.
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Metody Inteligencji Obliczeniowej Adrian Horzyk Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii.
Treść dzisiejszego wykładu l Postać standardowa zadania PL. l Zmienne dodatkowe w zadaniu PL. l Metoda simpleks –wymagania metody simpleks, –tablica simpleksowa.
Belief Nets Autor: inż. 2013r źródło tła:
Machine learning Lecture 6
Machine learning Lecture 5
Learnmatrix, Adaline, Madaline i modele liniowe
Systemy neuronowo – rozmyte
Kognitywne właściwości sieci neuronowych
Jednorównaniowy model regresji liniowej
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Programowanie sieciowe Laboratorium 2
Programowanie sieciowe Laboratorium 3
Programowanie sieciowe Laboratorium 3
Programowanie sieciowe Laboratorium 3
Inteligencja Obliczeniowa Sieci RBF.
Zapis prezentacji:

Programowanie sieciowe Laboratorium 4 Zadanie regresji za pomocą sieci typu RBF

Plan 1. Dane ze wskaźnikami giełdowymi 2. Sieć neuronowa RBF z centrami funkcji radialnych na wszystkich danych 3. Sieć neuronowa RBF z mniejszą liczbą centrów (uzyskanych algorytmem k-means). http://www.rueckstiess.net/research/snippets/sho w/72d2363e https://www.hackerearth.com/blog/uncategorized/r adial-basis-function-network/

Dane ze wskaźnikami giełdowymi https://www.kaggle.com/camnugent/sandp500

Trening sieci typu RBF za pomocą pseudoinwersji 1. Wyznaczenie centrów i parametrów funkcji radialnych 2. Obliczenie wag http://www.rueckstiess.net/research/snippets/show/72d2363e

Budowa zbioru danych Kodowanie danych xi = [yi, yi+1, yi+2,... ,yi+k] yi =yn(i)+k+1 i=1,..,N-(k+1) Model sieci neuronowej z radialnymi funkcjami aktywacji w warstwie ukrytej Funkcja Gaussa jako funkcja RBF i funkcja liniowa na wyjściu

Przegląd zupełny przestrzeni hiper-parametrów Liczba centrów wyznaczanych algorytmem k- means Wartość promienia funkcji radialnej

Sposób budowy regresora 1. Robimy skanowanie skanowanie przestrzeni parametru funkcji radialnej użytej w sieci, oraz liczby użytych centrów 1.0 Dla ustalonej liczby centrów wyznaczamy ich położenie za pomocą algorytmu k-means. 1.1 Dla każdego zestawu parametrów tzn liczby centrów oraz parametru funkcji radialnej trenujemy sieć za pomocą procedury podanej na poprzednim slajdzie i sprawdzamy jego działanie na zbiorze walidacyjnym. 2. Pętla, w której dzielimy zbiór danych treningowych na część treningową i testową w stosunku 90% dane treningowe, 10% dane testowe za pomocą polecenia https://scikit- learn.org/stable/modules/generated/sklearn.model_selection.train_test_split.html Pętla ma wykonać 100 iteracji – ma więc wygenerować 100 różnych podziałów zbioru treningowego. 2. Dla każdego podziału i dla aktualnego modelu zbieramy wartość funkcji celu oraz błąd na zbiorze walidacyjnym. 3. Rozwiązaniem jest ten regresor, który ma najmniejszy średni błąd na zbiorze walidacyjnym.