Programowanie sieciowe Laboratorium 3

Slides:



Advertisements
Podobne prezentacje
System oceny ryzyka zawału serca
Advertisements

Inteligencja Obliczeniowa Metody oparte na podobieństwie do wzorców.
Algorytmy – zapis struktur programowania
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Katedra Informatyki Stosowanej UMK
Inteligencja Obliczeniowa Ulepszenia MLP
Samoorganizacja: uczenie bez nadzoru.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
Przegląd zastosowań.
Zakład Mechaniki Teoretycznej
Problemy nieliniowe Rozwiązywanie równań nieliniowych o postaci:
Sztuczne sieci neuronowe
Sztuczne sieci neuronowe w doświadczeniach nad fizyką spinową w CERN
Programowanie liniowe całkowitoliczbowe
Metody ekonometryczne
Nieelitystyczne algorytmy ewolucyjnej optymalizacji wielokryterialnej
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
Texture Based MRI Segmentation with a Two-Stage Hybrid Neural Classifier.
Linear Methods of Classification
Additive Models, Trees, and Related Methods
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Sieci neuronowe jednokierunkowe wielowarstwowe
Sztuczne sieci neuronowe (SSN)
Zastosowanie technologii CUDA w sztucznej inteligencji
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Systemy wspomagania decyzji
Sztuczne Sieci Neuronowe
formalnie: Uczenie nienadzorowane
Uczenie w Sieciach Rekurencyjnych
Zakładamy a priori istnienie rozwiązania α układu równań.
Modelowanie i Identyfikacja 2011/2012 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Warstwowe.
Marcin Jaruszewicz Jacek Mańdziuk
Ekonometria stosowana
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Ekonometryczne modele nieliniowe
Algorytm kaskadowej korelacji
DEFINITION OF COMPOSITE PROGRAMMABLE GRAPH (CP-GRAPH)
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
Wybrane zagadnienia inteligencji obliczeniowej Zakład Układów i Systemów Nieliniowych I-12 oraz Katedra Mikroelektroniki i Technik Informatycznych proponują.
Pakiety numeryczne Optymalizacja
Regresja liniowa. Dlaczego regresja? Regresja zastosowanie Dopasowanie modelu do danych Na podstawie modelu, przewidujemy wartość zmiennej zależnej na.
METODA OPERACYJNEGO PROGNOZOWAN IA WIELKOŚCI POPYTU UWZGLĘDNIAJĄCA DETERMINANTY RYNKU Doktorant: mgr inż. Łukasz Mach Warszawa 2005 Promotor: prof. dr.
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Belief Nets Autor: inż. 2013r źródło tła:
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Machine learning Lecture 5
Learnmatrix, Adaline, Madaline i modele liniowe
Systemy neuronowo – rozmyte
Model Poissona w ujęciu bayesowskim
formalnie: Sieci jednokierunkowe: architektura, uczenie, zastosowania
MATMU – Laboratorium 2: Optymalizacja
Kognitywne właściwości sieci neuronowych
Perceptrony o dużym marginesie błędu
Wykład 4 (cz. 1) Pierwsze zastosowania modelowania molekularnego: lokalna i globalna minimalizacja energii potencjalnej.
Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe
Katedra Informatyki Stosowanej UMK
Perceptrony o dużym marginesie błędu
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
MNK – podejście algebraiczne
Inteligencja Obliczeniowa Perceptrony
Programowanie sieciowe Laboratorium 2
Katedra Informatyki Stosowanej UMK
Programowanie sieciowe Laboratorium 3
Programowanie sieciowe Laboratorium 4
Programowanie sieciowe Laboratorium 3
Perceptrony wielowarstwowe, wsteczna propagacja błędów
Zapis prezentacji:

Programowanie sieciowe Laboratorium 3 Zadanie regresji

Plan 1. Dane ze wskaźnikami giełdowymi 2. Perceptron wielowarstwowy z jedną warstwą ukrytą do zadania regresji

Dane ze wskaźnikami giełdowymi https://www.kaggle.com/camnugent/sandp500

Budowa zbioru danych Kodowanie danych xi = [yi, yi+1, yi+2,... ,yi+k] yi =yn(i)+k+1 i=1,..,N-(k+1) Model perceptronu wielowarstowego z jedną warstwą ukrytą do zadania klasyfikacji Funkcja tgh lub sigmoid w warstwie ukrytej i funkcja liniowa na wyjściu

Algorytmy uczenia punkt startowy optymalizacji class sklearn.neural_network.MLPRegressor(hidden_layer_sizes=(100, ), activation=’relu’, solver=’adam’, alpha=0.0001, batch_size=’auto’, learning_rate=’constant’, learning_rate_init=0.001, power_t=0.5, max_iter=200, shuffle=True, random_state=None, tol=0.0001, verbose=False, warm_start=False, momentum=0.9, nesterovs_momentum=True, early_stopping=False, validation_fraction=0.1, beta_1=0.9, beta_2=0.999, epsilon=1e-08, n_iter_no_change=10 Konfiguracja algorytmów szukania minimum funkcji błędu Wielokrotne starty optymalizacji GridSearchCV https://scikit- learn.org/stable/modules/generated/sklearn.model_selection.GridSearchCV .html#sklearn.model_selection.GridSearchCV

Algorytmy uczenia perceptronu wielowarstwowego 'adam', 'lbfgs', 'sgd' solver : {‘lbfgs’, ‘sgd’, ‘adam’}, default ‘adam’ The solver for weight optimization. ‘lbfgs’ is an optimizer in the family of quasi-Newton methods. ‘sgd’ refers to stochastic gradient descent. ‘adam’ refers to a stochastic gradient-based optimizer proposed by Kingma, Diederik, and Jimmy Ba

Przegląd zupełny przestrzeni hiper-parametrów Liczba neuronów Współczynnik uczenia Użyty algorytm do treningu

Sposób budowy regresora 1. Robimy skanowanie skanowanie przestrzenie parametrów takich jak algorytm, liczba neuronów 10:10:300, oraz parametr uczenie 0.1,0.01,0.001, 0.0001. Skanowanie może zostać wykonane za pomocą polecenia GridSearchCV albo zaimplementowane w 3 zagnieżdżonych pętlach. 1.1 Dla każdego zestawu parametrów trenujemy sieć za pomocą MLPClassfier i sprawdzamy jego dzialanie na zbiorze walidacyjnym (tzn danych, które nie były użyte do treningu ani do wyliczania funkcji celu). 2. Pętla, w której dzielimy zbiór danych treningowych na część treningową i testową w stosunku 70% dane treningowe, 30% dane testowe za pomocą polecenia https://scikit- learn.org/stable/modules/generated/sklearn.model_selection.train_test_split.html Pętla ma wykonać 100 iteracji – ma więc wygenerować 100 różnych podziałów zbioru treningowego. 2. Dla każdego podziału i dla aktualnego modelu zbieramy wartość funkcji celu oraz błąd na zbiorze walidacyjnym. 3. Rozwiązaniem jest ten klasyfikator, który ma najmniejszy średni błąd na zbiorze walidacyjnym.