Programowanie sieciowe Laboratorium 3

Slides:



Advertisements
Podobne prezentacje
System oceny ryzyka zawału serca
Advertisements

Sieć jednokierunkowa wielowarstwowa
Predykcja współrzędnych x, y bieguna ziemskiego za pomocą sztucznych sieci neuronowych Maciej Kalarus Centrum Badań Kosmicznych PAN 5 grudnia 2003r.
SIECI NEURONOWE Sztuczne sieci neuronowe są to układy elektroniczne lub optyczne, złożone z jednostek przetwarzających, zwanych neuronami, połączonych.
Inteligencja Obliczeniowa Metody oparte na podobieństwie do wzorców.
Algorytmy – zapis struktur programowania
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Inteligencja Obliczeniowa Otwieranie czarnej skrzynki.
Katedra Informatyki Stosowanej UMK
Inteligencja Obliczeniowa Ulepszenia MLP
Samoorganizacja: uczenie bez nadzoru.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
Przegląd zastosowań.
Sztuczne sieci neuronowe
Sztuczne sieci neuronowe w doświadczeniach nad fizyką spinową w CERN
Nieelitystyczne algorytmy ewolucyjnej optymalizacji wielokryterialnej
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
Texture Based MRI Segmentation with a Two-Stage Hybrid Neural Classifier.
Klasyfikacja Sformułowanie problemu Metody klasyfikacji
Linear Methods of Classification
Additive Models, Trees, and Related Methods
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Sieci neuronowe jednokierunkowe wielowarstwowe
Sztuczne sieci neuronowe (SSN)
WSN Ustalanie położenia czujników – cz. 3 (symulator)
Zastosowanie technologii CUDA w sztucznej inteligencji
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Sztuczne Sieci Neuronowe
formalnie: Uczenie nienadzorowane
Uczenie w Sieciach Rekurencyjnych
Zakładamy a priori istnienie rozwiązania α układu równań.
Marcin Jaruszewicz Jacek Mańdziuk
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Ekonometryczne modele nieliniowe
Algorytm kaskadowej korelacji
DEFINITION OF COMPOSITE PROGRAMMABLE GRAPH (CP-GRAPH)
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
Wybrane zagadnienia inteligencji obliczeniowej Zakład Układów i Systemów Nieliniowych I-12 oraz Katedra Mikroelektroniki i Technik Informatycznych proponują.
Pakiety numeryczne Optymalizacja
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Belief Nets Autor: inż. 2013r źródło tła:
Machine learning Lecture 6
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Machine learning Lecture 5
Learnmatrix, Adaline, Madaline i modele liniowe
Systemy neuronowo – rozmyte
Going deeper with convolutions
formalnie: Sieci jednokierunkowe: architektura, uczenie, zastosowania
MATMU – Laboratorium 2: Optymalizacja
Kognitywne właściwości sieci neuronowych
Perceptrony o dużym marginesie błędu
Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe
Katedra Informatyki Stosowanej UMK
Sieci o zmiennej strukturze
Perceptrony o dużym marginesie błędu
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Inteligencja Obliczeniowa Perceptrony
Programowanie sieciowe Laboratorium 2
Katedra Informatyki Stosowanej UMK
Programowanie sieciowe Laboratorium 3
Programowanie sieciowe Laboratorium 3
Programowanie sieciowe Laboratorium 4
Inteligencja Obliczeniowa Sieci RBF.
Perceptrony wielowarstwowe, wsteczna propagacja błędów
Zapis prezentacji:

Programowanie sieciowe Laboratorium 3 Zadania klasyfikacji

Plan 1. Dane mnist 2. Perceptron wielowarstwowy z jedną warstwą ukrytą do zadania klasyfikacji 3. Serwis www.kaggle.com

Dane mnist http://yann.lecun.com/exdb/mnist/

Klasyfikacja wieloklasowa Kodowanie wyjścia hot-one n-ta klasa => [0 0 … 1 … 0] n-ta pozycja Model perceptronu wielowarstowego z jedną warstwą ukrytą do zadania klasyfikacji Funkcja softmax na wyjściu sieci dla klasyfikacji wieloklasowej https://corochann.com/mnist-training-with-multi-layer-perceptron-1149.html https://scikit-learn.org/stable/modules/neural_networks_supervised.html

Cross-entropia logistyczna jako funkcja celu https://ml-cheatsheet.readthedocs.io/en/latest/loss_functions.html https://datascience.stackexchange.com/questions/9302/the-cross-entropy-error- function-in-neural-networks

Algorytmy uczenia punkt startowy optymalizacji class sklearn.neural_network.MLPClassifier(hidden_layer_sizes=(100, ), activation=’relu’, solver=’adam’, alpha=0.0001, batch_size=’auto’, learning_rate=’constant’, learning_rate_init=0.001, power_t=0.5, max_iter=200, shuffle=True, random_state=None, tol=0.0001, verbose=False, warm_start=False, momentum=0.9, nesterovs_momentum=True, early_stopping=False, validation_fraction=0.1, beta_1=0.9, beta_2=0.999, epsilon=1e-08, n_iter_no_change=10) Konfiguracja algorytmów szukania minimum funkcji błędu Wielokrotne starty optymalizacji GridSearchCV https://scikit- learn.org/stable/modules/generated/sklearn.model_selection.GridSearchCV .html#sklearn.model_selection.GridSearchCV

Algorytmy uczenia perceptronu wielowarstwowego 'adam', 'lbfgs', 'sgd' solver : {‘lbfgs’, ‘sgd’, ‘adam’}, default ‘adam’ The solver for weight optimization. ‘lbfgs’ is an optimizer in the family of quasi-Newton methods. ‘sgd’ refers to stochastic gradient descent. ‘adam’ refers to a stochastic gradient-based optimizer proposed by Kingma, Diederik, and Jimmy Ba

Przegląd zupełny przestrzeni hiper-parametrów Liczba neuronów Współczynnik uczenia Użyty algorytm do treningu

Sposób budowy klasyfikatora 1. Robimy skanowanie skanowanie przestrzenie parametrów takich jak algorytm, liczba neuronów 10:10:300, oraz parametr uczenie 0.1,0.01,0.001, 0.0001. Skanowanie może zostać wykonane za pomocą polecenia GridSearchCV albo zaimplementowane w 3 zagnieżdżonych pętlach. 1.1 Dla każdego zestawu parametrów trenujemy sieć za pomocą MLPClassfier i sprawdzamy jego dzialanie na zbiorze walidacyjnym (tzn danych, które nie były użyte do treningu ani do wyliczania funkcji celu). 2. Pętla, w której dzielimy zbiór danych treningowych na część treningową i testową w stosunku 70% dane treningowe, 30% dane testowe za pomocą polecenia https://scikit- learn.org/stable/modules/generated/sklearn.model_selection.train_test_split.html Pętla ma wykonać 100 iteracji – ma więc wygenerować 100 różnych podziałów zbioru treningowego. 2. Dla każdego podziału i dla aktualnego modelu zbieramy wartość funkcji celu oraz błąd na zbiorze walidacyjnym. 3. Rozwiązaniem jest ten klasyfikator, który ma najmniejszy średni błąd na zbiorze walidacyjnym.

Drugie zadanie Kaggle.com - klasyfikacja