Machine learning Lecture 6

Slides:



Advertisements
Podobne prezentacje
Sieć jednokierunkowa wielowarstwowa
Advertisements

Inteligencja Obliczeniowa Metody oparte na podobieństwie do wzorców.
System cloud'owy Amazon EC2
Sieci Petriego Marcin Jałmużna.
Zastosowanie technologii medialnych i internetowych Wygląd witryny krok po kroku Wykład dr in ż. Jacek Wachowicz
Inteligencja Obliczeniowa Otwieranie czarnej skrzynki.
Katedra Informatyki Stosowanej UMK
Katedra Informatyki Stosowanej UMK
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Podsumowanie wykładu 1. Najpełniejszą charakterystyką wybranej zmiennej jest jej rozkład.
„Zabawy z GIMP’em”.
PROGRAMOWANIE STRUKTURALNE
o radialnych funkcjach bazowych
Skalowalny algorytm estymacji ruchu dla systemów rozproszonych
Dodawanie i usuwanie oprogramowania
Dariusz Bocian / 1 Seminarium ZFCE Warszawa, 1 kwiecień, 2005 Pomiar świetlności akceleratora LHC przy użyciu procesu dwufotonowego Dariusz Bocian Dariusz.
SIECI KOMPUTEROWE (SieKom) PIOTR MAJCHER WYŻSZA SZKOŁA ZARZĄDZANIA I MARKETINGU W SOCHACZEWIE Zarządzanie.
Program Międzynarodowej Oceny Umiejętności Uczniów OECD PISA
Ulepszenia metody Eigenfaces
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Usługi sieciowe Wykład 5 DHCP- debian Jarosław Kurek WZIM SGGW 1.
Texture Based MRI Segmentation with a Two-Stage Hybrid Neural Classifier.
Paweł Kramarski Seminarium Dyplomowe Magisterskie 2
Sieci Hopfielda.
Sieci neuronowe jednokierunkowe wielowarstwowe
LEKCJA 2 URZĄDZENIA SIECIOWE
Heterogeniczne procesory wielordzeniowe w urządzeniach audio
Klasyfikacja dokumentów za pomocą sieci radialnych
USŁUGA FTP 1. Definicja FTP. FTP (File Transfer Protocol, ang. protokół transmisji plików) jest protokołem typu klient-serwer, który umożliwia przesyłanie.
Instrukcja USOSweb Wersja: Opracował: Sebastian Sieńko Moduł sprawdzianów.
Wprowadzenie do obsługi programu PowerPoint
Detekcja twarzy w obrazach cyfrowych
Uczenie w Sieciach Rekurencyjnych
Prezentacja i szkolenie
Gimp 4. Rozmycie.
GIMP część 1 Adam Rębisz.
Marcin Jaruszewicz Jacek Mańdziuk
Farseer Physics Engine. Farseer Physics Engine jest silnikiem fizycznym napisanym dla platformy.NET. Został on zainspirowany przez silnik Box2D znany.
Tworzenie prezentacji
GRAFIKA WEKTOROWA I RASTROWA
W 2010 r. komputery staną się niewidzialne, zaś w 2020 r. za 1000 USD można kupić komputer, którego moc obliczeniowa sięgnie 10 kwadrylionów operacji.
MS Excel - wspomaganie decyzji
Aplikacje internetowe
Album w stylu miejskim. NOWE EFEKTY OBRAZÓW Wprowadzenie.
Temat 9: Obrazy i multimedia
Mateusz Wawrzyniak & Michał Warzocha
Adaptacyjne Systemy Inteligentne Maciej Bielski, s4049.
Algorytm kaskadowej korelacji
Podstawy programowania
Instrukcja obsługi aplikacji „Wizualizacja produktów CRH Klinkier”
Zarządzanie projektami
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
Box 2D + SFML Fizyka w pudełku Marcin Kuligowski.
Efekt Starych Fotografii. Inspirując się fotografią z książki,,Zamek Królewski w Warszawie” autorstwa Marii i Andrzeja Szypowskich przedstawiającej Bibliotekę.
prezentacja popularnonaukowa
Belief Nets Autor: inż. 2013r źródło tła:
Głębokie uczenie Sieci Neuronowe Wykład 16 Włodzisław Duch
Machine learning Lecture 5
Systemy neuronowo – rozmyte
Going deeper with convolutions
Kognitywne właściwości sieci neuronowych
LaTeX cd.
Zrozumieć, przeanalizować i rozwiązać
Ocenianie z zastosowaniem wagi oceny
Inteligencja Obliczeniowa Perceptrony
Programowanie sieciowe Laboratorium 4
Programowanie sieciowe Laboratorium 3
Perceptrony wielowarstwowe, wsteczna propagacja błędów
Zapis prezentacji:

Machine learning Lecture 6 Marcin Wolter IFJ PAN 11 maja 2017 Uporzadkowac Dodac przykłady Deep learning Convolution network Zastosowanie do poszukiwań bozonu Higgsa

Deep learning 1 5 10 15 20 25 … … … 1 Duża waga Mała waga Poszczególne warstwy ukryte uczą się rozpoznawania „cech” - od najprostszych do coraz bardziej złożonych. 1 5 10 15 20 25 … … … 1 Duża waga Mała waga Wysyła silny sygnał, jeśli znajdzie ciemny obszar w lewym górnym rogu.

Warstwy trenowane są sekwencyjnie Trenuj tę warstwę Potem ta Potem ta Potem ta Na koniec ta

Deep Neural Network działa mniej więcej tak...

Convolutional NN Rozpoznawanie obrazu Jak rozwiązać ten problem i uprościć sieć NN?

Convolutional NN Połączyć tylko lokalne obszary, np. 10x10 pikseli Duża redukcja liczby parametrów! Tych samych cech można poszukiwać w różnych miejscach => wytrenujmy wiele różnych filtrów cech i przesuwajmy je po obrazie.

Pooling Pooling – (przeważnie max pooling) polega na zastępowaniu odpowiedzi sieci dla każdej pozycji np. przez maximum (albo średnią) dla zadanego obszaru: Redukcja danych Mniejsza wrażliwość na położenie danej cechy.

SIFT - scale-invariant feature transform, algorytm opublikowany w 1999 roku przez Davida Lowe’a.

Oprogramowanie Biblioteki ConvNet: Cuda-convnet (Alex Krizhevsky, Google) Caffe (Y. Jia, Berkeley, now Google) Torch7 (Idiap, NYU, NEC) Scikit Learn (scikit-learn.org) również umożliwia użycie ConvNets

Kilka własności głębokich sieci http://www.deeplearningbook.org

http://www.deeplearningbook.org

Deep learning Pięknie skaluje się przy dużej liczbie danych.

Poszukiwanie bozonu Higgsa (symulowane dane CMS) Zmienne niskiego poziomu – 22 zmienne (tu pokazujemy kilka)

Poszukiwanie Higgsa Fizycy pracują na dobrze dyskryminujących zmiennych wysokiego poziomu – są one zbudowane na podstawie zmiennych niskiego poziomu i nie zawierają żadnych dodatkowych informacji (7 zmiennych).

Poszukiwanie Higgsa Dane: 2 600 000 przypadków do nauki, 100 000 do walidacji Deep NN: 5 warstw, po 300 elementów w każdej

Podsumowanie Deep NN znalazła cechy umożliwiające znalezienie bozonu Higgsa lepiej, niż fizycy. Może pozwoli to w przyszłości na automatyzację analiz fizycznych? Czyżby groziło nam bezrobocie???

Zadanie zaliczeniowe

ATLAS Z→tau tau selection Dane: mc12/Ztautau.root - sygnał Powheg_ttbar.root - tło Wenu.root - tło Wmunu.root - tło Wtaunu.root - tło Zee.root - tło Zmumu.root - tło Zmienne: preselekcja: if(!( evtsel_is_dilepVeto > 0 && evtsel_is_tau > 0 && fabs(evtsel_tau_eta) < 2.47 && evtsel_is_conf_lep_veto == 1 && evtsel_tau_numTrack == 1 && evtsel_lep_pt > 26 && fabs(evtsel_lep_eta) < 2.4 && evtsel_transverseMass < 70)) continue; if (!( evtsel_is_oppositeSign>0 && evtsel_is_mu>0 && evtsel_is_isoLep>0 )) continue;

ATLAS Z→tau tau selection Zmienne użyte do treningu: evtsel_tau_et evtsel_dPhiSum evtsel_tau_pi0_n evtsel_transverseMass sum_cos_dphi Spectator vis_mass Program: TMVAClassificationMW.C i TMVAClassificationMW.h Wykonuje podstawowy trening.

ATLAS Z→tau tau selection Zainstalować pakiet root i TMVA Ściągnąć dane i przykładowy program: http://nz14-46.4.ifj.edu.pl/cwiczenieATLAS/ Uruchomić przykładowy program: root -l .L TMVAClassificationMW.C++ TMVAClassificationMW t t.Loop() Zmodyfikować go: Spróbować zoptymalizować parametry wybranej metody Spróbować usunąć jakieś zmienne a może dodać? Spróbować użyć indywidualnych zmiennych wchodzących w skład np. sum_cos_dphi Użyć wszystkich rodzajów tła – użyć wag WeightLumi Zaaplikować wyuczony klasyfikator do danych (data12/Muons.PhysCont.grp14.root), można się wzorować na przykładzie TMVAClassificationApplication dostępnym na stronie TMVA oraz załączonym przykładzie TMVAClassificationApplicationMW.C.

ATLAS Z→tau tau selection Wykonać tego typu rysunek np. dla masy widzialnej

ATLAS Z→tau tau selection Cięcia zastosowane w analizie polaryzacji tau pochodzących z rozpadu Z → taut tau Czy używając uczenia maszynowego udało nam się poprawić wynik?