Going deeper with convolutions

Slides:



Advertisements
Podobne prezentacje
Jak utkać swoją własną sieć? Dominika Miernik i Dorota Szczerbak
Advertisements

The Thousand Islands Pan kiedyś stanął na brzegu
Sieć jednokierunkowa wielowarstwowa
Predykcja współrzędnych x, y bieguna ziemskiego za pomocą sztucznych sieci neuronowych Maciej Kalarus Centrum Badań Kosmicznych PAN 5 grudnia 2003r.
Projekt Do kariery na skrzydłach – studiuj Aviation Management Projekt współfinansowany ze ś rodków Europejskiego Funduszu Społecznego. Biuro projektu:
Inteligencja Obliczeniowa Otwieranie czarnej skrzynki.
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
Dobór optymalnej architektury
Sztuczne sieci neuronowe
Logiki (nie)klasyczne
Wykład 7: Zmiennoprzecinkowe mikroprocesory sygnałowe firmy Analog Devices: zastosowania i rodziny architektura podstawowe operacje ALU.
Wykład 4: Podstawowe operacje ALU, MACC, SHIFTER i DAG
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
-Witam nazywam się Weronika Zgorzelska oraz Oliwia Kołakowska. -Witam serdecznie 1.Od kiedy pan gra w FC Barcelonie… -W FC Barcelonie gram od 13 roku.
Zestawienie wyników badań Researches summary. 1. Czy Twoi rodzice uprawiają jakieś sporty lub w inny aktywny sposób spędzają wolny czas poświęcając im.
Sprzężenia zwrotne w środowisku
Szła dzieweczka do laseczka
Uczenie w Sieciach Rekurencyjnych
SZKOŁA Z KLASĄ 2.0 English SOS.
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Wydział Elektroniki Kierunek: AiR Zaawansowane metody programowania Wykład 5.
Wstęp do Fizyki Środowiska - Podstawy mechaniki płynów Problems 1 Lecture 1 1)In a vertical capillary filled with water air bubbles are rising Sketch the.
CROSSWORD: SLANG. Konkurs polega na rozwiązaniu krzyżówki. CROSSWORD: SLANG Wypełnione karty odpowiedzi prosimy składać w bibliotece CJK, lub przesyłać.
Mateusz Wawrzyniak & Michał Warzocha
Did you know?. 1 in 8 people living in Britain live in London, 12 million people live in London - this is a major European city London is the world largest.
DEFINITION OF COMPOSITE PROGRAMMABLE GRAPH (CP-GRAPH)
Artur Ochojski Katedra Badań Strategicznych i Regionalnych Wydział Ekonomii Dzień internacjonalizacji Katowice 18/06/2015 Uniwersytet Ekonomiczny w Katowicach.
Komponentowe i rozproszone Interludium czyli krótki wykład o rozpraszaniu.
Od Feynmana do Google’a Rafał Demkowicz-Dobrzański,, Wydział Fizyki UW.
Przetłumacz podane w nawiasach fragmenty zdań na j. angielski.
Gini index measures the extent to which the distribution of income (or, in some cases, consumption expenditure) among individuals or.
Foundation for Promotion of Entrepreneurship – Continuing Education and Lifelong Learning NGO that responds to the training needs Fundacja Rozwoju Przedsiębiorczości.
Writing Ewa Hołubowicz 23 października 2015 Plan  Typy zadań  Cechy wspólne  Instrukcja  Ocena.
Zdania okolicznikowe przyczyny clauses of reason.
Wyższa Szkoła Pedagogiczna im. Janusza Korczaka w Warszawie Internet security risk management Prof. Artis Teilans, Aleksandrs Larionovs.
Marcin Gliński Instytut Języków Romańskich i Translatoryki UŚ Regionalny Ośrodek Doskonalenia Nauczycieli WOM w Katowicach NOCNE POWTÓRKI MATURALNE 2016.
Ona nazywa się… This project has been funded with support from the European Commission. This document reflects the views only of the authors, and the.
Jestem z Warszawy This project has been funded with support from the European Commission. This document reflects the views only of the authors, and the.
New CLIC joint - study status Przemyslaw Lutkiewicz Cedric Garion (supervisor)
Metody Analizy Danych Doświadczalnych Wykład 9 ”Estymacja parametryczna”
Co Pan robi? Kim Pani jest? This project has been funded with support from the European Commission. This document reflects the views only of the authors,
Important holidays and festivals in Poland. The first of January New Year’s Day New Year’s Day the day of Mary the Holy Mother of God – for Catholics.
Analiza danych genomicznych metodami statystycznymi i inteligencji obliczeniowej Wiktor Młynarski
Opracowanie: Katarzyna Gagan, Anna Krawczuk
Machine learning Lecture 6
ZAPOBIEGANIE OTYŁOŚCI U DZIECI -czy jest szansa na sukces?
Systemy neuronowo – rozmyte
Fire protection in Poland and Europe
11. Work Praca.
Trudny czy łatwy labirynt?
SafeSurfing Moduł 1 Jak bezpiecznie korzystać z internetu i jak chronić swoje dane osobowe?
Kognitywne właściwości sieci neuronowych
A prototype of distributed modelling environment
Managed Service Identity dla zasobów w Microsoft Azure
Running Dictation Activity to Engage Students in Reading, Writing, Listening, and Speaking.
EMPOWEREMENT IN ICT SKILLS. I CREATED MY WEBSITE TO USE IT FOR TEACHING.
Lesson 11 – Problem Solving & Applications of Functions
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
European Insolvency Regulation
System rzymski Roman system
Inteligencja Obliczeniowa Perceptrony
Programowanie sieciowe Laboratorium 3
zl
1) What is Linux 2) Founder and mascot of linux 3) Why Torvalds created linux ? 4) System advantages and disadvantages 5) Linux distributions 6) Basic.
Cover page Change background image by right-clicking → Edit background Picture fill → From file First move the gradient mask by activating it (clicking.
SatMapping Your map from space Cover page
Programowanie sieciowe Laboratorium 4
Programowanie sieciowe Laboratorium 3
Perceptrony wielowarstwowe, wsteczna propagacja błędów
Zapis prezentacji:

Going deeper with convolutions Przegląd cech modelu GoogLeNet

ILSVRC Large Scale Visual Recognition Challenge Klasyfikacja i rozpoznawanie obiektów w obrazach z http://image-net.org/ Coroczny konkurs, otwarty dla wszystkich (jeszcze 3 dni żeby zgłosić się do tegorocznej edycji :) ) Wyniki edycji 2014 - http://image-net.org/challenges/LSVRC/2014/results

Konwolucyjne sieci neuronowe Konwolucja Korzysta ze specjalnej (dwuwymiarowej) struktury obrazka Szuka cech w różnych miejscach obrazka Zasady działania konwolucyjnych sieci neuronowych https://www.youtube.com/watch?v=rxKrCa4bg1I - Neural networks [9.1] : Computer vision Convolutional neural network - Wikipedia

Konwolucyjne sieci neuronowe Konwolucyjna sieć neuronowa Warstwy konwolucyjne - nakładanie filtrów na fragmenty obrazka, dzięki czemu uzyskiwane są cechy Warstwy ukryte - bardziej standardowe, „rozumieją” co oznaczają cechy wytworzone w warstwach konwolucyjnych Max pooling (metoda subsamplingu) – zmniejszanie ilości cech przez wybranie maksymalnej wartości ze wszystkich cech w pewnym obszarze

GoogLeNet model Zwycięzca poprzedniej edycji ILSVRC (2014) Wykrywanie obiektów z dodatkowymi danymi treningowymi (pre-trening z pomocą danych z ILSVRC12) Głęboka konwolucyjna sieć neuronowa We propose a deep convolutional neural network architecture codenamed Inception, which was responsible for setting the new state of the art for classification and detection in the ImageNet Large-Scale Visual Recognition Challenge 2014 (ILSVRC14).

GoogLeNet model - idee Większe (głębsze i szersze) sieci dają lepsze rezultaty Nadmierne dopasowanie (overfitting) Duże wymagania obliczeniowe – a jeżeli wagi na połączeniach między neuronami są bliskie zeru, sporo mocy obliczeniowej się marnuje The most straightforward way of improving the performance of deep neural networks is by increasing their size. This includes both increasing the depth – the number of levels – of the network and its width: the number of units at each level. This is as an easy and safe way of training higher quality models, especially given the availability of a large amount of labeled training data. However this simple solution comes with two major drawbacks. Bigger size typically means a larger number of parameters, which makes the enlarged network more prone to overfitting, especially if the number of labeled examples in the training set is limited. This can become a major bottleneck, since the creation of high quality training sets can be tricky and expensive, especially if expert human raters are necessary to distinguish between fine-grained visual categories like those in ImageNet (even in the 1000-class ILSVRC subset). Another drawback of uniformly increased network size is the dramatically increased use of computational resources. For example, in a deep vision network, if two convolutional layers are chained, any uniform increase in the number of their filters results in a quadratic increase of computation. If the added capacity is used inefficiently (for example, if most weights end up to be close to zero), then a lot of computation is wasted. Since in practice the computational budget is always finite, an efficient distribution of computing resources is preferred to an indiscriminate increase of size, even when the main objective is to increase the quality of results.

GoogLeNet model - idee Zamiast stosować w pełni połączone ze sobą warstwy, można skorzystać z połączeń rzadkich Pozwala w łatwiejszy sposób zaprojektować optymalny kształt kolejnych warstw sieci – analizując wyjścia poprzedniej warstwy, można znaleźć i połączyć skorelowane neurony[1] Brak efektywnego sposobu na wykonywanie obliczeń na rzadkich strukturach danych (mnożenie macierzy jest bardzo szybkie na GPU) Their main result states that if the probability distribution of the data-set is representable by a large, very sparse deep neural network, then the optimal network topology can be constructed layer by layer by analyzing the correlation statistics of the activations of the last layer and clustering neurons with highly correlated outputs. [1] Sanjeev Arora, Aditya Bhaskara, Rong Ge, and Tengyu Ma. Provable bounds for learning some deep representations. CoRR, abs/1310.6343, 2013.

GoogLeNet model - idee Połączenie obu sposobów Aproksymacja rzadkiej sieci neuronowej za pomocą mniejszej, gęstej sieci

Architektura Sieć składa się z modułów nazywanych „Inception” Jeden moduł zawiera pewną liczbę konwolucji o rozmiarach 1x1, 3x3 oraz 5x5 – większe konwolucje częściej znajdywane w wyższych warstwach Na wejściu i wyjściu modułu informacja jest skompresowana

Architektura Podczas trenowania dodano pomocnicze klasyfikatory na wyjściach pośrednich warstw Standardowa propagacja wsteczna błędu w tak głębokiej sieci jest problematyczna Zalety Zmniejszenie wymiarowości na warstwach łączących moduły Inception pozwala na złożenie sieci z dużej ich liczby bez znacząco zwiększonych wymagań obliczeniowych (sieć zgłoszona w ILSVRC14 jest głęboka na 27 warstw)

Trenowanie sieci Czas potrzebny na wyuczenie sieci GoogLeNet na „kilku high-endowych GPU” oceniany jest na mniej niż tydzień Skorzystano z optymalizacji stochastycznej (stochastic gradient descent)

Zastosowanie Wytrenowana sieć GoogLeNet jest dostępna w Caffe – frameworku dla głębokich sieci neuronowych (http://caffe.berkeleyvision.org/) Przykładowe zastosowanie w poście „How I Made a Neural Network Web Application in an Hour” - http://www.exaptive.com/blog/how-i-made-a-neural- network-web-application-in-an-hour