Zastosowanie technologii CUDA w sztucznej inteligencji

Slides:



Advertisements
Podobne prezentacje
Włodzisław Duch Katedra Informatyki Stosowanej,
Advertisements

Sieć jednokierunkowa wielowarstwowa
Inteligencja Obliczeniowa Sieci RBF.
Inteligencja Obliczeniowa Otwieranie czarnej skrzynki.
Katedra Informatyki Stosowanej UMK
Inteligencja Obliczeniowa Perceptrony
Wydajne aplikacje na platformie .NET
Implementacja algorytmów na procesory kart graficznych
Optymalizacja własności mikrostruktury przy pomocy algorytmów genetycznych na bazie Cyfrowej Reprezentacji Materiału Autor: Daniel Musiał Promotor: dr.
Politechnika Gdańska WYDZIAŁ ELEKTRONIKI TELEKOMUNIKACJI I INFORMATYKI
Zadanie do wykonania Przepływ ciepła na kwadratowej płytce – Muscle
Obliczenia równoległe w grafice komputerowej
Systemy operacyjne Wykład nr 5: Wątki Piotr Bilski.
Wykład nr 1: Wprowadzenie. Pojęcia podstawowe
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
mgr inż. Rafał Komański styczeń 2004
Instytut Informatyki Teoretycznej i Stosowanej Polskiej Akademii Nauk Gliwice, ul. Bałtycka 5, Protokół TCP – kształtowanie.
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Heterogeniczne procesory wielordzeniowe w urządzeniach audio
Heterogeniczne procesory wielordzeniowe w urządzeniach audio
Heterogeniczne procesory wielordzeniowe w urządzeniach audio
Klasyfikacja dokumentów za pomocą sieci radialnych
Spis treści Możliwości biblioteki logiczno-fizycznej
POZNAŃ SUPERCOMPUTING AND NETWORKING CENTER WP 2.1 Zdalny dostęp do bibliotek naukowych Udział w projekcie: 6,51% Osoby kontaktowe: PCSS: Maciej Brzeźniak.
CUDA (Compute Unified Device Architecture)
Inżynieria Oprogramowania
KATEDRA SYSTEMÓW AUTOMATYKI Dyplomant – Karol Czułkowski
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Architektura komputerów
CUDA & CUDA.NET – czyli istne CUDA Piotr Ablewski
Parallel Extension czyli programowanie równoległe != współbieżne na platformie .NET Framework 4.0 Wojciech Grześkowiak
Opiekun: dr inż. Maciej Ławryńczuk
Budowa systemu komputerowego
Autor: Justyna Radomska
Bazy danych rezydujące w pamięci operacyjnej komputera (in-memory)
Budowa i rodzaje procesorów.
Mikroprocesory.
Mikroprocesory mgr inż. Sylwia Glińska.
Podsystem graficzny i audio
Model I/O bazujący na HSWN Problem uczenia sieci HSWN
Zaprojektowanie i wykonanie prototypowego systemu obiegu dokumentów (workflow) dla Dziekanatu Wydziału z wykorzystaniem narzędzi open-source i cloud computing.
Moduł: Informatyka w Zarządzaniu
Bazy danych, sieci i systemy komputerowe
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Procesor – charakterystyka elementów systemu. Parametry procesora.
Projektowanie Aplikacji Internetowych Artur Niewiarowski Wydział Fizyki, Matematyki i Informatyki Politechnika Krakowska.
Struktura wewnętrzna mikrokontrolera zamkniętego
Weed Wizualna eksploracja danych Tomasz Płuciennik Marcin Mielnicki Michał Krysiński Rafał Fabiański.
Dokumentacja obsługi programów Kamil Smużyński Piotr Kościński.
Grid Dziedzinowy: HEP (High Energy Physics) Andrzej Olszewski ACK Cyfronet, Kraków Spotkanie Techniczne PL-Grid PLUS, Zawiercie, 8-11 kwiecień 2014.
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Rodzaje systemów operacyjnych
Struktura systemu operacyjnego
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
Wybrane zagadnienia inteligencji obliczeniowej Zakład Układów i Systemów Nieliniowych I-12 oraz Katedra Mikroelektroniki i Technik Informatycznych proponują.
SZTUCZNA INTELIGENCJA
Temat: Porównanie technologii php,c# oraz javascript na przykładzie webaplikacji typu społecznościowy agregator treści Autor: Wojciech Ślawski.
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Wyższa Szkoła Informatyki i Zarządzania W Bielsku-Białej Kierunek informatyka Specjalność : Systemy informatyczne Praca dyplomowa inżynierska : System.
Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab.
Belief Nets Autor: inż. 2013r źródło tła:
Wątki, programowanie współbieżne
Kognitywne właściwości sieci neuronowych
CARAT Hardware-Zalecana konfiguracja
Podział mikroprocesorów
Włodzisław Duch Katedra Informatyki Stosowanej,
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Inteligencja Obliczeniowa Perceptrony
Programowanie sieciowe Laboratorium 4
Zapis prezentacji:

Zastosowanie technologii CUDA w sztucznej inteligencji Zachodniopomorski Uniwersytet Technologiczny w Szczecinie WYDZIAŁ INFORMATYKI Zastosowanie technologii CUDA w sztucznej inteligencji Juliusz Romanowski

Opis Prezentacji Spis treści pracy dyplomowej

Spis treści pracy dyplomowej Równoległe przetwarzanie z zastosowaniem GPU Jednostki obliczeniowe GPU Technologie GPGPU CUDA Sztuczne sieci neuronowe Model neuronu Architektury sieci neuronowych Zastosowania sztucznych sieci neuronowych Implementacja sztucznych sieci neuronowych na GPU Biblioteka CNL Ogólny projekt aplikacji Część CPU Część GPU Przebieg procesów na MLP Implementacja MLP na GPU Użyte optymalizacje kerneli Testy implementacji sieci MLP Wpływ parametrów sieci na jakość uczenia Wpływ optymalizacji na wydajność kerneli Porównanie wydajności uczenia wersji CPU i GPU Możliwości rozwoju programu

Motywacja Zwiększenie wydajności komputerów domowych Istniejące produkty wspierające GPU Szybki rozwój technologii GPGPU Szybki wzrost wydajności GPU Sieci neuronowe w algorytmach równoległych Optymalizacja w wielu płaszczyznach

GPU, GPGPU, cz. 1 Wzrost mocy obliczeniowej GPU i CPU Źródło: CUDA Programming Guide 3.0 Wzrost mocy obliczeniowej GPU i CPU Wzrost przepustowości pamięci i ilości procesorów

GPU, GPGPU, cz. 2 Model fizyczny CPU i GPU Źródło: CUDA Programming Guide 3.0 Model fizyczny CPU i GPU Niewiele jednostek kontroli przepływu Niewielki cache Wiele procesorów

GPU, GPGPU, cz. 3 Typy pamięci: Pamięć globalna Pamięć constant Pamięć lokalna Pamięć dzielona Pamięć teksturowa Rejestry Wymagane specjalne sposoby dostępu Źródło: CUDA Programming Guide 3.0

GPU, GPGPU, cz. 3 Architektura CUDA Dodatkowe biblioteki (CUFFT, CUBLAS) Interfejs CUDA Runtime Interfejs Driver API Źródło: CUDA Programming Guide 3.0

GPU, GPGPU, cz. 4 Podział pracy na bloki i wątki Gridy, bloki, wątki Źródło: CUDA Programming Guide 3.0 Podział pracy na bloki i wątki Gridy, bloki, wątki Wymiary gridu, wymiary bloku Minimalne wymiary (wydajność)

Sieci neuronowe, cz. 1 Schemat sztucznego neuronu Funkcja aktywacji Źródło: http://www.cs.put.poznan.pl/rklaus/assn/neuron.htm Schemat sztucznego neuronu Funkcja aktywacji Neuron liniowy Perceptron Rosenblatta Neuron sigmoidalny

Sieci neuronowe, cz. 2 Architektury sieci neuronowych Jednokierunkowe Sieci radialne Sieci Hopfielda

Sieci neuronowe, cz. 3 Zrównoleglenie operacji na sieciach neuronowych: Operacje macierzowe – uruchamianie i uczenie backpropagation Każdy wątek przypisany do neuronu Nie można wykonywać równolegle kilku warstw Istniejące implementacje SN przy użyciu GPGPU