1 Masowe Przetwarzanie Danych a Bezpieczeństwo Ruchu Andrzej P. Wierzbicki Instytut Łączności – PIB 1.Wstęp: prawo Moorea jako megatrend 2.Złożoność obliczeniowa.

Slides:



Advertisements
Podobne prezentacje
Leszek Smolarek Akademia Morska w Gdyni 2005/2006
Advertisements

Dlaczego warto wybrać specjalność CYBERNETYKA EKONOMICZNA
Informacja w procesie podejmowania decyzji..
przetwarzaniu informacji
Badania operacyjne. Wykład 1
Sieci komputerowe.
Analiza współzależności
ELEMENTY SKŁADOWE JEDNOSTKI CENTRALNEJ
(c) Andrzej P.Urbański, Politechnika Poznańska
Macierze Maria Guzik.
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Wykład 3 Sparametryzowane rodziny funkcji
Specjalność Analiza danych 2009 Katedra Statystyki Instytut Zastosowań Matematyki.
Specjalność Analiza danych 2010 na kierunku IiE Katedra Statystyki Instytut Zastosowań Matematyki.
Wykład nr 1: Wprowadzenie. Pojęcia podstawowe
Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego Inwestycja w kadry 3 Praca zaliczająca moduł Dr G.Maniak.
ALGORYTMY STEROWANIA KILKOMA RUCHOMYMI WZBUDNIKAMI W NAGRZEWANIU INDUKCYJNYM OBRACAJĄCEGO SIĘ WALCA Piotr URBANEK, Andrzej FRĄCZYK, Jacek KUCHARSKI.
Algorytmy i struktury danych
Wstęp do interpretacji algorytmów
OPORNOŚĆ HYDRAULICZNA, CHARAKTERYSTYKA PRZEPŁYWU
Dalsze elementy metodologii projektowania. Naszym celem jest...
Mikroprocesory Patrycja Galik.
Technologia informacyjna
OTWARCIE NOWEJ SIEDZIBY INSTYTUTU PODSTAW INFORMATYKI PAN
Systemy kognitywne jako nowy wymiar informatyki ekonomicznej
Elementy składowe komputera
Komputerowe wspomaganie medycznej diagnostyki obrazowej
Budowa i rodzaje procesorów.
Homogenizacja Kulawik Krzysztof.
Metody zbierania danych empirycznych
Buforowanie D e f i n i c j a.
Moduł: Informatyka w Zarządzaniu
Wybrane zagadnienia relacyjnych baz danych
Prof. Aleksander Surdej
Planowanie przepływów materiałów
Zarządzanie w pielęgniarstwie
MS Excel - wspomaganie decyzji
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
1. Współczesne generacje technologii
Politechniki Poznańskiej
Koło Naukowe. Wprowadzenie Organizujemy koło naukowe Institut Informatyki Ekonomicznej / KTI Cele i działania poszerzanie zainteresowań znalezienie interesujących.
Do technik tych zalicza się: * sztuczne sieci neuronowe
Algorytmika.
Metoda studium przypadku jako element XI Konkursu Wiedzy Ekonomicznej
Procesor – charakterystyka elementów systemu. Parametry procesora.
Metoda badań eksperymentalnych i quasi-eksperymentalnych
EXCEL Wstęp do lab. 4. Szukaj wyniku Prosta procedura iteracyjnego znajdowania niewiadomej spełniającej warunek będący jej funkcją Metoda: –Wstążka Dane:
Komputer w procesie dydaktycznym Komputer w procesie dydaktycznym Komputer jest wykorzystywany obecnie w polskich szko łach głównie do nauczania informatyki.
4 lipca 2015 godz pok września 2015 godz pok. 212.
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Dynamika punktu materialnego Dotychczas ruch był opisywany za pomocą wektorów r, v, oraz a - rozważania geometryczne. Uwzględnienie przyczyn ruchu - dynamika.
Wstęp do interpretacji algorytmów
Wybrane zagadnienia inteligencji obliczeniowej Zakład Układów i Systemów Nieliniowych I-12 oraz Katedra Mikroelektroniki i Technik Informatycznych proponują.
AI - Sztuczna inteligencja w oprogramowaniu dla przedsiębiorstw
Wstęp do programowania Wykład 4
Podstawy automatyki I Wykład 1b /2016
Inżynier budowy systemów komputerowych nadzoruje, projektuje i konstruuje systemy oraz wdraża oprogramowanie systemowe w różnych dziedzinach gospodarki.
Zagadnienia transportowe Katedra Ekonomiki i Funkcjonowania Przedsiębiorstw Transportowych.
Treść dzisiejszego wykładu l Analiza wrażliwości –zmiana wartości współczynników funkcji celu, –zmiana wartości prawych stron ograniczeń. l Podejścia do.
Programowanie strukturalne i obiektowe Klasa I. Podstawowe pojęcia dotyczące programowania 1. Problem 2. Algorytm 3. Komputer 4. Program komputerowy 5.
Cz. Nosala (1979, 1993) koncepcja problemu i ich podziału (taksonomii) Każda sytuacja poznawcza ukierunkowana na osiągnięcie jakiegoś celu zawiera następujące.
Matematyka przed egzaminem czyli samouczek dla każdego
Sztuczne Sieci Neuronowe
Wstęp do Informatyki - Wykład 6
Efektywność algorytmów
IV Konferencja Naukowo-Techniczna "Nowoczesne technologie w projektowaniu, budowie.
{ Wsparcie informacyjne dla zarządzania strategicznego Tereshkun Volodymyr.
Systemy eksperckie i sztuczna inteligencja
* PROCESÓW TECHNOLOGICZNYCH
Zapis prezentacji:

1 Masowe Przetwarzanie Danych a Bezpieczeństwo Ruchu Andrzej P. Wierzbicki Instytut Łączności – PIB 1.Wstęp: prawo Moorea jako megatrend 2.Złożoność obliczeniowa jako ograniczenie poznawcze 3.Masowość danych a prawo Moorea 4.Masowość danych a bezpieczeństwo ruchu 5.Wnioski i zalecenia

2 1. Wstęp: prawo Moorea jako megatrend Gordon E. Moore (Moore 1965) sformułował już niemal 50 lat temu prawo empiryczne, t.zw. prawo Moorea, wynikłe z obserwacji rozwoju liczby elementów elektronicznych – np. tranzystorów – które można zmieścić na pojedynczym układzie scalonym przeciętnych rozmiarów, np. na calu kwadratowym: otóż liczba elementów upakowanych w układzie scalonym podwaja się co miesięcy. Później okazało się to nie tylko prawdziwą obserwacją, ale podtrzymującą się przez ostatnie niemal 50 lat, w następującej wersji: liczba ta zwiększa się przeciętnie dziesięciokrotnie co każde 5 lat, lub stukrotnie co dekadę; stanowi to zatem dobrze obserwowany i udokumentowany megatrend. Jego powodem jest stały rozwój technologii produkcji układów scalonych. Chociaż można sądzić, że możliwości technologiczne techniki krzemowej wkrótce się wyczerpią, to wspomniane wyżej możliwości nowych tranzystorów, włącznie z możliwością nowych odkryć takich jak grafen, podtrzymają zapewne jeszcze prawo Moorea przez następne kilka dekad.

3 1. Wstęp: prawo Moorea jako megatrend, 2 Oznacza to możliwość zwiększenia liczby tranzystorów w pojedynczym układzie scalonym, a tym samym mocy obliczeniowej komputerów, jeszcze razy. W analogiczny sposób zmienia się dostępna moc obliczeniowa komputerów, chociaż pojęcie mocy obliczeniowej nie jest w pełni precyzyjne (składa się na nią zarówno pojemność różnych typów pamięci w komputerze, jak i szybkość – liczba podstawowych operacji na sekundę – podstawowego procesora czy równolegle połączonych procesorów, itp.). Tym niemniej rozwija się ona – zarówno w sensie średniej mocy obliczeniowej typowego dzisiaj komputera osobistego, jak i w sensie łącznej mocy obliczeniowej dostępnej dzisiaj w sieci dla t.zw. obliczeń chmurowych, czyli właśnie obliczeń sieciowych bez specyfikacji wykorzystywanych komputerów – także w przybliżeniu zgodnie z prawem Moorea. Wynika stąd wiele wniosków, które przedstawimy w dalszych punktach.

4 2. Złożoność obliczeniowa jako ograniczenie poznawcze Z jednej strony, niezwykle szybki rozwój możliwości sprzętowych komputerów wywołuje często naiwną wiarę, że załatwi on wszystko: po co uczyć się skomplikowanych metod matematycznych, rozwijać oprogramowanie i techniki obliczeniowe, skoro za dziesięć lat komputery będą i tak stokrotnie szybsze? Wiara ta jest bezpodstawna, a nawet groźna, z wielu powodów. Wynika to z wiedzy o złożoności obliczeniowej problemów do rozwiązania przez komputer. Teoria złożoności obliczeniowej to obszerny dział informatyki, sam w sobie dość złożony, przedstawię ją tu w największym tylko uproszczeniu. Otóż problemy do rozwiązania przez komputer charakteryzują się przez swój charakter czy typ, oraz przez swój wymiar.

5 2. Złożoność obliczeniowa jako ograniczenie poznawcze, 2 Typ to, na przykład, problem routingu w sieci czyli problem znajdowania najkrótszej czy najtańszej ścieżki łączącej dwa punkty sieci, a problem podróżującego sprzedawcy w teorii systemów zaopatrzenia jest podobny do problemu routingu, ale wymaga, żeby po drodze odwiedzić szereg określonych z góry punktów sieci. Drugi ważny aspekt charakterystyki problemu to jego wymiar, określany jako albo ilość danych wejściowych do przetworzenia przy rozwiązywaniu problemu, albo też jako ilość zmiennych niezbędna do matematycznej charakterystyki problemu. Zasadniczym rezultatem teorii złożoności obliczeniowej jest stwierdzenie, że – za wyjątkiem problemów szczególnie prostego typu – zależność nakładu obliczeń od wymiaru jest nieliniowa, i to o stosunkowo łagodnym charakterze wielomianowym tylko dla problemów prostszych typów, zazwyczaj natomiast (dla problemów bardziej złożonych typów) nie-wielomianowa, czyli wykładnicza lub kombinatoryczna, bardzo szybko rosnąca z wymiarem problemu.

6 2. Złożoność obliczeniowa jako ograniczenie poznawcze, 3 Każdy przedstawiciel stosowanych nauk obliczeniowych – technik, biolog, genetyk, meteorolog, fizyk itp., który stosuje komputery do rozwiązywania złożonych symulacji czy optymalizacji badawczych lub konstrukcyjnych – wie doskonale z doświadczenia, że nie może stosować modelu rozważanego problemu wyrażającego najbardziej dokładną, pełną wiedzę swej dziedziny, musi stosować uproszczenia, bo inaczej nie uda mu się wykonać niezbędnych obliczeń w rozsądnym czasie. Nauki obliczeniowe są zatem także sztuką kompromisu pomiędzy możliwie największą dokładnością a rozsądnym czasem obliczeń; oczywiście kompromis ten modyfikuje się ze zwiększeniem możliwości obliczeniowych komputerów, ale zawsze pozostaje kompromisem.

7 2. Złożoność obliczeniowa jako ograniczenie poznawcze, 4 Wynika stąd także, że nie ma algorytmów uniwersalnych a jednocześnie skutecznych obliczeniowo: dla każdej dziedziny nauk obliczeniowych i dla każdego typu problemu obliczeniowego trzeba intensywnie pracować nad algorytmami specjalistycznymi, które ten typ problemu rozwiążą w możliwie najkrótszym czasie. Dotyczy to także obliczeń równoległych i chmurowych. I nie pomaga tu prawo Moorea: to, że możliwości obliczeniowe komputerów rosną wykładniczo z czasem, nie pomaga jednak, gdyż nakład obliczeń też rośnie wykładniczo z wymiarem rozwiązywanych problemów. Oznacza to dodatkowo, że problem złożoności obliczeniowej ma ważkie implikacje epistemiczne, naukoznawcze. Z przytoczonej wyżej dyskusji wynika, że możliwości poznawcze człowieka ograniczone są nie tylko przez jego cechy podmiotowe, lecz także przez niedoskonałość narzędzi które stosuje w procesach poznawczych.

8 3. Masowość danych a prawo Moorea Z drugiej strony, rozwój pojemności pamięci komputerowych zgodnie z prawem Moorea stymuluje inny megatrend: masowe zwiększanie objętości przechowywanych i analizowanych danych, i to niemal w każdej dziedzinie badawczej czy społeczno-ekonomicznej. Łącznie, liczba dostępnych danych rośnie podobnie do prawa Moorea, zwiększa się w przybliżeniu stukrotnie co dziesięciolecie. Co więcej, dane takie rosną szybko w wymiarowości: rośnie (być może, nieco tylko wolniej) liczba parametrów, których te dane dotyczą. Stąd też wzrost zapotrzebowania na moc obliczeniową faktycznie wyprzedza prawo Moorea, co wywołuje często wręcz niemożliwość pomieszczenia wszystkich przetwarzanych danych w pamięci operacyjnej komputera, a więc konieczność przetwarzania strumieniowego: stosowania tylko takich algorytmów przetwarzania danych, które poradzą sobie z masą danych napływającą stopniowo, czy to w specjalnie zorganizowany sposób z określonej składnicy czy repozytorium danych (data warehouse), czy też w miarę ich pozyskiwania w czasie rzeczywistym.

9 3. Masowość danych a prawo Moorea, 2 To właśnie zjawisko jest nazywane potocznie nadmiarem danych lub masowością danych. Ze zjawiska tego wynika, że nie należy zbytnio ufać inteligencji komputerów czy ich oprogramowania, które rzekomo powinno sobie poradzić z każdym problemem. Potrzebna jest raczej inteligencja ludzi, programistów, którzy skonstruują specyficzne algorytmy radzące sobie ze wciąż nowymi typami problemów przy szybko rosnących ilościach i wymiarowości danych. Nie można przy tym wierzyć w uniwersalne algorytmy inteligentne – np. ewolucyjne, wzorujące się na uproszczonych zasadach ewolucji biologicznej – gdyż złożoność obliczeniowa właśnie takich algorytmów najsilniej zależy od wymiarowości danych. Pojawia się zatem szereg specjalnych metod inżynierii wiedzy, czyli wydobywania wiedzy z dużych zbiorów danych, data mining – czy to metodami statystycznymi, czy logicznymi i sztucznej inteligencji, czy też w oparciu o optymalizację i wielokryterialną teorię decyzji. Dane mogą być często pozornie niezwiązane ze sobą, ale pozwalające wykrywać różnorodne zależności pomiędzy nimi oraz prognozować różnorodne zdarzenia. Wiedza jest przy tym interpretowana dość wąsko, jako informacja zorganizowana w określonym celu.

10 4. Masowość danych a bezpieczeństwo ruchu Zastosowania takich nowych podejść może mieć ogromne znaczenie w logistyce, planowaniu ruchu oraz systemach bezpieczeństwa w transporcie drogowym i kolejowym. Na przykład, wiele referatów niedawnej konferencji IFIP Working Group on Advanced Analytics w Akwizgranie dotyczyło właśnie tych zagadnień; tematyka konferencji określona była jako: Integration of Modelling, Optimization, Data Analysis and Knowledge Management for Solving Real World Problems. Kilka referatów (np. Hu 2012) poświęcone było bezpieczeństwu ruchu w portach morskich; jednym z wniosków było stwierdzenie, że port dysponuje masowymi, strumieniowo napływającymi danymi (np. z satelitarnych namiarów pozycji statków i łodzi), a więc można konstruować algorytmy wykrywające sytuacje niebezpieczne bądź zbliżanie się jednostek nieznanych, w tym np. terrorystycznych. Na tym tle szczególnego znaczenia nabierają algorytmy wykrywania zdarzeń (zob. np. Granat et al. 2009). Modelowanie zdarzeń to tradycyjny obszar badawczy w informatyce, tu jednak chodzi o wykrywanie zdarzeń na podstawie masowych, strumieniowo napływających danych.

11 4. Masowość danych a bezpieczeństwo ruchu Zdarzeniem może być np. awaria pojazdu wywołująca zakłócenie ruchu, problemem jest rozpoznanie takiego zdarzenia np. ze strumienia danych z obserwacji ruchu wzdłuż inteligentnej drogi (t.j. drogi wyposażonej w sieć sensorów zbierających dane); istnieją już jednak specjalnie w tym celu konstruowane algorytmy wykrywania zdarzeń. Algorytmy takie, ze względu na wielką liczbę napływających danych, których całości nie pomieści typowa pamięć operacyjna, muszą mieć charakter nieklasyczny, dostosowany do przetwarzania strumieniowego, muszą wykorzystywać też moc obliczeniową równolegle lub chmurowo. Wszystko to oznacza, że możliwe są dzisiaj zupełnie nowe podejścia do wykorzystania danych o pozycjach i prędkościach pojazdów (czy to uzyskiwanych z systemu GPS, czy z sensorów inteligentnej drogi) wraz z danymi o stanie urządzeń zabezpieczenia ruchu do ich masowej i strumieniowej analizy, co może w decydującym stopniu wspomóc bezpieczeństwo ruchu.

12 5. Wnioski i zalecenia Z tych nader ogólnych rozważań wynikają jednak dość konkretne wnioski i zalecenia. Po pierwsze, instytucje i organizacje związane z bezpieczeństwem ruchu kolejowego i drogowego powinny tworzyć repozytoria (składnice, data warehouses) danych związanych z tym ruchem oraz stosować nowoczesne narzędzia ich analizy. Po drugie, ważnym kierunkiem badawczym są algorytmy strumieniowego lub chmurowego przetwarzania danych masowych, zwłaszcza przeznaczone do wykrywania zdarzeń mających związek z bezpieczeństwem ruchu; prace w tym kierunku należy zintensyfikować.