Geometria obliczeniowa Wykład 13

Slides:



Advertisements
Podobne prezentacje
ALGORYTMY I STRUKTURY DANYCH
Advertisements

Sympleksy n=2.
DOMINOWANIE W GRAFACH Magdalena Lemańska.
Grażyna Mirkowska PJWSTK 15 listopad 2000
Wykład 06 Metody Analizy Programów System Hoare
Wykład 6 Najkrótsza ścieżka w grafie z jednym źródłem
Temat: WIELOŚCIANY KLASA III P r.
Przygotowały: Jagoda Pacocha Dominika Ściernicka
Trian_mon(P) Input: y-monotoniczny wielokąt zapamiętany jako zbiór boków, Output: triangulacja D jako zbiór krawędzi. Wyodrębnij prawy i lewy łańcuch punktów,
Badania operacyjne. Wykład 2
Wykład no 11.
ALGORYTMY I STRUKTURY DANYCH
ALGORYTMY I STRUKTURY DANYCH
CZWOROKĄTY Patryk Madej Ia Rad Bahar Ia.
Geometria obliczeniowa Wykład 1
Geometria obliczeniowa Wykład 2
ZŁOŻONOŚĆ OBLICZENIOWA
ALGORYTMY GEOMETRYCZNE.
WYKŁAD 7. Spójność i rozpięte drzewa
Materiały pomocnicze do wykładu
Geometria obrazu Wykład 13
Geometria obrazu Wykład 6
Geometria obrazu Wykład 2
WYKŁAD 7. Spójność i rozpięte drzewa Graf jest spójny, gdy dla każdego podziału V na dwa rozłączne podzbiory A i B istnieje krawędź z A do B. Definicja.
Nierówności (mniej lub bardziej) geometryczne
,, W KRAINIE CZWOROKĄTÓW ,, Adam Filipowicz VA SPIS TREŚCI
MATEMATYKAAKYTAMETAM
Przegląd podstawowych algorytmów
Geometria obliczeniowa Wykład 8
IV OTWARTE MISTRZOSTWA OPOLA W PROGRAMOWANIU ZESPOŁOWYM
Geometria obliczeniowa Wykład 9
Geometria obliczeniowa Wykład 3
Figury płaskie I PRZESTRZENNE Wykonała: Klaudia Marszał
Geometria obliczeniowa Wykład 4
Trójkąty.
FIGURY GEOMETRYCZNE.
Rzuty Monge’a cz. 1 dr Renata Jędryczka
Geometria obliczeniowa Wykład 7
Prezentacja figury geometryczne otaczające nas na świecie
Figury w układzie współrzędnych.
Geometria obliczeniowa Wykład 5
Geometria obliczeniowa Wykład 12
Metody numeryczne szukanie pierwiastka metodą bisekcji
Geometria obliczeniowa Wykład 13 Planowanie ruchu 1.Znajdywanie ścieżki między dwoma punktami. 2.Ruch postępowy robota wielokątnego na płasz- czyźnie.
Geometria obliczeniowa Wykład 10
Grafika i komunikacja człowieka z komputerem
Geometria obliczeniowa Wykład 5 Geometryczne struktury danych 1. Drzewa odcinków 2. Drzewa czwórkowe 3. Drzewa BSP.
Geometria obliczeniowa Wykład 12 Planowanie ruchu 1.Najkrótsza ścieżka między dwoma punktami. 2.Znajdywanie ścieżki między dwoma punktami. 3.Ruch postępowy.
WYKŁAD 06 Programowanie dynamiczne Grażyna Mirkowska.
Geometria obrazu Wykład 6
Geometria obliczeniowa Wykład 14 Algorytmy randomizowane 1.Programowanie liniowe w R 2. 2.Lokalizacja punktu w siatce trapezów. 3.Znajdywanie średnicy.
Geometria obliczeniowa Wykład 11 Algorytmy randomizowane 1.Programowanie liniowe w R 2. 2.Minimalne koło opisane na zbiorze punktów. Widzialność 1.Problem.
Trójkąty Katarzyna Bereźnicka
WIELOKĄTY Karolina Zielińska kl.v Aleksandra Michałek kl v
Geometria obliczeniowa Wykład 11 Algorytmy randomizowane 1.Programowanie liniowe w R 2. 2.Minimalne koło opisane na zbiorze punktów. Widzialność 1.Problem.
Zarządzanie projektami
Geometria obliczeniowa Wykład 13 Algorytmy randomizowane 1.Lokalizacja punktu w siatce trapezów. 2.Znajdywanie średnicy zbioru punktów w R 3. Algorytmy.
FIGURY PŁASKIE.
Figury płaskie.
Geometria obliczeniowa Wykład 10 Dualizacja liniowa c.d. 1. Poziomy 2. Otoczka wypukła Ciągi Davenporta-Schinzela Problemy optymalizacyjne 1. Problem wyważania.
Geometria obliczeniowa Wykład 3
Geometria obliczeniowa Wykład 3
Geometria obliczeniowa Wykład 7
Geometria obliczeniowa Wykład 1
Geometria obliczeniowa Wykład 8
ALGORYTMY I STRUKTURY DANYCH
Figury w układzie współrzędnych
ALGORYTMY I STRUKTURY DANYCH
ALGORYTMY I STRUKTURY DANYCH
Zapis prezentacji:

Geometria obliczeniowa Wykład 13 Algorytmy randomizowane Programowanie liniowe w R2. Lokalizacja punktu w siatce trapezów. Znajdywanie średnicy zbioru punktów w R3. Minimalne koło opisane na zbiorze punktów.

Podstawowe metody stosowane w algorytmach randomizowanych. Metoda Las Vegas. Metoda ta zawsze daje poprawne rozwiązanie. Natomiast czas trwania algo-rytmu może być zmienny w zależności od układu danych. Przykładem takie-go algorytmu moze być np. Quickhull lub dowolny algorytmy przyrostowy z losowo uporządkowanymi danymi. Metoda Monte Carlo. Metoda ta zawsze kończy się w ustalonym czasie, ale może z pewnym praw-dopodobieństwem zwrócić zły wynik bądź zwraca wynik tylko z pewną do-kładnością. Przykładem takiego algorytmu może być np. szukanie ścieżki łą-czącej dwa punkty w labiryncie przy losowym wyborze kierunku poruszania się lub losowe próby lokalizacji punktu na płaszczyźnie podzielonej na obszary. Formalnie efektywność takiego algorytmu jest zmienną losową określoną na przestrzeni możliwych losowych ciągów danych. Wartość oczekiwana takiej zmiennej nazywana jest oczekiwanym czasem działania.

Przykład. Pole koła o promieniu 1 (wartość ). 421/27 = 3,111 4221/289 = 3,059

Programowanie liniowe w R2. Problem. Dana jest liniowa funkcja celu c (postaci ax+by) oraz n warunków brzegowych (zbiór H nierówności liniowych aix + biy + ci  0, dla i = 1,2, ... , n) opisujących obszar dopuszczalny D, w którym poszukujemy punktu maksymalizującego (minimalizującego) wartość funkcji c.

Algorytm if obszar wyznaczany przez półpłaszczyzny z H jest ograniczony w kierunku wzrostu wartości funkcji c i nie jest pusty then określ półpłaszczyzny h1, h2 ograni- czające wzrost wartości funkcji c, punkt przecięcia ich brzegów x:= (h1)(h2) i D:= h1  h2 else return(„Brak rozwiązania”); for h  H-{h1,h2} do if x  h then D := D  h; if D   then x := {q: c(q) = max p(h)D c(p)} return(x, c(x)); Funkcja celu: max 3x+2y Warunki brzegowe: y - 0,5x - 3  0 y - 5  0 y + 2x - 17  0 -y + 0,5x - 3  0 -y + x - 7  0 y + x - 10  0

Twierdzenie Problem programowania liniowego w R2 dla n warunków brzegowych można rozwiązać w czasie oczekiwanym O(n) z wykorzystaniem O(n) pamięci. Dowód. Niech vi będzie punktem, w którym funkcja c przyjmuje maksimum (minimum) w obszarze wyznaczanym przez i półpłaszczyzn, a hi i-tą półpłaszczyzną. Zdefiniujmy zmienną losową Xi przyjmującą wartość 1, gdy vi-1  hi oraz 0 w przeciwnym przypadku. Ponieważ znalezienie nowego maksimum (rozwiązanie problemu jednowymia-rowego programowania liniowego), wymaga czasu O(n) (można to zrobić w czasie O(log n) - ale pociąga to za sobą zmiany w strukturze, których chcemy uniknąć), więc oczekiwany czas działania algorytmu wynosi E(ni=3 O(i)Xi) = ni=3 O(i)E(Xi) . Wartość E(Xi) szacujemy stosując tzw. analizę powrotną. W tym celu badamy, jak zmienia się problem, gdy mając i warunków brzegowych, odejmiemy jedną z półpłaszczyzn. Punkt, w którym funkcja c ma maksimum (minimum) może ulec zmianie, gdy odejmiemy co najwyżej dwie spośród półpłaszczyzn wyzna-czających obszar (wyznaczają one wierzchołek, w którym przyjmowane jest maksimum (minimum) - jeśli przez ten punkt przechodzi więcej prostych będą-cych brzegami danych półpłaszczyzn, to może się zdażyć, że usunięcie dowol-nej półpłaszczyzny nie wpływa na wartość funkcji celu. Zatem E(Xi)  2/i-2 . Stąd ni=3 O(i)E(Xi) = ni=3 O(1) = O(n) .

Lokalizacja punktu w siatce trapezów. Problem Dany jest prostokątny obszar oraz n zawar-tych w nim odcinków (z których żaden nie jest pionowy i żadne dwa końce nie mają tej samej współrzędnej x-owej ani y-owej). Chcemy odpowiadać na pytanie: Miedzy którymi dwoma odcinkami (od góry i od dołu) znajduje się dany punkt ? Przedstawimy algorytm przyrostowy znaj-dujący podział obszaru na trapezy. Skonstruujemy strukturę danych umożliwia-jącą odpowiedź na zapytania o położenie punktów, wykorzystującą podział obszaru na trapezy .

Struktura jest grafem skierowanym, którego wierzchołki odpowiadają trapezom podziału, końcom odcinków i samym odcinkom. Wierzchołki odpowiadające odcinkom mogą występować wielokrotnie. Wierzchołki od-powiadające trapezom są liśćmi. Niech pi i qi oznaczają odpowiednio począ-tek i koniec i-tego odcinka si. Gdy odcinek si zawiera się w jednym z już istniejących trapezów, to w miejsce odpo-wiadającego mu wierzchołka wstawiamy wierzchołek pi, którego lewym synem jest wierzchołek odpowiadający trapezowi pow-stającemu po lewej stronie pi a prawym sy-nem jest qi. Prawym synem qi jest wierzcho-łek odpowiadający trapezowi powstającemu po prawej stronie qi a lewym synem jest si. Lewy i prawy syn si odpowiadają odpowied-nio trapezowi powyżej i poniżej odcinka si. sk si E D C B qi pi A sm DS(Si-1) A

C A B sd sc sb sa Gdy odcinek si przecina wiele istniejących już trapezów, to w miejsce wierzchołka odpowiadającego skrajnie lewemu trape-zowi wstawiamy pi, którego lewym synem jest wierzchołek odpowiadający trapezowi powstającemu po lewej stronie pi a pra-wym synem jest si. W miejsce wierzchołka odpowiadającego skrajnie prawemu trapezowi wstawiamy qi, którego prawym synem jest wierzcho-łek odpowiadający trapezowi powstają-cemu po prawej stronie qi a lewym synem jest si. Pozostałym trapezom odpowiadają wierz-chołki si. Lewy i prawy syn dowolnego wierzchołka si odpowiada odpowiednio trapezowi powstałemu powyżej i poniżej odcinka si w miejscu poprzedniego trapezu. I si H G F E D pi qi DS(Si-1) A B C

E D C B A J I H G F Algorytm inicjalizuj strukturę DS ; for i:=1 to n do z pomocą struktury DS znajdź trapezy przecinane przez odcinek si ; zastąp w strukturze DS przecinane tra- pezy nowymi układami wierzchołków;

Twierdzenie Algorytm oblicza sieć trapezów T(S) dla zbioru n odcinków S i tworzy strukturę danych DS(S) dla sieci T(S) w oczekiwanym czasie O(n log n). Oczekiwany rozmiar struktury wynosi O(n), a lokalizacja punktu wymaga oczekiwanego czasu O(log n). Dowód. Zmiana wierzchołka odpowiadającego trapezowi zwiększa długość ścieżki wyszukującej punkt o co najwyżej 3 wierzchołki. Jednak szacowanie długości ścieżki wyszukiwań w ten sposób jest zbyt grube. Rozważmy ścieżkę wyszukiwań punktu q w strukturze danych DS. Niech Xi oznacza dla 1  i  n liczbę wierzchołków na ścieżce wyszukiwań dodanych w i-tej iteracji. Zatem oczekiwana długość ścieżki wyszukiwań wynosi E(ni=1Xi) = ni=1E(Xi) . Niech Pi oznacza prawdopodobieństwo przejścia w trakcie lokalizacji punktu q przez wierzchołki stworzone w i-tej iteracji. Mamy E(Xi)  3Pi. Ale Pi=P[tq(Si)  tq(Si-1)], gdzie tq(Si) oznacza trapez w sieci powstałej po i-tej iteracji zawierający punkt q.

Aby oszacować prawdopodobieństwo Pi zastosujemy analizę powrotną. W sieci powstałej po i-tej iteracji, zmianę trapezu zawierającego punkt q spowodować może usunięcie co najwyżej czterech krawędzi: - będącej górną krawędzią trapezu, - będącej dolną krawędzią trapezu, - wyznaczającej poprzez swój koniec lewą ścianę trapezu, - wyznaczającej poprzez swój koniec prawą ścianę trapezu. Jeśli koniec krawędzi będącej np. dolną krawędzią trapezu wyznacza równocześnie np. lewą ścianę trapezu, to liczba krawędzi, których usunięcie może wpłynąć na zmianę trapezu zawierającego punkt q, może być mniejsza niż 4. Zatem Pi=P[tq(Si)  tq(Si-1)] = P[tq(Si)  T(Si-1)]  4/i . Stąd ni=1E(Xi)  ni=13Pi  ni=112/i = 12 ni=11/i = 12Hn = O(log n). czyli oczekiwany czas lokalizacji punktu jest O(log n).

Zbadajmy oczekiwany rozmiar struktury. Wynosi on: (Liczba trapezów) + ni=1(Liczba wierzchołków wewnętrznych stworzonych w i-tej iteracji). Liczba trapezów szacuje się przez O(n). Natomiast liczba wierzchołków dodanych w jednej iteracji może być liniowa względem liczby zbadanych odcinków. Prowadzi to do kwadratowego (pesy-mistycznego) oszacowania rozmiaru omawianej struktury danych . Niech ki oznacza liczbę trapezów tworzonych w i-tej iteracji. Zatem liczba nowych wierzchołków wewnętrznych wynosi ki-1. Niech (t,s) będzie równe 1, gdy trapez t  T(Si) nie będzie należeć do T(Si-1) po usunięciu odcinka s oraz 0 w przeciwnym przypadku. Mamy sS t [t  T(Si)] (t,s)  4T(Si) = O(i) . Stąd E(ki) = 1/i sS t [t  T(Si)] (t,s)  O(i)/i = O(1) , czyli oczekiwana liczba nowych wierzchołków wewnętrznych powstałych w i-tej iteracji jest stała. Zatem oczekiwany rozmiar struktury danych wynosi O(n) + ni=1 E(ki-1) = O(n) + ni=1 E(ki) = O(n) + ni=1 O(1) = O(n) , czyli jest liniowy względem liczby odcinków.

Teraz możemy obliczyć oczekiwany czas pracy algorytmu, który wynosi: (Koszt inicjalizacji) + ni=1 (średni czas wyszukiwania położenia końców odcinka dodawanego w i-tej iteracji + liczba nowych wierzchołków dodawanych w i-tej iteracji) = O(1) + ni=1 (O(log i) + O(E(ki))) = O(n log n), co kończy dowód.

Znajdywanie średnicy zbioru punktów w R3. Definicja Dla danego zbioru n punktów S średnicą D(S) nazywamy odległość między dwo-ma najdalszymi punktami w S. Niech I(S) oznacza obszar będący częścią wspólną kul o promieniu  i środkach w punktach należących do zbioru S. F(p) oznacza maksymalną odległość mię-dzy punktem p a jakimkolwiek innym punktem ze zbioru S. I(S) D(S) p F(p)

Fakt. Dla każdego punktu q  I(S), gdy  = F(p), zachodzi F(q)  F(p)  D(S). Natomiast dla q  I(S), mamy F(p)  F(q)  D(S). Algorytm while S   do wybierz losowo z S punkt p; oblicz F(p); znajdź I(S) dla  = F(p); S := S – (S  I(S) ); return();

Lemat. Średnicę zbioru n punktów w R3 można znaleźć w oczekiwanym czasie O(n log n). Dowód. W każdym kroku usuwamy co najmniej jeden punkt (wybrany). F(p) obliczamy w czasie liniowym. Znalezienie I(S) wymaga czasu O(n log n) (postępujemy identycznie jak w przypadku znajdywania przecięcia półprzestrzeni, co jest problemem dualnym do znajdywania otoczki wypukłej). Punkty z S należące do I(S) znajdujemy w czasie O(n log n). Ustawmy wartości F(pi), gdzie pi  S w ciąg niemalejący. Wtedy wybór punktu p, podobnie jak w quicksorcie, dzieli ciąg na dwie części - punkty, wśród których będziemy szukać rozwiązania i pozostałe. Zakładając, że punkty wybieramy z jednakowym prawdopodobieństwem, możemy obliczyć oczekiwany czas działania algorytmu : T(n) = O(n) + O(n log n) + n-1i=0 T(i)/n, co daje T(n) = O(n log n).

Minimalne koło opisane na zbiorze punktów. Problem. Dla danego zbioru punktów na płaszczyźnie P znajdź minimalne koło zawierające wszystkie punkty z P. Weźmy losową permutację punktów z P. Niech Pi := {p1, ... , pi} a Di będzie minimal-nym kołem zawierającym Pi. Lemat . Dla 2 < i < n mamy: jeśli pi  Di-1, to Di = Di-1, jeśli pi  Di-1, to pi leży na brzegu Di.

Załóżmy, że dane są dwa punkty z P leżące na brzegu minimalnego koła. MinDisc2P(P, q1, q2) D0 := najmniejsze koło z q1, q2 na brzegu; for k:=1 to n do if pk  Dk-1 then Dk := Dk-1 else Dk := koło z q1, q2, pk na brzegu; return Dn;

Załóżmy teraz, że znamy jeden punkt z P leżący na brzegu minimalnego koła. MinDisc1P(P, q) Oblicz losową permutację p1, ... , pn punk-tów z P; D1 := najmniejsze koło z p1, q na brzegu; for j:=2 to n do if pj  Dj-1 then Dj := Dj-1 else Dj := MinDisc2P({p1,..., pj-1}, pj, q); return Dn;

Ostatecznie nasz program wygląda nastę-pująco. MinDisc(P) Oblicz losową permutację p1, ... , pn punk-tów z P; D2 := najmniejsze koło zawierające {p1, p2}; for i:=3 to n do if pi  Di-1 then Di := Di-1 else Di := MinDisc1P({p1,..., pi-1}, pi); return Dn;

Lemat. Niech P będzie zbiorem punktów w R2, a R, być może pustym, zbiorem punktów w R2, dla których P  R =  oraz p  P. Wtedy zachodzą następujące warunki: Jeśli istnieje koło, które zawiera P i ma wszystkie punkty z R na swoim brzegu, to najmniejsze takie koło jest wyznaczone jednoznacznie (oznaczmy je przez md(P,R)). Jeśli p  md(P-{p},R), to md(P,R) = md(P-{p},R). Jeśli p  md(P-{p},R), to md(P,R) = md(P-{p},R{p}). Wniosek. MinDisc poprawnie oblicza minimalne koło zawierające zbiór punktów. Twierdzenie. Minimalne koło zawierające zbiór n punktów na płaszczyźnie można obliczyć w oczekiwanym czasie O(n), używając w pesymistycznym przypadku pamięć rozmiaru O(n).

Dowód. Oszacowanie rozmiaru pamięci wynika z faktu, że wszystkie trzy algorytmy MinDisc , MinDisc1P i MinDisc2P potrzebują O(n) pamięci. Czas działania MinDisc2P wynosi O(n). MinDisc1P działa w czasie liniowym dopóki nie zachodzi konieczność wywołania MinDisc2P. Prawdopodobieństwo takiego zdarzenia liczymy wykorzystując analizę wsteczną. Ustalmy zbiór {p1,..., pi}. Niech Di będzie minimalnym kołem zawierającym {p1,..., pi}, które ma q na swoim brzegu. Załóżmy, że usuwamy jeden z punktów z {p1,..., pi}. Koło Di ulega zmianie, gdy usuwamy jeden z trzech (lub dwóch) punktów na brzegu (gdy punktów jest więcej, usunięcie niektórych z nich nic nie zmienia). Jednym z tych punktów jest q, więc usunięcie co najwyżej dwóch punktów powoduje zmniejszenie koła. Prawdopodobieństwo, że pi jest jednym z tych punktów wynosi 2/i. Zatem możemy oszacować oczekiwany czas działania MinDisc1P przez O(n) + ni=2O(i)2/i = O(n). Stosując identyczne rozumowanie dla MinDisc stwierdzamy, że oczekiwany czas działania tego algorytmu wynosi O(n).

Dziękuję za uwagę.

Ćwiczenia. 1. Który z poniższych algorytmów generuje losowe permutacje dla danej tablicy A długości n (tzn. każda możliwa permutacja A jest równie prawdopodobna jako wynik): a) (bez identyczności) for i:=1 to n do zamień(A[i],A[RANDOM(i+1,n)]); b) for i:=1 to n do zamień(A[i],A[RANDOM(1,n)]); c) for i:=n downto 2 do zamień(A[i],A[RANDOM(1,i)]); 2. Załóżmy, że mamy dostępny ograniczony generator liczb losowych, który generuje tylko losowy bit (0 lub 1). Jak możemy generować losową permu-tację stosując ograniczony generator liczb losowych ? Jaki jest czas działania procedury ? 3. Prosty wielokąt nazywamy gwiaździstym, gdy zawiera punkt q widoczny z każdego punktu wielokąta. Podaj algorytm, którego oczekiwany czas działania jest liniowy i sprawdza, czy dany prosty wielokąt jest gwiaździsty.

4. Podaj przykład układu odcinków generującego w pesymistycznym przypadku strukturę podziału na trapezy rozmiaru O(n2). 5. Udowodnij, że liczba wewnętrznych węzłów w strukturze przeszukiwań D algorytmu tworzenia mapy trapezowej wzrasta o ki-1 w iteracji i, gdzie ki jest liczbą nowych trapezów w T(Si) (a stąd nowych liści w D). 6. Udowodnij, że mapa trapezowa n odcinków w położeniu ogólnym ma co najwyżej 3n+1 trapezów. 7. Niech P będzie zbiorem punktów w R2, a R, być może pustym, zbiorem punktów w R2, dla których P  R =  oraz p  P. Wtedy zachodzą następujące warunki: - Jeśli istnieje koło, które zawiera P i ma wszystkie punkty z R na swoim brzegu, to najmniejsze takie koło jest wyznaczone jednoznacznie (oznaczmy je przez md(P,R)). - Jeśli p  md(P-{p},R), to md(P,R) = md(P-{p},R). - Jeśli p  md(P-{p},R), to md(P,R) = md(P-{p},R  {p}).