Sztuczna Inteligencja Szukanie heurystyczne I

Slides:



Advertisements
Podobne prezentacje
ANALIZA SIECIOWA PRZEDSIĘWZIĘĆ konstrukcja harmonogramu
Advertisements

Klasyfikacja danych Metoda hierarchiczne
Programowanie dynamiczne
Uczenie ze wzmocnieniem
ALGORYTMY GRAFOWE.
Grażyna Mirkowska PJWSTK 15 listopad 2000
Sztuczna Inteligencja Reprezentacja wiedzy I Logika przybliżona
Inteligencja Obliczeniowa Metody oparte na podobieństwie do wzorców.
Wykład 6 Najkrótsza ścieżka w grafie z jednym źródłem
Sztuczna Inteligencja 1.2 Szukanie - sformułowanie problemu.
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Inteligencja Obliczeniowa Indukcja reguł - modele.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
ALGORYTM Co to jest algorytm?
Badania operacyjne. Wykład 1
ALGORYTMY I STRUKTURY DANYCH
Sztuczna Inteligencja Szukanie heurystyczne I
Sztuczna Inteligencja Gry i programy oparte na szukaniu
Sztuczna Inteligencja 1.2 Szukanie - sformułowanie problemu.
Sztuczna Inteligencja 2.1 Metody szukania na ślepo
WYKŁAD 7. Spójność i rozpięte drzewa
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Sztuczna Inteligencja Szukanie heurystyczne II
Sztuczna Inteligencja Reprezentacja wiedzy II Systemy produkcyjne Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch.
Sztuczna Inteligencja Reprezentacja wiedzy I Wstęp. Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch.
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010Optymalizacja miary efektywności działania sztucznych sieci neuronowych Dr hab. inż. Kazimierz Duzinkiewicz,
Algorytmy genetyczne.
Algorytmy genetyczne.
WYKŁAD 7. Spójność i rozpięte drzewa Graf jest spójny, gdy dla każdego podziału V na dwa rozłączne podzbiory A i B istnieje krawędź z A do B. Definicja.
Podstawy programowania
Algorytm mini-max.
Zbiór do posortowania mieści się w pamięci
Przegląd podstawowych algorytmów
IV OTWARTE MISTRZOSTWA OPOLA W PROGRAMOWANIU ZESPOŁOWYM
Badania operacyjne Wykład 5.
Zadanie programowania liniowego PL dla ograniczeń mniejszościowych
Detekcja twarzy w obrazach cyfrowych
Zadanie programowania liniowego PL dla ograniczeń mniejszościowych
ALGORYTMY ROZWIĄZYWANIA GIER C.D.
MS Excel - wspomaganie decyzji
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
IV EKSPLORACJA DANYCH Zadania eksploracji danych: klasyfikacja
Algorytmy i Struktury Danych
Wyszukiwanie maksimum funkcji za pomocą mrówki Pachycondyla Apicalis.
Algorytmy- Wprowadzenie do programowania
WYKŁAD 06 Programowanie dynamiczne Grażyna Mirkowska.
Algorytmy Genetyczne Anna Tomkowska Politechnika Koszalińska
Metody nieinkluzyjne: Metoda iteracji prostej.
Adaptacyjne Systemy Inteligentne Maciej Bielski, s4049.
Pętle – instrukcje powtórzeń
SZTUCZNA INTELIGENCJA
Temat 3: Podstawy programowania Algorytmy – 2 z 2 _________________________________________________________________________________________________________________.
Zarządzanie projektami
ANALIZA CVP KOSZT-WOLUMEN-ZYSK.
Metody Badań Operacyjnych Michał Suchanek Katedra Ekonomiki i Funkcjonowania Przedsiębiorstw Transportowych.
Zagadnienia transportowe Katedra Ekonomiki i Funkcjonowania Przedsiębiorstw Transportowych.
Metody programowania sieciowego w zarządzaniu przedsięwzięciami Programowanie sieciowe stanowi specyficzną grupę zagadnień programowania matematycznego.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Metody optymalizacji Materiał wykładowy /2017
Zbiory rozłączne.
Perceptrony o dużym marginesie błędu
Efektywność algorytmów
Sztuczna Inteligencja Szukanie heurystyczne II
Sztuczna Inteligencja Szukanie heurystyczne I
Perceptrony o dużym marginesie błędu
ALGORYTMY I STRUKTURY DANYCH
Sztuczna Inteligencja Gry i programy oparte na szukaniu
Sztuczna Inteligencja Szukanie heurystyczne I
Sztuczna Inteligencja Szukanie heurystyczne II
Sztuczna Inteligencja Reprezentacja wiedzy I Logika przybliżona
Zapis prezentacji:

Sztuczna Inteligencja Szukanie heurystyczne I Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch

Szukanie heurystyczne Metody szukania heurystycznego Definicja funkcji heurystycznej Najpierw najlepszy  Przesuwanka  Szukanie zachłanne  Szukanie A* Algorytmy iteracyjne  Wspinaczka  Monte Carlo  Symulowane wyżarzanie Klasyfikacja algorytmów szukania Szukanie z więzami

Metody szukania heurystycznego Ślepe szukanie nie używa informacji o możliwej strukturze drzewa lub ocen podobieństwa sytuacji do pożądanych celów; taka informacja może przyczynić się do optymalizacji procesu szukania. Największym problemem w rzeczywistych zastosowaniach jest eksplozja kombinatoryczna liczby możliwych dróg. Szukanie heurystyczne wykorzystuje informacje, które poprawiają efektywność procesu szukania.

Heurystyczne Metody Szukania (cd) Używają heurystyk, „reguł kciuka” by określić, która część drzewa decyzji rozwijać najpierw. Heurystyki to reguły lub metody, które często choć nie zawsze gwarantują podjęcie lepszej decyzji. Np. w sklepie z wieloma kasami dobrą reguła jest: stań przy kasie z najkrótszą kolejką. Ale ... (1) jeśli stoi przy niej osobnik z furą zakupów; (2) lub nie ma przy niej kasjera; (3) lub przyjmują tylko gotówkę, a chcesz na kartę; .... to nie jest najlepsza decyzja.

Definicja Funkcji Heurystycznej Funkcja h :   R, gdzie  to zbiór dozwolonych stanów, R to liczby rzeczywiste, odwzorowuje stany s ze zbioru  na wartości h(s) służące do oceny względnych kosztów lub zysków rozwijania dalszej drogi przez węzeł odpowiadający s. Węzeł A ma 3 potomków. h(s1)=0.8, h(s2)=2.0, h(s3)=1.6 Wartości = koszty utworzenia węzła; najtaniej jest utworzyć węzeł s1 i ten z punktu widzenia danej heurystyki jest najlepszym kandydatem. Przykładowy graf

Najpierw najlepszy (BestFS) Kombinacja szukania w głąb (DFS) i szukania wszerz (BFS). DFS znajduje dobre rozwiązania taniej niż BFS, BFS nie wpada w zamknięte pętle ani ślepe zaułki. Metoda „najpierw najlepszy” (BestFS) pozwala połączyć korzyści z obu metod. Jest kilka wariantów tej metody.

BestFS - przykład Dla przesuwanki użyteczna funkcja heurystyczna mierzy ile kwadratów zajmuje końcowe pozycje.

BFS1: szukanie zachłanne Szukanie zachłanne (Greedy Search, GS) to jedna z najprostszych strategii BestFS. Funkcja heurystyczna h(n) – ocenia pozostałe koszty dotarcia do celu (np. odległość od celu). Szukanie zachłanne: “ocenianych kosztów dotarcia do celu”. Najpierw rozwijany jest węzeł oceniany jako najbliższy. Idziemy w głąb, ale jak się popsuje to wracamy i w bok. W problemach szukania drogi możliwe są różne metryki: (1) Najkrótsza odległość Euklidesowa; (2) Odległość Manhattan, poruszanie się tylko po prostych poziomych i pionowych. W innych problemach są to oceny podobieństwa.

Problem wędrującego sprzedawcy Zaczynamy od A, jaką drogę wybierze heurystyka zachłanna? Jaka jest najkrótsza?

Drzewo wędrującego sprzedawcy Drzewo DFS. Mamy tu (N-1)! dróg dla wszystkich permutacji, zakładając N miejsc i powrót do tego samego miejsca.

BestFS1: przykład GS z szukaniem trasy Odległości od Bukaresztu miast na mapie Rumunii; hSLD(n) = odległości w linii powietrznej do miasta n.

BestFS1: szukanie trasy - graf Szukanie zachłanne najkrótszej drogi do Bukaresztu. Wartość funkcji heurystycznej h(n) - tu odległości mierzonej w linii prostej od Bukaresztu - podana jest w węzłach.

BestFS1, GS (cd) Znalezione rozwiązanie A  S  F  B nie jest optymalne, jest o 32 km dłuższe niż optymalna droga A  S  R  P  B. Strategia zachłanna próbuje maksymalnie zmniejszyć różnicę redukując koszt dotarcia do celu, bez oceny czy na dłuższa metę jest to optymalne zachowanie. Chciwość to jeden z 7 grzechów głównych, ale zwykle się opłaca, chociaż nie zawsze jest optymalną strategią. GS może źle wystartować i utknąć w ślepej uliczce, np. jadąc z Iasi do Fagaras zacznie od Neamt gdzie droga się kończy (ale łatwo to uwzględnić).

BestFS1: GS, własności GS przypomina DFS rozwijając tylko jedną ścieżkę, wycofując się, kiedy trafi na ślepy zaułek. GS ma te same problemy co DFS – nie jest to algorytm optymalny ani zupełny. Złożoność GS w najgorszym razie wynosi O(bm), dla m kroków w głąb i średnio b możliwości. Dobra funkcja heurystyczna powinna zredukować znacznie złożoność procesu szukania. Zależy to od konkretnego problemu i od samej funkcji heurystycznej, nie można podać ogólnych ocen.

UCS - stałe koszty UCS, Uniform Cost Search – szukanie przy stałych kosztach. Rozwijaj węzły o najniższym koszcie; jeśli koszt przekroczy próg cofnij się i idź inną drogą. Jeśli koszt wszystkich węzłów jest jednakowy to  zwykłemu BS. Przykład: koszty są po lewej stronie.

Programowanie dynamiczne. Ogólnie (Bellman, 1957): rozbij rekursywnie problem na coraz prostsze podproblemy; rozwiąż najprostsze problemy; zapisz rozwiązania w tablicy; użyj tych rozwiązań rekursywnie do coraz bardziej złożonych; Wielokrotne wykorzystanie powtarzających się prostych rozwiązań pozwala czasami zredukować złożoność eksponencjalną na wielomianową. Bardzo przydatna technika, popularna szczególnie w bioinformatycznych problemach szukania współliniowości. Przykłady: ciągi Fibonacciego F(n) = F(n-1) + F(n-2); F(0) = 0; F(1) = 1 Tabela: F(i)=[1,1,2,3,5,8,13 … ] Współczynniki dwumienne: C(n,k) = C(n-1,k) + C(n-1,k-1) for n > k > 0; C(n,0) = 1, C(n,n) = 1 for n ≥ 0 Potrzebna tabela 2D dla C(n,k)

PD dla szukania. Zasada „programowania dynamicznego” dla szukania: Jeśli najlepsza droga do celu G przechodzi przez pośredni węzeł P to najlepsza droga od startu S do P połączona z najlepszą drogą z P do G daje optymalne rozwiązanie. Wniosek: szukając najlepszej drogi do celu wystarczy rozpatrywać tylko najkrótszą drogę do P (ale trzeba znać P). Dobrze jest znać długość różnych fragmentów. Przykład: http://www.ifors.ms.unimelb.edu.au/tutorial/path/ Nie zawsze rozwiązanie jest możliwe. Tower of Hanoi: http://www.ifors.ms.unimelb.edu.au/tutorial/hanoi/

BestFS2: szukanie A* GS minimalizuje koszty dojścia do celu h(n), nie jest to jednak algorytm zupełny ani optymalny. Alternatywą jest minimalizacja g(n) kosztów dojścia do danego węzła – jest to metoda kompletna, optymalna, ale mało efektywna. Metoda A* łączy obydwie funkcje heurystyczne, h(n) oraz g(n) w jednej funkcji heurystycznej oceniającej koszty najtańszego rozwiązania przechodzącego przez węzeł n, tzn. f(n) = g(n) + h(n). Animacje algorytmów: http://www.ansatt.hig.no/frodeh/algmet/animate.html

BestFS2: algorytm A* Rozpocznij od węzła początkowego i twórz nowe węzły {n} dopóki cel nie zostanie osiągnięty; Posortuj nowe węzły {n} korzystając z funkcji f (n)= g(n) + h(n); Odrzuć ścieżki zapętlone. Wybierz najlepszy węzeł n' Zostaw tylko najtańszą ścieżkę do n'. Jeśli n' jest celem skończ; Jeśli nie, rozwijaj dalsze węzły {n}, łącznie z n'

BestFS2: A* cd. Własności: Ponieważ wybierana jest najtańsza droga do danego węzła n żadna inna droga nie może obniżyć całkowitego kosztu (monotoniczność). h(n) powinno być wiarygodną oceną kosztów dojścia do celu – monotoniczne zaniżenie wszystkich kosztów nie przeszkadza. Algorytm A* jest w tym przypadku optymalny. Ćwiczenie: udowodnić optymalność A*

IDA*, czyli A* iteracyjnie pogłębiane. Podobny do IDDF Stosuj algorytm szukania w głąb. Oceniaj całkowite koszty f (n)= g(n) + h(n) heurystyką A*. Jeśli f (n) > T cofaj się; T jest tu zmiennym progiem. Jeśli nie znaleziono rozwiązania zwiększ T i powtarzaj. Wady: powtarza część ścieżek, ale i tak końcowe szukanie zajmuje najwięcej czasu. Zalety: niewielka pamięć, jak w DS, tylko szybsze.

Heurystyki dla 8-ki Algorytmy szukania heurystycznego testuje się często na problemie przesuwanki. Dla 8-ki jest 9!/2 or 181.440 możliwych stanów, dla 15-ki 653 mld. W procesie szukania dobra funkcja heurystyczna zmniejsza liczbę rozpatrywanych stanów < 50. Dwie funkcje, które nigdy nie przeceniają kosztów: 1. h1 = liczba płytek na złych pozycjach – każdą trzeba przesunąć przynajmniej raz. 2. h2 = suma odległości od celu, metryka Manhattan; każdy ruch zmniejsza odległość o 1; tu h1=8, h2 = 18

Przykład A* dla 8-ki Przestrzeń stanów utworzona w czasie heurystycznego szukania 8-ki. f(n) = g(n) + h(n) g(n) = odległość od startu do stanu n. h(n) = liczba elementów na złym miejscu.