Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Knowledge representation

Podobne prezentacje


Prezentacja na temat: "Knowledge representation"— Zapis prezentacji:

1 Knowledge representation
Dr hab. inż. Joanna Józefowska, prof. PP

2 Plan Knowledge representation and reasoning
Logics Rules Frames Knowledge representation in logics First order logic Description logics Non-monotonic logics Dr hab. inż. Joanna Józefowska, prof. PP

3 What we say and what we think
Time flies like an arrow but fruit flies like a banana. Chodzi mi o to aby język giętki powiedział wszystko co pomyśli głowa Adam Mickiewicz Dr hab. inż. Joanna Józefowska, prof. PP

4 What we say and what we think
I wish my tongue could express everything that my head can imagine Adam Mickiewicz Dr hab. inż. Joanna Józefowska, prof. PP

5 General goal of knowledge representation
develop formalisms for providing high-level descriptions of the world that can be effectively used to build intelligent applications syntaktyka - x>y to jest tylko jakiś wzorek, konfiguracja elektronów w pamięci komputera; dopiero po nadaniu symbolom znaczeń (np. w=5, y=3) otrzymujemy informację, zdanie, o którym możemy stwierdzić czy jest prawdziwe czy fałszywe. Języki programowania też są formą reprezentacji wiedzy; nadają się do zastosowania w sytuacjach deterministycznych, są jednoznaczne i łatwo przetwarzać automatycznie informację w nich wyrażoną. Jednak mają zbyt małe możliwości wyrazu, gdy trzeba reprezentować wiedzę niepewną, niejednoznaczną. Języki naturalne mają dużą zdolność reprezentacji (are expressive enough), ale rozwinęły się raczej w kierunku komunikacji niż wnioskowania. Wadą języków naturalnych jest to, że znaczenia zależy od kontekstu: Patrz! I niejednoznaczność: małe psy i koty, -d+c, -(d+c). Rzadko kodujemy wiedzę używając do tego języka naturalnego. Wanner (1980) i Sachs (1967) prowadzili eksperymenty polegające na badaniu zapamiętywania tekstu przez czytających. Ok. 50% potrafiło wskazać w teście wyboru dokładne sformułowanie, a 90% poprawne znaczenie. Hipoteza Sapir-Whorf: język, którym mówimy ma wpływ na sposób wnioskowania i podejmowania decyzji; np. różne określenia deszczu w j. angielskim wynikające z warunków klimatycznych - dowody są słabe! Ale np. plemię afrykańskie ma język bez czasowników! Język komunikacji jest różny od języka wnioskowania! Dobry system reprezentacji wiedzy powinien łączyć zalety języków programowania i języków naturalnych. formalisms – formal syntax + formal and unambiguous semantics Dr hab. inż. Joanna Józefowska, prof. PP

6 General goal of knowledge representation
develop formalisms for providing high-level descriptions of the world that can be effectively used to build intelligent applications syntaktyka - x>y to jest tylko jakiś wzorek, konfiguracja elektronów w pamięci komputera; dopiero po nadaniu symbolom znaczeń (np. w=5, y=3) otrzymujemy informację, zdanie, o którym możemy stwierdzić czy jest prawdziwe czy fałszywe. Języki programowania też są formą reprezentacji wiedzy; nadają się do zastosowania w sytuacjach deterministycznych, są jednoznaczne i łatwo przetwarzać automatycznie informację w nich wyrażoną. Jednak mają zbyt małe możliwości wyrazu, gdy trzeba reprezentować wiedzę niepewną, niejednoznaczną. Języki naturalne mają dużą zdolność reprezentacji (are expressive enough), ale rozwinęły się raczej w kierunku komunikacji niż wnioskowania. Wadą języków naturalnych jest to, że znaczenia zależy od kontekstu: Patrz! I niejednoznaczność: małe psy i koty, -d+c, -(d+c). Rzadko kodujemy wiedzę używając do tego języka naturalnego. Wanner (1980) i Sachs (1967) prowadzili eksperymenty polegające na badaniu zapamiętywania tekstu przez czytających. Ok. 50% potrafiło wskazać w teście wyboru dokładne sformułowanie, a 90% poprawne znaczenie. Hipoteza Sapir-Whorf: język, którym mówimy ma wpływ na sposób wnioskowania i podejmowania decyzji; np. różne określenia deszczu w j. angielskim wynikające z warunków klimatycznych - dowody są słabe! Ale np. plemię afrykańskie ma język bez czasowników! Język komunikacji jest różny od języka wnioskowania! Dobry system reprezentacji wiedzy powinien łączyć zalety języków programowania i języków naturalnych. formalisms – formal syntax + formal and unambiguous semantics high level descriptions – which aspects should be represented and which left out Dr hab. inż. Joanna Józefowska, prof. PP

7 General goal of knowledge representation
develop formalisms for providing high-level descriptions of the world that can be effectively used to build intelligent applications syntaktyka - x>y to jest tylko jakiś wzorek, konfiguracja elektronów w pamięci komputera; dopiero po nadaniu symbolom znaczeń (np. w=5, y=3) otrzymujemy informację, zdanie, o którym możemy stwierdzić czy jest prawdziwe czy fałszywe. Języki programowania też są formą reprezentacji wiedzy; nadają się do zastosowania w sytuacjach deterministycznych, są jednoznaczne i łatwo przetwarzać automatycznie informację w nich wyrażoną. Jednak mają zbyt małe możliwości wyrazu, gdy trzeba reprezentować wiedzę niepewną, niejednoznaczną. Języki naturalne mają dużą zdolność reprezentacji (are expressive enough), ale rozwinęły się raczej w kierunku komunikacji niż wnioskowania. Wadą języków naturalnych jest to, że znaczenia zależy od kontekstu: Patrz! I niejednoznaczność: małe psy i koty, -d+c, -(d+c). Rzadko kodujemy wiedzę używając do tego języka naturalnego. Wanner (1980) i Sachs (1967) prowadzili eksperymenty polegające na badaniu zapamiętywania tekstu przez czytających. Ok. 50% potrafiło wskazać w teście wyboru dokładne sformułowanie, a 90% poprawne znaczenie. Hipoteza Sapir-Whorf: język, którym mówimy ma wpływ na sposób wnioskowania i podejmowania decyzji; np. różne określenia deszczu w j. angielskim wynikające z warunków klimatycznych - dowody są słabe! Ale np. plemię afrykańskie ma język bez czasowników! Język komunikacji jest różny od języka wnioskowania! Dobry system reprezentacji wiedzy powinien łączyć zalety języków programowania i języków naturalnych. formalisms – formal syntax + formal and unambiguous semantics high level descriptions – which aspects should be represented and which left out intelligent applications – are able to infere new knowledge from given knowledge Dr hab. inż. Joanna Józefowska, prof. PP

8 General goal of knowledge representation
develop formalisms for providing high-level descriptions of the world that can be effectively used to build intelligent applications syntaktyka - x>y to jest tylko jakiś wzorek, konfiguracja elektronów w pamięci komputera; dopiero po nadaniu symbolom znaczeń (np. w=5, y=3) otrzymujemy informację, zdanie, o którym możemy stwierdzić czy jest prawdziwe czy fałszywe. Języki programowania też są formą reprezentacji wiedzy; nadają się do zastosowania w sytuacjach deterministycznych, są jednoznaczne i łatwo przetwarzać automatycznie informację w nich wyrażoną. Jednak mają zbyt małe możliwości wyrazu, gdy trzeba reprezentować wiedzę niepewną, niejednoznaczną. Języki naturalne mają dużą zdolność reprezentacji (are expressive enough), ale rozwinęły się raczej w kierunku komunikacji niż wnioskowania. Wadą języków naturalnych jest to, że znaczenia zależy od kontekstu: Patrz! I niejednoznaczność: małe psy i koty, -d+c, -(d+c). Rzadko kodujemy wiedzę używając do tego języka naturalnego. Wanner (1980) i Sachs (1967) prowadzili eksperymenty polegające na badaniu zapamiętywania tekstu przez czytających. Ok. 50% potrafiło wskazać w teście wyboru dokładne sformułowanie, a 90% poprawne znaczenie. Hipoteza Sapir-Whorf: język, którym mówimy ma wpływ na sposób wnioskowania i podejmowania decyzji; np. różne określenia deszczu w j. angielskim wynikające z warunków klimatycznych - dowody są słabe! Ale np. plemię afrykańskie ma język bez czasowników! Język komunikacji jest różny od języka wnioskowania! Dobry system reprezentacji wiedzy powinien łączyć zalety języków programowania i języków naturalnych. formalisms – formal syntax + formal and unambiguous semantics high level descriptions – which aspects should be represented and which left out intelligent applications – are able to infere new knowledge from given knowledge effectively used – reasoning techniques should allow „usable” implementation Dr hab. inż. Joanna Józefowska, prof. PP

9 Mapping between facts and representation
INTERNAL REPRESENTATION REASONING PROGRAMS FACTS NATURAL LANGUAGE REPRESENTATION Dr hab. inż. Joanna Józefowska, prof. PP

10 Mapping between facts and representation
required real reasoning INITIAL FACTS FINAL FACTS foreward representation mapping backward representationmapping INTERNAL REPRESENTATION OF INITIAL FACTS program operation INTERNAL REPRESENTATION OF FINAL FACTS Dr hab. inż. Joanna Józefowska, prof. PP

11 Every kanguro has a tail. Spot is a kanguro.
FACTS REPRESENTATION INFERENCE Every kanguro has a tail. Spot is a kanguro. Spot kanguro(X) => hastail(X) kanguro(spot) X/spot Modus ponens hastail(spot) Spot has a tail Dr hab. inż. Joanna Józefowska, prof. PP

12 Ambiguity of the mapping
All kanguros have tails. Every kanguro has a tail. Every kanguro has exactly one tail. Dr hab. inż. Joanna Józefowska, prof. PP

13 Representation and effectiveness of reasoning
White squares: 32 Black squares: 30 Knight and Rich s.108 ... . Dr hab. inż. Joanna Józefowska, prof. PP

14 Knowledge representation techniques
Relations between objects (databases) – weak inferencial capabilities. Student File number Score Course Abacki Mathematics Babacki Management Cabacki Management Dabacki Physics Dr hab. inż. Joanna Józefowska, prof. PP

15 Knowledge representation techniques
Inheritance– - corresponds to a set of attributes and associated values that together describe objects of the knowledge base. person(age, sex) ISA student (age, sex, course, file number, average score) ISA student_passing_exam (age, sex, course, file number, average score, score) INSTANCE Abacki (age, sex, course, file number, average score, score) Dr hab. inż. Joanna Józefowska, prof. PP

16 Universal attributes ISA ISPART INSTANCE
Dr hab. inż. Joanna Józefowska, prof. PP

17 Knowledge representation techniques
Inferential knowledge – knowledge about mechanisms that can be used to infere new knowledge from the knowledge base. Examples: deduction, resolution, ... Dr hab. inż. Joanna Józefowska, prof. PP

18 Knowledge representation techniques
Procedural knowledge – „what to do when” delta := b*b – 4*a*c if delta>0 then begin X[1] := (-b - sqrt(delta))/2 X[2] := (-b + sqrt(delta))/2 end ax2 + bx + c = 0 D = b2 - 4ac x1 = (-b - sqrt(D))/2 x2 = (-b + sqrt(D))/2 Dr hab. inż. Joanna Józefowska, prof. PP

19 Classification of knowledge representation systems
Logics Predicate logic Description logics Nonmonotonic logics Procedural schemas Production rules Structural schemas Weak slot-and-filler structures Semantic networks Frames Strong slot-and-filler structures Conceptual dependencies Stereotypes Scripts Dr hab. inż. Joanna Józefowska, prof. PP

20 What’s wrong with predicate logic?
It is undecidable Reasoning is based only on syntax Complexity: determining whether a set of statements is satisfiable is NP-complete Monotonicity: after adding a new fact we can still inferre the same conclusions as from the „smaller” set Dr hab. inż. Joanna Józefowska, prof. PP

21 Production rules Research conducted in psychology showed that people formulate complex knowledge in the form of production rules IF A THEN B IF the car does not start, THEN... Dr hab. inż. Joanna Józefowska, prof. PP

22 Production rules Research conducted in psychology showed that people formulate complex knowledge in the form of production rules IF A THEN B IF the car does not start, THEN... call the assistance center. Dr hab. inż. Joanna Józefowska, prof. PP

23 Production rules Procedural rules: IF situation THEN action
Eg: If you are hungry then eat something. Declarative rules: IF antecendent THEN consequent Eg: If X is an elephant, then X is a mammal. Dr hab. inż. Joanna Józefowska, prof. PP

24 Expert system architecture
Inference mechanism Knowledge base Working memory agenda Knowledge acquisition mechanism Explanation mechanism User interface Dr hab. inż. Joanna Józefowska, prof. PP

25 Reasoning with rules Knowledge acquisition mechanism
Inference mechanism Working memory c b a c Knowledge base 1. ba ab 2. ca ac 3. cb bc agenda Knowledge acquisition mechanism Explanation mechanism User interface Dr hab. inż. Joanna Józefowska, prof. PP

26 Reasoning with rules 3 Knowledge acquisition mechanism
Inference mechanism Working memory c b a c Knowledge base 1. ba ab 2. ca ac 3. cb bc agenda 3 Knowledge acquisition mechanism Explanation mechanism User interface Dr hab. inż. Joanna Józefowska, prof. PP

27 Reasoning with rules 3, 1 Knowledge acquisition mechanism
Inference mechanism Working memory c b a c Knowledge base 1. ba ab 2. ca ac 3. cb bc agenda 3, 1 Knowledge acquisition mechanism Explanation mechanism User interface Dr hab. inż. Joanna Józefowska, prof. PP

28 Reasoning with rules 2 Knowledge acquisition mechanism
Inference mechanism Working memory c a b c Knowledge base 1. ba ab 2. ca ac 3. cb bc agenda 2 Knowledge acquisition mechanism Explanation mechanism User interface Dr hab. inż. Joanna Józefowska, prof. PP

29 Reasoning with rules 3 Knowledge acquisition mechanism
Inference mechanism Working memory a c b c Knowledge base 1. ba ab 2. ca ac 3. cb bc agenda 3 Knowledge acquisition mechanism Explanation mechanism User interface Dr hab. inż. Joanna Józefowska, prof. PP

30 Reasoning with rules Knowledge acquisition mechanism
Inference mechanism Working memory a b c c Knowledge base 1. ba ab 2. ca ac 3. cb bc agenda Knowledge acquisition mechanism Explanation mechanism User interface Dr hab. inż. Joanna Józefowska, prof. PP

31 Reasoning algorithm (situation-action) while not stop
Conflict resolution: Action: Matching: Stop condition: select the rule with the highest priority perform consecutively actions from the right hand side of the rule update the agenda adding rules with left hand side in the working memory If the stop condition is true then stop end while Dr hab. inż. Joanna Józefowska, prof. PP

32 Description logics DL focus: representation of terminological logic or conceptual logic formalize the basic terminology of the modelled domain store it in an ontology / terminology / TBox for reasoning enable reasoning on that knowledge Dr hab. inż. Joanna Józefowska, prof. PP

33 Person   enrolled_at.University   attends.UnderGradCourse
Description logics Core part of any DL: concept language Concept names assign a name to groups of objects Role names assign a name to relations between objects Constructors allow to relate concept names and role names Person   enrolled_at.University   attends.UnderGradCourse Different sets of constructors give rise to different concept languages Dr hab. inż. Joanna Józefowska, prof. PP

34 The description logic ALC
Concept names – (unary predicates, classes) Example: Student {x | Student(x)} Married {x | Married(x)} Role names – (binary predicates, relations) Example: FRIEND {<x; y> | FRIEND(x; y)} LOVES {<x; y> | LOVES(x; y)} Dr hab. inż. Joanna Józefowska, prof. PP

35 The description logic ALC
Constructors C negation C  D conjunction C  D disjunction R.C existencial restriction R.C value restriction Abbreviations C  D = C  D implication C  D = C  D  D  C bi-implication T top concept  bottom concept Dr hab. inż. Joanna Józefowska, prof. PP

36 Examples Person  Female Person   attends.Course
Person   attends.(Course  Easy) Person   teaches.(Course   attended_by.(Bored  Sleeping)) Dr hab. inż. Joanna Józefowska, prof. PP

37 Interpretations Semantics based on interpretations (DI,  I)
DI - is non-epmty set (the domain)  I – is the interpretation function mapping each concept name A to a subset AI of DI and each role name R to a binary relation RI over DI. Intuition: interpretation is a complete description of the world. Technically: interpretation is a first order structure with only unary and binary predicates. Dr hab. inż. Joanna Józefowska, prof. PP

38 Semantics of complex concepts
(C)I = DI \ CI (C  D)I = CI  DI (C  D)I = CI  DI (R.C)I = {d | there is e  DI with (d,e)  RI and e  CI} (R.C)I = {d | for all e  DI, (d,e)  RI implies e  CI} Dr hab. inż. Joanna Józefowska, prof. PP

39 Person   attends.Course
Example Student Person Course Person Lecturer teaches Sleeping Difficult attends Person   attends.Course Person   attends.(Course  Difficult) Dr hab. inż. Joanna Józefowska, prof. PP

40 TBoxes TBoxes are used to store concept definitions Syntax
Finite set of concept equations A = C where A – concept name and C – left hand side must be unique! Semantics Interpretation I satisfies A = C iff AI = CI I is a model of T if it satisfies all definitions in T Two kinds of concepts: defined and primitive. Lecturer = Person   teaches.Course Dr hab. inż. Joanna Józefowska, prof. PP

41 TBoxes Tbox restricts the set of admissible interpretations.
Student Student Person Course Person Lecturer teaches Sleeping Difficult attends Lecturer = Person   teaches.Course Student = Person   attends.Course Dr hab. inż. Joanna Józefowska, prof. PP

42 Reasoning task: sumsumption
C T D C is subsumed by D with respect to T Iff CI  DI holds for all models I of T Intuition If then D is more general than C. C T D Lecturer = Person   teaches.Course Student = Person   attends.Course Lecturer   attends.Course T Student Dr hab. inż. Joanna Józefowska, prof. PP

43 Reasoning task: classification
Arrange all defined objects from TBox in a hierarchy with respect to generality. Lecturer = Person   teaches.Course Student = Person   attends.Course PhDStudent =  teaches.Course  Student Student Person Lecturer PhDStudent Can be computed using multiple subsumption tests. Dr hab. inż. Joanna Józefowska, prof. PP

44 Reasoning task: satisfiability
C is satisfiable w.r.t. T iff T has a model with CI  . Intuition: If unsatisfiable the concept contains a contradiction. Woman = Person  Female Man = Person  Female Then sibling.Woman   sibling.Man Is unsatisfiable w.r.t. T. Subsumption can be reduced to (un)satisfiability and vice versa. iff C   D is not satisfiable w.r.t. T C T D C T  C is satisfiable w.r.t. T iff not Dr hab. inż. Joanna Józefowska, prof. PP

45 Description logics are more than concept language
Knowledge base TBox terminological knowledge background knowledge Use concept language DL Reasoner ABox knowledge about individuals Dr hab. inż. Joanna Józefowska, prof. PP

46 Definitorial TBoxes A primitive interpretation for TBox T interprets
the primitive concept names all role names A TBox is called definitorial if every primitive interpretation for T can be uniquely extended to a model of T. i.e. primitive concepts (and roles) uniquely determine defined concepts. Not all TBoxes are definitorial Person =  parent.Person Non-definitorial TBoxes describe constraints, e.g. from background knowledge. Dr hab. inż. Joanna Józefowska, prof. PP

47 Acyclic TBoxes TBox is acyclic if there are no definitorial cycles.
Lecturer = Person   teaches.Course Course =  hastitle.Title   tought-by.Lecturer Expansion of acyclic TBox T exhaustively replace defined concept name with their definition (terminates due to acyclicity) Acyclic TBoxes are always definitorial first expand then set AI := CI for all A = C  T Dr hab. inż. Joanna Józefowska, prof. PP

48 Acyclic TBoxes II For reasoning acyclic TBoxes can be eliminated
to decide with T acyclic expand T replace defined concept names in C, D with their definition decide analogously for satisfiability C T D C D May yield an exponential blow-up. Dr hab. inż. Joanna Józefowska, prof. PP

49 ABoxes An ABox is a finite set of assertions
a : C (a – individual name, C – concept) (a,b) : R (a, b – individual names, R – role name) E.g. {peter : Student, (ai-course, joanna) : tought-by} Interpretations I map each individual name a to an element of DI. I satisfies an assertion a : C iff aI  CI (a,b) : R iff (aI,bI )  RI I is a model for an Abox A if I satisfies all assertions in A. Dr hab. inż. Joanna Józefowska, prof. PP

50 ABoxes Interpretations describe the state of the world in a complete way ABoxes describe the state of the world in an incomplete way An ABox has many models An ABox constraints the set of admissible models similar to a TBox Dr hab. inż. Joanna Józefowska, prof. PP

51 Reasoning with ABoxes ABox consistency
Given an ABox A and a TBox T do they have a common model? Instance checking Given an ABox A, a TBox T , an individual name a, and a concept C does aI  CI hold in all models of A and T ? A, T = a : C The two tasks are interreducible: A consistent w.r.t T iff A, T |= a :  A, T = a : C iff A {a : C} is not consistent Dr hab. inż. Joanna Józefowska, prof. PP

52 Example dumbo : Mammal t14 : Trunk (dumbo, t14) : bodypart
g23 : Darkgrey (dumbo, g23) : color ABox Elephant = Mammal   bodypart.Trunk   color.Grey Grey = Lightgrey  Darkgrey  = Lightgrey  Darkgrey TBox ABox is inconsistent w.r.t. TBox. dumbo is an instance of Elephant. Dr hab. inż. Joanna Józefowska, prof. PP

53 Questions? Dr hab. inż. Joanna Józefowska, prof. PP

54 Semantic networks W sieciach semantycznych informacja jest reprezentowana jako zbiór węzłów połączonych etykietowanymi łukami, które reprezentują relacje między węzłami. Przeszukiwanie przekrojowe Reprezentacja predykatów niebinarnych Rozróżnienia Podzielone sieci semantyczne Dr hab. inż. Joanna Józefowska, prof. PP

55 Sieć semantyczna z atrybutami o wielu argumentach
mecz isa goście wynik Legia G23 3-0 gospodarze Lech wynik(Lech, Legia, 3-0) Dr hab. inż. Joanna Józefowska, prof. PP

56 Pies ugryzł listonosza.
Sieci semantyczne pies gryźć listonosz isa isa isa p g l ofiara napastnik Pies ugryzł listonosza. Dr hab. inż. Joanna Józefowska, prof. PP

57 Każdy pies ugryzł (jakiegoś) listonosza.
Sieci semantyczne SA pies gryźć listonosz isa isa isa SI p g l napastnik ofiara isa forma GS s Każdy pies ugryzł (jakiegoś) listonosza. Dr hab. inż. Joanna Józefowska, prof. PP

58 Każdy pies ugryzł tego listonosza.
Sieci semantyczne SA pies gryźć listonosz isa isa isa p g l napastnik ofiara SI isa forma GS s Każdy pies ugryzł tego listonosza. Dr hab. inż. Joanna Józefowska, prof. PP

59 Każdy pies ugryzł każdego listonosza.
Sieci semantyczne SA pies gryźć listonosz isa isa isa SI p g l napastnik ofiara isa forma GS s Każdy pies ugryzł każdego listonosza. Dr hab. inż. Joanna Józefowska, prof. PP

60 Ramy Rama jest zbiorem atrybutów (zwykle nazywanych szczelinami) i związanych z nimi wartości (ewentualnie ograniczeniami nałożonymi na wartości) opisującym pewien obiekt. [Minsky, 1975] Cechy mechanizmu wnioskującego: Sprawdzanie spójności podczas dodawania wartości szczeliny Utrzymywanie spójności między wartościami wzajemnie odwrotnymi Dziedziczenie wartości definiowanych i domyślnych zgodnie z relacjami isa i instance Obliczanie wartości if-needed Sprawdzanie wartości atrybutów jednowartościowych Dr hab. inż. Joanna Józefowska, prof. PP

61 Ramy - przykład Osoba Prawa Mężczyzna 5-10 6-10 Dowolna
isa wzrost Mężczyzna 5-10 isa wzrost 6-10 rzuty Dowolna Zawodnik grający w średni wynik lub Prawa baseball 0.252 średni wynik średni wynik 0.252 Pitcher Fielder 0.262 isa isa dru żyna dru żyna Chicago Three-Finger- Pee-Wee- Brooklyn Cubs Brown Reese Dodgers Dr hab. inż. Joanna Józefowska, prof. PP

62 Zależności pojęciowe*) (CD)
Zależności pojęciowe (conceptual dependency) stanowią koncepcję reprezentacji tego rodzaju wiedzy, która jest zwykle wyrażana w zdaniach języka naturalnego. Celem jest reprezentacja wiedzy w taki sposób, aby: ułatwiała wyprowadzanie konkluzji ze zdań, była niezależna od języka, w którym wypowiedziano zdanie. _____________________ *) Schank (1973, 1975) Dr hab. inż. Joanna Józefowska, prof. PP

63 Zależności pojęciowe Elementarne kategorie
ACTs Czynności PPs Obiekty (producenci obrazów) AAs Modyfikatory czynności (opisy czynności) PAs Modyfikatory obiektów (opisy obrazów) Dr hab. inż. Joanna Józefowska, prof. PP

64 Zależności pojęciowe Elementarne czynności
ATRANS Przekazanie abstrakcyjnej relacji (dać). PTRANS Zmiana fizycznej lokalizacji obiektu (iść). PROPEL Przyłożenie siły do obiektu (pchnąć). MOVE Wykonanie Ruchu częścią ciała (kopnąć). GRASP Ujęcie obiektu przez aktora (chwycić). INGEST Wchłonięcie obiektu (łykać). EXPEL Wydalenie czegoś z wewnątrz (płakać). MTRANS Przekazanie informacji (powiedzieć). MBUILD Utworzenie informacji (decydować). SPEAK Wydawanie dźwięków (mówić). ATTEND Skupienie uwagi (słuchać). Dr hab. inż. Joanna Józefowska, prof. PP

65 Zależności pojęciowe Formy czasowników
p czas przeszły f czas przyszły t zmiana ts początek zmiany tf zakończenie zmiany k ciągłość ? pytanie / negacja nil czas teraźniejszy delta nieskończony c warunkowy Dr hab. inż. Joanna Józefowska, prof. PP

66 Strzałka zawsze wskazuje podmiot.
Zależności pojęciowe Reguły 1. PP ACT Tomek czyta. 2. PP PA Tomek jest wysoki. 3. PA PP wesołe dziecko 4. PP  PP książka Tomka PP 5. ACT Tomek daje książkę Gosi. R Strzałka zawsze wskazuje podmiot. Dr hab. inż. Joanna Józefowska, prof. PP

67 Zależności pojęciowe Przykład
Ja ś p R Ja ś ATRANS < Marysia o ksi ążka Ja ś dał książkę Marysi. Dr hab. inż. Joanna Józefowska, prof. PP

68 Scenariusze Warunki wejściowe Rezultaty Rekwizyty Role Ścieżki Sceny
Dr hab. inż. Joanna Józefowska, prof. PP

69 Główne niedostatki popularnych schematów reprezentacji wiedzy
Rachunek zdań modeluje tylko wartości logiczne, a nie fakty Rachunek predykatów trudne sterowanie wnioskowaniem Reguły produkcji trudne zastosowanie do wiedzy nieproceduralnej Relacyjne bazy danych trudne sterowanie wnioskowaniem Hierarchia pojęć ograniczone do jednej relacji Sieci semantyczne brak standardu Ramy jest to jedynie metoda, a nie schemat Ograniczenia brak standardu Dr hab. inż. Joanna Józefowska, prof. PP

70 Podsumowanie Forma reprezentacji wiedzy jest odpowiednikiem struktur danych Reprezentacja musi zapewniać zdolność i efektywność wnioskowania Wybór formy reprezentacji wiedzy zależy od dziedziny wnioskowania Wybór formy reprezentacji wiedzy wpływa na efektywność wnioskowania Dr hab. inż. Joanna Józefowska, prof. PP

71 Zalety reprezentacji deklaratywnej
każdy fakt wymaga tylko jednokrotnego przechowywania w pamięci, niezależnie od tego, ile razy będzie wykorzystany łatwo dodawać nowe fakty do systemu bez zmiany innych faktów Dr hab. inż. Joanna Józefowska, prof. PP

72 Zalety reprezentacji proceduralnej
łatwo reprezentować wiedzę o tym jak coś zrobić łatwo reprezentować wiedzę, która nie pasuje do schematów deklaratywnych łatwo reprezentować wiedzę heurystyczną, jak wykonać coś efektywnie Dr hab. inż. Joanna Józefowska, prof. PP

73 Relacje między atrybutami
Odwrotność Hierarchia atrybutów Techniki wnioskowania o wartościach typ wartości zakres wartości reguły obliczania wartości (if needed rules) reguły postępowania dla konkretnych wartości (if added rules) Atrybuty jednowartościowe Dr hab. inż. Joanna Józefowska, prof. PP

74 Reprezentacja zbiorów obiektów
rozróżnienie wg nazwy definicja ekstencjonalna {Ziemia} definicja intencjonalna {X:sun-planet and human-inhabited(X)} W każdym mieście na świecie mieszka Polak. Pan Kowalski jest Polakiem. Pan Kowalski mieszka w każdym mieście na świecie. Dr hab. inż. Joanna Józefowska, prof. PP

75 Granulacja (poziom) reprezentacji
Jest to zagadnienie wyboru obiektów, które będziemy traktować jako elementarne w rozważanej reprezentacji. {matka, ojciec, syn, córka, brat, siostra} ? Kasia jest kuzynką Zosi. Kasia = córka(brat(matka(Zosia))) Kasia = córka(brat(ojciec(Zosia))) Kasia = córka(siostra(matka(Zosia))) Kasia = córka(siostra (ojciec(Zosia))) Czy mama Zosi ma brata? {rodzic, dziecko, rodzeństwo, mężczyzna, kobieta} Kasia = kobieta i dziecko(rodzeństwo (rodzic(Zosia))) Dr hab. inż. Joanna Józefowska, prof. PP

76 Granulacja (poziom) reprezentacji
Mała liczba obiektów elementarnych powoduje: kanoniczność reguł łatwość poszukiwania struktury małą zajętość pamięci dużą pracochłonność transformacji z poziomu wyższego na niższy Np. analiza tekstu na poziomie liter, słów, zdań, .... Dr hab. inż. Joanna Józefowska, prof. PP

77 Granulacja (poziom) reprezentacji
Duża liczba obiektów elementarnych powoduje: dużą pracochłonność poszukiwania struktury dużą zajętość pamięci trudno zadecydować, które obiekty powinny mieć charakter elementarny Np. relacje rodzinne Dr hab. inż. Joanna Józefowska, prof. PP


Pobierz ppt "Knowledge representation"

Podobne prezentacje


Reklamy Google