ROUGH SET BASED DECISION SUPPORT Roman Słowiński Laboratory of Intelligent Decision Support Systems Institute of Computing Science Poznań University of.

Slides:



Advertisements
Podobne prezentacje
Poland - DAPHNE subproject
Advertisements

Session 6 Case Study – Elektrim SA Saturday, January 15, 2011 SAL Wroclaw Lectures on Corporate Governance Geoffrey Mazullo Principal Emerging Markets.
I część 1.
Projekt Do kariery na skrzydłach – studiuj Aviation Management Projekt współfinansowany ze ś rodków Europejskiego Funduszu Społecznego. Biuro projektu:
Usługi sieciowe Wykład 9 VPN
Statistics – what is that? Statystyka dla gimnazjalistów.
1 Ochrona środowiska – historia od PLAN 1.Wprowadzenie 2.Przegląd wydarzeń od 1972 roku 3.Podsumowanie 4.Literatura.
Projekt Do kariery na skrzydłach – studiuj Aviation Management Projekt współfinansowany ze ś rodków Europejskiego Funduszu Społecznego. Biuro projektu:
Projekt Do kariery na skrzydłach – studiuj Aviation Management Projekt współfinansowany ze ś rodków Europejskiego Funduszu Społecznego. Biuro projektu:
Projekt Do kariery na skrzydłach – studiuj Aviation Management Projekt współfinansowany ze ś rodków Europejskiego Funduszu Społecznego. Biuro projektu:
Projekt Do kariery na skrzydłach – studiuj Aviation Management Projekt współfinansowany ze ś rodków Europejskiego Funduszu Społecznego. Biuro projektu:
Sun altitude Made by: Patryk Cichy Patryk Cichy Mateusz Dąbrowicz Mateusz Dąbrowicz Mariusz Król Mariusz Król Mariusz Dyrda Mariusz Dyrda Group leader:
Wstęp do geofizycznej dynamiki płynów. Semestr VI. Wykład
Copyright for librarians - a presentation of new education offer for librarians Agenda: The idea of the project Course content How to use an e-learning.
YOUTH in Gdynia. YOUTH: step 1 – Recruitment (December 2007) Szkoła Podstawowa nr 21 Szkoła Podstawowa nr 6 Szkoła Podstawowa nr 12 Gimnazjum nr 15 Towarzystwo.
Software Engineering 0. Information on the Course Leszek J Chmielewski Faculty of Applied Informatics and Mathematics (WZIM) Warsaw University of Life.
Knowledge representation
Team Building Copyright, 2003 © Jerzy R. Nawrocki Requirements Engineering Lecture.
Dzielenie relacyjne / Relational Division
Parallel Processing, Pipelining, Flynn’s taxonomy
SEED MONEY FACILITY Strategia UE dla regionu Morza Bałtyckiego IV posiedzenie Zespołu roboczego ds. koordynacji wdrażania Strategii UE dla regionu Morza.
JET PUMPS introduction POMPY STRUMIENIOWE wstęp
Ministerstwo Gospodarki Poland'sexperience Waldemar Pawlak Deputy Prime Minister, Minister of Economy March 2010.
Testowanie oprogramowania metodą badania pokrycia kodu
Polaryzacja światła.
Współprogramy Plan: Motywacja Składnia Scenariusz obiektu współprogramu Przykłady Producent – konsument ( instrukcja attach ) Czytelnik -pisarze ( instukcja.
Transformacja Z (13.6).
MS SQL SERVER udział w rynku. Source: Gartner Dataquest (May 2006) Company Market Share (%) Market Share (%) Growth (%) Oracle6, ,
Projekt "Zagraniczna mobilność szkolnej kadry edukacyjnej w ramach projektów indywidualnych współfinansowany przez Unię Europejską w ramach środków Europejskiego.
Do you know who I am? Czy wiesz kim ja jestem Soy alguien con quien convives a diario Im somebody you live with every day.. Jestem kims z kim żyjesz.
Trade unions - how to avoid problems ? Kancelaria Prawna Bujakiewicz & Sancewicz 1.
Piotr Nowak Development Manager Construction Innovation and Development Department The Chartered Institute of Building.
United Kingdom.
______________________________________ TARGU-JIU 2010.
Theory of Computer Science - Basic information
Comenius The Great Wonders of Europe The Polish school is called … is called …
- For students (12 questions) - For parents (6 questions) - For grandparents (6 questions)
Global Financial Crisis and its Consequences for Polish Housing Market
REGIONALNE CENTRUM INFORMACJI I WSPOMAGANIA ORGANIZACJI POZARZĄDOWYCH REGIONAL INFORMATION and SUPPORT CENTER for NGOs EVALUATION V BALTIC SEA NGO FORUM.
BLOOD DONATION.
Click to show the screen.
Analiza wpływu regulatora na jakość regulacji (1)
The educational project: „ HIGH SCHOOL EXAM - WE WILL BE ABLE!”
POLAND. we will take you on a journey during which you will learn something about us.
FUNKCJA L I N I O W A Autorzy: Jolanta Kaczka Magdalena Wierdak
Podstawy programowania
Szkoła systemów społecznych. Istota, przedstawiciele, wyniki
The Grumpy Test If at least one of these pictures does not make you smile, then you are grumpy and need to go back to bed. Test na ponuraka Jak nie usmiechniesz.
Podstawy licencjonowania Exchange, SharePoint oraz Lync.
1. Pomyśl sobie liczbę dwucyfrową (Na przykład: 62)
Stakeholder Analysis Lazarski University May, 2011 Edward T. Jennings, Jr. University of Kentucky Martin School of Public Policy and Administration.
Uczenie w sieciach Bayesa
Teksty prymarne (original texts) to teksty autentyczne, nie są przeznaczone dla celów dydaktycznych; teksty adaptowane (simplified/adapted texts)są przystosowane.
Instrukcja switch switch (wyrażenie) { case wart_1 : { instr_1; break; } case wart_2 : { instr_2; break; } … case wart_n : { instr_n; break; } default.
Instrukcja switch switch (wyrażenie) { case wart_1 : { instr_1; break; } case wart_2 : { instr_2; break; } … case wart_n : { instr_n; break; } default.
Preface 2.General characteristics of the problem 3.Classical and non-classical approaches 4.Griffith-Irwin concept and linear fracture mechanics.
Lecture 13 Two-Party Computation Protocols
Multi-Criteria Decision Support using ELECTRE methods
NEW MODEL OF SCHOOL HEADS PREPARATION, INDUCTION AND CONTINUING PROFESSIONAL DEVELOPMENT IN POLAND Roman Dorczak, Grzegorz Mazurkiewicz   Jagiellonian.
Old quantum theory New quantum theory Fizyka klasyczna - Mechanika klasyczna – prawa Newtona - Elektrodynamika – prawa Maxwella - Fizyka statystyczna.
-17 Oczekiwania gospodarcze – Europa Wrzesień 2013 Wskaźnik > +20 Wskaźnik 0 a +20 Wskaźnik 0 a -20 Wskaźnik < -20 Unia Europejska ogółem: +6 Wskaźnik.
INSTYTUT METEOROLOGII I GOSPODARKI WODNEJ INSTITUTE OF METEOROLOGY AND WATER MANAGEMENT THE USE OF COSMO LM MODEL FOR AVIATION METEOROLOGICAL SERVICE IN.
Struktura przedsiębiorstwa SAP Best Practices. ©2014 SAP SE or an SAP affiliate company. All rights reserved.2 Obszar rachunku kosztów 1000 Dane te są.
POLISH FOR BEGINNERS.
2 Review What is bionomial nomenclature Explain What is a genus
Wydział Elektroniki Kierunek: AiR Zaawansowane metody programowania Wykład 6.
Kalendarz 2020.
CSIC 5011 Mini-Project 1:Principle Component Analysis on Finance Data
Previously discusses: different kinds of variables
Zapis prezentacji:

ROUGH SET BASED DECISION SUPPORT Roman Słowiński Laboratory of Intelligent Decision Support Systems Institute of Computing Science Poznań University of Technology Roman Słowiński

2 Motywacje Wzrasta przepaść między generowaniem danych a ich zrozumieniem Odkrywanie wiedzy z danych (ang. Knowledge Discovery, Data Mining) OWD jest procesem identyfikowania przez indukcję: prawdziwych, nietrywialnych, potencjalnie użytecznych, bezpośrednio zrozumiałych wzorców w danych Wzorzec = reguła, trend, zjawisko, prawidłowość, anomalia, hipoteza, funkcja, itp. Wzorce są użyteczne dla wyjaśniania sytuacji opisanych przez dane oraz do predykcji przyszłych sytuacji

3 Motywacje – odkrywanie wzorców Przykład danych diagnostycznych 176 autobusów (obiektów) 8 symptomów (atrybutów) Globalny stan techniczny: 3 – dobry (użytkować) 2 – do przeglądu 1 – do remontu (wycofać) Odkryć wzorce = znaleźć zależności między symptomami a stanem technicznym Wzorce wyjaśniają decyzje eksperta i wspomagają diagnozowanie nowych przypadków

4 Introduction Discovering knowledge from data means to find concise classification patterns that agree with situations described by the data The situations are described by a set of attributes, called also properties, features, characteristics, etc. The attributes may be either on condition or decision side of the description, corresponding to input or output of a decision situation The situations may be objects, states, examples, etc. It will be convenient to call them objects from now We present a knowledge discovery method for multiattribute decision making, based on the concept of rough sets (Pawlak 1982) Rough set theory provides a framework for dealing with inconsistent or ambiguous data in knowledge discovery As the inconsistency and ambiguity follow from information granulation, the core idea of rough sets is that of granular approximation

5 Classical Rough Set Approach (CRSA) Example Classification of basic traffic signs There exist three main classes of traffic signs corresponding to: warning (W), interdiction (I), order (O). These classes may be distinguished by such attributes as the shape (S) and the principal color (PC) of the sign Finally, we give few examples of traffic signs

6 CRSA – example of traffic signs

7 Granules of knowledge: W={a} Class, I={b,c} Class, O={d} Class {a} S,PC, {b} S,PC, {c,d} S,PC Explanation of classification in terms of granules generated by S and PC class W includes sign a certainly and no other sign possibly class I includes sign b certainly and signs b, c and d possibly class O includes no sign certainly and signs c and d possibly Lower and upper approximation of the classes by attributes S and PC: lower_appx. S,PC (W)={a}, upper_appx. S,PC (W)={a} lower_appx. S,PC (I)={b}, upper_appx. S,PC (I)={b,c,d} lower_appx. S,PC (O)=, upper_appx. S,PC (O)={c,d} boundary S,PC (I)=upper_appx. S,PC (I) – lower_appx. S,PC (I)={c,d} boundary S,PC (O)=upper_appx. S,PC (O) – lower_appx. S,PC (O)={c,d} The quality of approximation: 2/4

8 CRSA – example of traffic signs To increase the quality of approximation (decrease the ambiguity) we add a new attribute – secondary color (SC) The granules: {a} S,PC,SC, {b} S,PC,SC, {c} S,PC,SC, {d} S,PC,SC Quality of approximation: 4/4=1

9 CRSA – example of traffic signs Are all three attributes necessary to characterize precisely the classes W, I, O ? The granules: {a} PC,SC, {b} PC,SC, {c} PC,SC, {d} PC,SC Quality of approximation: 4/4=1

10 CRSA – example of traffic signs The granules: {a} S,SC, {b,c} S,SC, {d} S,SC Reducts of the set of attributes: {PC, SC} and {S, SC} Intersection of reducts is the core: {SC}

11 CRSA – example of traffic signs The minimal representation of knowledge contained in the Table – decision rules Decision rules are classification patterns discovered from data contained in the table

12 CRSA – example of traffic signs Alternative set of decision rules

13 CRSA – example of traffic signs Rules #1 & #2 – certain rules induced from lower approximations of W and I Rule #3 – approximate rule induced from the boundary of I and O Decision rules induced from the original table

14 CRSA – example of traffic signs Useful results: a characterization of decision classes (even in case of inconsistency) in terms of chosen attributes by lower and upper approximation, a measure of the quality of approximation indicating how good the chosen set of attributes is for approximation of the classification, reduction of knowledge contained in the table to the description by relevant attributes belonging to reducts, the core of attributes indicating indispensable attributes, decision rules induced from lower and upper approximations of decision classes show classification patterns existing in data.

15 CRSA – formal definitions Approximation space U = finite set of objects (universe) C = set of condition attributes D = set of decision attributes CD= X C = – condition attribute space X D = – decision attribute space

16 CRSA – formal definitions Indiscernibility relation in the approximation space x is indiscernible with y by PC in X P iff x q =y q for all qP x is indiscernible with y by RD in X D iff x q =y q for all qR I P (x), I R (x) – equivalence classes including x I D makes a partition of U into decision classes Cl={Cl t, t=1,...,n} Granules of knowledge are bounded sets: I P (x) in X P and I R (x) in X R (PC and RD) Classification patterns to be discovered are functions representing granules I R (x) by granules I P (x)

17 CRSA – illustration of formal definitions Example Objects = firms InvestmentsSalesEffectiveness 4017,8High 3530High High 3135High High High High Medium 2725Medium 219.5Medium Medium Medium Medium 17.55Low 112Low 109Low 513Low

18 CRSA – illustration of formal definitions Objects in condition attribute space attribute 1 (Investment) attribute 2 (Sales)

19 CRSA – illustration of formal definitions a1a1 a2a Indiscernibility sets Quantitative attributes are discretized according to perception of the user

20 a1a CRSA – illustration of formal definitions Granules of knowlegde are bounded sets I P (x) a2a2

21 a1a CRSA – illustration of formal definitions Lower approximation of class High a2a2

22 a1a Upper approximation of class High a2a2 CRSA – illustration of formal definitions

23 CRSA – illustration of formal definitions a1a1 a2a Lower approximation of class Medium

24 CRSA – illustration of formal definitions a1a1 a2a Upper approximation of class Medium

25 a1a CRSA – illustration of formal definitions Boundary set of classes High and Medium a2a2

26 a1a CRSA – illustration of formal definitions Lower = Upper approximation of class Low a2a2

27 CRSA – formal definitions Inclusion and complementarity properties of rough approximations Accuracy measures Accuracy and quality of approximation of XU by attributes PC Quality of approximation of classification Cl={Cl t, t=1,...n} by attributes PC Rough membership of xU to XU, given PC

28 CRSA – formal definitions Monotonicity property with respect to the cardinality of PC: for any RPC it holds: Cl-reduct of PC, denoted by RED Cl (P), is a minimal subset P' of P which keeps the quality of classification Cl unchanged, i.e. Cl-core is the intersection of all the Cl-reducts of P:

29 CRSA – decision rules induced from rough approximations Certain decision rule supported by objects from lower approximation of Cl t (discriminant rule) Possible decision rule supported by objects from upper approximation of Cl t (partly discriminant rule) Approximate decision rule supported by objects from the boundary of Cl t where Cl t,Cl s,...,Cl u are classes to which belong inconsistent objects supporting this rule Rule strength – percentage of objects in U supporting the rule

30 Support of a rule : Strength of a rule : Certainty (or confidence) factor of a rule (Łukasiewicz, 1913) : Coverage factor of a rule : Relation between certainty, coverage and Bayes theorem: Measures characterizing decision rules in system S=U, C, D

31 CRSA – summary of useful results Characterization of decision classes (even in case of inconsistency) in terms of chosen attributes by lower and upper approximation Measure of the quality of approximation indicating how good the chosen set of attributes is for approximation of the classification Reduction of knowledge contained in the table to the description by relevant attributes belonging to reducts The core of attributes indicating indispensable attributes Decision rules induced from lower and upper approximations of decision classes show classification patterns existing in data

32 Algorytm indukcji reguł decyzyjnych z przybliżeń klas decyzyjnych – LEM2 Definicje i oznaczenia: Przykład – obiekt z tablicy S=U, C, D B – niepuste dolne lub górne przybliżenie, lub brzeg klasy decyzyjnej Cl t, czyli zbiór przykładów pozytywnych q – atrybut ze zbioru C V q – dziedzina wartości atrybutu qC (q=v q ) – warunek elementarny części warunkowej reguły, qC, v qV q t = (q,v q ) – para atrybut-wartość tworząca warunek elementarny (q=v q ) [t] – zbiór przykładów spełniających odpowiedni warunek elementarny (q=v q ) T – zbiór par t atrybut-wartość zwany koniunkcją, tworzący część warunkową reguły: (q 1 =v q 1 ) (q 2 =v q 2 ) … (q p =v q p ) [T] – zbiór przykładów spełniających koniunkcję (q 1 =v q 1 ) (q 2 =v q 2 ) … (q p =v q p ), czyli zbiór przykładów pokrytych przez T

33 Algorytm LEM2 Zbiór B zależy od koniunkcji T par atrybut-wartość wtedy i tylko wtedy, gdy Koniunkcja T jest minimalna wtedy i tylko wtedy, gdy B zależy od T, a usunięcie dowolnej pary t powoduje, że B nie zależy od koniunkcji T= T-{t} T jest zbiorem koniunkcji T stanowiącym tzw. lokalne pokrycie zbioru B wtedy i tylko wtedy, gdy spełnione są następujące warunki: każda koniunkcja TT jest minimalna T jest zbiorem o najmniejszej liczbie koniunkcji T Koniunkcja TT dla tworzy regułę decyzyjną pewną: Jeżeli (x q 1 =v q 1 ) (x q 2 =v q 2 ) … (x q p =v q p ), to x należy do Cl t Koniunkcja TT dla tworzy regułę decyzyjną możliwą: Jeżeli (x q 1 =v q 1 ) (x q 2 =v q 2 ) … (x q p =v q p ), to x być może należy do Cl t

34 Algorytm LEM2 Koniunkcja TT dla tworzy regułę decyzyjną przybliżoną: Jeżeli (x q 1 =v q 1 ) (x q 2 =v q 2 ) … (x q p =v q p ), to x należy do Cl tCl s…Cl u Algorytm LEM2 buduje pojedyncze lokalne pokrycie T dla każdej klasy decyzyjnej, a dokładniej, dla każdego dolnego lub górnego przybliżenia klasy Cl t, lub brzegu klasy Cl t (zbioru B) Algorytm LEM2 uruchamia się dla danego zbioru B, a w wyniku otrzymuje się minimalny zbiór reguł pokrywających wszystkie obiekty z tego zbioru

35 Algorytm LEM2 Procedure LEM2 (input: zbiór B, output: pojedyncze lokalne pokrycie T dla zbioru B); begin G:= B; {zbiór przykładów nie pokrytych dotychczas przez koniunkcje TT} T:= ; {zbiór koniunkcji T tworzący aktualne pokrycie zbioru B–G} while G begin T:= ; {koniunkcja warunków elementarnych będąca kandydatem na część warunkową reguły} T(G):= {t : [t]G }; {zbiór potencjalnych warunków elementarnych dla nie pokrytych przykładów} while T = or [T] B do

36 Algorytm LEM2 while T = or [T] B do begin wybierz warunek t T(G) taki, że wyrażenie |[T {t}]G| ma wartość maksymalną; jeśli więcej niż jeden z warunków maksymalizuje powyższe wyrażenie, to wybierz ten, dla którego |[T {t}]| ma wartość minimalną; w przypadku niejednoznaczności wybierz pierwszy z rozważanych warunków; T:= T {t}; {dołącz najlepszy warunek t do koniunkcji T} G:= G [t]; {ogranicz zbiór przykładów dostarczających nowych warunków elementarnych} T(G):= {w : [w] G }; {uaktualnij listę potencjalnych warunków elementarnych} T(G):= T(G) – T; {usuń z listy warunki elementarne już wybrane do tworzonej koniunkcji} end {while [T] B}

37 Algorytm LEM2 end {while [T] B} for każdy warunek elementarny t T do if [T – {t}] B then T:= T – {t}; {usuń nadmiarowe warunki} T:= T {T}; G:= B – TT [T]; end {while G } for każda koniunkcja TT do if KT-{T} [K] = B then T:= T – {T}; {usuń nadmiarowe reguły} utwórz zbiór reguł R na podstawie wszystkich koniunkcji TT; end {procedure}

38 Przykład Przykłady (obiekty) AtrybutywarunkoweDecyzja TemperaturaHemoglobinaCiśnienieDotlenienieSamopoczucie aniskadobraniskiedobreSłabe bniskadobranormalnezłeSłabe cnormalnab.dobraniskieb.dobreSłabe dnormalnab.dobraniskieb.dobreDobre eniskab.dobranormalneb.dobreDobre fniskab.dobranormalnedobreDobre gnormalnadobranormalneb.dobreDobre hnormalnaniskawysokieb.dobreZłe iwysokab.dobrawysokiedobreZłe

39 Przykład C-dolne przybliżenie klasy Słabe samopoczucie: B = {a, b} T(G) = {(Temperatura=niska), (Hemoglobina=dobra), (Ciśnienie=niskie), (Ciśnienie=normalne), (Dotlenienie=dobre), (Dotlenienie=złe)} B = G = {a, b} Pokrycia warunków elementarnych: [(Temperatura=niska)] = {a, b, e, f}, 2,4 [(Hemoglobina=dobra)] = {a, b, g}, 2,3 [(Ciśnienie=niskie)]= {a, c, d}, 1,3 [(Ciśnienie=normalne)]= {b, e, f, g}, 1,4 [(Dotlenienie=dobre)]= {a, f, i}, 1,3 [(Dotlenienie=złe)]= {b}, 1,1 Procedura wybiera warunki (Temperatura=niska), (Hemoglobina=dobra) ponieważ ich pokrycia mają maksymalny przekrój z G Z powodu remisu stosuje się kryterium minimalnej liczności pokrycia, więc wybrany zostaje (Hemoglobina=dobra) [T {t}], |[T {t}]G|, |[T {t}]| T(G)T(G)

40 Przykład T = {(Hemoglobina=dobra)} Nadal G = {a, b}, ponieważ G [(Hemoglobina=dobra)] = G T(G) = T(G) – T = {(Temperatura=niska), (Ciśnienie=niskie), (Ciśnienie=normalne), (Dotlenienie=dobre), (Dotlenienie=złe)} Ponieważ [(Hemoglobina=dobra)] B, potrzebna jest następna iteracja Tym razem wybrany zostaje warunek elementarny (Temperatura=niska), bo pokrycie tego warunku ma maksymalny przekrój z G T = {(Hemoglobina=dobra), (Temperatura=niska)} T = T Ponieważ [T] = [B], zatem pojedyncze lokalne pokrycie B dokonane jest za pomocą jednej reguły: Jeżeli (Hemoglobina=dobra) (Temperatura=niska), to Słabe samopoczucie

41 Przykład Zbiór reguł pewnych wygenerowanych przez LEM2: Jeżeli (Hemoglobina=dobra) (Temperatura=niska), to Słabe samopoczucie {a,b}, cert=1, cov=2/3, strength=2/9 Jeżeli (Hemoglobina=b.dobra) (Ciśnienie=normalne), to Dobre samopoczucie {e,f}, cert=1, cov=1/2, strength=2/9 Jeżeli (Temperatura=normalna) (Hemoglobina=dobra), to Dobre samopoczucie {g}, cert=1, cov=1/4, strength=1/9 Jeżeli (Ciśnienie=wysokie), to Złe samopoczucie {h,i}, cert=1, cov=1, strength=2/9

42 Przykład Zbiór reguł możliwych wygenerowanych przez LEM2: Jeżeli (Ciśnienie=niskie), to Słabe samopoczucie {a,c,d}, cert=2/3, cov=2/3, strength=3/9 Jeżeli (Dotlenienie=złe), to Słabe samopoczucie {b}, cert=1, cov=1/3, strength=1/9 Jeżeli (Dotlenienie=b.dobre) (Hemoglobina=b.dobra), to Dobre samopoczucie {c,d,e}, cert=2/3, cov=1/2, strength=3/9 Jeżeli (Dotlenienie=dobre) (Ciśnienie=normalne), to Dobre samopoczucie {f}, cert=1, cov=1/4, strength=1/9 Jeżeli (Temperatura=normalna) (Hemoglobina=dobra), to Dobre samopoczucie {g}, cert=1, cov=1/4, strength=1/9 Jeżeli (Ciśnienie=wysokie), to Złe samopoczucie {h,i}, cert=1, cov=1, strength=2/9