Upload
others
View
3
Download
0
Embed Size (px)
Citation preview
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Konwersatorium – Matematyczne Metody Ekonomiinarzędzia matematyczne w eksploracji danych
Podstawowe pojęcia
Wykład 2Marcin Szczuka
http://www.mimuw.edu.pl/∼szczuka/mme/
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Many mickles make muckle.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Plan wykładu
•Wprowadzenie podstawowych pojęć.• Proces uczenia się.• Ocena rezultatów.• Przygotowywanie danych wejściowych.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Dziedzina, przykłady
Dziedzina (przestrzeń, uniwersum) to pewien zbiórX, z którego pochodzą (którego elementami są)nasze przykłady.Element x ∈ X nazywamy przykładem (instancją,przypadkiem, rekordem, entką, wektorem, obiek-tem, wierszem).
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Atrybuty
Atrybut (cecha, pomiar, kolumna) to pewna funk-cja
a : X → A.Zbiór A jest nazywany dziedziną wartości atrybutu,lub prościej – dziedziną atrybutu.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Atrybuty c.d.
Zakładamy, że każdy przykład x ∈ X jest całkowi-cie reprezentowany przez wektor
a1(x), ..., an(x),
gdzieai : X → Ai
dla i = 1, ..., n. n nazywamy czasem rozmiarem(długością) przykładu.W pewnych zastosowaniach wyróżniamy specjalnyatrybut nazywany decyzją (klasą) lub atrybutemdecyzyjnym.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Atrybuty nominalne
Nominalne ( dyskretne, skończone, wyliczeniowe) -przestrzeń wartości atrybutu jest skończona (i nie-wielka) oraz nie występuje porządek na wartościachatrubutu.Na przykład atrybut Płeć ma przestrzeń wartości M,K,NW .
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Atrybuty porządkowe
Porządkowe (uporządkowane) - przestrzeń wartościatrybutu jest skończona (i zwykle niewielka), alemożna wprowadzić porządek na wartościach atry-butu.Na przykład atrybut Wysokość może przyjmowaćwartości Zero, Nisko, Kosmos, Wysoko, Średnio,Bardzo Wysoko i wiemy, że:Zero < Nisko < Średnio < Wysoko < Bardzo Wysoko < Kosmos
Zauważmy jednak, że znajomość porządku nieoznacza znajomości odległości pomiędzy warto-ściami atrybutu.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Atrybuty ciągłe
Ciągłe (numeryczne) - przestrzeń atrybutu jest do-brze zdefiniowanym zbiorem liczbowym np. liczbycałkowite czy rzeczywiste. Znamy porządek na war-tościach atrybutu, a zwykle także odległość. Moż-liwe są operacje algebraiczne na wartościach atry-butów.Na przykład Temperatura może być wyrażona wstopniach Celsjusza (lub Kelwina) i wiemy, że róż-nica między −1C a 35C wynosi 36.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Typy atrybutów
Rozróżnienie między rodzajami atrybutów nie jestścisłe. Istnieją także inne rodzaje atrybutów, któremożemy chcieć wyróżniać:
• Binarne - przyjmują tylko dwie wartości(zwykle 0 i 1).
• Przedziałowe - uporządkowane i mierzone wustalonych przedziałach (data, temperatura).
• Stosunek - określone przez odniesienie dopunktu referencyjnego (odległość od stacji ko-lejowej).
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Zbiory danych - dane tablicowe
Outlook Temp Humid Wind EnjoySptsunny hot high FALSE nosunny hot high TRUE noovercast hot high FALSE yesrainy mild high FALSE yesrainy cool normal FALSE yesrainy cool normal TRUE noovercast cool normal TRUE yessunny mild high FALSE no... ... ... ... ...rainy mild high TRUE no
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Zbiory danych - dane tablicowe
Outlook Temp Humid Wind EnjoySptsunny 85 85 FALSE nosunny 80 90 TRUE noovercast 83 86 FALSE yesrainy 70 96 FALSE yesrainy 68 80 FALSE yesrainy 65 70 TRUE noovercast 64 65 TRUE yessunny 72 95 FALSE no... ... ... ... ...rainy 71 91 TRUE no
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Pojęcia
Pojęcie (pojęcie docelowe) to przyporządkowanie
c : X → 0, 1.
Równoważne określenie - pojęcie jest podzbioremXc ⊆ X.W praktyce rozważamy pojęcia wielokrotne tzn.c : X → C dla |C| > 2.Dla przykładu x ∈ X wartość c(x) nazywamy ety-kietą (decyzją, kategorią, klasą) x-a.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Przestrzeń pojęć
Przestrzeń pojęć (klasa pojęć) jest to rodzina Cwszystkich pojęć dla dziedziny XJeśli posłużymy się definicją pojęcia jako podzbioru,możemy powiedzieć, że dla skończonej dziedzinyC ⊆ 2X .
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Hipotezy
Hipoteza to funkcja
h : X → 0, 1
reprezentująca przybliżenie pojęcia docelowego uzy-skane w wyniku uczenia.W przypadku pojęć wielokrotnych definicja hipo-tezy ulega odpowiedniej modyfikacji.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Przestrzeń hipotez
Przestrzeń hipotez jest to zbiór H wszystkich hipo-tez, które mogą być zbudowane w procesie uczenia.Kształt tego zbioru zależy od sposobu reprezentacjihipotez i wybranego algorytmu uczenia.Chcemy faworyzować podejścia w których C ⊆ Htzn. c ∈ H. W takim przypadku pojęcie doce-lowe jest wyuczalne. Niestety, przeważnie dosta-jemy H ⊂ C
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Przykłady etykietowane, klasy
Przykład etykietowany (obiekt z decyzją) dla poję-cia c jest parą 〈x, c(x)〉, x ∈ X.Przykład pozytywny dla c: x ∈ X, c(x) = 1.Przykład negatywny dla c: x ∈ X, c(x) = 0.Klasa (klasa decyzyjna, kategoria) przykładów zdziedziny: Cci = x ∈ X|c(x) = i. Przeważnieużywamy zapisu Ci.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Zbiór treningowy
Zbiór treningowy (próbka treningowa/ucząca) dlanadzorowanego (z nauczycielem) wyuczania pojęciac jest to zbiór
Tc = 〈x, c(x)〉|x ∈ T ⊆ X.
W większości przypadków, gdy c(.) jest ustalone,używamy prostszego oznaczenia T .Zbiór treningowy (próbka treningowa/ucząca) dlauczenia nienanadzorowanego (bez nauczyciela) topodzbiór T ⊆ X.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Błąd próbki
Błąd próbki dla hipotezy h ze względu na pojęciec i zbiór przykładów D określamy jako:
ecD(h) =∑x∈D δ(h(x), c(x))
|D|,
gdzie
δ(h(x), c(x)) =1 gdy c(x) 6= h(x)0 w.p.p.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Błąd rzeczywisty
Błąd rzeczywisty (całkowity, globalny) dla hipotezyh ze względu na pojęcie c irozkład prawdopodo-bieństwa Ω na X określamy jako:
ecΩ(h) = Prx∈Ω(h(x) 6= c(x)).
Wykorzystujcc metody rodem ze statystyki, mo-żemy próbować wyestymować błąd rzeczywisty uży-wając błędu próbki dla różnych próbek.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Macierz błędu
Macierz błędu jest powszechnie wykorzystywana doprzedstawiania rozkładu błędów w przypadku hipo-tez (i pojęć) wielokrotnych. Macierz błędu to ma-cierz kwadratowa rozmiaru n× n
E =
e11 . . . e1n... . . . ...en1 . . . enn
W macierzy tej eij jest liczbą przykładów w próbcedla których c(x) = i i h(x) = j; i, j = 1, . . . , n.n jest liczbą klas decyzyjnych.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Indukcyjne uczenie z nadzorem
Mając zbiór treningowy Tc znajdź taką hipotezęh ∈ H, która najlepiej aproksymuje pojęcie doce-lowe c ze względu na ustalone kryterium.Kryterium jest zwykle (choć nie wyłącznie) opartena błędzie (błędach) próbki. Dokładne (naiwne)kryterium formułuje się jako:
∀x∈X(h(x) = c(x))
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Indukcyjne uczenie bez nadzoru
Mając zbiór treningowy Tc znajdź taką hipotezęh ∈ H, która daje najlepszą klasyfikację przykła-dów ze względu na ustalone kryterium.Kryterium jest zwykle bardzo zależne od konkret-nego zadania.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Obciążenie indukcyjne, założenie induk-cyjne
Obciążenie indukcyjne – preferencje w wyborzepewnych hipotez przez system uczący się. Kombi-nacja wszystkich czynników, które w połączeniu zezbiorem treningowym determinują wybór ostatecz-nej hipotezy.Założenie indukcyjne – hipoteza, która jest akcep-towalna dla dostatecznie dużej próbki treningowej,jest także dopuszczalna dla całej dziedziny.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Założenie zamkniętości świata
Closed world assumption (CWA) - jeśli nie potra-fimy zweryfikować, czy jakiś przykład jest pozy-tywny, czy negatywny to przyjmujemy, że jest ne-gatywny.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Uczenie w praktyce
• Zapoznaj się z danymi• Przygotuj zbiór treningowy (i testowy).• Zastosuj algorytm uczący się.• Oceń uzyskane hipotezy.• Powtarzaj powyższe tyle razy, ile trzeba.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Zbiór testowy, próbka testowa
Hipotezy wyuczone na podstawie samego zbiorutreningowego mogą odzwierciedlać zależności,które są charakterystyczne tylko dla tej właśniepróbki. Aby zapewnić sobie właściwy poziom ogól-ności, powinniśmy stosować procedury testowe.Dlatego często fragment etykietowanych danychnie jest wykorzystywany w uczeniu, lecz używanyjako próbka testowa.Efekt wyuczania się zależności lokalnych, zbytszczegółowych i charakterystycznych jedynie dlapróbki nazywamy przeuczeniem (ang. overfitting).
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Ocena błędu
W większości zastosowań uczenia z nadzorem wy-korzystujemy poziom błędu jako kryterium oceny.Jest to po prostu błąd próbki, ale rozpatrywany za-równo dla zbioru treningowego, jak i walidacyjnegooraz testowego. W przypadku wielokrotnych war-tości decyzji posługujemy się odpowiednimi macie-rzami błędów.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Przygotowanie próbek
Popularne metody wyboru próbki treningowej i te-stowej:
• Train-and-test.• Cross-validation – walidacja krzyżowa, kroswali-dacja.
• Leave-one-out.• Bootstrap.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Train-and-test
To najbardziej komfortowa sytuacja. Podział naczęść treningową i testową jest zadany.Uwaga! Próbka treningowa i/lub testowa mogąbyć kiepsko dobrane.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Cross-validation
k krotna walidacja krzyżowa (k-fold cross-validation):
1. Podziel dane na k równych części (np. losowo).
2. Wybierz jedną z części jako zbiór testowy, asumę pozostałych k-1 jako zbiór treningowy.
3. Wykonaj uczenie i testowanie.
4. Powtażaj 2-3 dla każdej z k części.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Cross-validation
Najczęściej wykorzystywane: 10-krotna, 3-krotna i5-krotna walidacja krzyżowa.Dla zapewnienia lepszej stabilności warto jest po-wtórzyć wielokrotnie walidację krzyżową (np. 10razy 10-krotną) i przyjąć średnią z tych powtórzeńjako wynik. Niestety, w wielu praktycznych sytu-acjach nie możemy sobie pozwolić na wykonanietylu eksperymentów.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Leave-one-out
Technika leave-one-out to w zasadzie n-krotna wa-lidacja krzyżowa, gdzie n jest liczbą przykładówktórymi dysponujemy. Jest to kosztowna technika,gdyż wymaga n wykonań algorytmu uczącego. Jestpolecana tylko dla zadań, w których liczba przykła-dów jest relatywnie mała.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Bootstrap
Wybieramy losowo ze zwracaniem n przykładówze zbioru T , dla n = |T |. Te przykłady stają sięzbiorem treningowym.Wszystkie przykłady, które nie zostały wybrane dozbioru treningowego tworzą zbiór testowy.Wyliczamy błąd próbki dla zbioru treningowego itestowego, a następnie składamy te błędy.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
0.632 bootstrap
Szansa nie wybrania jakiegoś przykładu w n pró-bach ze zwracaniem wynosi:
1−1n
n≈ 1e= 0.36787944
Zatem, aby oszacować całkowity błąd wykorzystu-jemy formułę:
e = 0.632 · etest + 0.368 · etrain.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Przygotowywanie przykładów
Typowe zadania przy przygotowywaniu próbki douczenia:
• Zadbanie o brakujące wartości.•Wyrównywanie i wygładzanie (aligning and pre-smoothing).
• Dyskretyzacja.•Wybór atrybutów.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Brakujące wartości
Wyróżniamy dwa podstawowe typy brakującychwartości:
• Niosące informacje.• Nieniosące informacji.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Uzupełnianie brakujących wartości
Proces wypelniania brakujących wartości nazywamyuzupełnianiem.Metody bezpośrednie:
• Usuwanie obiektów z brakującymi wartościami.Dość drastyczne i nie zawsze dopuszczalne.
• Zastępowanie braków pewną specjalną warto-ścią np. -1 dla atrybutu o wartościach natural-nych czy∞ dla rzeczywistych. Działa dobrze takdługo jak metoda uczenia nie zaczyna produko-wać nonsensownych hipotez.
(hair = blonde)∧(temp. = −1)⇒ (Heat = Y es)
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Uzupełnianie w oparciu o dane
Metody zupełniania w oparciu o dane:
•Metody lokalne. Zastąp braki wykorzystując in-formację o rozkładzie jednego atrybutu.
•Metody globalne. Zastąp braki wykorzystując in-formację o rozkładzie wszystkich atrybutów(całych danych).
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Metody lokalne
Najpopularniejsze metody lokalne:
• Ustalamy domyślną wartość dla atrybutu.• Zastępujemy brakujące wartości medianą powartościach atrybutu występujących w próbce.Ta metoda działa pod warunkiem, że medianama jakąś interpretację. Wzięcie zwykłej średniejnie jest zalecanym posunięciem. Dla atrybutówdyskretnych/tekstowych możemy zamiast me-diany wstawić najczęściej występującą wartość.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Metody lokalne
Zastępowanie wielokrotne (uzupełnianie kombina-toryczne). Uzupełniany obiekt jest zastępowanyprzez zbiór nowych, po jednym na każdą możliwąwartość brakującego atrybutu.To podejście sprawdza się tylko dla danych o sto-sunkowo niewielkiej liczbie brakujących wartości iatrybutów o małej liczbie możliwych wartości. Dlawiększych danych i skomplikowanych atrybutówmoże dojść do eksplozji kombinatorycznej.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Metody globalne
Estymujemy globalny rozkład przykładów na pod-stawie próbki treningowej. Następnie wstawiamyw brakujące miejsce wartość, ktora jest najbar-dziej prawdopodobna według tak wyznaczonegorozkładu. Możemy mieć kontrolę nad parametramiestymatora, a także nakładać inne dodatkowe ogra-niczenia.Jedna z najbardziej popularnych metod estymacjijest algorytm EM (Expectation Maximization) -technika znajdowania estymacji dla wielowymiaro-wych złożonych rozkładów gaussowskich. Technikętą omówimy później w kontekście grupowania po-jęciowego.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Wyrównywanie, formatowanie
Wyrównywanie i formatowanie danych (ang. ali-gning ) – w wielu przypadkach dokonujemy pew-nych prostych transformacji atrybutów, aby zapew-nić sobie właściwe działanie algorytmu uczącego.Typowe przykłady:
• Normalizacja - sprowadzenie do przedziału [0,1].• Przesunięcie wartości o stałą.• Zmiana skali na logarytmiczną.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Wygładzanie
Wygładzanie (ang. presmoothing) - gdy wartościatrybutu są nieprecyzyjne, zakłócone lub podlegająnadmiernym wahaniom. W takich sytuacjach zbiórwartości powinien zostać “wygładzony”. Nazwa po-chodzi ze statystyki.Typowe zastosowanie - analiza szeregów czaso-wych.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Dyskretyzacja
Niektóre metody uczenia albo wprost zakładają, żezbiór watości atrybutu jest dyskretny, albo działająlepiej gdy tak jest. Dlatego pojawia się zapotrze-bowanie na metody odpowiedniej zamiany zbiorówwartości atrybutów.Dyskretyzacja – zwykle rozumiana jako zamianaatrybutów ciągłych na dyskretne (symboliczne).Grupowanie lub kwantyzacja - zmniejszanie roz-miaru przestrzeni wartości atrybutu (zwykle dys-kretnego) przez sklejenie pewnych jego wartości.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Dyskretyzacja
Dwie metody kategoryzacji algorytmów dyskretyza-cji (grupowania):
• Arbitralne vs. oparte na mierze.• Lokalne vs. globalne.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Nadzorowane vs. oparte na mierze
Bez nadzoru (arbitralne) - Dzielimy przestrzeń atry-butu na mniejsze kawałki w sposób arbitralny, bezoglądania się na zależności między atrybutami i nadecyzję (etykietę).Nadzorowane (oparte na mierze) - Wykorzystujemypewną numeryczną miarę wyliczaną dla zbioru da-nych, aby ocenić czy dany podział atrybutu popra-wia sytuację.Przykład: dyskretyzacja wykorzystująca miarę en-tropii i regułę MDL (Minimal Description Length).
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Lokalne vs. globalne
Lokalne – jeden atrybut na raz. Zmienia się zbiórwartości tylko jednego atrybutu.Globalne – różne (czasem wszystkie) atrybuty naraz. Przebudowa przykładów, możliwa jest kon-strukcja nowych i/lub usuwanie istniejących atry-butów.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Wybór atrybutów
Fakt – niewłaściwe atrybuty obniżają jakość działa-nia algorytmów uczących się.Fakt – nie da się wywnioskować sensownej hipotezyz bezsensownych danych.
•First •Prev •Next •Last •Go Back •Full Screen •Close •Quit
Theory in when we know everythingand nothing works.
Practice is when everything worksand no one knows why.
We combine theory with practice,nothing works and no one knows why.