OSNOVE UMETNE INTELIGENCE

Podobni dokumenti
OSNOVE UMETNE INTELIGENCE

Osnove statistike v fizični geografiji 2

Optimizacija z roji delcev - Seminarska naloga pri predmetu Izbrana poglavja iz optimizacije

ŠTEVCI PROMETA IN NJIHOVA UPORABA ZA NAMENE STATISTIK ČRT GRAHONJA

Univerza v Mariboru Fakulteta za naravoslovje in matematiko Oddelek za matematiko in računalništvo Enopredmetna matematika IZPIT IZ VERJETNOSTI IN STA

Reliability estimation of individual predictions

UNIVERZA V LJUBLJANI FAKULTETA ZA MATEMATIKO IN FIZIKO Katja Ciglar Analiza občutljivosti v Excel-u Seminarska naloga pri predmetu Optimizacija v fina

Microsoft Word - SI_vaja5.doc

E-nepremična inženirska zakladnica

FGG13

Univerza v Ljubljani Fakulteta za računalništvo in informatiko David Možina Argumentirano strojno učenje z uporabo logistične regresije MAGISTRSKO DEL

Analiza infrardecih spektrov z globokimi nevronskimi mrežami

NAVADNA (BIVARIATNA) LINEARNA REGRESIJA O regresijski analizi govorimo, kadar želimo opisati povezanost dveh numeričnih spremenljivk. Opravka imamo to

Verjetnost in vzorčenje: teoretske porazdelitve standardne napake ocenjevanje parametrov as. dr. Nino RODE prof. dr. Blaž MESEC

Ime in priimek: Vpisna št: FAKULTETA ZA MATEMATIKO IN FIZIKO Oddelek za matematiko Statistika Pisni izpit 6. julij 2018 Navodila Pazljivo preberite be

Napovedovanje obsega komentiranja spletnih novic z modeli strojnega ucenja

Napovedovanje custvene naravnanosti avtorjev v spletnih komentarjih

3. Preizkušanje domnev

Iskanje in razvršcanje spletnih trgovin

2. Model multiple regresije

EKVITABILNE PARTICIJE IN TOEPLITZOVE MATRIKE Aleksandar Jurišić Politehnika Nova Gorica in IMFM Vipavska 13, p.p. 301, Nova Gorica Slovenija Štefko Mi

FGG14

ČLANKI UDK :004.8 Umetna inteligenca v bančništvu univerzalno orodje? Dušan Fister, Iztok Jr. Fister in Timotej Jagrič* ARTIFICIAL INTELLIGENCE

Ime in priimek: Vpisna št: FAKULTETA ZA MATEMATIKO IN FIZIKO Oddelek za matematiko Verjetnost Pisni izpit 5. februar 2018 Navodila Pazljivo preberite

UNIVERZA V LJUBLJANI EKONOMSKA FAKULTETA MAGISTRSKO DELO ANALIZA PRIMERNOSTI UPORABE METOD PODATKOVNEGA RUDARJENJA ZA MODELIRANJE TVEGANJA PRI ZAVAROV

Mere kompleksnih mrež (angl. Network Statistics) - Seminarska naloga pri predmetu Izbrana poglavja iz diskretne matematike

5 SIMPLICIALNI KOMPLEKSI Definicija 5.1 Vektorji r 0,..., r k v R n so afino neodvisni, če so vektorji r 1 r 0, r 2 r 0,..., r k r 0 linearno neodvisn

Osnove matematicne analize 2018/19

Vrste

1 Diskretni naklju ni vektorji 1 1 Diskretni naklju ni vektorji 1. Dopolni tabelo tako, da bosta X in Y neodvisni. X Y x x x x x

Kazalo 1 DVOMESTNE RELACIJE Operacije z dvomestnimi relacijami Predstavitev relacij

Uvodno predavanje

UNIVERZA V MARIBORU FAKULTETA ZA ELEKTROTEHNIKO, RAČUNALNIŠTVO IN INFORMATIKO Leon Bošnjak VPLIV PODOBNOSTI NA USPEŠNOST KLASIFIKACIJE EVOLUCIJSKIH OD

glava.dvi

10. Meritev šumnega števila ojačevalnika Vsako radijsko zvezo načrtujemo za zahtevano razmerje signal/šum. Šum ima vsaj dva izvora: naravni šum T A, k

LaTeX slides

Strojno ucenje kemijskih reakcij proteinov v interakciji z RNA

Microsoft Word - SI_vaja1.doc

Matematika 2

C:/Users/Matevž Èrepnjak/Dropbox/FKKT/testi in izpiti/ /IZPITI/FKKT-februar-14.dvi

3. Metode, ki temeljijo na minimalnem ostanku Denimo, da smo z Arnoldijevim algoritmom zgenerirali ON bazo podprostora Krilova K k (A, r 0 ) in velja

'Kombinatoricna optimizacija / Lokalna optimizacija'

Microsoft PowerPoint _12_15-11_predavanje(1_00)-IR-pdf

Kein Folientitel

(Microsoft PowerPoint - vorsic ET 9.2 OES matri\350ne metode 2011.ppt [Compatibility Mode])

Brownova kovariancna razdalja

Predmet: Course title: UČNI NAČRT PREDMETA / COURSE SYLLABUS Umetna inteligenca Artificial Intelligence Študijski program in stopnja Study programme a

2019 QA_Final SL

Vaje: Matrike 1. Ugani rezultat, nato pa dokaži z indukcijo: (a) (b) [ ] n 1 1 ; n N 0 1 n ; n N Pokaži, da je množica x 0 y 0 x

UNIVERZA V LJUBLJANI FAKULTETA ZA RAČUNALNIŠTVO IN INFORMATIKO Sašo Moškon Nomogramsko iskanje podprostorov neodvisnih atributov DIPLOMSKO DELO NA INT

LaTeX slides

MODEL PRIMERNOSTI OBMOČIJ ZA POVEZOVANJE

Poročilo za 1. del seminarske naloge- igrica Kača Opis igrice Kača (Snake) je klasična igrica, pogosto prednaložena na malce starejših mobilnih telefo

Datum in kraj

Slide 1

Matematika II (UN) 2. kolokvij (7. junij 2013) RE ITVE Naloga 1 (25 to k) ƒasovna funkcija f je denirana za t [0, 2] in podana s spodnjim grafom. f t

Primer 1: Analiziramo produkcijske funkcije za podjetja industrijske dejavnosti v RS v podskupini DL Proizvodnja računalnikov in druge opreme za

Osnove verjetnosti in statistika

Ime in priimek: Vpisna št: FAKULTETA ZA MATEMATIKO IN FIZIKO Oddelek za matematiko Statistika Pisni izpit 31. avgust 2018 Navodila Pazljivo preberite

resitve.dvi

Geografska segmentacija uporabnikov za uporabo v oglaševanju

Delavnica Načrtovanje digitalnih vezij

Algoritmicno podprta optimizacija pospeševanja prodaje

Več varovanja, manj varnosti?

ANALITIČNA GEOMETRIJA V RAVNINI

GeomInterp.dvi

Teorija kodiranja in kriptografija 2013/ AES

Matematika II (UN) 1. kolokvij (13. april 2012) RE ITVE Naloga 1 (25 to k) Dana je linearna preslikava s predpisom τ( x) = A x A 1 x, kjer je A

Microsoft Word - RAZISKAVA_II._del.doc

Predloga za pisanje diplomske naloge

PowerPoint Presentation

UNIVERZA V MARIBORU FAKULTETA ZA NARAVOSLOVJE IN MATEMATIKO Oddelek za matematiko in računalništvo DIPLOMSKO DELO Denis Kolarič Maribor, 2010

Učinkovita izvedba algoritma Goldberg-Tarjan Teja Peklaj 26. februar Definicije Definicija 1 Naj bo (G, u, s, t) omrežje, f : E(G) R, za katero v

11. Navadne diferencialne enačbe Začetni problem prvega reda Iščemo funkcijo y(x), ki zadošča diferencialni enačbi y = f(x, y) in začetnemu pogo

PowerPoint Presentation

SMERNICE O METODAH ZA IZRAČUN PRISPEVKOV V SISTEME JAMSTVA ZA VLOGE EBA/GL/2015/ Smernice o metodah za izračun prispevkov v sisteme jamst

Povratne informacije pri 74 bolnikih

Matematika II (UNI) Izpit (23. avgust 2011) RE ITVE Naloga 1 (20 to k) Vektorja a = (0, 1, 1) in b = (1, 0, 1) oklepata trikotnik v prostoru. Izra una

Numeri na analiza - podiplomski ²tudij FGG doma e naloge - 1. skupina V prvem delu morate re²iti toliko nalog, da bo njihova skupna vsota vsaj 10 to k

Univerza v Ljubljani Fakulteta za računalništvo in informatiko Anže Sodja Segmentacija prostorskih medicinskih podatkov na GPE DIPLOMSKO DELO UNIVERZI

UNIVERZA V LJUBLJANI

Microsoft Word - Andrej_Meh_Diploma.doc

Slide 1

2-2001

Detekcija uhljev s pomocjo konteksta

Lehmerjev algoritem za racunanje najvecjega skupnega delitelja

resitve.dvi

PowerPoint Presentation

PowerPoint Presentation

Microsoft Word - strakl-jana.doc

Poskusi s kondenzatorji

2. LINEARNA ALGEBRA

Avtomatizirano modeliranje pri celostnem upravljanju z vodnimi viri

LaTeX slides

IZLETI V MATEMATIČNO VESOLJE Ali so fantje bolj nadarjeni za matematiko kot dekleta? Arjana Brezigar Masten UP FAMNIT in UMAR 1

Linearna algebra - povzetek vsebine Peter Šemrl Jadranska 21, kabinet 4.10 Izpitni režim: Kolokviji in pisni izpiti so vsi s

AKCIJSKO RAZISKOVANJE INOVACIJSKI PROJEKT ZA ZNANJE IN SPOŠTOVANJE Udeleženci: Učenci 2. c Razredničarka: Irena Železnik, prof. Učni predmet: MAT Učna

C:/Users/Matevž Èrepnjak/Dropbox/FKKT/TESTI-IZPITI-REZULTATI/ /Izpiti/FKKT-avgust-17.dvi

Univerza v Ljubljani Fakulteta za elektrotehniko Kristjan Ažman Identifikacija dinamičnih sistemov z Gaussovimi procesi z vključenimi linearnimi model

Iterativne metode v numeri ni linearni algebri 2013/ doma a naloga Re²itve stisnite v ZIP datoteko z imenom ime-priimek-vpisna-1.zip in jih odd

Transkripcija:

OSNOVE UMETNE INTELIGENCE 2017/18 regresijska drevesa ocenjevanje učenja linearni modeli k-nn Zoran Bosnić del gradiva povzet po: Bratko: Prolog programming for AI, Pearson (2011) in Russell, Norvig: AI: A Modern Approach, Pearson (2010)

Pregled strojno učenje uvod v strojno učenje učenje odločitvenih dreves učenje dreves iz šumnih podatkov (rezanje dreves) regresijska drevesa ocenjevanje učenja linearni modeli metoda k najbližjih sosedov

Obravnava atributov potrebno je nasloviti še naslednja problema: manjkajoči podatki v atributih: ignorirati cele primere z neznanimi vrednostmi? uporabiti vrednost NA/UNKNOWN? nadomestiti manjkajočo vrednost (povprečna, najbolj pogosta, naključna, napovedana) primer obravnavamo verjetnostno glede na vse možne vrednosti atributa (s tako utežjo lahko sodeluje pri gradnji modela in klasifikaciji) obravnava numeričnih atributov: običajno izvedemo diskretizacijo v dva (binarizacija) ali več diskretnih intervalov intervali z enako frekvenco primerov (equal-frequency) intervali enake širine (equal-width) intervali, ki maksimizirajo informacijski dobitek

Regresijska drevesa zvezna ciljna spremenljivka regresijski problem regresijska drevesa so podobna odločitvenim drevesom, le za regresijske probleme sistemi: CART (Breiman et al. 1984), RETIS (Karalič 1992), M5 (Quinlan 1993), WEKA (Witten and Frank, 2000) listi v regresijskem drevesu predstavljajo: predstavljajo povprečno vrednost označb ("razreda") primerov v listu preprost napovedni model (npr. linearna regresija) za nove primere Bora Beran, On Anything Data, domena MPG

Regresijska drevesa João Neto, Classification & Regression Trees, http://www.di.fc.ul.pt/~jpn/r/tree/tree.html

Gradnja regresijskih dreves atribut delimo glede na izbrano mejno vrednost drugačna mera za merjenje nedoločenosti/nečistoče: srednja kvadratna napaka v vozlišču v: MSE v = 1 n n i=1 y i y 2 cilj: minimiziramo rezidualno nedoločenost po delitvi primerov glede na vrednosti atributa A pričakovana rezidualna nečistost I res A = p left I left + p right I right p left A p right I left I right

Pregled strojno učenje uvod v strojno učenje učenje odločitvenih dreves učenje dreves iz šumnih podatkov (rezanje dreves) regresijska drevesa ocenjevanje učenja linearni modeli metoda k najbližjih sosedov

Ocenjevanje učenja kriteriji za ocenjevanje hipotez: točnost (angl. accuracy) kompleksnost (angl. complexity) razumljivost (angl. comprehensibility) subjektivni kriterij ocenjevanje točnosti: na učnih podatkih (angl. training set, learning set) na testnih podatkih (angl. testing set, test set) izločimo del učnih podatkov, s katerimi simuliramo ne-videne podatke želimo si, da je testna množica reprezentativna za nove podatke uporabimo lahko intervale zaupanja v oceno uspešnosti na testni množici, ki upoštevajo število testnih primerov na novih (ne-videnih) podatkih (angl. new data, unseen data) na njih bo naučeni sistem dejansko deloval

Ocenjevanje učenja nasprotujoča si cilja: potrebujemo čim več podatkov za uspešno učenje potrebujemo čim več podatkov za zanesljivo ocenjevanje točnosti (večje število testnih primerov nam daje ožji interval zaupanja v oceno točnosti) rešitev: kadar je učnih podatkov dovolj, lahko izločimo testno množico (angl. holdout test set) alternativa: večkratne delitve na učno in testno množico različni načini vzorčenja testnih primerov: naključno, nenaključno (npr. prečno preverjanje) poljubno ali stratificirano (zagotovimo enako porazdelitev razredov kot v učni množici)

Prečno preveranje poseben primer večkratnega učenja in testiranja k-kratno prečno preverjanje (angl. k-fold cross-validation): celo učno množico razbij na k disjunktnih podmnožic za vsako od k podmnožic: uporabi množico kot testno množico uporabi preostalih k-1 množic kot učno množico povpreči dobljenih k ocen točnosti v končno oceno testna množica učna množica 1 2 3... 1 2 3...... 1 2 3... k k k 1. ocena točnosti 2. ocena točnosti k. ocena točnosti končna (povprečna) ocena točnosti

Prečno preveranje v praksi najpogosteje: k=10 (10-kratno prečno preverjanje) vplive izbranega razbitja podatkov na podmnožice lahko zmanjšamo tako, da tudi prečno preverjanje večkrat (npr. 10x) ponovimo (torej 10 10=100 izvajanj učnega algoritma) in rezultate povprečimo poseben primer prečnega preverjanja je metoda izloči enega (angl. leaveone-out, LOO) k je enak številu primerov (vsaka testna množica ima samo en primer) najbolj stabilna ocena glede učinkov razbitja na podmnožice časovno zelo zamudno, primerno za manjše množice iz meritev na vseh podmnožicah je možno izračunati tudi varianco/ intervale zaupanja

Pregled strojno učenje uvod v strojno učenje učenje odločitvenih dreves učenje dreves iz šumnih podatkov (rezanje dreves) regresijska drevesa ocenjevanje učenja linearni modeli metoda k najbližjih sosedov

Linearni modeli uporaba pri klasifikaciji (kot separator razredov) in regresiji (kot prileganje skozi podane točke) linearni model z eno odvisno spremenljivko (angl. univariate linear model): h x = w 1 x + w 0 w 0 in w 1 sta uteži (angl. weights) spremenljivk (koeficienta) linearna regresija: postopek iskanja funkcije h(x) (oziroma uteži w 0 in w 1 ), ki se najbolje prilega učnim podatkom primer: cene hiš v Berkeley, CA (2009)

Linearna regresija optimizacijo izvedemo z minimizacijo srednje kvadratne napake: N napaka h = y j w 1 x j + w 0 2 j=1 prostor koeficientov je konveksen, lokalni minimumi ne obstajajo (samo globalni) obstaja analitična rešitev: w 1 = N x jy j x j y j N x j 2 x j 2 w 0 = y j w 1 N x j napaka

Linearna regresija primer linearne regresije x j y j 1 8 2 9 3 9 4 6 5 4 6 3 7 3 8 1 9 4 10 1 x j y j 8 18 27 24 20 18 21 8 36 10 x j 2 1 4 9 16 25 36 49 64 81 100 w 1 = N x jy j x j y j N x j 2 x j 2 = 0,897 w 0 = y j w 1 N x j = = 10 190 55 48 10 385 55 2 = 48 0,897 55 10 = 9,733 x j = 55 y j = 48 x j y j = 190 x j 2 = 385

Posplošitev v več dimenzij možna je posplošitev v višje število dimenzij več neodvisnih spremenljivk (atributov) (angl. multivariate linear regression) h x = w 0 + i w i x j,i kjer so w i uteži (koeficienti), x j,i pa i-ta spremenljivka (atribut) primera x j uteži lahko določimo analitično: w = X T X 1 X T y kjer je X matrika s podatki (vrstice učni primeri, stolpci atributi), y pa vektor z vrednostmi odvisnih spremenljivk primerov v praksi se odločamo za iskanje koeficientov z gradientnim spustom w naključna začetna rešitev ponavljaj do konvergence za vsak w i v w: w i w i α w i napaka(w) problem s pretiranim prilagajanjem, regularizacija

Linearni modeli pri klasifikaciji linearni model se uporablja za ločevanje primerov, ki pripadajo različnim razredom iščemo odločitveno mejo (angl. decision boundary) oz. linearni separator (obstaja samo pri linearno ločljivih problemih) za spodnji primer je linearno separator lahko funkcija 4.9 + 1.7x 1 x 2 = 0 hipoteza je torej: h x = prag(w x), kjer prag z = 1 z 0 0 sicer primer linearno ločljivega in neločljivega problema (domena o potresih), x 1 - jakost v tleh, x 2 - jakost na površju stopničasta pragovna funkcija

Linearni modeli pri klasifikaciji možnih ustreznih premic je več preprosto iskanje rešitve stohastični gradientni spust s posodabljanjem uteži za vsak učni primer x, y izvedi posodobitev uteži: w i w i + α y h x x i kjer so w i uteži (koeficienti), α pa vpliva na hitrost spremembe (korak) intuicija: če y = h(x), potem se w i ne spremeni če y = 1 in h x = 0 (prenizka vrednost hipoteze), potem se za pozitiven x i utež poveča in za negativen x i utež zmanjša če y = 0 in h(x) = 1 (previsoka vrednost hipoteze), potem se za pozitiven x i utež zmanjša in za negativen x i utež poveča algoritem lahko pri ustreznem α najde optimalno rešitev tudi za linearno neločljive podatke smiselna izboljšava: logistična pragovna funkcija

Linearni modeli pri klasifikaciji demo konvergenca algoritma pri linearno ločljivih podatkih (levo) in linearno neločljivih podatkiih (desno)

Pregled strojno učenje uvod v strojno učenje učenje odločitvenih dreves učenje dreves iz šumnih podatkov (rezanje dreves) regresijska drevesa ocenjevanje učenja linearni modeli metoda k najbližjih sosedov

Metoda k najbližjih sosedov angl. k nearest neighbors lastnosti: neparametrična metoda (ne ocenjuje parametre izbranega modela) učenje na podlagi posameznih primerov (angl. instance-based learning) leno učenje (angl. lazy learning): z učenjem odlaša vse do povpraševanja o novem primeru ideja: ob vprašanju po vrednosti odvisne spremenljivke za novi primer: poišči k primerov, ki so najbližji glede na podano mero razdalje napovej pri klasifikaciji: npr. večinski razred med sosedi pri regresiji: npr. povprečno vrednost/mediano označb sosedov v izogib neodločenemu glasovanju za večinski razred pri klasifikaciji običajno izberemo, da je k liho število

Metoda k najbližjih sosedov pomembna izbira ustreznega k: premajhen k: pretirano prilagajanje prevelik k: prešibko posploševanje (pri k = N: napoved večinskega razreda) v praksi običajno: k = 5 Hastie, Tibshirani, Friedman: Elements of Statistical Learning, 2009

Metoda k najbližjih sosedov razdaljo običajno merimo z razdaljo Minkowskega: L p x i, x j = x i,k x j,k p k 1 p za p = 2 je to evklidska razdalja: L 2 x i, x j = x i,k x j,k 2 k za p = 1 je to manhattanska razdalja: L 1 x i, x j = x i,k x j,k k za zvezne atribute: razlika za diskretne atribute: Hammingova razdalja (število diskretnih diskretnih atributov z ujemajočimi vrednostmi pri obeh primerih) p = 2 p = 1

Opombe vpliv intervala vrednosti na izračunano razdaljo vpliva na najdene najbližje sosede potrebna normalizacija pri velikem številu dimenzij lahko postanejo primeri zelo oddaljeni prekletstvo dimenzionalnosti (angl. the curse of dimensionality) implementacije iskanja: O(N), O(logN), O(1)

Bayesov klasifikator