Maskin læring 1 oppgave 14.3, 14.12, 15.1, T-2 - ss 479, eks menneskelig beslutningstaking - elementer i figur 18.1: kritiker - informerer om ytelse ut fra en bestemt standard læring - forbedringer ytelse - velge handlinger problem generator - foreslå nye handlinger pga læring - læringselementet: komponenter av ytelseselementet representasjon feedback apriori kunnskap - feedback: supervised learning unsupervised learning reinforcement learning - all læring kan betraktes som å lære en funksjon (hva har generert dataene ?) - induktiv læring: lære en funksjon fra input/output eksempler - tegn tilsv figur 18.2 (overtilpasning etc) - beslutningstre: tar en situasjon som input og skal returnere en ja/nei beslutning - vi ønsker å lære en definisjon for målpredikatet (se nederst s 531) - eks figur 18.4, eks logisk uttrykk midt på side 532 - vi kan som oftest skrive om domener mellom tiltro nett og beslutningstrær - problemer med f.eks. paritetsfunskjonen, eksponensiell vekst - treningssett, positive og negative eksempler, mønstergjenkjenning (pattern recognition), klassifisering, eks figur 18.5 - letteste trening: konstruere en sti i beslutningstreet for hvert eksempel, men dette vil ikke gi noen generalisering... - Ockham's razor: den mest sannsynlige hypotesen er den enkleste som passer treningssettet 2 lærealgoritme for beslutningstrær - figur 18.6, 18.7, 18.8 - algoritme side 538, figur 18.9 (akse = tid og...) - case side 539 - overtilpasning, pruning, cross-validation - informasjonsteori: velge beste attributt ut fra informasjonsinnhold - lære logiske hypoteser current-best-hypothesis søk, least-commitment søk, figur 18.10 falsk positiv/negativ paragraf 18.5, 18.6 - generelt dill om mønstergjenkjenning... (prat om FR med NN?) 3