kunstig intelligens (mnfit-272) - høst 2000

36
Kunstig intelligens (MNFIT-272) - høst 2000. Forelesning 9 Emner: Tolkning av naturlig språk - Kontekst-frie gramatikker - Chomsky hierarkiet - Kontekst-sensitive gramatikker Maskinlæring - induktiv symbol-prosessering - similaritetsbasert - forklaringsbasert

Upload: dorjan

Post on 19-Jan-2016

34 views

Category:

Documents


0 download

DESCRIPTION

Kunstig intelligens (MNFIT-272) - høst 2000. Forelesning 9. Emner:. •. Tolkning av naturlig språk - Kontekst-frie gramatikker - Chomsky hierarkiet - Kontekst-sensitive gramatikker Maskinlæring - induktiv symbol-prosessering - similaritetsbasert - forklaringsbasert. •. - PowerPoint PPT Presentation

TRANSCRIPT

Page 1: Kunstig intelligens (MNFIT-272) - høst 2000

Kunstig intelligens (MNFIT-272) - høst 2000. Forelesning 9

Emner:

• Tolkning av naturlig språk- Kontekst-frie gramatikker- Chomsky hierarkiet- Kontekst-sensitive gramatikker

Maskinlæring- induktiv symbol-prosessering - similaritetsbasert - forklaringsbasert

Page 2: Kunstig intelligens (MNFIT-272) - høst 2000

Tolkning av naturlig språk (NL)

• Fonologi studie av lydene (fonemene) som bygger ord

• Morfologi studie av komponentene (morfemene) som bygger opp ord

• Syntaks studie av kombinasjon av ord i gramatikalsk lovlige setninger

• Semantikk studie av ords og setningers mening

• Pragmatikk studie av språks bruk og effekter i praksis

Page 3: Kunstig intelligens (MNFIT-272) - høst 2000

Trinn i (datamaskin-basert) språktolkning

• Setningstruktur analyse (parsing)- syntaktisk struktur, genererer et ”parse-tree”

• Semantisk tolkning- ords og kombinerte ords mening, representert i en eller annen KR-formalisme

• Kontekstuell tolkning- utvidet semantisk tolkning, resonnering ved bruk av en kunnskapsbase av verdens/domene-kunnskap

Page 4: Kunstig intelligens (MNFIT-272) - høst 2000

Basis-begreper

• Gramatikk-reglerS = NP VPNP = NNP = A N

N = man N = dog

A = aA = the

• Ikke-terminaler er lingvistiske termer (setning, verb, …)- f. eks. 3 øverste linjer over

• Terminaler er ord i språket- f. eks. 4 nederste linjer over

Page 5: Kunstig intelligens (MNFIT-272) - høst 2000

Parsing i transisjons-nett (Transition Networks)

• Gramatikk representeres som et sett av sammenkoblede tilstandsmaskiner

• Noder er tilstander, lenker er overganger (transisjoner) mellom tilstander

• Hvert nett (hver tilstandsmaskin) representerer en ikke-terminal

• Å tolke en setning eller del av en setning svarer til å erstatte en ikke-terminal med høyre-siden av den tilhørende gramatikk- regel (høyre-siden er mer spesifikk en venstre-siden)

Page 6: Kunstig intelligens (MNFIT-272) - høst 2000

Chomsky-hierarkiet

Rekursivt tellbare språk

- frie produksjons-regler

Kontekst-sensitive språk- flere ikke-terminaler på venstre side

(men færre enn på høyre siden) av gram.regel

Kontekst-frie språk - transisjonsnett, sammenkoblede tilstandsmaskiner,

kun én ikke-terminal på venstresiden av gram.regel

Regulære språk- en enkelt tilstandsmaskin, ikke flere sammenkoblet

Page 7: Kunstig intelligens (MNFIT-272) - høst 2000

Kontekst-sensitive språk

• Ønskelig, men komplekse parsere

• ”Augmented Transitions Networks” (ATNs) gir kontekst- sensitive egenskaper ved en utvidelse av kontekst-frie gramatikk-regler

• Kombinerer syntaktisk og semantisk parsing

• Tillater ”procedural attachments” på lenkene i trans.nettet

• Prosedyrene kan utføre tester, tilordne verdier, konstruere deler av parse-tre, etc.

Page 8: Kunstig intelligens (MNFIT-272) - høst 2000

Makinlæringsmetoder i MNFIT 272

• Similaritetsbaserte: VersjonsromID3

• Forklaringsbaserte: Meta-Dendral EBL

• Analogibaserte: CBR• Sub-symbolske: Nevrale nett

Genetiske algoritmer

• Både analogibaserte og sub-symbolske er kombinerte problemløsnings- og maskinlærings-metoder !

Page 9: Kunstig intelligens (MNFIT-272) - høst 2000

Hva er læring?

• Any process by which a system improves performance (H. Simon)

• Making useful changes in our minds (M. Minsky)

• The organisation of experience (M. Scott)

• Constructing or modifying representations of what is being experienced (R. Michalski)

Page 10: Kunstig intelligens (MNFIT-272) - høst 2000

Hva er maskinlæring?

Metoder og teknikker som gjørdatasystemer istand til selv åoppdatere sin kunnskap ogproblemløsnings-evne

Page 11: Kunstig intelligens (MNFIT-272) - høst 2000

Hvorfor maskinlæring?

• Modellere menneskers læring

• Studere læring og intelligens som fenomen

• Automatisere utvikling av kunnskapsbaserte systemer

• det siste er mest vektlagt i dette kurset

Page 12: Kunstig intelligens (MNFIT-272) - høst 2000

Maskinlæringmetoder kan klassifiseres utifra flere perspektiver

Grad av selvlæring- pugging (rote learning)- instruksjon- læring ved analogi- læring ved eksempler- læring ved oppdagelse

Type anvendelse- begrepslæring- problemløsning- situasjonsforståelse- produsere forklaringer

Grad av bakgrunnskunnskap- kunnskapsfattige metoder- kunnskapsrike metoder

Representasjonsspråk- attributt-verdi vektor- beslutningstrær- regler- predikatlogiske uttrykk- semantiske nett, rammer

Grad av selv-læring- autonom læring - veiledet læring - ikke-veiledet læring- lærlingteknikker

Grad av inkrementalitet- alle eksempler samtidig- inkrementell læring- læring gjennom problemløsning

Page 13: Kunstig intelligens (MNFIT-272) - høst 2000

Maskinlæring - kort historikk

Nevrale modeller, Rosenblatt’s PERCEPTRON, Selvorganiserende systemer, Adaptive systemer, Læring som mønstergjenkjenning, ParameterjusteringSamuel’s Checkers Player

Kunnskapsbaserte metoder, Winston’s Analgy system, Symbolske teknikker for eksempelbasert læring, Michalski’sAQ system, Mitchell’s Version Space metode, Quinland’sID3 system, Discovery systemer, Langley’s BACON,Lenat’s AM.

Kunnskapsrike metoder, Buchanan’s Meta-Dendral, læringved instruksjon, Davis’ Teresias, Ny giv for nevrale modeller, Forklaringsbasert læring, læring under problemløsning, case-basert læring, integrerte læremetoder

Kunstig liv, Statistiske metoder, Data mining, Induktivlogikk-programmering, Genetiske algoritmer, Reinforcement læring, Bayesianske nett

1950

1960

1970

1980

1990

Page 14: Kunstig intelligens (MNFIT-272) - høst 2000

Eksempelbasert læring

Induktiv læring:

Instansbasert læring: (case-basert, memory-basert)

- + + - + +- - - - - + + + -- --

- + + + + - - - + + + - +++++ - - - - - + - - - - - + + - - + + - + +

eksempler

hypoteser

kandidater

begrep

- + + - + +- - - - - + + + -- --

- + + + + - - - + + + - +++++ - - - - - + - - - - - + + - - + + - + +

eksempler

- + - + - - + + -

- + - + - + + - - + - - + - - + - +

eksempler

instansrommet: begrepsrommet:

Page 15: Kunstig intelligens (MNFIT-272) - høst 2000

Induktive systemer i MNFIT 272:

Similaritetsbaserte:Læring i Versjonsrom (VS metoden)- Inkrementell læring- Lærer kun konjunktive begreper- Lærer klassifikasjonsregel

Læring av beslutningstrær (ID3 metoden)- Alle eksempler på en gang- Lærer konjunktive og disjunktive begreper- Lærer beslutningstre

Forklaringsbaserte:EBLMeta-Dendral

Page 16: Kunstig intelligens (MNFIT-272) - høst 2000

Version Space

• The version space is the set of all generalizations which

are consistent with all of the examples

• It is described by the S and G sets:

S is a generalization which is consistent with the examples and no other consistent generalization is more specific than it

G is a generalization which is consistent with the examples and no other consistent generalization is more general than it

Page 17: Kunstig intelligens (MNFIT-272) - høst 2000

Version Space

G

S

consistentgeneralizations

more general

more specific

+ examples move S up- examples move G down

Page 18: Kunstig intelligens (MNFIT-272) - høst 2000

Generality Lattice - Example

(blue circle)(red circle)

(? circle) (red ?) (blue ?) (? square)

(red square) (blue square)

(? ?)

Page 19: Kunstig intelligens (MNFIT-272) - høst 2000

Versjonsrom-algoritmen

• S summerer info fra de positive exempler

• G summerer info fra de negative exempler

• Når S=G er begrepet lært- dvs. flere eksempler tilfører ikke noe nytt

• Ikke nødvendig å ta vare på enkelteksemplene

Page 20: Kunstig intelligens (MNFIT-272) - høst 2000

Versjonsrom-algoritmen

• er en prinsipielt sterk læringsalgoritme- garanterer konsistens- er inkrementell

• men har store begrensninger i representasjonens uttrykkskraft - dvs. i hva som kan læres

- kun konjunktive uttrykk - over-ivrig generalisering (mister muligheter)

Page 21: Kunstig intelligens (MNFIT-272) - høst 2000

? (version-space example1)

Example: (+ (BIG RED CIRCLE))S= ((BIG RED CIRCLE))G= ((? ? ?))

Example: (- (SMALL RED SQUARE))S= ((BIG RED CIRCLE))G= ((? ? CIRCLE) (BIG ? ?))

Example: (+ (SMALL RED CIRCLE))S= ((? RED CIRCLE))G= ((? ? CIRCLE))

Example: (- (BIG BLUE CIRCLE))S= ((? RED CIRCLE))G= ((? RED CIRCLE))

Convergence. Concept must be: (? RED CIRCLE)

Page 22: Kunstig intelligens (MNFIT-272) - høst 2000

? (version-space example2)

Example: (+ (BIG RED CIRCLE))S= ((BIG RED CIRCLE))G= ((? ? ?))

Example: (- (SMALL BLUE TRIANGLE))S= ((BIG RED CIRCLE))G= ((? ? CIRCLE) (? RED ?) (BIG ? ?))

Example: (+ (SMALL RED CIRCLE))S= ((? RED CIRCLE))G= ((? ? CIRCLE) (? RED ?))

Example: (- (MEDIUM GREEN SQUARE))S= ((? RED CIRCLE))G= ((? ? CIRCLE) (? RED ?))

Did not convergeS= ((? RED CIRCLE))G= ((? ? CIRCLE) (? RED ?))

Page 23: Kunstig intelligens (MNFIT-272) - høst 2000

? (version-space example5)

Example: (+ (BIG RED CIRCLE))S= ((BIG RED CIRCLE))G= ((? ? ?))

Example: (- (BIG BLUE CIRCLE))S= ((BIG RED CIRCLE))G= ((? RED ?))

Example: (+ (SMALL BLUE SQUARE))S= NILG= NILLangauage is insufficient to describe the concept

Page 24: Kunstig intelligens (MNFIT-272) - høst 2000

Decision Trees

• Data structure for clasifying objects• Restricted to featural descriptions• Allows for disjunction

+-

size - shape

color

redblue

green

+-

circlebig small square

”something red and small or green and square-shaped”

Page 25: Kunstig intelligens (MNFIT-272) - høst 2000

Learning EXAMPLE

Feature-names: (size color shape)

(+ (big red circle))(+ (small red square))(- (medium red circle))

size

small medium big

+ - +

The concept of a big or small,but not medium-sized, object

Page 26: Kunstig intelligens (MNFIT-272) - høst 2000

ID3’s information theoretic measure

• Picking the right feature for the root is crucial to building simple trees

• Choose feature which gives the most information regarding the class of an instance:

I(C): Information content of tree for set of instances CP: Feature selected as splitting node

E(P): Expected information needed to complete tree given splitting on P

gain(P):Information gain from feature P, gain(P) = I(C) - E(P)

Page 27: Kunstig intelligens (MNFIT-272) - høst 2000

? *domains*((BIG MEDIUM SMALL) (BLUE RED GREEN) (SQUARE TRIANGLE CIRCLE))? *feature-names*(SIZE COLOR SHAPE)? *categories*(+ -)? example1((+ (BIG RED CIRCLE)) (- (SMALL RED SQUARE)) (+ (SMALL REDCIRCLE)) (- (BIG BLUE CIRCLE)))

? (id3 example1)

Considering splitting on SIZE Gain = 0.000 Chi square stat = 0.00000 (NOGOOD) Considering splitting on COLOR Gain = 0.311 Chi square stat = 0.00000 (NOGOOD) Considering splitting on SHAPE Gain = 0.311 Chi square stat = 0.00000 (NOGOOD) Gain Tie- Randomly choosing

Page 28: Kunstig intelligens (MNFIT-272) - høst 2000

Splitting on COLOR

Looking at COLOR = BLUE All examples in class -

Looking at COLOR = RED Considering splitting on SIZE Gain = 0.252 Chi square stat = 0.00000 (NOGOOD) Considering splitting on SHAPE Gain = 0.918 Chi square stat = 0.00000 (NOGOOD)

Splitting on SHAPE

Looking at SHAPE = SQUARE All examples in class -

Looking at SHAPE = TRIANGLE No examples. Using most common class of parent node +

Looking at SHAPE = CIRCLE All examples in class +

Looking at COLOR = GREEN No examples. Using most common class of parent node +

Feature: COLOR BLUE (0.250) Class is: - RED (0.750) Feature: SHAPE SQUARE (0.333) Class is: - TRIANGLE (0.000) Class is: + CIRCLE (0.667) Class is: + GREEN (0.000) Class is: +

+shape -

color

redblue

green

+-

squaretriangle

circle

+

Page 29: Kunstig intelligens (MNFIT-272) - høst 2000

? example5((+ (BIG RED CIRCLE)) (- (BIG BLUE CIRCLE)) (+ (SMALL BLUE SQUARE)))? (id3 example5)

Considering splitting on SIZE Gain = 0.252 Chi square stat = 0.00000 (NOGOOD) Considering splitting on COLOR Gain = 0.252 Chi square stat = 0.00000 (NOGOOD) Considering splitting on SHAPE Gain = 0.252 Chi square stat = 0.00000 (NOGOOD) Gain Tie- Randomly choosing

Splitting on SHAPE

Looking at SHAPE = SQUARE All examples in class +

Looking at SHAPE = TRIANGLE No examples. Using most common class of parent node +

Looking at SHAPE = CIRCLE Considering splitting on SIZE Gain = 0.000 Chi square stat = 0.00000 (NOGOOD) Considering splitting on COLOR Gain = 1.000 Chi square stat = 0.00000 (NOGOOD)

Page 30: Kunstig intelligens (MNFIT-272) - høst 2000

Splitting on COLOR

Looking at COLOR = BLUE All examples in class -

Looking at COLOR = RED All examples in class +

Looking at COLOR = GREEN No examples. Using most common class of parent node +

Feature: SHAPE SQUARE (0.333) Class is: + TRIANGLE (0.000) Class is: + CIRCLE (0.667) Feature: COLOR BLUE (0.500) Class is: - RED (0.500) Class is: + GREEN (0.000) Class is: +

One way to treat missing data

Page 31: Kunstig intelligens (MNFIT-272) - høst 2000

Summary: Similarity-based Learning

• Empirical, data-intensive

• Requires many examples and counter-examples

• Knowledge poor

• Generates unjustified concept definitions

Page 32: Kunstig intelligens (MNFIT-272) - høst 2000

Summary: Explanation-based Learning

• Analytical

• Learns from 1 example

• Knowledge rich

• Generates justified concept definitions

Page 33: Kunstig intelligens (MNFIT-272) - høst 2000

Explanation-based Learning:

• Use exisiting domain knowledge to explain why an example is a member of a concept or why a plan works. • Explanations determines relevant features

• Generalise the explanation made, to obtain a justified (explained) operational definition of the concept

Page 34: Kunstig intelligens (MNFIT-272) - høst 2000

Explanation-based Generalisation Problem

• Given• Goal concept• Training example• Domain theory• Operationality criterion

• Determine• A generalisation of the training example which is an operational sufficient concept definition

Page 35: Kunstig intelligens (MNFIT-272) - høst 2000

EBL method:

1. ExplainUse the domain theory to explainwhy the example is an example of

the goal concept 2. Generalise

Determine the most general condictionsunder whch the explanation holds,and generalise the explanation

Page 36: Kunstig intelligens (MNFIT-272) - høst 2000

Meta-Dendral

Lærer kløvningsregler for molekyler under massespektrometri

Gitt:- et representasjonsspråk for å beskrive molekylstrukturer- et trenings-sett bestående av et sett molekyler fra en molekylfamilie, samt deres molekylstruktur og massespektrogram- en viss generell kunnskap om molekylkløving unde massespektrometri

Finn:- et sett kløvningsregler for den aktuelle molekylfamilien