La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

TEORIE E TECNICHE DEL RICONOSCIMENTO

Presentazioni simili


Presentazione sul tema: "TEORIE E TECNICHE DEL RICONOSCIMENTO"— Transcript della presentazione:

1 TEORIE E TECNICHE DEL RICONOSCIMENTO
CLASSIFICAZIONE AUTOMATICA CLASSIFICAZIONE DI PDD CLASSIFICAZIONE DI TESTI

2 CLASSIFICAZIONE Un CLASSIFICATORE e’ una FUNZIONE da oggetti che si vogliono classificare a etichette Determinate la parte del discorso di un token Assegnare valore SPAM/NO SPAM a Positivo / negativo La disambiguazione delle parti del discorso e molti altri problemi in LC possono essere visti come problemi di classificazione

3 DISAMBIGUAZIONE DELLE PARTI DEL DISCORSO COME CLASSIFICAZIONE
La disambiguazione delle parti del discorso (POS tagging) puo’ essere vista come un classificatore che determina l’interpretazione piu’ probabile di ogni parola (nome, verbo, etc)

4 SECONDO ESEMPIO: DISAMBIGUAZIONE DEI SIGNIFICATI

5 SENSES OF “line” Product: “While he wouldn’t estimate the sale price, analysts have estimated that it would exceed $1 billion. Kraft also told analysts it plans to develop and test a line of refrigerated entrees and desserts, under the Chillery brand name.” Formation: “C-LD-R L-V-S V-NNA reads a sign in Caldor’s book department. The 1,000 or so people fighting for a place in line have no trouble filling in the blanks.” Text: “Newspaper editor Francis P. Church became famous for a 1897 editorial, addressed to a child, that included the line “Yes, Virginia, there is a Santa Clause.” Cord: “It is known as an aggressive, tenacious litigator. Richard D. Parsons, a partner at Patterson, Belknap, Webb and Tyler, likes the experience of opposing Sullivan & Cromwell to “having a thousand-pound tuna on the line.” Division: “Today, it is more vital than ever. In 1983, the act was entrenched in a new constitution, which established a tricameral parliament along racial lines, with separate chambers for whites, coloreds and Asians but none for blacks.” Phone: “On the tape recording of Mrs. Guba's call to the 911 emergency line, played at the trial, the baby sitter is heard begging for an ambulance.”

6 UNA VISIONE GEOMETRICA DELLA CLASSIFICAZIONE
SPAM NON-SPAM

7 UNA VISIONE GEOMETRICA DELLA CLASSIFICAZIONE
VERBI NOMI

8 ESEMPIO DI CLASSIFICATORE: REGRESSIONE LOGISTICA
x2 3 2 1 1 2 3 x1 Predici “ “ if

9 ESEMPIO DI CLASSIFICATORE: DECISION TREE

10 IL RUOLO DELL’APPRENDIMENTO AUTOMATICO
Un decision tree come quello appena visto potrebbe essere scritto a mano Ma nella linguistica computazionale moderna, questi classificatori non vengono specificati a mano, ma vengono APPRESI AUTOMATICAMENTE a partire da esempi.

11 METODI PER L’APPRENDIMENTO
SUPERVISIONATI (SUPERVISED) Imparano da esempi etichettati Modellano l’apprendimento tramite insegnanti NON SUPERVISIONATI (UNSUPERVISED) Scoprono da soli la struttura del problema Modellano l’apprendimento del linguaggio SEMI-SUPERVISED Ricevono come input pochi esempi poi procedono per somiglianza

12 SUPERVISED CLASSIFICATION FOR POS TAGGING
L’algoritmo di apprendimento riceve come input un corpus di TRAINING classificato con POS tags La/Art gatta/N fece/V un/Art salto/N ./. Giuseppe/PN e’/V matto/Adj ./. Si estrae le features / calcola le probabilita’ Costruisce un MODELLO che puo’ poi essere usato per classificare ALTRI testi

13 TRAIN/TEST

14 CLASSIFICAZIONE PROBABILISTICA
Ad ogni etichetta e’ associata una PROBABILITA’ Il classificatore puo’ essere sviluppato a mano o APPRESO da (grandi quantita’ di) ESEMPI usando metodi di APPRENDIMENTO AUTOMATICO

15 POS TAGGER BASATI SU N-GRAMS
Un POS TAGGER BASATO SU N-GRAMS e’ un classificatore che riceve come input informazioni sulla parola e le parole che la precedono UNIGRAM PROBABILITY: P(N|salto), P(V|salto) BI-GRAM PROBABILITY: P(NN|un salto) …. Produce in output una probabilita’ P(N|Uprob, 2Prob, ….) = … P(V|UProb, 2Prob, …) = … Sceglie la PDD con probabilita’ maggiore

16 POS-TAGGING A N-GRAMS Scelta della soluzione con la probabilita’ maggiore:

17 Classificazione di PDD usando n-grammi
CONTESTO FREQUENZA

18 Stima delle probabilita’
Can be done using Maximum Likelihood Estimation as usual, for BOTH probabilities:

19 Esempio Secretariat/NNP is/VBZ expected/VBN to/TO race/VB tomorrow/NN
People/NNS continue/VBP to/TO inquire/VB the/DT reason/NN for/IN the/DT race/NN for/IN outer/JJ space/NN Problem: assign a tag to race given the subsequences to/TO race/??? the/DT race/??? Solution: we choose the tag that has the greater of these probabilities: P(VB|TO) P(race|VB) P(NN|TO)P(race|NN)

20 Tagging with MMs (2) Actual estimates from the Switchboard corpus:
LEXICAL FREQUENCIES: P(race|NN) = P(race|VB) = CONTEXT: P(NN|TO) = .021 P(VB|TO) = .34 The probabilities: P(VB|TO) P(race|VB) = P(NN|TO)P(race|NN) =

21 N-GRAM POS TAGGER IN NLTK
Addestramento di unigrammi Addestramento di bigrammi

22 ALTRI METODI PER L’APPRENDIMENTO
NAÏVE BAYES DECISION TREES

23 NAÏVE BAYES Metodi Bayesiani: decisione su classificazione basata su
un modello PROBABILISTICO che coniuga uso di informazioni A PRIORI ed A POSTERIORI come nella regola di Bayes Metodi NAÏVE BAYES: si fanno assunzioni che semplificano molto il calcolo delle probabilità

24 Legge di Bayes

25 Bayes applicata alla classificazione
P(Classe|Proprietà) = P(Proprietà|Classe)*P(Classe) / P(Proprietà)

26 Maximum a posteriori Hypothesis

27 Naive Bayes Classifiers
Task: Classify a new instance based on a tuple of attribute values

28 Naïve Bayes Classifier: Assumptions
P(cj) Can be estimated from the frequency of classes in the training examples. P(x1,x2,…,xn|cj) O(|X|n•|C|) Could only be estimated if a very, very large number of training examples was available. Conditional Independence Assumption:  Assume that the probability of observing the conjunction of attributes is equal to the product of the individual probabilities.

29 The Naïve Bayes Classifier
Flu X1 X2 X5 X3 X4 fever sinus cough runnynose muscle-ache Conditional Independence Assumption: features are independent of each other given the class:

30 Learning the Model Common practice:maximum likelihood
simply use the frequencies in the data

31 Problem with Max Likelihood
Flu X1 X2 X5 X3 X4 fever sinus cough runnynose muscle-ache What if we have seen no training cases where patient had no flu and muscle aches? Zero probabilities cannot be conditioned away, no matter the other evidence!

32 Smoothing to Avoid Overfitting
# of values of Xi overall fraction in data where Xi=xi,k Somewhat more subtle version extent of “smoothing”

33 Using Naive Bayes Classifiers to Classify Text: Basic method
Attributes are text positions, values are words. Naive Bayes assumption is clearly violated. Example? Still too many possibilities Assume that classification is independent of the positions of the words Use same parameters for each position

34 ESEMPIO DI CLASSIFICAZIONE: DOCUMENT CLASSIFICATION
(NLTK book, p )

35 VALUTAZIONE ACCURACY: percentuale di risposte corrette
Nel caso di problemi in cui la classe di interesse rappresenta una percentuale minima del totale: PRECISION e RECALL

36 PRECISION E RECALL

37 ESEMPIO DI CLASSIFICAZIONE: GENDER IDENTIFICATION
(NLTK book, p )

38 APPRENDERE DECISION TREES
Top-down: dato un certo insieme di esempi, trovare la proprieta’ che permette di dividerli in sottogruppi piu’ COERENTI Poi si procede ricorsivamente Scelta della proprieta’: INFORMATION GAIN

39 DECISION TREE PER IL NAME GENDER TASK

40 Top-down DT induction Partition training examples into good “splits”, based on values of a single “good” feature: (1) Sat, hot, no, casual, keys -> + (2) Mon, cold, snow, casual, no-keys -> - (3) Tue, hot, no, casual, no-keys -> - (4) Tue, cold, rain, casual, no-keys -> - (5) Wed, hot, rain, casual, keys -> +

41 Top-down DT induction keys? yes no Drive: 1,5 Walk: 2,3,4

42 Top-down DT induction Partition training examples into good “splits”, based on values of a single “good” feature (1) Sat, hot, no, casual -> + (2) Mon, cold, snow, casual -> - (3) Tue, hot, no, casual -> - (4) Tue, cold, rain, casual -> - (5) Wed, hot, rain, casual -> + No acceptable classification: proceed recursively

43 Top-down DT induction t? cold hot Walk: 2,4 Drive: 1,5 Walk: 3

44 Top-down DT induction t? cold hot Walk: 2,4 day? Sat Wed Tue Drive: 1

45 Top-down DT induction t? cold hot Walk: 2,4 day? Mo, Thu, Fr, Su Sat
Wed Tue Drive: 1 Walk: 3 Drive: 5 ? Drive

46 Selezione della proprieta’
La scelta della proprieta’ da usare per dividere l’insieme corrente in sottinsiemi piu’ coerenti si basa su un criterio di RIDUZIONE DEL DISORDINE basato sulla nozione di ENTROPIA

47 ENTROPIA

48 Entropia di decision trees
Entropia del DT per gender identification: vedi NLTK, 6.4

49 Entropy and Decision Trees
keys? E(S)=-0.6*lg(0.6)-0.4*lg(0.4)= 0.97 no yes Walk: 2,4 Drive: 1,3,5 E(Sno)=0 E(Skeys)=0

50 Entropy and Decision Trees
E(S)=-0.6*lg(0.6)-0.4*lg(0.4)= 0.97 cold hot Walk: 2,4 Drive: 1,5 Walk: 3 E(Scold)=0 E(Shot)=-0.33*lg(0.33)-0.66*lg(0.66)= 0.92

51 INFORMATION GAIN

52 Information gain For each feature f, compute the reduction in entropy on the split: Gain(S,f)=E(S)-∑(Entropy(Si)*|Si|/|S|) f=keys? : Gain(S,f)=0.97 f=t?: Gain(S,f)=0.97-0*2/5-0.92*3/5=0.42 f=clothing?: Gain(S,f)= ?

53 TEXT CATEGORIZATION WITH DT
Build a separate decision tree for each category Use WORDS COUNTS as features

54 Reuters Data Set (21578 - ModApte split)
9603 training, 3299 test articles; ave. 200 words 118 categories An article can be in more than one category Learn 118 binary category distinctions Common categories (#train, #test) Earn (2877, 1087) Acquisitions (1650, 179) Money-fx (538, 179) Grain (433, 149) Crude (389, 189) Trade (369,119) Interest (347, 131) Ship (197, 89) Wheat (212, 71) Corn (182, 56)

55 AN EXAMPLE OF REUTERS TEXT
Foundations of Statistical Natural Language Processing, Manning and Schuetze

56 Decision Tree for Reuter classification
Foundations of Statistical Natural Language Processing, Manning and Schuetze

57 Information gain & text classification


Scaricare ppt "TEORIE E TECNICHE DEL RICONOSCIMENTO"

Presentazioni simili


Annunci Google