Elaborazione del linguaggio naturale part of speech Maria Teresa PAZIENZA a.a. 2006-07.

Slides:



Advertisements
Presentazioni simili
Michele A. Cortelazzo Morfologia 1.
Advertisements

PROGRAMMARE IN PASCAL (le basi)
Inizio… Linguaggi Linguaggi di programmazione Linguaggi di programmazione Linguaggi di programmazione Linguaggi di programmazione Linguaggi Formali Linguaggi.
Università degli studi di Modena e Reggio Emilia
Istituzioni di linguistica a.a
Istituzioni di linguistica
Sistemi di supporto alle decisioni 2. Features space
Sistemi computazionali per il linguaggio naturale
Interaction Models Group. Funzionalità Interaction Models Group Consente lestrazione della struttura grammaticale di una frase La struttura grammaticale.
Elaborazione del linguaggio naturale automi, trasduttori & morfologia
Elaborazione del linguaggio naturale part of speech
Elaborazione del linguaggio naturale automi & morfologia Maria Teresa PAZIENZA a.a
Elaborazione del linguaggio naturale automi, trasduttori & morfologia
Elaborazione del linguaggio naturale automi, trasduttori & morfologia Maria Teresa PAZIENZA a.a
Maria Teresa PAZIENZA a.a
Intelligenza Artificiale 1 Gestione della conoscenza lezione 8
Computer, Lingue ed Applicazioni Perché comprendere tramite gli elaboratori i contenuti testuali? I testi sono i veicoli principali di significato per.
Elaborazione del linguaggio naturale morfologia, FSA, FST, POS esercizi Maria Teresa PAZIENZA a.a
Sistemi basati su conoscenza Conoscenza e ragionamento Prof. M.T. PAZIENZA a.a
Apprendimento Automatico: Elaborazione del Linguaggio Naturale
Istituzioni di linguistica
Corso di Laurea in Biotecnologie Informatica (Programmazione)
Corso di Informatica (Programmazione)
Digressione: il linguaggio di query CQP
Il lessico Lessico: insieme delle parole di una lingua (astratto)
Mentre lerrore grammaticale è generalmente attribuito a ignoranza della lingua e facilmente scusato, lerrore pragmatico non viene percepito.
Unità Didattica 2 I Linguaggi di Programmazione
INSIEMI NUMERABILI L’analisi matematica introduce il concetto di insieme numerabile come insieme i cui elementi possono essere “contati” ossia che possiede.
LINGUAGGI DI PROGRAMMAZIONE
GEOFFREY LEECH A GUIDE TO GOOD PRACTICE ADDING LINGUISTIC ANNOTATION Federica Chierici.
Che cos’è l’annotazione di un corpus?
Elaborare il linguaggio naturale Cristina Bosco Corso di Informatica applicata alla comunicazione multimediale Facoltà di Lingue 23/2/2010.
Istituzioni di linguistica a.a Federica Da Milano
Strumenti per comunicare (S23) Corso di grammatica italiana 1
Elementi di Informatica di base
Espressione polirematica
Lezione 1 Linguaggi di programmazione – Algoritmi –Istruzioni
MORFOLOGIA.
Fabio Massimo Zanzotto (slides di Andrea Turbati con aggiunte)
Trattamento Automatico delle Lingue R. Basili a.a
Grammatiche, Linguaggio e Automi R. Basili TAL - a.a
Elaborazione del linguaggio naturale automi & morfologia
Chi trova un amico.
Sistemi basati su conoscenza Comunicazione basata sul linguaggio naturale (grammatica, semantica) Prof. M.T. PAZIENZA a.a
Michele A. Cortelazzo Morfologia 1.
Michele A. Cortelazzo Morfologia 1.
Sistemi basati su conoscenza Linguaggio naturale: grammatiche Prof. M.T. PAZIENZA a.a
Elaborazione del linguaggio naturale CFG: esercizi Maria Teresa PAZIENZA a.a
Ambiguità Le lingue sono, per loro natura ambigue e sfumate:
QUESTION TAGS.
Intelligenza Artificiale 1 Gestione della conoscenza lezione 19 Prof. M.T. PAZIENZA a.a
TEORIE E TECNICHE DEL RICONOSCIMENTO
Come costruire sistemi di elaborazione del linguaggio naturale Fornire le conoscenze necessarie per elaborare dati linguistici –Acustico-fonetiche (input.
Elaborazione del linguaggio naturale automi & morfologia Maria Teresa PAZIENZA a.a
Corpora e linguistica computazionale Cristina Bosco Corso di Informatica applicata alla comunicazione multimediale
Linguistica computazionale e approcci corpus-based
Linguistica computazionale: task sul linguaggio naturale Cristina Bosco 2015 Informatica applicata alla comunicazione multimediale.
Paola Disisto, Erika Griffini, Yris Noriega.  Insieme ordinato di operazioni non ambigue ed effettivamente computabili che, quando eseguito, produce.
Sistemi basati su conoscenza Linguaggio naturale: semantica Prof. M.T. PAZIENZA a.a
Elaborazione del linguaggio naturale morfologia, FSA, FST, POS esercizi Maria Teresa PAZIENZA a.a
Elaborazione del linguaggio naturale morfologia, FSA, FST, POS esercizi Maria Teresa PAZIENZA.
Come costruire sistemi di elaborazione del linguaggio naturale (NLP) Due paradigmi di riferimento –Basato sulla conoscenza (Knowledge Engineering, KE)
Linguistica computazionale: come accedere all’informazione codificata nel linguaggio naturale (seconda parte) Cristina Bosco 2014 Informatica applicata.
Basi di dati distribuite Prof. M.T. PAZIENZA a.a
IL CONDIZIONALE.
QUESTION TAGS.
What are relative pronouns? Pronouns that stand in for an aunt or uncle?
THE PASSIVE Verbs with DOUBLE OBJECTS.
Comprensione frasale Garden Path theory
La Comprensione frasale
Transcript della presentazione:

Elaborazione del linguaggio naturale part of speech Maria Teresa PAZIENZA a.a

Programma  Breve introduzione all’NLP  Linguaggi Naturali e Linguaggi Formali  Complessità  Morfologia  Teoria: Morfologia del Linguaggio Naturale  Strumenti: Automi e Trasduttori  Analisi Morfologica: con automi e trasduttori  Part of Speech Tagging  Teoria: Le classi morfologiche  Strumenti a Analisi: modelli a regole e statistici  Sintassi  Teoria: Sintassi del Linguaggio Naturale  Strumenti: CFG  Analisi Sintattica: parsing top-down, bottom-up, Early  Semantica  Lexical Semantics  Sentence Semantics Info

Sommario Strumenti per la Morfologia Automi a stati finiti (FSA) FSA deterministici FSA non-deterministici (NFSA) Introduzione alla Morfologia FSA e Morfologia: riconoscimento Trasduttori a stati finiti (FST) Cosa sono FST e Morfologia: parsing

FST e morfologia: parsing OBIETTIVO: Passare da un livello superficiale ad un livello lessicale e viceversa, utilizzando un FST in funzione di traduttore:  cats  cat+N+PL (PARSING)  cat+N+PL  cats (GENERAZIONE) Livello Superficiale Livello Lessicale Morfologia & FST

FST e morfologia: parsing OBIETTIVO: Passare da un livello superficiale ad un livello lessicale e viceversa, utilizzando un FST in funzione di traduttore:  cats  cat+N+PL (PARSING)  cat+N+PL  cats (GENERAZIONE) c:ca:at:t N:εPL:s Morfologia & FST

Analisi morfologica a due stadi Dal livello superficiale al livello lessicale (PARSING) Sono necessari due stadi (  due trasduttori) 1. IDENTIFICAZIONE DEI MORFEMI: Data la parola in input sul nastro A, il trasduttore la divide su B nei morfemi costituenti (radice + affissi) 2. IDENTIFICAZIONE DELLA STRUTTURA: Dati i morfemi costituenti sul nastro A, il trasduttore identifica la categoria della radice e il significato degli affissi Livello Lessicale Livello Superficiale Livello Intermedio PARSINGPARSING Morfologia & FST

Stadio 1: Identificazione dei morfemi ESEMPIO: nomi singolari/plurali Obiettivo  Rappresentare con un FST le regole ortografiche della lingua per i nomi regolari e irregolari  Input: cats Output: cat+s s:s, z:z, x:x + s:s + Regola e-insertion cats  cat+s foxes  fox+s kisses  kiss+s Morfologia & FST

Stadio 1: non è così facile … Problemi  Il trasduttore gestisce solo la regola della e-insertion, e non altri casi:  Regola y-replacement: berries  berry +s(berrie +s)  Regola raddoppio consonanti: beg  begging  Ecc. ecc.  Bisogna quindi implementare più regole ortografiche, nello stesso trasduttore, o in trasduttori paralleli!  Ambiguità locale: foxes produce due forme di cui solo la prima è corretta: fox+s, foxe+s, foxes. Morfologia & FST

Stadio 2: Identificazione della struttura ESEMPIO: nomi singolari/plurali Obiettivo  Rappresentare con un FST le regole morfologiche della lingua per i nomi regolari e irregolari  Input: cat+s, mouse, mice Output: cat N PL, mouse N SG, mouse N PL reg:reg irr_sing:irr_sing irr_plur:irr_sing Bisogna aggiungere il lessico ! Morfologia & FST

Stadio 2: Identificazione della struttura ESEMPIO: nomi singolari/plurali

Stadio 1+2: Combinare lessico e regole  E’ possibile combinare i due stadi mettendo in cascata (in serie) i due trasduttori: l’output dell’uno sarà l’input dell’altro Livello Lessicale Livello Superficiale Livello Intermedio  Oppure, è possibile fondere i due trasduttori, attraverso un’operazione di intersezione in serie o in parallelo Morfologia & FST

Vantaggi e problemi Vantaggi degli FST  Computazionalmente efficienti  Semplici  Doppio uso: parsing e riconocimento  Qual’è la morfologia di foxes ?foxes  fox+N+PL  Qual è il plurale di fox ?Fox+N+PL  foxes Problemi  Laborioso costruire e codificare un trasduttore per gestire ogni regola ed eccezione:  Soluzione: Tool automatici di traduzione regola  FST  Ambiguità globale: kisses può essere sia verbo che nome  kisses  kiss+N+PL kisses  kiss+V+3SG  Per disambiguare sono necessarie risorse esterne (non morfologiche), ad esempio il contesto sintattico Morfologia & FST

Sommario Part of Speech Tagging Cos’è Part of Speech Part of Speech Tagging »Rule-bales »Stochastic »Misto Prestazioni MORFOLOGIA POS TAGGING SINTASSI SEMANTICA

Part Of Speech (POS) Part of Speech (classi morfologiche) Categoria morfo-sintattiche cui una parola appartiene POS tagging Categorie principali  Nomi, verbi, aggettivi, avverbi, articoli, pronomi, congiunzioni … Esempio  Nnounchair, bandwidth, pacing  Vverbstudy, debate, munch  ADJadjpurple, tall, ridiculous  ADVadverbunfortunately, slowly,  Pprepositionof, by, to  PROpronounI, me, mine  DETdeterminerthe, a, that, those

POS Tagging Processo di assegnazione della Part of Speech ad ogni parola di un corpus (insieme di documenti) the koala put the keys on the table WORDS TAGS N V P DET MODELLI  Modelli a regole  Modelli probabilistici  Modelli misti POS tagging

A cosa sere il POS Tagging? STEMMING IN INFORMATION RETRIEVAL  Sapendo la classe di una parola, si possono produrre le forme flesse  Ricerca effettuata utilizzando tutte le forme flesse PARSING  La classe di una parola può aiutare a predire la struttura sintattica di una frase  ES: un pronome possessivo è sempre seguito da un nome INFORMATION EXTRACTION / QUESTION ANSWERING  Si estrae o si restituisce solo l’informazione di una data classe  ES: si può cercare un luogo (nome) o una azione (verbo) POS tagging

Quale relazione con la morfologia ? ANALISI MORFOLOGICA  Data una parola, trovare le sue interpretazioni morfologiche  Può essere presente ambiguità: ES: talks  talk+s  talk V 3PS  talk N PL POS TAGGING  Data una parola, trovare la sua unica interpretazione morfologica  Analisi morfologica + disambiguazione  metodi dell’analisi morfologica (es. FST) + algoritmi di disambiguazione POS tagging

Sommario Part of Speech Tagging Cos’è Part of Speech Part of Speech Tagging »Rule-bales »Stochastic »Misto Prestazioni

Part Of Speech Tradizionalmente, la definizione di una POS è basata su caratteristiche:  Morfologiche: gli affissi che compongono una parola  Sintattiche: il contesto sintattico in cui si trova la parola Non sono significative di solito caratteristiche semantiche, sebbene le classi presentino solitamente un buon grado di coerenza semantica. I nomi in inglese hanno generalmente una forma singolare e una plurale (affisso –s) I nomi in inglese sono solitamente preceduti da articoli o hanno una forma possessiva (ES: IBM’s revenues) I nomi in inglese possono esprimere diverse categorie semantiche: persone, cose, astrazioni (ES. relationship), termini simil-verbali (ES: pacing) ESEMPIO (nomi) POS tagging

Classificazione delle POS Possono essere identificate due categorie principali:  CLASSI APERTE:  Classi a cui vengono spesso aggiunte nuove parole  Generalmente produttive  ES: in Inglese ed Italiano sono quattro: nomi, verbi, aggettivi, avverbi  Tutte le lingue hanno almeno le classi verbo e nome (lingua universale?)  CLASSI CHIUSE:  Classi cui appartengono un insieme relativamente statico di parole  ES: articoli, preposizioni, congiunzioni, parole  Function Words: parole grammaticalmente significative, generalmente molto corte e frequenti nel linguaggio  ES: of, and, or, you … POS tagging

Classi Aperte NOMI (N): cose, persone, luoghi…  Nomi Comuni (NN) (house, dog, …)  Nomi Propri (NNP) (Gino, Pino,…)  Mass vs Count  Count nouns: hanno il plurale, sono enumerabili (due panini)  Mass nouns: gruppi omogenei, non enumerabili (neve,sale… ) VERBI (V): azioni, processi …  Diverse classificazioni in base a: morfologia, sintassi. AGGETTIVI (JJ): proprietà, qualità…  Base, Superlativi, Comparativi AVVERBI (RB): modificatori di altre classi  Direzionali/Locativi (here), Temporali (now), Modali (slowly), di Gradazione (very)… POS tagging

Classi Chiuse PREPOSIZIONI : relazioni temporali, spaziali…  Precedono i nomi (of, in, for, …)  Molto comuni PARTICLE:  Si combinano con i verbi, formando phrasal verbs  ES: go on, take off, …  Si distinguono dalle preposizioni solo per caratteristiche sintattiche ALTRE CLASSI:  Articoli: the, a, an  Congiunzioni: and, or, but  Pronomi: personali (I,you,us….) e possessivi (mine, yours,…)  Ausiliari: copulativi (be, do, have) e modali (should, mus, can)  Interiezioni, numerali, negazioni, greetings…. POS tagging

Tagset per l’inglese Possono essere definite moltissime classi, in base alle caratteristiche morfo- sintattiche.  Tagset generici (solo macro-classi: nomi, verbi, aggettivi…)  Tagset molto specifici (fino a tag)  Tagset a taglia media (C5 tagset, PeenTreebank) PENN TREEBAK:  E’ uno dei tagset più utilizzati: applicato a numerosi corpora (Brown Corpus)  Comprende 45 tag: troppo generico per alcune applicazioni The/DT grand/JJ jury/NN commmented/VBD on/IN a/DT number/NN of/IN other/JJ topics/NNS./. ESEMPIO (dal Brown Corpus) POS tagging

Penn Treebank tagset PRP$ PRP

POS Tagging: ambiguità AMBIGUITA’  Ogni parola dovrebbe avere un solo POS assegnato  Molte parole sono ambigue (più POS tag possibili)  Un POS tagger deve disambiguare, restituendo se possibile un solo tag:  Utilizzando evidenze contestuali  Utilizzando evidenze probabilisitiche da corpora annotati Processo di assegnazione della Part of Speech ad ogni parola di un corpus (insieme di documenti) ESEMPIO –The back/JJ door –On my back/NN –Win the voters back/RB –Promised to back/VB ESEMPIO “La vecchia porta la sbarra “ POS tagging …proviamo a costruire regole per disambiguare

POS Tagging: ambiguità NON AMBIGUE (1 tag): 35,340 (88,5%) AMBIGUE (2-7 tag): 4,100 (11,5%) Quanto sono ambigue le parole inglesi ? Brown Corpus (De Rose, 1988) 2 tags3,760 3 tags264 4 tags61 5 tags12 6 tags2 7 tags1 POS tagging

POS Tagging  Tagset  Dizionario con tag  Frase da annotare INPUT  Frase annotata OUTPUT METODI  Rule-based: database di regole di disambiguazione  Stochastic: risolvono le ambiguità con evidenze probabilistiche estratte da un corpus annotato (HMM, Markov models…)  Misti: utilizzano regole di disambiguazione ricavate con metodi stocastici Caratteristiche generali dei POS tagger: POS tagging

Sommario Part of Speech Tagging Cos’è Part of Speech Part of Speech Tagging »Rule-bales »Stochastic »Misto Prestazioni

POS Tagging: Rule Based 1.Assegnazione ad una parola di tutti i possibili POS tag, utilizzando un dizionario 2.Applicazione di regole di disambiguazione create manualmente, per rimuovere tag ambigui. I sistemi rule-based prevedono due fasi ESEMPIO (fase 1) DIZIONARIO she:PRP promised:VBN, VBD toTO back:VB, JJ, RB, NN the:DT bill:NN, VB NN RB VBN JJ VB PRP VBD TO VB DT NN She promised to back the bill POS tagging

POS Tagging: Rule Based ESEMPIO (fase 2) NN RB VBN JJ VB PRP VBD TO VB DT NN She promised to back the bill Regola 1: Rimuovere VBN se è il alternativa a VBD e se segue “ PRP” Regola 2: Rimuovere VB se è in alternativa a NN e se segue DT … POS tagging

POS Tagging: Rule Based ENGTWOL (Voutilainen, 1995) FASE 1:  Lessico di 56,000 parole  FST a due livelli per il parsing morfologico FASE 2:  1,100 regole di disambiguazione in espressione negativa Pavlov had shown that salivation … PavlovPAVLOV N NOM SG PROPER hadHAVE V PAST VFIN SVO HAVE PCP2 SVO shownSHOW PCP2 SVOO SVO SV thatADV PRON DEM SG DET CENTRAL DEM SG CS salivationN NOM SG Given input: “that” If (+1 A/ADV/QUANT) (+2 SENT-LIM) (NOT -1 SVOC/A) Then eliminate non-ADV tags Else eliminate ADV ESEMPIO POS tagging

POS Tagging: Stochastic Differisce dall’approccio a regole nella fase di disambiguazione:  Il tag corretto viene selezionato in base ad evidenze statistiche e alla teoria della probabilità  Approcci semplici: Most Frequent Tag  Approcci complessi: HMM, Transformation-based tagging METODO MOST FREQUENT TAG  IDEA: Le parole ambigue utilizzano un tag più spesso di altri.  Metodo: 1.Creare un dizionario e annotare manualmente un corpus 2.Per ogni parola ambigua in un nuovo testo calcolare probabilità di annotazione 3.Assegnare il tag più probabile POS tagging

POS Tagging: Stochastic 1. Utilizzo di un corpus  Corpus: insieme di documenti annotato maualmente con tag non ambigui (ES: Brown Corups, 1 mil di parole)  Calcolare occorrenze di a con i diversi tag: a/DT21,830 a/NN6 a/FW3 ESEMPIO  Possibili tag per a:DTNNFW  Qual è il più probabile ? I/PP give/VB you/PP a/? pen/NN Section/NN 381/CD a/? POS tagging

POS Tagging: Stochastic 2. Calcolo della probabilità di annotazione con un determinato tag  ES: Qual è la probabilità che la parola abbia un certo tag?  La probabilità viene stimata con delle conte statistiche nel corpus (ad esempio nel Brown corpus, P(Verb|race) = 96/98 =.98)  Nell’esempio: POS tagging

POS Tagging: Stochastic 3. Assegnazione del tag più probabile I/PP give/VB you/PP a/DT pen/NN Section/NN 381/CD a/DT ERRATO (NN) LIMITI  Annota bene in molti casi  Nei casi più rari sbaglia sempre  Per aumentare le prestazioni è necessario prendere in considerazione altre informazioni.  Ad esempio: guardare il tag della parola precedente e successiva risolverebbe il caso precedente  Implementare automaticamente in versione probabilistica le regole dei sistemi rule-based (learning)  Approcci complessi: HMM, Transformation-based tagging POS tagging

POS Tagging: TBL (transformation based learning) (Brill,1995)  METODO MISTO (rule based + stochastic)  RULE BASED: La scelta del tag è effettuata usando regole contestuali (contextual rules) e regole lessicali (lexical rules)  STOCHASTIC: Le regole sono apprese automaticamente con tecniche di Machine Learning  CONOSCENZA PREGRESSA NECESSARIA:  Lessico: per assegnare i tag  Corpus annotato: per l’apprendimento delle regole  Informazioni sul TBL (detto anche Brill tagger):  Download:  Articolo di riferimento  Brill-based tagger on line (CST) POS tagging

POS Tagging: TBL (Brill,1995) 1.Prima annotazione del testo. Per ogni parola: a.Se è presente nel lessico, scegli il tag migliore utilizzando la strategia Most Frequent Tag b.Altrimenti utilizza regole lessicali (lexical rules) per derivare il possibile tag 2.Applicazione al testo delle regole contestuali. Per ogni parola: -Applica le regole dall’alto verso il basso -Regole generali si trovano in alto, specifiche in basso ESEMPIO 1a. Section/NN 381 a/DT mistake/NN was/VBD found/VBN 1b.LR Section/NN 381/CD a/DT mistake/NN was/VBD found/VBN 2.CR1 Section/NN 381/CD a/NN mistake/NN was/VBD found/VBN 2.CR2 Section/NN 381/CD a/DT mistake/NN was/VBD found/VBN CR1 If PREC is CD then NN CR2 If PREC is CD and SUCC is NN then DT LR1 If CIFRA then CD POS tagging

POS Tagging: TBL (Brill,1995)  Come vengono apprese le regole contestuali ?  Corpus annotato manualmente (gold standard) 1.Prima annotazione del corpus con metodo Most Frequent Tag Repeat 2.Applicazione al testo di particolari template di trasformazione, instanziandoli a turno su tutti i tag presenti nel Tagset  ES: Cambia tag1 in tag2 se PREC ha tag3  ES: Cambia tag1 in tag2 se SUCC e SUCC+1 hanno tag3 e tag4 3.Scelta del template che migliora al massimo l’accuratezza rispetto al gold standard Until miglioramento accuratezza<threshold POS tagging

POS Tagging: TBL (Brill,1995) Esempi di abbreviazioni utilizzate: 1. PREV --- previous(preceding) 2. PREVTAG --- preceding word is tagged 3. PREV1OR2TAG --- one of the two preceding words is tagged 4. PREV1OR2OR3TAG --- one of the three preceding words is tagged 5. WDAND2AFT --- the current word is x and the word two after is y 6. PREV1OR2WD --- one of the two preceding words is 7. NEXT1OR2TAG --- one of the two following words is tagged 8. NEXTTAG --- following word is tagged 9. NEXTWD --- following word is 10. WDNEXTTAG --- the current word is x and the following word is tagged z 11. SURROUNDTAG --- the preceding word is tagged x and the following word is tagged y 12. PREVBIGRAM --- the two preceding words are tagged 13. CURWD --- the current word is  Regole Contestuali :  cambiano il tag di una parola in base al tag delle parole circostanti  Es: NN VB PREVTAG TO cambia da NN a VB se tag precedente è TO to/TO run/NN  to/TO run/VB POS tagging

POS Tagging: TBL (Brill,1995) NN s fhassuf 1 NNS change the tag of an unknown word from NN to NNS if it has suffix -s webpages/NN to webpages/NNS NN. fchar CD change the tag of an unknown word from NN to CD if it has character '.' 3.5/NN to 3.5/CD NN ing fhassuf 3 VBG change the tag of an unknown word from NN to VBG if it has suffix -ing tagging/NN to tagging/VBG  Regole lessicali:  Utilizzate quando una parola non è nel lessico  Cercano di indovinare la classe della parola in base a informazioni morfologiche  Riducono la lunghezza del lessico  Es: POS tagging

POS Tagging: TBL (Brill,1995)  Debolezze:  Alcune regole possono essere corrette in alcuni casi, e produrre errori in altri: NN VBD PREV1AND2TAG DT NN The/DT dog/NN bit/NN the/DT boy/NN yesterday/NN./. OK! The/DT dog/NN bite/NN hurts/VBERR!  Alcune espressioni linguistiche non sono catturabili da regole: The/DT raft/NN floated/VBD down/RP the/DT river/NN sank/VBD./. (floated dovrebbe essere VBN, non VBD) POS tagging

Sommario Part of Speech Tagging Cos’è Part of Speech Part of Speech Tagging »Rule-bales »Stochastic »Misto Prestazioni

POS Tagging: prestazioni Come misurare le prestazioni di un POS tagger  GOLD STANDARD: annotazione portata a termine da un umano. Viene usato per valutare le prestazioni generali del sistema:  ES: accuratezza 0.96 (96% di tag corretti rispetto al gold std.)  BASELINE: serve a definire la difficoltà del task, comparando le prestazioni del sistema con quelle di un sistema “basilare”  Per il POS tagging: Most Frequent Tag System  CEILING: serve a definire la difficoltà del task, comparando le prestazioni del sistema con quelle di un sistema “ottimo”.  Misurato come agreement (accordo di annotazione) tra più annotatori in riferimento al gold std. POS TAGGING Prestazioni medie: 0.96Prestazioni TBL: 0.97 (200 regole) Ceiling: 0.97Baseline: 0.90 POS tagging

Chaos: Pos Tagging IT CHAOS POS taggerper l’italiano [/data/KB/it/POStagger]  Basato su Brill-tagger  Lessico di parole con POS tag ordinati per frequenza ( LEXICON )  Training delle regole effettuato sul corpus Sole24 ore - Sital:  126 regole contestuali ( CONTEXTUALRULEFILE )  181 regole lessicali ( LEXICALRULEFILE )  Il Most Frequent Tag di una parola è il primo della lista: ES: logica NCS AGS POS tagging

Chaos: Pos Tagging IT CHAOS tag-set per l’Italiano POS tagging

Elaborazione del linguaggio naturale Le presentazioni sugli argomenti di elaborazione del linguaggio naturale fanno in alcuni passi riferimento ad alcune presentazioni dei colleghi prof. Fabio Massimo Zanzotto e dottor Marco Pennacchiotti, oltre che ad alcune parti del libro: Speech and Language Processing, Prentice Hall, 2000, autori D.Jurafsky, J. H. Martin.