La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Slides Intelligenza Artificiale, Vincenzo Cutello 1 Intelligenza Artificiale Probabilità

Presentazioni simili


Presentazione sul tema: "Slides Intelligenza Artificiale, Vincenzo Cutello 1 Intelligenza Artificiale Probabilità"— Transcript della presentazione:

1 Slides Intelligenza Artificiale, Vincenzo Cutello 1 Intelligenza Artificiale Probabilità

2 Slides Intelligenza Artificiale, Vincenzo Cutello2 Outline Incertezza Incertezza Probabilità Probabilità Sintassi Sintassi Semantica Semantica Regole di inferenza Regole di inferenza

3 Slides Intelligenza Artificiale, Vincenzo Cutello3 Incertezza Sia lazione A t = partire per laeroporto t minuti prima del volo A t mi farà arrivare in tempo ? Problemi: 1.parziale osservabilità (strada, piani degli altri guidatori, ecc.) 2.sensori rumorosi (rapporti sul traffico) 3.Incertezza sul risultato dellazione 4.Enorme complessità di modellizzazione e predizione del traffico Usando un approccio puramente logico o risk falsehood: A 25 mi farà arrivare in tempo, oppure risk falsehood: A 25 mi farà arrivare in tempo, oppure Giungere a conclusioni che sono troppo deboli per prendere decisioni:A 25 mi farà arrivare in tempo se non ci sono incidenti sul ponte e non piove, ecc. ecc. Giungere a conclusioni che sono troppo deboli per prendere decisioni:A 25 mi farà arrivare in tempo se non ci sono incidenti sul ponte e non piove, ecc. ecc. (A 1440 mi farebbe ragionevolmente arrivare in tempo ma dovrei stare tutta la notte in aeroporto)

4 Slides Intelligenza Artificiale, Vincenzo Cutello4 Metodi per gestire lincertezza Logica non-monotona: Assumiamo che la mia macchina non abbia le gomme lisce Assumiamo che la mia macchina non abbia le gomme lisce Assumiamo che A 25 è corretta a meno che non sia contraddetta dallevidenza Assumiamo che A 25 è corretta a meno che non sia contraddetta dallevidenzaEsito: –Quali assunzioni sono ragionevoli ? –Come gestire le contraddizioni ? Probabilità: Date le prove disponibili, A 25 mi farà arrivare in tempo con probabilità 0.8, ossia su cento volte che sono partito per laereoporto 25 minuti prima, 80 volte sono arrivato in orario Logica fuzzy: Data la mia esperienza e conoscenza, A circa 25 mi farà arrivare in orario

5 Slides Intelligenza Artificiale, Vincenzo Cutello5 Probabilità Le asserzioni probabilistiche riassumono gli effetti di: pigrizia: mancanza di enumerazione delle eccezioni, etc. pigrizia: mancanza di enumerazione delle eccezioni, etc. ignoranza: mancanza di fatti rilevanti, condizioni iniziali, ecc. ignoranza: mancanza di fatti rilevanti, condizioni iniziali, ecc. Probabilità soggettiva o bayesiana: Le probabilità legano le proposizioni allo stato di conoscenza Le probabilità legano le proposizioni allo stato di conoscenza –es., P(A 25 |non si sono verificati incidenti) = 0.06 Le probabilità delle proposizioni cambiano con nuove prove: Le probabilità delle proposizioni cambiano con nuove prove: –es., P(A 25 |non si sono verificati incidenti, 5 a.m.)=0.15

6 Slides Intelligenza Artificiale, Vincenzo Cutello6 Prendere decisioni sotto incertezza Supponiamo che io creda nelle seguenti: –P(A 25 mi fa arrivare in orario|…) = 0.04 –P(A 90 mi fa arrivare in orario|…) = 0.70 –P(A 120 mi fa arrivare in orario|…) = 0.95 –P(A 1440 mi fa arrivare in orario|…) = Quale azione scegliere ? Dipende dalle mie preferenze tra perdere il volo e attendere allaeroporto, ecc. La teoria dellutilità è usata per rappresentare e inferire preferenze La teoria dellutilità è usata per rappresentare e inferire preferenze Teoria delle decisioni = teoria dellutilità + teoria delle probabilità Teoria delle decisioni = teoria dellutilità + teoria delle probabilità Teoria dei giochi = teoria delle decisioni in presenza di avversari che a loro volta prendono decisioni che possono andare contro la nostra utilità Teoria dei giochi = teoria delle decisioni in presenza di avversari che a loro volta prendono decisioni che possono andare contro la nostra utilità

7 Slides Intelligenza Artificiale, Vincenzo Cutello7 Struttura di un agente-DT function AGENTE-DT(percezione) returns unazione static: un insieme di credenze probabilistiche circa lo stato del mondo static: un insieme di credenze probabilistiche circa lo stato del mondo – calcola le probabilità aggiornate per lo stato corrente basate sulle prove disponibili comprendenti lazione corrente e precedente – calcola il valore delle probabilità per le azioni, data la descrizione dellazione e le probabilità degli stati correnti – seleziona lazione con la più alta utilità attesa dati i valori delle probabilità per i vari esiti e lutilità dellinformazione return azione return azione

8 Slides Intelligenza Artificiale, Vincenzo Cutello8 Assiomi di probabilità Siano A e B due eventi qualsiasi 1.0 P(A) 1 2.P(True) = 1 e P(False) = 0 3.P(A B) = P(A) + P(B) –P(A B) De Finetti (1931): un agente che scommette in accordo con le probabilità che violano questi assiomi può essere forzato a perdere soldi indipendentemente dallesito della scommessa

9 Slides Intelligenza Artificiale, Vincenzo Cutello9 Sintassi Simile alla logica proposizionale: possibili mondi definiti dall assegnamento di valori a variabili random. Variabili random Booleane o Proposizionali Variabili random Booleane o Proposizionali –es., Carie (hai una carie ?) Include le espressioni della logica proposizionale Include le espressioni della logica proposizionale Variabili random multivalore Variabili random multivalore –es., Il tempo meteorologico assume uno tra –es., Il tempo meteorologico assume uno tra –I valori devono essere esaustivi e mutuamente esclusivi Proposizione costruita dallassegnamento di un valore: Proposizione costruita dallassegnamento di un valore: –es., tempo = soleggiato; Carie = vero

10 Slides Intelligenza Artificiale, Vincenzo Cutello10 Sintassi (cont.) Probabilità non condizionate o a priori di proposizioni, es., P(Carie) = 0.1 e P(Tempo = soleggiato) = 0.72 corrispondono alla credenza a priori allarrivo di una qualsiasi (nuova) prova La distribuzione di probabilità è normalizzata, cioè, la somma è 1 e sono noti i valori per tutti i possibili assegnamenti: P(Tempo) = P(Tempo) = Distribuzione di probabilità congiunta per un insieme di variabili fornisce i valori per ogni possibile assegnamento a tutte le variabili P(Tempo, Carie) = una matrice 4*2 di valori: Tempo = soleggiatopioggianuvolosoneve Carie = true Carie = false

11 Slides Intelligenza Artificiale, Vincenzo Cutello11 Sintassi (cont.) Probabilità condizionata o a posteriori –es., P(Carie|Mal_di_denti) = 0.8 –cioe, dato che il mal di denti è tutto quello che io conosco Notazione per distribuzioni condizionali: –P(Tempo|Primavera)= un vettore di 2 elementi di vettori di 4 elementi –Se noi conosciamo di più, es., la carie è data, allora avremo P(Carie|Mal_di_denti,Carie) = 1 Nota: la credenza meno specifica rimane valida dopo larrivo di nuovi fatti, ma non è sempre utile Nuovi fatti possono essere irrilevanti, permettendo semplificazioni, P(Carie|Mal_di_denti,lunedì) = P(Carie|Mal_di_denti) = 0.8 Questo genere di inferenza, sanzionato dal dominio di conoscenza, è cruciale

12 Slides Intelligenza Artificiale, Vincenzo Cutello12 Probabilità condizionata Definizione di probabilità condizionata: La regola del prodotto fornisce una formulazione alternativa: Una versiona generale è mantenuta per le intere distribuzioni, es., –P(Tempo,Carie) = P(Tempo|Carie)P(Carie) –(Vedila come un insieme 4*2 di equazioni, non matrice multipla) La regola a catena è derivata da successive applicazioni della regola del prodotto:

13 Slides Intelligenza Artificiale, Vincenzo Cutello13 Bayes Rule Perché è utile ? Per assegnare le probabilità diagnostiche dalla conoscenza di quelle causali: Es., sia M la meningite, S il torcicollo: Nota: la probabilità a posteriori della meningite è ancora molto bassa !

14 Slides Intelligenza Artificiale, Vincenzo Cutello14 Normalizzazione

15 Slides Intelligenza Artificiale, Vincenzo Cutello15 Condizionamento Introducendo una variabile come una condizione extra: Intuizione: più facile assess ogni specifica circostanza. Quando Y è assente, avremo una marginalizzazione: In generale, data una distribuzione congiunta su un insieme di variabili, la distribuzione su un qualsiasi sottoinsieme (chiamata distribuzione marginale per ragioni storiche) può essere calcolata summing out le altre variabili.

16 Slides Intelligenza Artificiale, Vincenzo Cutello16 Distribuzioni totalmente congiunte Un modello di probabilità completa specifica ogni caso nella distribuzione congiunta per tutte le variabili X = X 1,…,X n Cioè, una probabilità per ogni possibile mondo X 1 = x 1,…,X n = x n X 1 = x 1,…,X n = x n (Cf. Le teorie complete in logica) Es., supponiamo che Mal_di_denti e Carie siano variabili random: Mal_di_denti = true Mal_di_denti = false Carie = true Carie = flase

17 Slides Intelligenza Artificiale, Vincenzo Cutello17 Distribuzioni totalmente congiunte

18 Slides Intelligenza Artificiale, Vincenzo Cutello18 Inferenza dalle distribuzioni congiunte Tipicamente, siamo interessati alla distribuzione congiunta a posteriori della variabile domanda Y dati specifici valori e per le variabili di prova E Siamo H = X – Y – E le variabili nascoste Allora la sommatoria richiesta dei casi congiunti è fatta sommando le variabili nascoste: I termini nella sommatoria sono i casi congiunti perché Y, E, e H ricoprono linsieme delle variabili random Problemi evidenti: 1) Complessità temporale nel caso peggiore di O(d n ) dove d è la più grande arietà grande arietà 2) Complessità spaziale di O(d n ) per memorizzare la distribuzione congiunta congiunta 3) Come trovare i numeri per O(d n ) casi ???

19 Slides Intelligenza Artificiale, Vincenzo Cutello19 Indipendenza Due variabili random A, B sono (assolutamente) indipendenti se e solo se o es., A e B sono due monete Se n variabili Booleane sono indipendenti, la giunzione totale è quindi può essere specificata da solo n numeri Lindipendenza assoluta è un requisito molto forte, raramente incontrato

20 Slides Intelligenza Artificiale, Vincenzo Cutello20 Indipendenza: esempio Consideriamo un problema di azioni con tre variabili random: A+ (azione sale), SF (stato finanziario società), D=l (giorno della settimana è lunedì) A+ (azione sale), SF (stato finanziario società), D=l (giorno della settimana è lunedì) La probabilità che lazione salga A+, dipende dallo stato finanziario buono SF della società ma non dal giorno della settimana: La probabilità che lazione salga A+, dipende dallo stato finanziario buono SF della società ma non dal giorno della settimana: –P(A+ | SF, D=l) = P(A+|SF) cioè, A+ è condizionatamente indipendente dal D data la SF cioè, A+ è condizionatamente indipendente dal D data la SF La stessa indipendenza si mantiene anche se non è lunedì: La stessa indipendenza si mantiene anche se non è lunedì: –P(A+ | SF, NOT D=l ) = P(A+ | SF)

21 Slides Intelligenza Artificiale, Vincenzo Cutello21 Indipendenza: esempio 2 Consideriamo tre variabili random: Caldo (temp > 25), Maggio, Dentro_casa Se siamo in Maggio, la probabilità che faccia caldo non dipende dallessere in casa o fuori casa (non ci sono riscaldamenti): Se siamo in Maggio, la probabilità che faccia caldo non dipende dallessere in casa o fuori casa (non ci sono riscaldamenti): P(Caldo | Maggio,Dentro_casa) = P(Caldo|Maggio) P(Caldo | Maggio,Dentro_casa) = P(Caldo|Maggio) cioè, Caldo è condizionatamente indipendente da Dentro_casa dato Maggio cioè, Caldo è condizionatamente indipendente da Dentro_casa dato Maggio La stessa indipendenza si mantiene anche se non sono Dentro_casa: P(Caldo | Maggio, Dentro_casa) = P(Caldo | Maggio) P(Caldo | Maggio, Dentro_casa) = P(Caldo | Maggio)

22 Slides Intelligenza Artificiale, Vincenzo Cutello22 Reti di credenza Rappresentano una semplice notazione grafica per le asserzioni di indipendenza condizionale e quindi per una specifica compatta delle distribuzioni congiunte totali Rappresentano una semplice notazione grafica per le asserzioni di indipendenza condizionale e quindi per una specifica compatta delle distribuzioni congiunte totali Sintassi: Sintassi: –un insieme di nodi, uno per ogni variabile –un grafo diretto e aciclico (gli archi rappresentano le influenze dirette) –una distribuzione condizionata per ogni nodo dati i suoi genitori: P(X i | Genitori(X i )) P(X i | Genitori(X i )) Nel caso più semplice, distribuzione condizionata rappresentata come una tabella di probabilità condizionate (CPT) Nel caso più semplice, distribuzione condizionata rappresentata come una tabella di probabilità condizionate (CPT)

23 Slides Intelligenza Artificiale, Vincenzo Cutello23 Esempio Sono a lavoro, il mio vicino di casa John mi chiama per dirmi che lallarme sta suonando, ma la mia vicina Mary non chiama. Qualche volta è attivato da un lieve terremoto. Cè un intruso ? Variabili: Intruso, Terremoto, Allarme, J, M La topologia della rete riflette la conoscenza causale: Nota: Genitori k O(d k n) numeri rispetto a O(d n ) Terremoto Intruso Allarme J M

24 Slides Intelligenza Artificiale, Vincenzo Cutello24 Semantica Le semantiche globali definiscono la distribuzione congiunta totale come il prodotto delle distribuzioni condizionate locali Le semantiche globali definiscono la distribuzione congiunta totale come il prodotto delle distribuzioni condizionate locali Semantiche locali: ogni nodo è condizionatamente indipendente dai suoi non discendenti dati i suoi genitori Semantiche locali: ogni nodo è condizionatamente indipendente dai suoi non discendenti dati i suoi genitori Teorema: Semantiche locali se e solo se Semantiche globali Teorema: Semantiche locali se e solo se Semantiche globali

25 Slides Intelligenza Artificiale, Vincenzo Cutello25 Markov blanket Ogni nodo è condizionatamente indipendente da tutti gli altri Markov blanket: genitori+figli+altri genitori dei figli

26 Slides Intelligenza Artificiale, Vincenzo Cutello26 Costruzione delle reti di credenza Abbiamo bisogno di un metodo tale che una serie di asserzioni localmente verificabili di indipendenze condizionali garantisca le semantiche globali richieste Abbiamo bisogno di un metodo tale che una serie di asserzioni localmente verificabili di indipendenze condizionali garantisca le semantiche globali richieste

27 Slides Intelligenza Artificiale, Vincenzo Cutello27 Esempio Supponiamo di scegliere lordine M, J, A, I, T M J P(J | M) = P(J) ?No Allarme P(A | J, M) = P(A | J) ? P(A | J,M) = P(A) ? Intruso No P(I | A, J, M) = P(I | A) ? P(I | A, J, M) = P(I) ? Terremoto Si No P(T | I, A, J, M) = P(T | A) ? P(T | I, A, J, M) = P(T | A, I) ? No Si

28 Slides Intelligenza Artificiale, Vincenzo Cutello28 Esempio: dal meccanico Problema: il motore non parte Variabili: Batteria, Radio, Iniezione, Gasolio, Accensione B I A R G


Scaricare ppt "Slides Intelligenza Artificiale, Vincenzo Cutello 1 Intelligenza Artificiale Probabilità"

Presentazioni simili


Annunci Google