Intelligenza Artificiale

Slides:



Advertisements
Presentazioni simili
può essere scaricato dalla mia web page:
Advertisements

2. Introduzione alla probabilità
Chiara Mocenni – Analisi delle Decisioni a.a Analisi delle Decisioni Probabilita condizionate e Teorema di Bayes Chiara Mocenni.
A partire da determinate condizioni iniziali, un esperimento e losservazione del verificarsi di qualche accadimento che, se si ripete lesperimento nelle.
La teoria di portafoglio: cap.7-9
6. Catene di Markov a tempo continuo (CMTC)
1 Il punto di vista Un sistema è una parte del mondo che una persona o un gruppo di persone, durante un certo intervallo di tempo, sceglie di considerare.
Deduzione naturale + Logica & Calcolabilità
Generazione di Piani attraverso Grafi di Pianificazione
Variabili casuali a più dimensioni
Inferenza Statistica Le componenti teoriche dell’Inferenza Statistica sono: la teoria dei campioni la teoria della probabilità la teoria della stima dei.
Analisi delle Decisioni Esistenza della funzione di utilita’
Chiara Mocenni - Sistemi di Supporto alle Decisioni I – aa Sistemi di Supporto alle Decisioni I Lezione 7 Chiara Mocenni Corso di laurea L1.
Chiara Mocenni - Sistemi di Supporto alle Decisioni I – aa Sistemi di Supporto alle Decisioni I Dynamic Programming Chiara Mocenni Corso di.
Chiara Mocenni – Analisi delle Decisioni a.a Analisi delle Decisioni Preferenze, decisioni e incertezza Chiara Mocenni.
Analisi delle Decisioni Funzioni di utilita’ e lotterie
Chiara Mocenni - Sistemi di Supporto alle Decisioni I – aa Sistemi di Supporto alle Decisioni I Lezione 2 Chiara Mocenni Corso di laurea L1.
Chiara Mocenni - Sistemi di Supporto alle Decisioni I – aa Sistemi di Supporto alle Decisioni I Lezione 2 Chiara Mocenni Corso di laurea L1.
Chiara Mocenni - Sistemi di Supporto alle Decisioni I – aa Sistemi di Supporto alle Decisioni I Scelte di consumo Chiara Mocenni Corso di laurea.
Chiara Mocenni – Analisi delle Decisioni a.a Analisi delle Decisioni Conoscenza incerta e probabilita Chiara Mocenni.
Introduzione alla Logica Modale.
6. Catene di Markov a tempo continuo (CMTC)
Metodi Probabilistici, Statistici e Processi Stocastici Università Carlo Cattaneo Emanuele Borgonovo Metodi Probailistici, Statistici e Processi Stocastici.
Semantiche dei linguaggi di programmazione
Intelligenza Artificiale 2 Metodologie di ragionamento Prof. M.T. PAZIENZA a.a
Sistemi basati su conoscenza Conoscenza e ragionamento Prof. M.T. PAZIENZA a.a
Gestione dei dati e della conoscenza (agenti intelligenti) M.T. PAZIENZA a.a
Intelligenza Artificiale 1 Gestione della conoscenza lezione 7 Prof. M.T. PAZIENZA a.a
Sistemi basati su conoscenza (agenti intelligenti) Prof. M.T. PAZIENZA a.a
Intelligenza Artificiale Metodologie di ragionamento Prof. M.T. PAZIENZA a.a
Intelligenza Artificiale 1 Gestione della conoscenza lezione 8
Introduzione alle reti semantiche R. Basili. Sistemi basati su conoscenza Fanno uso di una rappresentazione esplicita del: –Mondo/Ambiente –Dominio di.
Sistemi basati su conoscenza Conoscenza e ragionamento Prof. M.T. PAZIENZA a.a
Apprendimento Automatico: Apprendimento Bayesiano
Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 1 Apprendimento Automatico: Apprendimento Bayesiano.
Abbiamo visto un esempio di applicazione del teorema, ma a noi interessa l’applicazione del Teorema di Bayes alla combinazione delle informazioni, ovvero.
8. Reti di Code Nella maggior parte dei processi produttivi risulta troppo restrittivo considerare una sola risorsa. Esempio: linea tandem arrivi 1 v.
POKER ISOLABELLA SIMONE TAGLIAFICO ALESSIO TAGLIABUE FARIS
Le cause del moto: la situazione prima di Galilei e di Newton
Modelli probabilistici
Bayesian Learning Martedì, 16 Novembre 2004 Giuseppe Manco Readings: Sections , Mitchell Chapter 2, Bishop Chapter 4, Hand-Mannila-Smith Bayesian.
Intelligenza Artificiale
Obiettivi Conoscere strumento Analisi di un progetto
Riassumendo le teorie sulla comunicazione
UNIVERSITÀ DEGLI STUDI DI CATANIA FACOLTÀ DI INGEGNERIA   CORSO DI LAUREA IN INGEGNERIA ELETTRONICA Dipartimento di Ingegneria Elettrica Elettronica e.
Intelligenza Artificiale
Le distribuzioni campionarie
Slides di Teoria dei Giochi, Vincenzo Cutello
Problemi con soddisfacimento dei vincoli
Risoluzione di problemi e ricerca
Slides Intelligenza Artificiale, Vincenzo Cutello
3. Forma Strategica e ricerca dell’equilibrio
Probabilità probabilità Probabilità totale
Modelli predittivi F. De Santis, L. Bolognini Convegno Misurare la giustizia? Roma, ottobre 2004.
Intelligenza Artificiale Conoscenza e ragionamento incerto Prof. M.T. PAZIENZA a.a
è … lo studio delle caratteristiche di regolarità dei fenomeni casuali
Sistemi basati su conoscenza Gestione della conoscenza Prof. M.T. PAZIENZA a.a
Didattica e Fondamenti degli Algoritmi e della Calcolabilità Terza giornata: principali classi di complessità computazionale dei problemi Guido Proietti.
R. Soncini Sessa, MODSS, L21 Accettare la casualità Rodolfo Soncini Sessa MODSS Copyright 2004 © Rodolfo Soncini Sessa.
13 ottobre Decisioni F. Bombi 13 ottobre 2002.
Intelligenza Artificiale 2 Metodologie di ragionamento Prof. M.T. PAZIENZA a.a
1 Interpretazione astratta: un approccio sistematico all’analisi statica.
Intelligenza Artificiale Conoscenza e ragionamento incerto Prof. M.T. PAZIENZA a.a
Sistemi basati su conoscenza (agenti intelligenti) Prof. M.T. PAZIENZA a.a
AOT Lab Dipartimento di Ingegneria dell’Informazione Università degli Studi di Parma Intelligenza Artificiale Rappresentazione della Conoscenza e Ragionamento.
Università degli Studi di Parma Ragionamento con conoscenza incerta.
Suggerimenti [1d5] SE la prima lettera della matrice (in alto a sinistra, matrice[0,0]) è diversa dalla prima lettera della parola (parola[0]) ALLORA siamo.
Giochi Bayesiani 19/07/2011 Università degli studi di Napoli “Federico II” Emiliano Iuliano Francesco De Domenico Corso di teoria dei giochi Prof.ssa Lina.
Logica Lezione 8, DISTRIBUIRE COMPITO 1.
Logica Lezione 11, Annuncio Non si terrà la lezione di Lunedì 16 Marzo.
Transcript della presentazione:

Intelligenza Artificiale Probabilità Slides Intelligenza Artificiale, Vincenzo Cutello

Slides Intelligenza Artificiale, Vincenzo Cutello Outline Incertezza Probabilità Sintassi Semantica Regole di inferenza Slides Intelligenza Artificiale, Vincenzo Cutello

Slides Intelligenza Artificiale, Vincenzo Cutello Incertezza Sia l’azione At = partire per l’aeroporto t minuti prima del volo At mi farà arrivare in tempo ? Problemi: parziale osservabilità (strada, piani degli altri guidatori, ecc.) sensori rumorosi (rapporti sul traffico) Incertezza sul risultato dell’azione Enorme complessità di modellizzazione e predizione del traffico Usando un approccio puramente logico o ”risk falsehood”: “A25 mi farà arrivare in tempo”, oppure Giungere a conclusioni che sono troppo deboli per prendere decisioni:”A25 mi farà arrivare in tempo se non ci sono incidenti sul ponte e non piove, ecc. ecc.” (A1440 mi farebbe ragionevolmente arrivare in tempo ma dovrei stare tutta la notte in aeroporto) Slides Intelligenza Artificiale, Vincenzo Cutello

Metodi per gestire l’incertezza Logica non-monotona: Assumiamo che la mia macchina non abbia le gomme lisce Assumiamo che A25 è corretta a meno che non sia contraddetta dall’evidenza Esito: Quali assunzioni sono ragionevoli ? Come gestire le contraddizioni ? Probabilità: Date le prove disponibili, A25 mi farà arrivare in tempo con probabilità 0.8, ossia su cento volte che sono partito per l’aereoporto 25 minuti prima, 80 volte sono arrivato in orario Logica fuzzy: Data la mia esperienza e conoscenza, Acirca 25 mi farà arrivare in orario Slides Intelligenza Artificiale, Vincenzo Cutello

Slides Intelligenza Artificiale, Vincenzo Cutello Probabilità Le asserzioni probabilistiche riassumono gli effetti di: pigrizia: mancanza di enumerazione delle eccezioni, etc. ignoranza: mancanza di fatti rilevanti, condizioni iniziali, ecc. Probabilità soggettiva o bayesiana: Le probabilità legano le proposizioni allo stato di conoscenza es., P(A25|non si sono verificati incidenti) = 0.06 Le probabilità delle proposizioni cambiano con nuove prove: es., P(A25|non si sono verificati incidenti, 5 a.m.)=0.15 Slides Intelligenza Artificiale, Vincenzo Cutello

Prendere decisioni sotto incertezza Supponiamo che io creda nelle seguenti: P(A25 mi fa arrivare in orario|…) = 0.04 P(A90 mi fa arrivare in orario|…) = 0.70 P(A120 mi fa arrivare in orario|…) = 0.95 P(A1440 mi fa arrivare in orario|…) = 0.9999 Quale azione scegliere ? Dipende dalle mie preferenze tra perdere il volo e attendere all’aeroporto, ecc. La teoria dell’utilità è usata per rappresentare e inferire preferenze Teoria delle decisioni = teoria dell’utilità + teoria delle probabilità Teoria dei giochi = teoria delle decisioni in presenza di avversari che a loro volta prendono decisioni che possono andare contro la nostra utilità Slides Intelligenza Artificiale, Vincenzo Cutello

Struttura di un agente-DT function AGENTE-DT(percezione) returns un’azione static: un insieme di credenze probabilistiche circa lo stato del mondo calcola le probabilità aggiornate per lo stato corrente basate sulle prove disponibili comprendenti l’azione corrente e precedente calcola il valore delle probabilità per le azioni, data la descrizione dell’azione e le probabilità degli stati correnti seleziona l’azione con la più alta utilità attesa dati i valori delle probabilità per i vari esiti e l’utilità dell’informazione return azione Slides Intelligenza Artificiale, Vincenzo Cutello

Assiomi di probabilità Siano A e B due eventi qualsiasi 0 ≤ P(A) ≤ 1 P(True) = 1 e P(False) = 0 P(A B) = P(A) + P(B) –P(A B) De Finetti (1931): un agente che scommette in accordo con le probabilità che violano questi assiomi può essere forzato a perdere soldi indipendentemente dall’esito della scommessa Slides Intelligenza Artificiale, Vincenzo Cutello

Slides Intelligenza Artificiale, Vincenzo Cutello Sintassi Simile alla logica proposizionale: possibili mondi definiti dall’ assegnamento di valori a variabili random. Variabili random Booleane o Proposizionali es., Carie (hai una carie ?) Include le espressioni della logica proposizionale Variabili random multivalore es., Il tempo meteorologico assume uno tra <soleggiato, pioggia, nuvoloso, neve> I valori devono essere esaustivi e mutuamente esclusivi Proposizione costruita dall’assegnamento di un valore: es., tempo = soleggiato; Carie = vero Slides Intelligenza Artificiale, Vincenzo Cutello

Slides Intelligenza Artificiale, Vincenzo Cutello Sintassi (cont.) Probabilità non condizionate o a priori di proposizioni, es., P(Carie) = 0.1 e P(Tempo = soleggiato) = 0.72 corrispondono alla credenza a priori all’arrivo di una qualsiasi (nuova) prova La distribuzione di probabilità è normalizzata, cioè, la somma è 1 e sono noti i valori per tutti i possibili assegnamenti: P(Tempo) = <0.72, 0.1, 0.08, 0.1> Distribuzione di probabilità congiunta per un insieme di variabili fornisce i valori per ogni possibile assegnamento a tutte le variabili P(Tempo, Carie) = una matrice 4*2 di valori: Tempo = soleggiato pioggia nuvoloso neve Carie = true Carie = false Slides Intelligenza Artificiale, Vincenzo Cutello

Slides Intelligenza Artificiale, Vincenzo Cutello Sintassi (cont.) Probabilità condizionata o a posteriori es., P(Carie|Mal_di_denti) = 0.8 cioe’, dato che il mal di denti è tutto quello che io conosco Notazione per distribuzioni condizionali: P(Tempo|Primavera)= un vettore di 2 elementi di vettori di 4 elementi Se noi conosciamo di più, es., la carie è data, allora avremo P(Carie|Mal_di_denti,Carie) = 1 Nota: la credenza meno specifica rimane valida dopo l’arrivo di nuovi fatti, ma non è sempre utile Nuovi fatti possono essere irrilevanti, permettendo semplificazioni, P(Carie|Mal_di_denti,lunedì) = P(Carie|Mal_di_denti) = 0.8 Questo genere di inferenza, sanzionato dal dominio di conoscenza, è cruciale Slides Intelligenza Artificiale, Vincenzo Cutello

Probabilità condizionata Definizione di probabilità condizionata: La regola del prodotto fornisce una formulazione alternativa: Una versiona generale è mantenuta per le intere distribuzioni, es., P(Tempo,Carie) = P(Tempo|Carie)P(Carie) (Vedila come un insieme 4*2 di equazioni, non matrice multipla) La regola a catena è derivata da successive applicazioni della regola del prodotto: Slides Intelligenza Artificiale, Vincenzo Cutello

Slides Intelligenza Artificiale, Vincenzo Cutello Bayes’ Rule Perché è utile ? Per assegnare le probabilità diagnostiche dalla conoscenza di quelle causali: Es., sia M la meningite, S il torcicollo: Nota: la probabilità a posteriori della meningite è ancora molto bassa ! Slides Intelligenza Artificiale, Vincenzo Cutello

Slides Intelligenza Artificiale, Vincenzo Cutello Normalizzazione Slides Intelligenza Artificiale, Vincenzo Cutello

Slides Intelligenza Artificiale, Vincenzo Cutello Condizionamento Introducendo una variabile come una condizione extra: Intuizione: più facile “assess” ogni specifica circostanza. Quando Y è assente, avremo una marginalizzazione: In generale, data una distribuzione congiunta su un insieme di variabili, la distribuzione su un qualsiasi sottoinsieme (chiamata distribuzione marginale per ragioni storiche) può essere calcolata “summing out” le altre variabili. Slides Intelligenza Artificiale, Vincenzo Cutello

Distribuzioni totalmente congiunte Un modello di probabilità completa specifica ogni caso nella distribuzione congiunta per tutte le variabili X = X1,…,Xn Cioè, una probabilità per ogni possibile mondo X1 = x1,…,Xn = xn (Cf. Le teorie complete in logica) Es., supponiamo che Mal_di_denti e Carie siano variabili random: Mal_di_denti = true Mal_di_denti = false Carie = true 0.04 0.06 Carie = flase 0.01 0.89 Slides Intelligenza Artificiale, Vincenzo Cutello

Distribuzioni totalmente congiunte Slides Intelligenza Artificiale, Vincenzo Cutello

Inferenza dalle distribuzioni congiunte Tipicamente, siamo interessati alla distribuzione congiunta a posteriori della variabile domanda Y dati specifici valori e per le variabili di prova E Siamo H = X – Y – E le variabili nascoste Allora la sommatoria richiesta dei casi congiunti è fatta sommando le variabili nascoste: I termini nella sommatoria sono i casi congiunti perché Y, E, e H ricoprono l’insieme delle variabili random Problemi evidenti: 1) Complessità temporale nel caso peggiore di O(dn) dove d è la più grande arietà 2) Complessità spaziale di O(dn) per memorizzare la distribuzione congiunta 3) Come trovare i numeri per O(dn) casi ??? Slides Intelligenza Artificiale, Vincenzo Cutello

Slides Intelligenza Artificiale, Vincenzo Cutello Indipendenza Due variabili random A, B sono (assolutamente) indipendenti se e solo se o es., A e B sono due monete Se n variabili Booleane sono indipendenti, la giunzione totale è quindi può essere specificata da solo n numeri L’indipendenza assoluta è un requisito molto forte, raramente incontrato Slides Intelligenza Artificiale, Vincenzo Cutello

Indipendenza: esempio Consideriamo un problema di azioni con tre variabili random: A+ (azione sale), SF (stato finanziario società), D=l (giorno della settimana è lunedì) La probabilità che l’azione salga A+, dipende dallo stato finanziario buono SF della società ma non dal giorno della settimana: P(A+ | SF, D=l) = P(A+|SF) cioè, A+ è condizionatamente indipendente dal D data la SF La stessa indipendenza si mantiene anche se non è lunedì: P(A+ | SF, NOT D=l ) = P(A+ | SF) Slides Intelligenza Artificiale, Vincenzo Cutello

Indipendenza: esempio 2 Consideriamo tre variabili random: Caldo (temp > 25), Maggio, Dentro_casa Se siamo in Maggio, la probabilità che faccia caldo non dipende dall’essere in casa o fuori casa (non ci sono riscaldamenti): P(Caldo | Maggio,Dentro_casa) = P(Caldo|Maggio) cioè, Caldo è condizionatamente indipendente da Dentro_casa dato Maggio La stessa indipendenza si mantiene anche se non sono Dentro_casa: P(Caldo | Maggio, ┐Dentro_casa) = P(Caldo | ┐Maggio) Slides Intelligenza Artificiale, Vincenzo Cutello

Slides Intelligenza Artificiale, Vincenzo Cutello Reti di credenza Rappresentano una semplice notazione grafica per le asserzioni di indipendenza condizionale e quindi per una specifica compatta delle distribuzioni congiunte totali Sintassi: un insieme di nodi, uno per ogni variabile un grafo diretto e aciclico (gli archi rappresentano le influenze dirette) una distribuzione condizionata per ogni nodo dati i suoi genitori: P(Xi | Genitori(Xi)) Nel caso più semplice, distribuzione condizionata rappresentata come una tabella di probabilità condizionate (CPT) Slides Intelligenza Artificiale, Vincenzo Cutello

Slides Intelligenza Artificiale, Vincenzo Cutello Esempio Sono a lavoro, il mio vicino di casa John mi chiama per dirmi che l’allarme sta suonando, ma la mia vicina Mary non chiama. Qualche volta è attivato da un lieve terremoto. C’è un intruso ? Variabili: Intruso, Terremoto, Allarme, J, M La topologia della rete riflette la conoscenza causale: Nota: Genitori ≤ k  O(dkn) numeri rispetto a O(dn) Terremoto Intruso Allarme J M Slides Intelligenza Artificiale, Vincenzo Cutello

Slides Intelligenza Artificiale, Vincenzo Cutello Semantica Le semantiche “globali” definiscono la distribuzione congiunta totale come il prodotto delle distribuzioni condizionate locali Semantiche “locali”: ogni nodo è condizionatamente indipendente dai suoi non discendenti dati i suoi genitori Teorema: Semantiche locali se e solo se Semantiche globali Slides Intelligenza Artificiale, Vincenzo Cutello

Slides Intelligenza Artificiale, Vincenzo Cutello Markov blanket Ogni nodo è condizionatamente indipendente da tutti gli altri Markov blanket: genitori+figli+altri genitori dei figli Slides Intelligenza Artificiale, Vincenzo Cutello

Costruzione delle reti di credenza Abbiamo bisogno di un metodo tale che una serie di asserzioni localmente verificabili di indipendenze condizionali garantisca le semantiche globali richieste Slides Intelligenza Artificiale, Vincenzo Cutello

Slides Intelligenza Artificiale, Vincenzo Cutello Esempio Supponiamo di scegliere l’ordine M, J, A, I, T M J Allarme Intruso Terremoto P(J | M) = P(J) ? No P(A | J, M) = P(A | J) ? P(A | J,M) = P(A) ? No P(I | A, J, M) = P(I | A) ? P(I | A, J, M) = P(I) ? Si No P(T | I, A, J, M) = P(T | A) ? P(T | I, A, J, M) = P(T | A, I) ? No Si Slides Intelligenza Artificiale, Vincenzo Cutello

Esempio: dal meccanico Problema: il motore non parte Variabili: Batteria, Radio, Iniezione, Gasolio, Accensione B I G R A Slides Intelligenza Artificiale, Vincenzo Cutello