Dipartimento di Ingegneria dellInformazione Università degli Studi di Parma Intelligenza Artificiale Apprendimento Parte 2 Agostino Poggi Stefano Cagnoni.

Slides:



Advertisements
Presentazioni simili
Ricorrenze Il metodo di sostituzione Il metodo iterativo
Advertisements

Algoritmi e Strutture Dati
Sommario Nelle lezioni precedenti abbiamo introdotto tutti gli elementi che formano un particolare tipo di linguaggio logico, denominato linguaggio predicativo.
Antonio Messeni Petruzzelli DIMeG,Politecnico di Bari, Italia Economia ed Organizzazione Aziendale (A-K) CdL in Ing. Meccanica CdL in Ing. Meccanica LIncertezza.
RB-alberi (Red-Black trees)
Alberi binari di ricerca
Capitolo 4 Ordinamento Algoritmi e Strutture Dati.
Intelligenza Artificiale Apprendimento automatico (generalizzare lesperienza) Prof. M.T. PAZIENZA a.a
Intelligenza Artificiale 1 Gestione della conoscenza lezione 5 Prof. M.T. PAZIENZA a.a
Macchine non completamente specificate
Apprendimento Automatico: Apprendimento di Concetti da Esempi
Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 1 Apprendimento Automatico: Apprendimento Bayesiano.
Apprendimento Automatico: Alberi di Decisione
Alberi di Decisione decision trees
Apprendimento Automatico: Apprendimento Pigro (Lazy Learning)
Apprendimento Automatico: Alberi di Decisione
Apprendimento di funzioni algebriche
Computational Learning Theory and PAC learning
Apprendimento Bayesiano
Apprendimento di Concetti da Esempi
Capitolo 4 Ordinamento Algoritmi e Strutture Dati.
Interrogazioni su un albero binario di ricerca Search(S,k) – dato un insieme S ed un valore chiave k restituisce un puntatore x ad un elemento in S tale.
Algoritmi e Strutture Dati
Capitolo 4 Ordinamento Algoritmi e Strutture Dati.
Algoritmi e Strutture Dati Alberi Binari di Ricerca.
Algoritmi e Strutture Dati
Seminario su clustering dei dati – Parte II
TECNOLOGIE DEI SISTEMI DI CONTROLLO
Algoritmi e Strutture Dati
Algoritmi e Strutture Dati
Agent and Object Technology Lab Dipartimento di Ingegneria dellInformazione Università degli Studi di Parma AOT LAB LAB Anno accademico 2010 / 2011 Tesi.
Ingegneria della conoscenza e sistemi esperti Dario Bianchi, 1999 Risoluzione di problemi e ricerca.
Intelligenza Artificiale
Apprendimento Automatico Apprendimento non supervisionato:
Apprendimento Automatico Tecniche classiche di apprendimento (parte 2) Stefano Cagnoni.
Intelligenza Artificiale
AOT Lab Dipartimento di Ingegneria dellInformazione Università degli Studi di Parma Intelligenza Artificiale Rappresentazione della Conoscenza e Ragionamento.
Intelligenza Artificiale
MOLTIPLICAZIONE COMBINATORIA
Anche la RB-Delete ha due fasi: Nella prima viene tolto un nodo y avente uno dei sottoalberi vuoto sostituendolo con la radice dellaltro sottoalbero. Per.
I SEI PUNTI DELL‘ ATTEGGIAMENTO
Algoritmi e Strutture Dati
Lezioni di Ricerca Operativa Corso di Laurea in Informatica
STATISTICA PER LE DECISIONI DI MARKETING
Intelligenza Artificiale Apprendimento automatico Prof. M.T. PAZIENZA a.a
Intelligenza Artificiale 2 Metodologie di ragionamento Prof. M.T. PAZIENZA a.a
Università degli studi di Parma Dipartimento di Ingegneria dell’Informazione Politecnico di Milano Reti Logiche A Macchine non completamente specificate.
Intelligenza Artificiale Metodologie di ragionamento Prof. M.T. PAZIENZA a.a
Università degli Studi di Roma Tor Vergata
Dipartimento di Ingegneria dell’Informazione Università degli Studi di Parma Intelligenza Artificiale Rappresentazione della Conoscenza e Ragionamento.
Sistemi basati su conoscenza Metodi di ricerca informata Prof. M.T. PAZIENZA a.a
Dipartimento di Ingegneria dell’Informazione Università degli Studi di Parma Intelligenza Artificiale Risoluzione dei Problemi (parte 2) Agostino Poggi.
Grammatiche non contestuali (1)
Intelligenza Artificiale
Intelligenza Artificiale Metodologie di ragionamento Prof. M.T. PAZIENZA a.a
Intelligenza Artificiale Risoluzione di Problemi
AOT Lab Dipartimento di Ingegneria dell’Informazione Università degli Studi di Parma Intelligenza Artificiale Rappresentazione della Conoscenza e Ragionamento.
Dipartimento di Ingegneria dell’Informazione Università degli Studi di Parma Intelligenza Artificiale Apprendimento Agostino Poggi Stefano Cagnoni.
Intelligenza Artificiale Reti Neurali
Dipartimento di Ingegneria dell’Informazione Università degli Studi di Parma Intelligenza Artificiale Risoluzione dei Problemi Agostino Poggi Stefano Cagnoni.
Algoritmi e Programmazione (in C) Stefano Cagnoni e Monica Mordonini
Dipartimento di Ingegneria dell’Informazione Università degli Studi di Parma Intelligenza Artificiale Apprendimento Agostino Poggi Stefano Cagnoni.
I giochi con avversario Maria Simi a.a. 2008/2009.
DATA MINING PER IL MARKETING Andrea Cerioli Sito web del corso GLI ALBERI DI CLASSIFICAZIONE Introduzione alla metodologia Zani-Cerioli,
1 Esami Esame scritto: Tra 21 e 25 domande: 20 domande chiuse (20 punti),  5 domande aperte (10 punti) 1½ ore Esame orale/applicativo: Esercizi usando.
Università degli Studi di Cagliari FACOLTA’ DI INGEGNERIA
Reti Logiche A Lezione 2.1 Sintesi di reti combinatorie a due livelli
Capitolo 9 Il problema della gestione di insiemi disgiunti (Union-find) Algoritmi e Strutture Dati.
Cloud informatica V anno.
Transcript della presentazione:

Dipartimento di Ingegneria dellInformazione Università degli Studi di Parma Intelligenza Artificiale Apprendimento Parte 2 Agostino Poggi Stefano Cagnoni

Apprendimento 2 Alberi di Decisione Costruzione albero per il problema del ristorante Passo 1 (scelta della radice dellalbero): I(p/(n+p),n/(n+p))=1 R(Pat) = G(Patr) = R(Bar) = R(Alt) = R(Rain) = 1 G(Bar) = G(Alt) = G(Rain) = 0 R(Fri/Sat) = G(Fri/Sat) = R(WTime) = G(WTime) = R(Hun) = G(Hun) = Patrons è lattributo che offre il maggior guadagno

Apprendimento 3 Alberi di Decisione Costruzione albero per il problema del ristorante Passo 2 (scelta dellattributo per il primo livello): I(p/(n+p),n/(n+p)) = R(Bar) = G(Bar) = 0 R(Alt) = R(Fr/S) = R(Rain) G(Alt) = G(Fr/S) = G(Rain) = R(WTime) = R(Hun) = G(WTime) = G(Hun) = WTime e Hungry sono gli attributi che offrono il maggior guadagno

Apprendimento 4 Alberi di Decisione per Informazione Incerta I valori di un training set possono essere soggetti a rumore: Un insieme di attributi può essere erroneamente considerato insufficiente. Si genera un albero inutilmente complesso. Se si sa che il training set può contenere degli errori, possiamo limitarne la complessità usando due strategie: Potatura in avanti. Potatura allindietro.

Apprendimento 5 Alberi di Decisione per Informazione Incerta La potatura in avanti può decidere di non espandere un nodo in più nodi in base: al numero di istanze contenute nellinsieme corrispondente al nodo. alla loro ripartizione tra le classi corrispondenti ai possibili nodi figli in funzione dei diversi attributi su cui basare la partizione. Esempio: Se abbiamo 100 istanze e lunico attributo disponibile le divide in due classi di 99 e 1 elementi, possiamo decidere di non espandere il nodo ritenendo generata da un errore lunica istanza della seconda classe.

Apprendimento 6 Alberi di Decisione per Informazione Incerta La potatura allindietro genera tutto lalbero e poi decide quali nodi eliminare in base ad una stima euristica dellerrore di classificazione. Sia: Err(S) = P( j | x i S, ij) la probabilità di classificare erroneamente gli elementi dellinsieme S. Per un nodo terminale Errore(nodo) = Err(S) Per i nodi non terminali: ErroreCumulato(nodo) = i p i Errore(nodo i ), dove nodo i è figlio di nodo. Valutazione : Si opera in modo tale da avere Errore(nodo) = min(Err(nodo),ErroreCumulato(nodo)) Cioè si decide se mantenere la ramificazione se la presenza di nodi figli riduce lerrore

Apprendimento 7 Generalizzazione e Specializzazione La generalizzazione e la specializzazione sono un ottimo strumento per lapprendimento: ( is ?x gatto) possibile(accarezzare ?x) (is ?x felino) possibile(accarezzare ?x) [generalizzazione NON valida] (and (is ?x felino) (piccolo ?x)) possibile(accarezzare ?x) [specializzazione valida] (and (is ?x carnivoro) (piccolo ?x)) possibile(accarezzare ?x) [generalizzazione valida] Tali strumenti vanno applicati finché non si trova una definizione del concetto che descriva un insieme di situazioni (istanze positive) e non si applichi ad altre (istanze negative).

Apprendimento 8 Generalizzazione e Specializzazione Se abbiamo la descrizione: (su a1 a2) (su a1 a3) (not (a-contatto a2 a3) (parti a (a1 a2 a3)) (is a1 mattone) (is a2 mattone) (is a3 mattone) (is a arco) Problema di identificazione della situazione: Bisogna ignorare tutte le caratteristiche non interessanti. Problema della descrizione: Bisogna avere delle descrizioni adeguate. Bisogna utilizzare descrizioni simili.

Apprendimento 9 Generalizzazione e Specializzazione Le variabili sono più generali delle costanti: (and (su ?x tavolo) (su ?y tavolo))più specifica (and (su ?x ?z) (su ?y tavolo)) (and (su ?x tavolo) (su ?y?z)) (and (su ?x ?z) (su ?y ?z)) (and (su ?x ?z) (su ?y ?v))più generale Il problema di specializzazione diventa un problema di ricerca.

Apprendimento 10 Generalizzazione e Specializzazione Data la forma: (su ?x tavolo) laggiunta di una clausola in or generalizza: (or (su ?x tavolo) (sospeso ?x soffitto)) laggiunta di una clausola in and specializza: (and (su ?x tavolo) (a-contatto ?x parete1))

Apprendimento 11 Accoppiamento di Descrizioni Date le due descrizioni: (su a1 a2) (su a1 a3) (not (a-contatto a2 a3)) (parti a (a1 a2 a3)) (is a1 mattone) (is a2 mattone) (is a3 mattone) (is a arco) (su a1 a2) (su a1 a3) (not (a-contatto a2 a3)) (parti a (a1 a2 a3)) (is a1 cuneo) (is a2 mattone) (is a3 mattone) (is a arco) Il sistema deve accoppiare le due descrizioni, cioè sostituire le parti che differiscono con un versione che le accomuni: (or (is a1 mattone) (is a1 cuneo)) Generalizzando: (is a1 prisma)

Apprendimento 12 Analogia Può essere che una situazione sia simile a situazioni passate e che il modo in cui ci eravamo comportati possa aiutare a decidere come comportarci in futuro. Tuttavia è un metodo che non permette di generalizzare facilmente. Problema 1: dato un segmento RY e due punti su di esso O e N tali che valga RO = NY provare che RN = OY. Problema 2: dato un segmento AD e due punti su di esso C e B tali che valga AB > CD provare che AC > BD.

Apprendimento 13 Valutazione dellApprendimento Induttivo Non è in grado di gestire dati perturbati: Il maestro in certi casi imbroglia. In alcuni casi non si riesce ad individuare la regola responsabile del fallimento. Non è capace di gestire concetti che cambiano nel tempo se non enumerando tutte le possibili situazioni: Ad esempio per un animale il concetto «buon posto per cercare di mangiare».