Introduzione all’intelligenza artificiale e agli agenti intelligenti Maria Simi a.a. 2006/2007.

Slides:



Advertisements
Presentazioni simili
Linee guida per l’insegnamento della matematica nella scuola media
Advertisements

Prof. Raimondo Schettini
I profili di apprendimento
Intelligenza artificiale
Intelligenza Artificiale 1
Raccomandazione del Parlamento europeo e del Consiglio (18 settembre 2006) Conoscenze: assimilazione delle informazioni attraverso l’apprendimento. l’insieme.
Dagli obiettivi alle competenze
Linguaggi di programmazione
Introduzione allintelligenza artificiale e agli agenti intelligenti Maria Simi a.a. 2008/2009.
Psicologia e Psicologia Cognitiva
Reti Neurali: studi sull'intelligenza artificiale
Gestione dei dati e della conoscenza (agenti intelligenti) M.T. PAZIENZA a.a
Sistemi basati su conoscenza (agenti intelligenti) Prof. M.T. PAZIENZA a.a
Intelligenza Artificiale 1 Gestione della conoscenza Prof. M.T. PAZIENZA a.a
Computer Science as Empirical Inquiry Temi filosofici dellinformatica 28 aprile 2008.
Turing Test Temi filosofici dellinformatica 30 aprile 2008.
Progettare una ricerca: approcci e metodologie
Informatica a Verona Dipartimento di Informatica Facoltà di Scienze MM. FF. NN. Università degli Studi di Verona
Funzioni, Rappresentazioni e Coscienza
La costruzione e lo sviluppo delle competenze a scuola
L’indagine OCSE-PISA: il framework e i risultati per la matematica
Modelli simulativi per le Scienze Cognitive
Le simulazioni. Una ipotesi di lavoro
FONDAMENTI DI INFORMATICA III A2A2-1 CARATTERISTICHE E MODELLIZZAZIONE DEL LAVORO DUFFICIO Argomento 2 Approfondimento 2 CARATTERISTICHE E MODELLIZZAZIONE.
l’intelligenza artificiale e la vita artificiale
“Ricordare” da un punto di vista psicologico
Alcune definizioni dellAI Dario Bianchi 1999 Sistemi che pensano come gli esseri umani: modellizzazione cognitiva. Sistemi che pensano razionalmente: le.
Intelligenza Artificiale
Intelligenza Artificiale
Rappresentazione della Conoscenza
Case Based Reasoning
1 Istituto Tecnologie Didattiche Consiglio Nazionale Ricerche SSIS di Genova, corso Tecnologie Didattiche, a.a. 2001/2002 Introduzione di Tecnologie Didattiche.
teoria delle intelligenze multiple:
Lautonomia McCarthy & Hayes, 1969: –per agire intelligentemente nel mondo, un agente deve mantenere una rappresentazione interna del mondo con cui filtrare.
PROSPETTIVA PSICOLOGICA Azione presume che vi sia un individuo in grado di: 1) rappresentarsi e prefigurarsi il futuro 2) scegliere 3) decidere in modo.
Psicologia della GESTALT:
Intelligenza artificiale, Orario: merc., giov. e venerdì 15:30-17:30 Luogo: aula 5 del DSI Docente titolare: Mario Ornaghi, riserve: Alessandro.
Perché gli scacchi a scuola?
Matematica e Multimedialità
PROBLEMI E “PAROLACCE” Nucleo: Relazioni e Funzioni

Sidney Strauss “Per una psicopedagogia dello sviluppo” (1987)
Slides Intelligenza Artificiale, Vincenzo Cutello
Alla fine degli anni quaranta nasceva il mito del cervello elettronico, e tutte le attività connesse allutilizzo del computer venivano indicate tramite.
OBBLIGO SCOLASTICO: UNA SFIDA? ASSE MATEMATICO. Il nuovo obbligo scolastico come opportunità Opportunità per cosa? Opportunità per chi?
Iniziamo a lavorare sui concetti Concetto Regolarità percepita in eventi o oggetti, o in testimonianze/simboli/rappresentazioni di eventi o di oggetti,
dalle abilità alle competenze
Sistemi basati su conoscenza Gestione della conoscenza Prof. M.T. PAZIENZA a.a
DEEP BLUE E LA ZANZARA Lettera aperta a costruttori e studiosi di robot Workshop “Applicazioni e tecnologie dei Sistemi Robotici Intelligenti”
La teoria dello sviluppo sociocognitivo di Vygotskij
Teoria sociale e metodologia della ricerca sociale ed educativa
Robotica Lezione 6. Paradigma Gerarchico Il paradigma gerarchico, altrimenti detto knowledge-based, procede top-down dalla definizione del compito assegnato.
Intelligenza Artificiale 2 Metodologie di ragionamento Prof. M.T. PAZIENZA a.a
Valentina Russo Silvia Stomeo Francesca Romana Rossi Francesca Fortunato Luana Giannotti Erika Riolo Sidney Strauss.
Finalità generale della scuola: sviluppo armonico e integrale della persona all’interno dei principi della Costituzione italiana e della tradizione culturale.
1 PRIMA SCIENZA PONTEDERA 4 DICEMBRE 2014 PROGETTAZIONE E DOCUMENTAZIONE DEL PERCORSO Cristina Duranti.
Robotica Lezione 8. Robot Autonomo Un robot autonomo è una macchina capace di estrarre informazione dall'ambiente ed usare la conoscenza del mondo per.
Robotica Lezione 4. 2 Attributi dell’Intelligenza Pensiero Capacita’ a risolvere problemi Apprendimento e Memoria Linguaggio Intuizione e Creativita’
UN’INTRODUZIONE AI SISTEMI AD AGENTE E MULTIAGENTE Sistemi per il governo dei Robot,
Intelligenza Artificiale: possono le machine ragionare?
Unita' di apprendimento
Intelligenza Artificiale 1 Gestione della conoscenza lezione 2 Prof. M.T. PAZIENZA a.a
Sistemi basati su conoscenza (agenti intelligenti) Prof. M.T. PAZIENZA a.a
Sistemi basati su conoscenza Prof. M.T. PAZIENZA a.a
Università La Sapienza Rome, Italy Dal campionato di calcio alla RoboCup Daniele Nardi Dipartimento di Informatica e Sistemistica Università di Roma “La.
INTELLIGENZA ARTIFICIALE
L’iniziativa RoboCup: una sfida alla ricerca in Intelligenza Artificiale Pisa, 26 Marzo 1999 M. Simi A. Cisternino.
Agenti intelligenti Maria Simi a.a. 2013/2014 Riassunto  Intelligenza come capacità diverse …  Capacità di simulare il comportamento umano?  Capacità.
Conoscenze, abilità, competenze
L’ambiente e il sistema cognitivo
Transcript della presentazione:

Introduzione all’intelligenza artificiale e agli agenti intelligenti Maria Simi a.a. 2006/2007

Intelligenza Artificiale L’intelligenza artificiale si occupa della (1) comprensione (2) riproduzione del comportamento intelligente.

L’I.A. come scienza L’approccio della psicologia cognitiva (IA forte): Obiettivo: comprensione dell’intelligenza umana Metodo:costruzione di modelli computazionali, verifica sperimentale Criterio di successo: risolvere i problemi con gli stessi processi usati dall’uomo

L’I.A. come ingegneria L’approccio ingegneristico (IA debole): Obiettivo:costruzione di entità dotate di razionalità Metodo: codifica del pensiero razionale Criterio di successo: l’importante è risolvere i problemi che richiedono intelligenza

Definizioni di Intelligenza Artificiale “L’arte di creare macchine che svolgono funzioni che richiedono intelligenza quando svolte da esseri umani” [Kurzweil 1990]. “Il ramo della scienza dei calcolatori che si occupa dell’automazione del comportamento intelligente” [Luger-Stubblefield 1993]. “L’impresa di costruire artifatti intelligenti” [Ginsberg 1993].

Da “Strategic directions …” Il settore dell’I.A. consiste nell’indagine tecnologica e intellettuale, a lungo termine, che mira al raggiungimento dei seguenti obiettivi scientifici e pratici:  costruzione di macchine intelligenti, sia che operino come l’uomo che diversamente;  formalizzazione della conoscenza e ragionamento, in tutti i settori di azione dell’uomo; continua …

… continua  comprensione mediante modelli computazionali del comportamento di uomini, animali e agenti artificiali;  rendere il lavoro con il calcolatore altrettanto facile e utile che del lavoro con persone, capaci, cooperative e possibilmente esperte. [da Strategic Directions in Artificial Intelligence]

Che tipo di capacità?  Capacità di simulare il comportamento umano?  Capacità di ragionamento?  Intelligenza come competenza “da esperto”?  Intelligenza come “buon senso” (senso comune)?  Capacità di interagire con un ambiente?  Capacità sociali, di comunicazione e coordinamento?  Capacità di comprendere e provare emozioni?

Capacità di simulazione? Il test di Turing (1950)

Le previsioni  “Credo che tra circa 50 anni sarà possibile programmare computer con una memoria di un miliardo di byte in maniera tale che essi giochino il gioco dell’imitazione tanto bene che una persona comune non avrà più del 70% di identificarli dopo 5 minuti di interrogatorio” [Computing machinery and intelligence, Turing 1950]

Un grande dibattito [

Breve storia: gli inizi ( )  Mc Culloch & Pitts (1943): il primo lavoro sulle reti neurali  Conferenza di Darthmouth (1956)  Logic Theorist (Newell & Simon)

Capacità di ragionamento?  Giocare a scacchi  Dimostrare teoremi Le previsioni  Newell e Simon 1957: tra 10 anni le macchine saranno dichiarate campioni del mondo di scacchi …  Dreyfus anni ’60: una macchina non sarà mai in grado di giocare a scacchi [Che cosa non possono fare i computer]

Il racconto [da ‘Macchine come noi’] New York, Settima strada, 11 maggio Sta per concludersi una partita a scacchi formidabile, forse la più seguita di tutti i tempi. In palio oltre un miliardo di lire. Quello con la testa tra le mani e lo sguardo corrucciato è il campione G.K., 34 anni, il più grande giocatore di tutti i tempi …

Giocare a scacchi  1997: Deep Blue, sconfigge il campione mondiale di scacchi, Kasparov  Deep Blue, computer IBM Risk 2000 …  riesce a valutare 200 milioni di mosse al secondo  conosce aperture di partita

… ma è davvero “intelligente”?  Fortuna?  Vantaggio psicologico?  Contromosse di Deep Blue pressoché immediate  Kasparov come “speranza del genere umano”  Forza bruta?  36 miliardi di posizioni in 3 minuti  Deep Junior vs Michele Godona (IRST, 2004)

Dimostrare teoremi  Simon, Newell, Shaw 56: Logic theorist  Newell e Simon 57: General Problem Solver  Gelenter: geometria Euclidea  Slagel 61: Saint (analisi infinitesimale)  Evans 63: Analogy (test di intelligenza)  Bobrow : Student (algebra)

Grandi aspettative ( ) Non solo dimostrazione di teoremi …  Samuel e la dama  Lisp, time-sharing  Advice Taker (McCarthy)  Micromondi

Una dose di realismo ( )  Manipolazione sintattica non adeguata  Intrattabilità computazionale  Rapporto Lighthill in UK (1973)

Knowledge is the power! ( )  Conoscenza specifica del dominio  Successi nei sistemi esperti

Competenza esperta?  Una serie di successi negli anni 70-80:  Dendral, Mycin, Prospector, XCON, …  Oggi sono una realtà  Il collo di bottiglia: l’acquisizione di conoscenza  La mancanza di “buon senso”

Senso comune? L'abilità mentale che la maggior parte delle persone condividono. Il ragionamento di senso comune è più complesso di molti compiti intellettuali che suscitano più attenzione e considerazione, perché le abilità mentali che chiamiamo "competenza da esperto [expertise]" coinvolgono una grossa quantità di conoscenza ma di solito impiegano solo poche tipologie di rappresentazione. Diversamente, il senso comune coinvolge molte tipologie di rapresentazione e quindi richiede un insieme più ampio di abilità diverse. Marvin Minsky, The Society of Mind

CYC (  Il progetto CYC [Lenat]: costruire una base di conoscenza universale per dotare i computer di “senso comune”  Progetto di 10 anni iniziato nel 1986 in MCC, che continua dal 1994 in Cycorp  ~ termini, ~12 asserzioni per termine, divisi in migliaia di microteorie

CYC

Open mind (  Progetto più recente e meno ambizioso, che accetta contributi via Web  ha raccolto in un anno fatti di senso comune sotto forma di testo (cf 3 mil in Cyc)  Esempi:  A piece of food usually costs less than a piece of gold.  You are likely to find a mouse in a PC store  a plain is used for growing crops.  going off strike is for reaching an agreement.  You can use a dome arch to support a roof  The woodchuck is a rodent that is also called the groundhog  Something you might do while entertaining someone is doing a belly dance

Definizione di “intelligenza” “Qualità mentale che consiste nell’abilità di apprendere dall’esperienza, di adattarsi a nuove situazioni, comprendere e gestire concetti astratti. E utilizzare conoscenza per agire sul proprio ambiente” [Enciclopedia britannica]

Agenti intelligenti

Agenti Intelligenti: la visione “moderna”  Gli agenti sono situati  ricevono percezioni da un ambiente  agiscono sull’ambiente mediante azioni  Gli agenti hanno abilità sociale  sono capaci di comunicare  sono capaci di collaborare  sono capaci di difendersi da altri agenti  Gli agenti hanno credenze, obiettivi, intenzioni...  Gli agenti hanno un corpo e provano emozioni

La sfida: RoboCup La Robot World Cup Initiative (RoboCup) è un problema di riferimento per la ricerca in I.A. Si tratta di realizzare agenti in grado di giocare a calcio (entro il 2050!) Un problema difficile, da usare come banco di prova per nuove idee e tecnologie.

Tecnologie da sviluppare e integrare  agenti autonomi  collaborazione tra agenti  acquisizione di strategie  ragionamento e pianificazione in tempo reale  robotica  tecnologie hw e sw per infrastruttura

La sfida procede su diversi livelli  robot reali (real robot league)  versione software simulata (simulation league)  versione limitata ad abilità specifiche, es. tirare un calcio di rigore (special skill competion)

Eventi  IJCAI 97 (Giappone)  MAAMAW (Parigi, giugno 98)  Convegno AI*IA (Padova, settembre 98)  IJCAI 99 (Stoccolma, agosto 99).  Congresso AI*IA (Bologna, ottobre 99)  Campionato Europeo (Amsterdam, 2000); Campionato mondiale (Melbourne, 2000)  Campionato mondiale (Seattle, 2001)  Campionato mondiale (Fukuoka, 2002)  Campionato mondiale (Padova 2003)  2004 Lisbona, 2005 Osaka...

La sfida robotica  Robot di diverse dimensioni  Small Size League  Middle Size League  Legged League  Humanoid League

Small size league

Middle size league

Legged league

Humanoid league

L’umanoide che gioca a calcio  Le previsioni sono che per il 2050 i robot potranno competere con giocatori umani

Il problema del calcio simulato Come il gioco del calcio ma …  Mondo in due dimensioni  Giocatori e palla sono cerchi  I movimenti sono simulati per passi

RoboCup Rescue  Prima competizione a IJCAI-2001  Scenari di disastri di vaste dimensioni  Obiettivo: salvare vite umane  Scenari simulati e ambienti per robot  Ambiente ostile popolato da agenti eterogenei, lavoro di squadra, decisioni critiche in tempo reale

Capacità di interagire con un ambiente?  Robot capaci di muoversi in un ambiente, evitare ostacoli, compiere semplici missioni …  Approccio top-down (agenti deliberativi)  Approccio bottom-up (agenti reattivi)  Brooks:  Il modello è il mondo  L’intelligenza emerge dall’interazione con l’ambiente  Insetti, animali, bambini elettronici, vita artificiale

Capacità di emozioni? “The question is not whether intelligent machines can have emotions, but whether machines can be intelligent without any emotions” [Minsky, The Society of Mind]

Capacità di emozioni?  Comprendere e dimostrare emozioni  Agenti credibili  Affective computing  Computer indossabili  Ruolo delle emozioni nel meccanismo di decisione [Damasio]

L’ipotesi di base dell’I.A. simbolica Ipotesi del sistema dei simboli fisici [Newell, Simon: 1976] “Un sistema di simboli fisici ha i mezzi necessari e sufficienti per riprodurre un comportamento intelligente”

L’I.A. sub-simbolica e le reti neurali  Approccio alternativo che prende la mente umana come modello  Rete di elementi computazionali semplici connessi tra di loro (approccio connessionista)  Si elaborano segnali continui piuttosto che simboli

Il presente  I.A. come scienza matura  Contributi dalle altre discipline  Integrazione come componente di sistemi software più tradizionali  Sistemi di I.A. ibridi  Visione globale all'intelligenza:  agente “situato”  agente “embodied” (immerso in un corpo)

Nuove teorie  On Intelligence, Jeff Hawkins  Intelligenza come capacità di predire il futuro per analogia con il passato  Cervello come sistema di memoria in grado di immagazzinare pattern e di fare predizioni sulla base di queste memorie  Un algoritmo di base che spiega tutti i comportamenti intelligenti, inclusa la creatività

Programma 2006 – I parte  Introduzione (2 ore)  Obiettivi e caratterizzazione dell’Intelligenza Artificiale  La visione dell’Intelligenza Artificiale come costruzione di “agenti intelligenti”  Risoluzione dei problemi come ricerca euristica (8 ore + 4 esercitazione)  Formulazione di problemi come ricerca in uno spazio di stati  Giochi con avversario  Sistemi a regole

Programma 2006 – II parte  Rappresentazione della conoscenza e ragionamento (10 ore + 10 esercitazione)  Motivazioni e questioni basilari nella rappresentazione della conoscenza  Il calcolo proposizionale e la soddisfacibilità  Il calcolo dei predicati  Metodo di risoluzione e programmazione logica

Programma 2006 – III parte  Corso integrativo di U. Straccia (8-10 ore) Web Semantico, ontologie, le logiche descrittive e la loro storia La famiglia delle logiche descrittive: teoria e sistemi attuali Esercitazioni: Costruzione di ontologie e loro uso

Programma 2006 – IV parte  Pianificazione (2 ore + 2 esercitazione)  Il calcolo di situazioni e il problema del contorno  Pianificazione nello spazio delle situazioni (STRIPS)  Pianificazione nello spazio dei piani (POP).

Testo di riferimento S. Russell, P. Norvig, “Intelligenza Artificiale: un approccio moderno", Prentice Hall, 2005 (AIMA) Traduzione italiana dei primi 12 capitoli

Testi di consultazione R. Brachman, H. Levesque, "Readings in Knowledge Representation", Morgan Kauffmann, G. Luger, W. A. Stubblefield, "Artificial Intelligence and the Design of Expert Systems", The Benjamin/Cummings Publishing Company, Inc., E. Rich, K. Knight, "Intelligenza Artificiale: seconda edizione", Mc Graw Hill Libri Italia Srl, N. J. Nilsson, Artificial Intelligence: a New Synthesis, Morgan Kauffman, 1998.

Pagine Web Pagina del corso Pagina del libro

Agenti intelligenti: la prospettiva di AIMA

Agenti razionali  Agente intelligente: interagisce con il suo ambiente in maniera “efficace” (fa la cosa giusta)  Agente razionale: criterio di valutazione delle prestazioni oggettivo  Misura di valutazione delle prestazioni  Esterna (come vogliamo che il mondo evolva?)  Valutazione su ambienti diversi

Agente razionale: definizione  Agente razionale: per ogni sequenza di percezioni compie l’azione che massimizza la sua misura delle prestazioni, considerando le sue percezioni passate e la sua conoscenza predefinita.  La razionalità è relativa a:  la misura di prestazioni  le conoscenze “a priori” dell’ambiente  le percezioni presenti e passate  le capacità dell’agente

Razionalità non omniscenza  Non si pretendono capacità predittive  Ma potrebbe essere necessarie azioni informative o esplorative Razionalità non onnipotenza  Le capacità dell'agente possono essere limitate

Razionalità richiede capacità di apprendere  Raramente tutta la conoscenza sull’ambiente può essere fornita “a priori”.  L’agente deve essere in grado di modificare il proprio comportamento con l’esperienza.

Agenti autonomi  Agente autonomo: un agente è autonomo nella misura in cui il suo comportamento dipende dalla sua esperienza.  Un agente il cui comportamento fosse determinato solo dalla sua conoscenza built-in, sarebbe non autonomo e poco flessibile

Formulazione PEAS dei problemi (Performance-Environment-Actuators-Sensors) Problema PEA S Diagnosi medica Robot “raccoglitore” Tassista Giocatore di calcio Diagnosi corretta, cura del paziente Pazienti, ospedale Immagini (pixel di varia intensità) Raccogliere le parti e metterle nei cestini Dividerle a seconda del tipo Nastro trasportatore Telecamera, Tacchimetro, GPS, sonar, microfoni Sterzare, accelerare, frenare, parlare al passeggero Guida veloce e sicura; raggiungere destinazione Strade, traffico, pedoni, passeggeri Locazione pallone altri giocatori, porte Dare calci al pallone, correre Fare più goal dell’avversario Altri giocatori, campo di calcio, porte Domande, suggerimenti test, diagnosi Sintomi, Test clinici, risposte paziente

Proprietà dell’ambiente-problema  Completamente/parzialmente osservabile  Deterministico/stocastico (strategico)  Episodico/sequenziale  Statico/dinamico (semi-dinamico)  Discreto/continuo  Agente singolo/multi-agente Ambienti reali: parzialmente osservabili, stocastici, sequenziali, dinamici, continui e multi-agente.

Simulatore di ambienti Uno strumento software che si occupa di:  generare stimoli per gli agenti  raccogliere le azioni in risposta  aggiornare lo stato dell’ambiente  [attivare altri processi che influenzano l’ambiente]  valutare le prestazioni degli agenti

Simulatore function Run-Eval-Environment (state, Update-Fn, agents, Performance-Fn) returns scores local variables: scores (a vector of size = #agents, all 0) repeat for each agent in agents do Percept[agent]  Get-Percept(agent, state) end for each agent in agents do Action[agent]  Program[agent](Percept[agent]) end state  Update-Fn(actions, agents, state) scores  Performance-Fn(scores, agents, state) until termination(state) return scores

Struttura di un agente Agente = Architettura + Programma Ag: P  Az percezioni azioni Il programma dell’agente implementa la funzione Ag

Programma agente function Skeleton-Agent (percept) returns action static: memory, the agent’s memory of the world memory  UpdateMemory(memory, percept) action  Choose-Best-Action(memory) memory  UpdateMemory(memory, action) return action

Agente basato su tabella Concettualmente, la scelta dell’azione è un accesso a una tabella che associa un’azione ad ogni possibile sequenza di percezioni. Problemi: 1. Per giocare a scacchi tabella con righe! 2. Difficile da costruire 3. Nessuna autonomia 4. Di difficile aggiornamento, apprendimento complesso.

Agenti reattivi semplici Agiscono “per riflesso” e sono dotati di regole condizione  azione

Agenti reattivi - programma function Simple-Reflex-Agent (percept) returns action static: rules, a set of condition-action rules state  Interpret-Input(percept) rule  RuleMatch(state, rules) action  RuleAction[rule] return action

Agenti con stato |basati su modello

Agenti con stato - programma function Reflex-Agent-With-State (percept) returns action static: state, una descrizione dello stato corrente rules, un insieme di regole condizione-azione action, l’azione più recente state  Update-State(state, action, percept) rule  RuleMatch(state, rules) action  RuleAction[rule] return action

Agenti con obiettivo

Agenti con valutazione di utilità

Agenti che apprendono Critic Learning element Problem generator Performance element Sensors Actuators changes knowledge feedback learning goals Agent ENVIRONMENTENVIRONMENT Performance standard