SCOPO DEGLI AGENTI “ BELIEFS, DESIRES AND INTENTIONS”

Slides:



Advertisements
Presentazioni simili
Capitolo 12 Il Futuro Semplice.
Advertisements

Le intenzioni nellazione collaborativa fra agenti Guido Boella Dipartimento di Informatica Università di Torino.
Gian Luca Pozzato. AgentSpeak (L) & Jason AgentSpeak(L): linguaggio di programmazione per agenti BDI introdotto da Rao nel 1996 Si propone di colmare.
UN’INTRODUZIONE AI SISTEMI AD AGENTE E MULTIAGENTE Sistemi per il governo dei Robot,
4/22/2015bdi agents1 BDI AGENTS n SCOPO DEGLI AGENTI “ BELIEFS, DESIRES AND INTENTIONS” n DEFINIZIONE DI “INTENZIONE” n SPECIFICHE DI AGENTI BDI n ARCHITETTURE.
Fondamenti di Informatica - D. Talia - UNICAL 1 Fondamenti di Informatica FONDAMENTI DI INFORMATICA Domenico Talia
Grafici, diagrammi, equazioni… Ma qualcuno sa spiegarmi perché se mettete cinque economisti in una stanza a discutere ne vengono fuori dopo ore con sei.
PGDay 2009 FSGateway Ing. Torello Querci Resp. Architetture SW - Negens S.r.l. 4 Dicembre 2009, Pisa.
Algoritmi Avanzati a.a.2014/2015 Prof.ssa Rossella Petreschi
Dott.ssa Elisa Papa – albo n° 5343 del 3/3/2008 –
Intelligenza Artificiale 1 Sistemi basati su conoscenza Conoscenza e ragionamento Prof. M.T. PAZIENZA a.a
SICURI IN RETE MODULO C.
Pensiero Computazionale
Coding unplugged e con il PC nella scuola primaria
L’analisi e la soluzione dei problemi
LA TEORIA DELLA MENTE.
Statistica Prima Parte I Dati.
I centri di controllo del cervello
Il pensiero computazionale
UNA DEFINIZIONE DI COMPETENZA
L’ESSERE PARMENIDE ( a.C.) REALIZZATO DA ELEONORA MARCIANTE 3^B
Algoritmi e soluzioni di problemi
DIRIGERE L’INNOVAZIONE
IL CONCETTO DI ALGORITMO
Incontro introduttivo
Il futuro.
Robot che vivono in un mondo incerto
Quali caratteristiche ha una relazione “educativa” ?
Lavoro Realizzato all’interno della 2C
Asynchronous JavaScript and XML
Modulo N.2: Business plan, Budget e Competenze Manageriali
La pianificazione aziendale
Capitolo 12 Il Futuro Semplice.
Guido Boella Dipartimento di Informatica Università di Torino
CRITERI PER LA BUONA FORMAZIONE DI UN OBIETTIVO
PON Docente: Maura Roberta Orlando I.C. Zingarelli, Bari
PON Docente: Maura Roberta Orlando I.C. Zingarelli, Bari
Progetto di Tecnologie Web 2014/2015 THERMOWEB
Processi e Thread Meccanismi di IPC (1).
Psicologia dell’apprendimento
[Nome progetto] Relazione finale
Programmare.
Strutture di Controllo
Capitolo 12 Il Futuro Semplice.
Fil Ling Lezioni
L’ATTIVITÀ DI PIANIFICAZIONE E CONTROLLO
L’analisi e la soluzione dei problemi
Il tempo è più prezioso del denaro:
Sistemi informativi statistici
Non è sufficiente sapere, ma saper fare qualcosa con quello che si sa
[Nome progetto] Relazione finale
Ricorsione 16/01/2019 package.
Capitolo 12 Il Futuro Semplice.
L’ATTIVITÀ DI PIANIFICAZIONE E CONTROLLO
Non ne posso più! Dovere, potere, volere Ti voglio bene!
Algoritmi e Strutture Dati
Operazioni per caricare dei documenti sul Portale
Concorrenza e parallelismo
Processi decisionali e funzioni di controllo
L’ATTIVITÀ DI PIANIFICAZIONE E CONTROLLO
IN UN COLLOQUIO, FACCIAMO DOMANDE PER...
Martina Smecca 5^A Accoglienza
CRITERI PER LA BUONA FORMAZIONE DI UN OBIETTIVO
Francesco orilia Logica A.A Semestre II Francesco orilia
Simon capp 4 e 5.
I VERBI MODALI dovere-potere-volere
Variabile interveniente
Algoritmi.
APPRENDIMENTO L'apprendimento consiste nell'acquisizione o nella modifica di conoscenze,comportamenti,abilità, valori o preferenze e può riguardare.
INDICAZIONI PER LA SCUOLA DELL’INFANZIA
Transcript della presentazione:

SCOPO DEGLI AGENTI “ BELIEFS, DESIRES AND INTENTIONS” Esigenza che si vuole risolvere: “Costruire sistemi che sono situati in ambienti dinamici e che devono ragionare e pianificare, e agire con forti vincoli di tempo. Il sistema deve essere contemporaneamente goal directed e reattivo” [Rao & Georgeff 1992] 12/3/2018 bdi agents 1998

GOAL DIRECTED: devono cercare di ottenere un certo scopo SITUATEDNESS: non solo sono collocati in un ambiente in cui agiscono, ma, soprattutto, possiedono una rappresentazione simbolica di esso PIANIFICARE: costruiscono e/o scelgono delle sequenze di azioni che permettono di rendere vero un certo stato del mondo VINCOLI TEMPORALI: tali sistemi non dispongono di risorse infinite: “resource boundedness” GOAL DIRECTED: devono cercare di ottenere un certo scopo REACTIVITY: devono reagire di fronte a cambiamenti dell’ambiente 12/3/2018 bdi agents 1998

ESEMPI DI DOMINI DI APPLICAZIONE Automatizzazione delle procedure usate dagli astronauti sullo Space Shuttle per gestire i malfunzionamenti dei propulsion flight controllers. PRS [Georgeff & Ingrand,1988] Automatizzazione dei controllori di volo che coordinano l’arrivo degli aerei in aeroporto [Rao & Georgeff, 1992] 12/3/2018 bdi agents 1998

HUMAN AGENTHOOD BELIEFS, DESIRES AND INTENTIONS Il modello che i bdi agents vogliono imitare e’ il comportamento umano. In particolare il fatto che gli esseri umani siano guidati da tre “attitudini”: BELIEFS, DESIRES AND INTENTIONS CREDENZE, GOAL E INTENZIONI Ambiguo fra il significato di scopo e desiderio. 12/3/2018 bdi agents 1998

Bratman: “What Is Intention?” 2 possibili interpretazioni della parola: Azione: “l’ha ucciso intenzionalmente” Stato mentale: “ho l’intenzione di andare a vedere Titanic” Proprieta’: future directed: *“ho l’intenzione di andare al cinema ieri” stato mentale che influenza il comportamento futuro stabili (“committment”) ma revocabili: non posso prevedere cosa accadra’ in futuro, quindi devo poter cambiare idea. 12/3/2018 bdi agents 1998

“Why bother today to have an intention about tomorrow?” Perche’ non attendere domani sera prima di formarmi (ora) l’intenzione di andare al cinema? Perche’ sprecare risorse per formarmi delle intenzioni ora, se non so cosa accadra’ domani (ad es. Mi potrebbero invitare a cena)? Soluzione alternativa: utilizzare un pianificatore classico e poi scegliere fra le opzioni che propone 12/3/2018 bdi agents 1998

Planning + Practical Reasoning? Scelgo un obbiettivo Costruisco un piano completo che lo soddisfi Scelgo fra le alternative tramite “decision theory” (probabilita’ eventi + utility function) Limiti: devo conoscere lo stato del mondo piu’ tempo passo a pianificare e decidere, maggiore e’ la probabilita’ che il mondo cambi ad ogni cambiamento del mondo devo ricominciare da capo 12/3/2018 bdi agents 1998

RUOLO DELLE INTENZIONI Questi problemi sono dovuti alla “resource boundedness”: il ruolo delle intenzioni e’ di limitare lo spazio di ricerca del planning e quello della scelta fra le opzioni. Per questo motivo le intenzioni: sono future directed e (relativamente) stabili: se stabilisco ora una linea di azione per il futuro, le scelte successive dovranno essere compatibili con questa: limito le opzioni possibili. Se ho l’intenzione di andare domattina a prendere un libro in biblioteca, non prendero’ in considerazione l’azione di andare a giocare a tennis 12/3/2018 bdi agents 1998

Costituiscono l’input per ulteriori fasi di pianificazione Riguardano piani parziali: non conoscendo in anticipo come puo’ evolvere il mondo, costruisco dei piani che sono incompleti temporalmente (non stabilisco l’ordinamento completo delle azioni) o strutturalmente (non scelgo come eseguire delle azioni complesse). Esempio: Posso avere l’intenzione di andare a prendere un libro in biblioteca, senza aver necessariamente costruito un piano in tutti i suoi dettagli (posso non aver ancora scelto se andare in macchina o prendere il tram, perche’ non so se ci sara’ sciopero). Costituiscono l’input per ulteriori fasi di pianificazione 12/3/2018 bdi agents 1998

PARTIAL PLANS: hierarchical organization of actions Get-book Buy-book Borrow-book Go(library) Read(location) Fill(sheet,location) Walk(library) Drive(library) Piano completo: Walk(library);Read(location);Fill(sheet,location)... 12/3/2018 bdi agents 1998

HAVING A PLAN [Pollack,1990] distingue due significati del concetto di avere un piano: avere la conoscenza riguardo all’esecuzione di un certo compito (ad es. possedere una libreria di piani) essere nello stato mentale di avere l’intenzione di eseguire un piano: devo credere che il piano sia eseguibile, credo che intendo eseguirlo per raggiungere un certo scopo, devo avere l’intenzione di eseguire tutti i passi del piano... 12/3/2018 bdi agents 1998

INTENZIONI E CREDENZE Intendo solo cio’ che credo possibile (i.e. esiste un piano che ritengo eseguibile) credo che eseguiro’ quello che intendo: se intendo andare al cinema domani, credo che domani saro’ al cinema e non a casa (“conduct coordinating pro-attitude”) la stabilita’ delle intenzioni implica che, se fallisce il mio piano, ne cerchero’ un altro per raggiungere il mio scopo controllo se l’esecuzione di un piano ha avuto successo non intendo quelle che credo essere le conseguenze indesiderate delle mie azioni (problema dei “side effects”) 12/3/2018 bdi agents 1998

? SIDE EFFECTS Intend(A)  Bel(AB) Intend(B) Non voglio essere committed verso B: altrimenti dovrei perseguire B anche se A e’ gia’ realizzato (e quindi le mie credenze erano sbagliate). Esempio: Strategic bomber: Intend(bombardare la fabbrica) ma Bel(bombardare la fabbrica uccidere i bimbi della scuola) Terror bomber: Intend(uccidere i bimbi della scuola) 12/3/2018 bdi agents 1998

ARCHITETTURA ASTRATTA action Plan library Intentions structured into plans Opportunity analyser means-end reasoning Filtering process option perception Desires Beliefs Deliberation process intentions Reasoner 12/3/2018 bdi agents 1998

SPECIFICHE DI AGENTI BDI [Cohen & Levesque, 1990] propongono una formalizzazione della relazione fra credenze, goal e intenzioni per mezzo di una logica modale. Danno una specifica di cosa e’ un agente BDI, non un formalismo per costruire sistemi. Dichiarativita’: non solo definizione operazionale (i.e. architettura di agente) perche’ e’ necessario poter parlare delle intenzioni di un agente. 12/3/2018 bdi agents 1998

MODAL LOGIC Le intenzioni sono modellate come un concetto complesso e definite in termini di belief e goal di un agente: utilizzano degli operatori modali basati su una semantica a mondi possibili. L’oggetto di una intenzione puo’ essere un’azione: estensione della logica modale per rappresentare azioni : Ogni mondo deve essere una sequenza di stati collegati da azioni che scandiscono il tempo a0 A B a1 A B a2 A B a3 A B a4 n-1 n n+1 n+2 12/3/2018 bdi agents 1998

BELIEFS and ACTIONS A  B  Belx(A)  Belx(B) 0 Bx 2 1 ah a1 a2 ai am 1 n-1 n n+1 n+2 A B AB A B ACB Bx: (PN) ap a1 a2 ak an n-1 n n+1 n+2 12/3/2018 bdi agents 1998

GOALS and ACTIONS 0 Gx Goalx(A)  Goalx(happens(a2;B)) 1 Gx: (PN) ap a1 a2 ak an n-1 n n+1 n+2 12/3/2018 bdi agents 1998

REPRESENTING ACTIONS Bisogna poter parlare delle azioni, di cio’ che e’ (creduto) vero dopo un’azione o nel futuro: happens(a2)happens(a2;a3) Belx(happens(a2) done(a1)) happens(a2;A?) (test action) Belx( B) (eventually) where Pe|happens(e;P?) later(A) where later(P)  P  P before(P,Q) 12/3/2018 bdi agents 1998

PROPRIETA’ di Bel e Goal Realismo: non posso scegliere cio’ che credo falso: i mondi accessibili via relazione G devono essere un sottoinsieme di quelli accessibili via B Se credo vero qualcosa non posso non volerlo: Belx(P)Goalx(P) (nello stesso istante temporale) serialita’ di B e G (consistenza): Goalx(P)  Goalx(P) chiusura rispetto a implicazione (e side effects): (Goalx(P)  Goalx(P Q))  Goalx(Q) notare che Belx(P Q)Goalx(P Q) if |=  then Goalx() |=  Goalx(later(P)) (no infinite deferral) 12/3/2018 bdi agents 1998

PERMANENT GOAL Achieavement goal (vs maintaineance): A-Goalx(P)  Goalx(later(P))  Belx(P) Committment (fanatical): goal permanente a certe condizioni P-Goalx(P)  A-Goalx(P)  Belx(P)  before[(Belx(P)  Belx(P)), Goalx(later(P))] Relative committment: P-R-Goalx(P,Q)  A-Goalx(P)  Belx(P)  before[(Belx(P)  Belx(P)  Belx(Q) ), 12/3/2018 bdi agents 1998

INTENDING ACTIONS Intend1x(a)  P-Goalx[donex(Belx(happensx (a;P?))?;a;P?)] Gx .. P P ... ... a1 a a3 a4 n-1 n n+1 n+2 0 Bx ... P P ... ah a1 a ... ... n-1 n n+1 n+2 2 ... P P ... ... a1 a2 ... ... 1 n-1 n n+1 n+2 12/3/2018 bdi agents 1998

INTENDING STATES Intend2x(P)  P-Goalx{e |donex[Belx(e1|happensx(e1;P?))  Goalx(happensx(e;P?))]?;e;P?} Quantificazione esterna al belief: x non sa ancora quale azione eseguira’ (forse e1 e), ma l’azione e1 effettivamente eseguita non deve essere contraria ai goal di x. Esempio dell’uccisione dello zio: voglio uccidere mio zio, ma mentre vado a casa sua investo un pedone; il pedone e’ mio zio ma non l’ho ucciso intenzionalmente. 12/3/2018 bdi agents 1998

INTENTIONS FOR MULTIAGENTS Se invece di un singolo agente si ha a che fare con un gruppo che deve eseguire un certo compito, e’ necessaria una nuova nozione di intenzione che permetta di coordinare l’attivita’ del gruppo. L’intenzione resta uno stato mentale del singolo agente, ma include delle nuove condizioni. Cosi’ come le azioni sono sempre eseguite da un singolo agente. In particolare, per coordinare un gruppo di agenti e’ necessaria la comunicazione fra loro, in modo che la loro azione non prenda strade divergenti. Non e’ sufficiente avere l’intenzione di eseguire la propria parte del piano e il mutual belief che gli altri hanno tale intenzione. 12/3/2018 bdi agents 1998

Esempio del “convoglio” [Cohen & Levesque, 91] A non sa la strada per andare a casa ma sa che B per andare a casa propria passa davanti alla sua. A segue B senza dirglielo ma B guida troppo veloce e A si perde. B sa che qualcuno lo seguira’ per andare a casa: pero’, se A si ferma per un guasto B crede che A sia arrivato e accellera. A arriva a casa e si ferma. Credendo che ci sia un guasto B si ferma e aspetta A a meta’ strada capisce dove si trova e da quel punto puo’ procedere da solo: ma B continua voler passare davanti a casa di A e a procedere non troppo forte. 12/3/2018 bdi agents 1998

JOINT INTENTION Un gruppo di agenti ha un joint persistent goal di ottenere P relativo a Q sse: tutti i membri del gruppo credono che P e’ falso tutti mutualmente credono che tutti hanno P come goal e’ creduto mutualmente che continueranno ad avere un weak achievement goal fino a che non sara’ conoscenza mutua fra loro che P e’ vero o che P e’ impossibile da raggiungere o che Q e’ diventato falso. Weak achievement goal P: Un agente ha il goal P e crede che P e’ falso oppure crede che che P e’ vero, irrilevante o impossibile da raggiungere e ha il goal che tale situazione sia mutua conoscenza di tutti i membri del gruppo. 12/3/2018 bdi agents 1998

ARCHITETTURE PER AGENTI BDI Non e’ possibile utilizzare una formalizzazione logica come quella di Cohen & Levesque assieme ad un theorem prover perche’ non ho garanzie sul tempo di esecuzione del theorem prover e quindi perderei la reattivita’ del sistema. Anche le procedure di ragionamento sui beliefs e il meccanismo di decisione non puo’ essere implementato per mezzo di un theorem prover perche’ si pone lo stesso problema. Utilizzo uno strumento uniforme: tutta la conoscenza e’ espressa sotto forma di piani (anche quella per ragionare sui beliefs e per prendere decisioni) e gestita da un interprete. 12/3/2018 bdi agents 1998

ARCHITETTURA di PRS (Georgeff et al.) Unico modulo di ragionamento 12/3/2018 bdi agents 1998

Knowledge Areas = Plans type: drink-cola invocation: goal-add(thirst) precondition:have-glass add-list: { thirst} body: type: drink-water invocation: goal-add(thirst) precondition:have-glass add-list: { thirst} body: start start have-cola open-tap proposition action 1 1 drink drink end end 12/3/2018 bdi agents 1998

BDI INTERPRETER() Initialize state(); do beliefs espliciti no chiusura eventi interni ed esterni Initialize state(); do options := option-generator(event-queue, B,G,I); selected-option := deliberate(options,B,G,I); I := update-intentions(selected-option,I); execute(I); event-queue := event-queue + get-new-external-events(); drop-successful-attitudes(B,G,I); drop-impossible-attitudes(B,G,I); until quit. bound on reaction time atomic actions anche esito azioni 12/3/2018 bdi agents 1998

Option-generator(event-queue,B,G,I) options := {}; for trigger-event  event-queue do for plan  plan-library do if matches(invocation-cond(plans),trigger-event) then options := options + plan; return(options). 12/3/2018 bdi agents 1998

Deliberate(options,B,G,I) if length(options) < 2 then return(options) else metalevel-options := (belief-add(option-set(options))); selected-option := deliberate(metalevel-options); if null(selected-option) then return(random-choice(options)); else return(selected-option). 12/3/2018 bdi agents 1998

Meta Knowledge Areas type: meta-selector invocation: lenght(options)>1 add-list: {goal-add(?x)} body: type: prove B invocation: goal-add(Bel(B)) precondition: Bel(A) add-list: {Bel(B)} body: start end Bel(?x cheap(?x)) Bel(cheap(?x)) 1 2 ?x := random- choice(options) goal-add(?x) end end 12/3/2018 bdi agents 1998

Intention structure Beliefs Goals Intentions cheap(drink-water)  thirst  have-glass thirst option-set(drink-cola,drink-water) meta-selector Bel(cheap(?x)) ?x=drink-water drink-water open-tap drink thirst 12/3/2018 bdi agents 1998