Si può parlare di libertà delle macchine? Angelo Montanari Dipartimento di Matematica e Informatica Università degli Studi di Udine SCUOLA SEFIR - Perugia, 13 aprile, 2012
Sommario Libertà e macchine: la questione dell'intenzionalità Riduzionismo e intelligibilità delle macchine Le macchine informazionali Un approccio comportamentista: il test di Turing La società della mente di Minsky Menti, cervelli e programmi: la stanza cinese di Searle Alcuni risultati fondamentali in informatica La ricerca in bionica Conclusioni
Libertà delle macchine? La questione: si può parlare di libertà delle macchine? può essere declinata in vari modi sostanzialmente equivalenti (il riferimento privilegiato, ma non esclusivo, è ai sistemi di intelligenza artificiale): macchine e coscienza macchine e intenzionalità responsabilità delle macchine
La nozione di intenzionalità Nella riflessione filosofica (Brentano, Husserl, Carnap), l'intenzionalità viene riconosciuta quale elemento distintivo della coscienza (in generale, di ogni fenomeno psichico) Per Brentano, l'intenzionalità è il carattere costitutivo di ogni fenomeno psichico Per Husserl, l'intenzionalità è il carattere costitutivo della coscienza e del rapporto soggetto (umano) - oggetto. Compito della filosofia è descrivere la struttura immanente con cui l'oggetto è intenzionato dalla coscienza
Una definizione In generale, possiamo definire l'intenzionalità come il riferimento interno di un atto o di uno stato mentale a un determinato oggetto, ossia la connessione che l'atto o lo stato hanno, in virtù della loro identità, con un certo oggetto, indipendentemente dalla sussistenza di questo eventuale oggetto nella realtà esterna. Esempio. Dell'identità di uno stato emotivo di speranza fa parte ciò che è sperato, indipendentemente dal fatto che si realizzi oppure no.
Intenzionalità e macchine La questione: si può parlare di libertà delle macchine? può essere riformulata come: si può dare intenzionalità nelle macchine? Questioni collegate/sottese: qual è il rapporto tra menti (persone umane) e macchine? Si può instaurare una corrispondenza tra stati mentali/cerebrali e stati di una macchina? Possiamo parlare di (auto)coscienza delle macchine (ad esempio, rispetto al problema della responsabilità delle macchine)? L'approccio riduzionista Angelo Montanari, Riduzionismo e non in Intelligenza Artificiale, Anthropologica, Annuario di Studi Filosofici, 2009, pp
L'approccio riduzionista Riduzionismo: posizione di chi riconduce le proprietà di un'entità complessa (oggetto, sistema o organismo) alla somma delle caratteristiche delle sue singole componenti Questione fondamentale: cosa vuole dire somma? Per i riduzionisti, il modo in cui le caratteristiche delle componenti elementari concorrono alla determinazione delle caratteristiche del composto può essere definito in modo semplice e chiaro Per chi si oppone al riduzionismo, la debolezza della posizione riduzionista si manifesta nella complessità delle interazioni fra le componenti, non riducibili alle proprietà delle singole componenti
Le forme del riduzionismo Il riduzionismo è presente in forme diverse in discipline diverse, ma vi sono forti contaminazioni fra i vari ambiti Esempi. - Posizioni riduzioniste sviluppate a livello di riflessione filosofica e di studi di psicologia, quali il funzionalismo e il comportamentismo, hanno pesantemente influenzato le linee di sviluppo della ricerca in cibernetica prima e IA poi - Influenza della ricerca in neurofisiologia, in particolare delle tecniche di imaging funzionale, sui più recenti sviluppi dell'IA nell'ambito della bionica Riduzionismo filosofico e riduzionismo scientifico
Il riduzionismo scientifico Efficacia pratica dell'applicazione dello schema riduzionistico in ambito scientifico e ingegneristico La possibilità di definire il comportamento di un sistema complesso in termini di proprietà ed interazioni delle sue componenti elementari è stato uno dei fattori chiave nello sviluppo di numerose discipline scientifiche Esempio: la fisica Una grandissima varietà di fenomeni viene ricondotta all'interazione di un insieme ridotto di particelle e campi di forze
Riduzionismo e macchine - 1 L'intelligibilità delle macchine, ossia la possibilità di descriverne in modo comprensibile le caratteristiche strutturali e funzionali e le tecniche di costruzione, è condizione essenziale per il loro sviluppo e il loro utilizzo Solo l'esistenza di una spiegazione adeguata (razionale) del funzionamento di una macchina complessa consente, infatti, di predirne, nei limiti del possibile, il comportamento e di diagnosticarne gli eventuali guasti e malfunzionamenti
Riduzionismo e macchine - 2 La spiegazione mediante il paradigma riduzionista: l'analisi del sistema nel suo complesso viene ridotta all'analisi separata delle sue componenti elementari e delle loro interazioni Efficace nel caso di macchine relativamente semplici, tale approccio diventa problematico in presenza di meccanismi di controllo (meccanismi di anticipazione e meccanismi di retroazione). Tali meccanismi possono essere visti come il tentativo di introdurre nella macchina un'opportuna rappresentazione dell'obiettivo (causa finale) per il quale la macchina è stata costruita
Le macchine informazionali Macchine cibernetiche (o informazionali): macchine che incorporano sofisticati meccanismi di controllo Esempio. I sistemi di intelligenza artificiale E' problematico ricorrere ad uno schema riduzionista di tipo tradizionale per spiegare il funzionamento di tali macchine Ciò nonostante, non viene meno il tentativo di assimilazione dell'uomo ad una particolare classe di macchine: uomo come macchina di natura meccanica; successivamente, uomo come macchina termodinamica prima e come macchina chimica poi; nel secolo scorso uomo come macchina informazionale
Un'osservazione - Ragioni e problematiche relative all'uso di un linguaggio antropomorfo nella descrizione delle caratteristiche e del funzionamento di una macchina - Ciò è particolarmente evidente nel caso dei sistemi di intelligenza artificiale (memoria, comprensione, apprendimento, ragionamento,..), ma si è verificato in misura più o meno rilevante in molti altri casi - Una possibile ragione: l'uomo come modello (cibernetica) - Due approcci: simulazione vs. emulazione
Macchine informazionali e libertà L'affermazione circa la possibilità di riprodurre artificialmente caratteristiche e comportamento dell'essere umano (sistemi di intelligenza artificiale) si presta a due letture speculari: (i) se il comportamento di una macchina sarà assimilabile a quello dell'uomo, sarà possibile parlare di libertà, e responsabilità, delle macchine (ii) se il comportamento dell'uomo sarà assimilabile a quello di una macchina, non sarà più possibile parlare (e, retrospettivamente, si è parlato inappropriatamente) di libertà, e responsabilità, dell'uomo (riduzionismo)
Alcune figure paradigmatiche Illustreremo i passaggi fondamentali della riflessione sul rapporto tra macchine informazionali (sistemi di intelligenza artificiale) e uomo attraverso la descrizione del contributo di alcune figure paradigmatiche: Alan M. Turing (Computing Machinery and Intelligence, in «Mind», volume 59, 1950, pp ) Marvin Minsky (The society of mind, Simon and Schuster, 1986) John R. Searle (Minds, brains, and programs, Behavioral and Brain Sciences, volume 3, 1980, pp )
Il test di Turing Il test di Turing (o gioco dellimitazione): una macchina può essere definita intelligente se riesce a convincere una persona che il suo comportamento, dal punto di vista intellettuale, non è diverso da quello di un essere umano medio
Il test di Turing: dettagli - 1 Il test si svolge in tre stanze separate. Nella prima si trova l'esaminatore umano (A); nelle altre due vi sono rispettivamente un'altra persona e il computer che si sottopone al test. Dei due A conosce i nomi (B e C), ma ignora chi sia la persona e chi il computer. Sia B che C si relazionano separatamente con A attraverso un computer. Via computer A può porre domande a B e C e leggere le loro risposte. Compito di A è scoprire l'identità di B e C (chi è la persona, chi è la macchina?) entro un limite di tempo prefissato.
Il test di Turing: dettagli - 2 A può effettuare qualunque tipo di domanda; il computer ovviamente cercherà di rispondere in modo tale da celare la propria identità. La macchina supera il test se A non riesce a identificarla nel tempo prefissato. Il test verrà ripetuto più volte, coinvolgendo anche esaminatori diversi, in modo da ridurre i margini di soggettività. Osservazioni. 1. astrazione da tutti gli elementi di contorno (in particolare, dalla conformazione dei soggetti, dalle loro caratteristiche fisiche): un pensiero disincarnato; 2. interpretazione operativa/comportamentale dell'intelligenza che si manifesta attraverso la comunicazione linguistica (stretto legame tra intelligenza e capacità linguistiche).
Alcuni anni dopo.. Minsky e Searle Questione: possibilità/impossibilità di assimilare le capacità cognitive dell'uomo (la sua mente / il suo cervello) ad un sistema artificiale (una macchina) Posizione riduzionista (Minsky): mente e cervello, descritti come una comunità di agenti interagenti, raggruppati in agenzie; possibilità di assimilare il cervello ad una macchina Posizione anti-riduzionista (Searle): sistemi di IA visti come macchine sintattiche; impossibilità per tali sistemi di possedere un'intenzionalità, caratteristica distintiva degli esseri umani (e animali)
Il riduzionismo di Minsky Obiettivo: spiegare l'intelligenza come una combinazione di cose più semplici il cervello come macchina Citando Minsky, non vi alcun motivo per credere che il cervello sia qualcosa di diverso da una macchina con un numero enorme di componenti che funzionano in perfetto accordo con le leggi della fisica
Rapporto mente-cervello Rapporto tra mente e cervello: la mente è semplicemente ciò che fa il cervello (la mente come processo). Analogia con la distinzione tra programma e processo (programma in esecuzione) in informatica Per spiegare la mente evitando la circolarità occorre descrivere il modo in cui le menti sono costruite a partire da materia priva di mente, parti molto più piccole e più semplici di tutto ciò che può essere considerato intelligente Questione: una mente può essere associata solo ad un cervello o, invece, qualità tipiche della mente possono appartenere, in grado diverso, a tutte le cose?
La società della mente Per Minsky, cervello come società organizzata, composta da una molteplicità di componenti organizzate in modo gerarchico, alcune delle quali operano in modo del tutto autonomo, la maggior parte in un rapporto alle volte di collaborazione, più spesso di competizione, con altre componenti Intelligenza umana frutto dell'interazione di un numero enorme di componenti fortemente diverse fra loro, i cosiddetti agenti della mente, componenti elementari (particelle) di una (teoria della) mente
La nozione di agenzia Questione: come può l'opera combinata di un insieme di agenti produrre un comportamento che ogni singolo agente, considerato separatamente, non è in grado di fornire? La nozione di agenzia come superamento di posizioni di riduzionismo ingenuo difficilmente sostenibili (Minski contesta chi considera la fisica e la chimica modelli ideali di come dovrebbe essere la psicologia) Un'agenzia è un insieme di agenti collegati fra loro da un'opportuna rete di interconnessioni La gerarchia delle agenzie
L'antiriduzionismo di Searle Assunto fondamentale: impossibilità per una macchina di manifestare l'intenzionalità che caratterizza gli esseri umani e, sia pure in forme diverse, gli animali Intenzionalità: caratteristica che contraddistingue certi stati mentali, quali le credenze, i desideri e le intenzioni, diretti verso oggetti e situazioni del mondo Per Searle, l'intenzionalità è un dato di fatto empirico circa le effettive relazioni causali tra mente e cervello, che consente (unicamente) di affermare che certi processi cerebrali sono sufficienti per l'intenzionalità
Intenzionalità e programmi Per Searle, l'esecuzione di un programma su un dato input (istanziazione di un programma nella terminologia di Searle, processo nel linguaggio informatico comune) non è mai di per se stessa una condizione sufficiente per l'intenzionalità la dimostrazione Searle immagina di sostituire un agente umano al calcolatore nel ruolo di esecutore di una specifica istanza di un programma e mostra come tale esecuzione possa avvenire senza forme significative di intenzionalità
Un esperimento mentale La struttura dell'esperimento mentale: una teoria della mente può essere confermata/falsificata immaginando che la propria mente operi secondo i principi di tale teoria e verificando la validità o meno delle affermazioni/previsioni della teoria L'esperimento di Searle: Searle prende in esame i lavori sulla simulazione della capacità umana di comprendere narrazioni Caratteristica distintiva di tale abilità: la capacità di rispondere a domande che coinvolgono informazioni non fornite in modo esplicito dalla narrazione, ma desumibili da essa sfruttando conoscenze di natura generale
La stanza cinese
L'esperimento in dettaglio - 1 Searle immagina che una persona venga chiusa in una stanza e riceva 3 gruppi di testi scritti in una lingua a lei sconosciuta (cinese), interpretabili (da chi fornisce i testi) rispettivamente come il testo di una narrazione, un insieme di conoscenze di senso comune sul domino della narrazione, e un insieme di domande relative alla narrazione. Immagina, inoltre, che tale persona riceva un insieme di regole, espresse nella propria lingua (inglese), che consentano di collegare in modo preciso i simboli formali che compaiono nel primo gruppo di testi a quelli che compaiono nel secondo e un altro insieme di regole, anch'esse scritte in una lingua a lei nota, che permettano di collegare i simboli formali che compaiono nel terzo gruppo di testi a quelli degli altri due e che rendano possibile la produzione di opportuni simboli formali in corrispondenza di certi simboli presenti nel terzo gruppo di testi. Le regole vengono interpretate (da chi le fornisce) come un programma e i simboli prodotti come risposte alle domande poste attraverso il terzo gruppo di testi. Quanto più il programma è ben scritto e l'esecuzione delle regole spedita, tanto più il comportamento della persona sarà assimilabile a quello di un parlante nativo (un cinese).
L'esperimento in dettaglio - 2 Immaginiamo ora uno scenario in cui la persona riceva il testo narrativo e le domande ad esso relative nella propria lingua (inglese) e fornisca le risposte in tale lingua, sfruttando la propria conoscenza di senso comune. Tali risposte saranno indistinguibili da quelle di un qualunque altro parlante nativo, in quanto la persona è un parlante nativo. Dal punto di vista esterno, le risposte fornite in lingua cinese e quelle fornite in lingua inglese saranno egualmente buone; il modo in cui vengono prodotte è, però, radicalmente diverso. A differenza del secondo caso, nel primo caso le risposte vengono ottenute attraverso un'opportuna manipolazione algoritmica di simboli formali ai quali la persona non associa alcun significato (simboli non interpretati). Il comportamento della persona è, in questo caso, del tutto assimilabile all'esecuzione di un programma su una specifica istanza (processo) da parte di un sistema artificiale.
Esito dell'esperimento Risultato: la capacità (di un uomo/una macchina) di manipolare le informazioni ricevute secondo regole formali ben definite non è sufficiente a spiegare il processo di comprensione (non vi è nemmeno alcuna evidenza che essa debba essere una condizione necessaria) – carattere non intenzionale, e, quindi, semanticamente vuoto, dei simboli elaborati da un sistema artificiale (Diego Marconi) Conclusione: i processi mentali non possano essere ridotti a processi di natura computazionale che operano su elementi formalmente definiti Osservazione: confutazione della validità del cosiddetto test di Turing
Conseguenze L'affermazione dell'irriducibilità dell'intenzionalità all'esecuzione di programmi su particolari input ha alcune importanti conseguenze: dall'IA forte all'IA debole (cauta/prudente) condizioni per un'intenzionalità artificiale
IA forte e debole Prima conseguenza: impossibilità di spiegare le modalità con le quali il cervello produce l'intenzionalità attraverso il meccanismo dell'istanziazione di programmi Contro un'interpretazione forte dell'IA: non vi è alcuna distinzione sostanziale tra mente umana e un computer opportunamente programmato Per un'interpretazione debole dell'IA: strumento per lo studio delle capacità cognitive dell'uomo (formulazione precisa e verifica rigorosa di ipotesi su determinati aspetti di specifiche abilità cognitive attraverso sviluppo e validazione di opportuni modelli)
Un'intenzionalità artificiale? Problemi (irrisolti): cosa differenzia il caso in cui la persona comprende il testo (inglese) da quello in cui non vi è alcuna comprensione (cinese)? Questo qualcosa può (se sì, come) essere trasferito ad un macchina? Seconda conseguenza: ogni meccanismo in grado di produrre intenzionalità deve avere abilità di tipo causale pari a quelle del cervello Ogni eventuale tentativo di creare un'intenzionalità artificiale non può ridursi allo sviluppo di un qualsivoglia programma, ma richiede la capacità di replicare le abilità causali tipiche della mente umana
Due approfondimenti Legame tra intenzionalità e capacità di creare degli artefatti: l'intenzionalità si manifesta nella sintesi dei programmi, ma non si trasferisce al programma sintetizzato (al programma in sé) Le ragioni dell'inadeguatezza dei sistemi artificiali / formali: impossibilità di sintetizzare un sistema corretto e completo in grado di catturare il processo di comprensione (lo stesso per le altre capacità cognitive) Angelo Montanari, Alcune questioni di tecnoetica dal punto di vista di un informatico, Teoria XXVII/2, 2007, pp
Questioni fondamentali e pratiche Qual è l'impatto dei risultati fondamentali in informatica sui sistemi artificiali informatici (in particolare, sistemi di intelligenza artificiale)? Algoritmi e complessità (in particolare, indecidibilità – la forma più radicale di complessità) Avvertenza: difficoltà di derivare limitazioni pratiche da limitazioni di natura teoriche. Ogni affermazione circa l'impossibilità, per un sistema artificiale, di riprodurre uno specifico comportamento umano (ad esempio, emozioni) è almeno tanto difficile da sostenere quanto l'affermazione opposta
Alcune domande Tesi: risultati fondamentali in informatica illuminano aspetti critici del funzionamento dei sistemi artificiali informatici Questioni: - possiamo sempre controllare/predire il comportamento di un sistema? - possiamo sempre garantire la presenza di esseri umani nei cicli di controllo (control loop)? - possiamo sempre confidare nelle credenze di un sistema? - può un sistema portare a termine qualunque compito ad esso assegnato?
Problemi indecidibili Limitazioni intrinseche dell'intelligenza algoritmica: ci sono problemi fondamentali in matematica e informatica per i quali non esistono algoritmi in grado di risolverli (Goedel, Turing, Church) Osservazione: l'indecidibilità è una caratteristica del problema in se stesso, che non dipende dal modello computazionale al quale si fa riferimento: un problema è decidibile o indecidibile indipendentemente dalla macchina (astratta) prescelta per l'esecuzione degli algoritmi (macchina di Turing, macchina di von Neumann, lambda calcolo di Church, regole di produzione di Post, funzioni ricorsive di Kleene's, quantum computing, DNA computing)
Un esempio: il problema dell'arresto Il problema dell'arresto per le macchine di Turing: data (una descrizione di) una macchina di Turing M e un possibile input x per essa, stabilire se l'esecuzione di M su x terminerà o meno Il problema dell'arresto è indecidibile (semi-decidibile) Completezza del problema dell'arresto Un numero elevato di problemi in informatica può essere ridotto al problema dell'alt: qualora disponessimo di un algoritmo per risolvere (decidere) il problema dell'alt (problema di decisione), saremmo in grado di ottenere immediatamente un algoritmo per decidere ogni problema ricorsivamente enumerabile
Conseguenze Come tali limitazioni intrinseche dell'intelligenza algoritmica influenzano lo sviluppo dei sistemi artificiali informatici? La questione può essere affrontata sia da una prospettiva teorica (filosofica) sia da una prospettiva pratica Intelligenza algoritmica vs. intelligenza umana - se le identifichiamo, non c'è nessuna limitazione: le limitazioni dell'intelligenza artificiale sono le limitazioni dell'intelligenza umana - se le distinguiamo, dobbiamo identificare esattamente le differenze e individuare le conseguenze di tali differenze
Sulla natura della conoscenza umana La prima posizione è sostenuta, ad esempio, da Harel, che lega le limitazioni dell'intelligenza algoritmica ai limiti degli esseri umani in quanto esseri finiti Nella prospettiva di Harel, i limiti della computazione sono i limiti della conoscenza umana in quanto ciò che gli esseri umani sono in grado di computare è ciò che possono derivare, passo dopo passo, usando procedure ben definite, a partire da ciò che già conoscono
Obiezione L'affermazione di Harel ha il merito di sollevare la questione circa la natura della conoscenza umana e i sui legami con la computazione Non spiega, però, come abbiamo ricavato ciò che già sappiamo. Per evitare la circolarità, l'acquisizione di conoscenza (l'apprendimento) non può essere ridotta al processo di derivazione di nuove conoscenze a partire da conoscenze esistenti mediante opportuni algoritmi Il problema dell'apprendimento automatico
Acquisizione della conoscenza Pattern validi di acquisizione della conoscenza La scoperta che determinate conoscenze si possono derivare da conoscenze già possedute rappresenta esse stessa un effettivo aumento di conoscenza Sicuramente, però, non è l'unico pattern valido di acquisizione della conoscenza Questioni collegate: Quali sono le sorgenti della conoscenza? Quali sono i processi coinvolti nell'acquisizione della conoscenza? Quando e come è possibile concludere che la conoscenza acquisita è affidabile?
Il caso del machine learning Dal momento che non possiamo fornire ad un sistema un insieme di conoscenze completo e immodificabile, a partire dal quale ogni altra conoscenza di interesse possa essere derivata mediante opportune procedure, in un unico passo iniziale, il sistema deve essere in grado di estendere in modo automatico, ed eventualmente rivedere, la propria conoscenza Diversi approcci all'acquisizione della conoscenza (tecniche di apprendimento simbolico, reti neuronali, algoritmi evolutivi). Tutte sono fallibili (definizione del bias induttivo, scelta del training set) Il problema del machine learning: possono i sistemi indurre regole generali, da usare per future predizioni, sulla base delle regolarità rilevate fino ad un certo punto?
Un punto di vista pratico Le limitazioni dell'intelligenza algoritmica impediscono di avere un controllo completo sul comportamento di un sistema artificiale informatico Non appena i compiti che il sistema deve eseguire diventano sufficientemente generali, il modello computazionale sottostante deve essere sufficientemente potente e, conseguentemente, non c'è modo di garantire che il sistema soddisfi le proprietà attese (teorema di Rice)
Potere computazionale e controllo C'è un trade-off tra potere espressivo/computazionale di un sistema e livello di controllo del suo comportamento: ogni aumento del primo si traduce in una riduzione del secondo Il problema della responsabilità: l'effettivo bilanciamento tra potere computazionale e controllabilità deve essere preso in considerazione ogni volta che dobbiamo stabilire la responsabilità delle azioni, e dei relativi effetti, intraprese da una macchina, specialmente in presenza di un gruppo composto da esseri umani e macchine che ha il compito di definire una strategia di intervento e di realizzarla
Esseri umani e cicli di controllo L'interazione tra un sistema aperto e il suo ambiente (comunicazione asincrona) è spesso soggetta a vincoli temporali che non consentono di assicurare la presenza di un essere umano nei cicli di controllo I sistemi devono essere in grado di prendere delle decisioni autonome (decisioni che non prevedono alcuna esplicita autorizzazione da parte di un essere umano), per prevenire un incidente/guasto o per circoscriverne gli effetti
Problemi intrattabili Complessità dei problemi: l'indecidibilità è la forma più forte di complessità, ma non è l'unica Problemi decidibili che non possono essere affrontati Problemi intrattabili: esiste un'ampia classe di problemi decidibili la cui risoluzione è computazionalmente troppo costosa in termini di risorse di tempo e/o di spazio necessarie ad un algoritmo per risolverli La complessità costituisce un ostacolo allo sviluppo di sistemi artificiali?
Le due facce della complessità La complessità dei problemi non può essere ignorata In negativo: esistono molti problemi intrattabili e molti problemi per la cui soluzione disponiamo unicamente di algoritmi cattivi (ad esempio, di complessità esponenziale), anche se non possiamo escludere l'esistenza di algoritmi buoni (algoritmi polinomiali) In positivo: l'impossibilità di disporre di algoritmi polinomiali può essere sfruttata per garantire proprietà desiderate dei sistemi (ad esempio, la sicurezza di protocolli di comunicazione)
Conseguenze pratiche Quali ricadute ha la complessità dei problemi sullo sviluppo di sistemi artificiali informatici? Un possibile punto di vista: i problemi intrattabili non giocano alcun ruolo in tali sistemi e possono pertanto essere ignorati – difficile da sostenere Un punto di vista alternativo: i modelli computazionali classici, alla base del calcolatore universale di Turing, non sono appropriati per tali sistemi quantum computing e DNA computing sono alternative praticabili?
Nuovi scenari in IA Gli sviluppi più recenti della ricerca in IA nei settori della robotica e soprattutto della bionica introducono nella discussione elementi del tutto nuovi Non si dà intelligenza nelluomo senza corporeità (la nostra interazione col mondo è mediata dagli organi di senso). La robotica: insieme delle teorie e delle tecniche per la costruzione e lutilizzo dei robot La bionica: uomo e macchina come sistema integrato (gli organismi cibernetici, i cosiddetti cyborg). Un nuovo tipo di protesi: dal recupero (artificiale) di funzionalità perdute allintroduzione di nuove funzionalità
Interazioni brain-actuated Le interazioni brain-actuated usano i risultati delle neuroscienze relativi alla caratterizzazione dell'attività svolta dalle diverse aree di tessuto nervoso Diverse modalità di indagine: dalla registrazione dei segnali elettrici generati a livello di singolo neurone (impianto chirurgico di elettrodi) all'analisi delle variazioni dell'attività metabolica relativa a specifiche aree del sistema nervoso (dispositivi di superficie) Corrispondentemente, interazioni brain-actuated realizzate in modo invasivo (impianto chirurgico di elettrodi) o non invasivo (elettrodi di superficie che registrano segnali di elettroencefalogrammi)
Uno schema riduzionista Le limitazioni dell'intelligenza algoritmica evidenziate dall'argomento di Searle si applicano direttamente alla robotica (non alla bionica) I recenti risultati ottenuti nell'ambito della neurofisiologia, utilizzati per la realizzazione di interazioni brain-actuated, vengono letti da molti attraverso uno schema riduzionista che assimila il mentale al cerebrale, riprendendo una posizione già presente sia in Minsky sia in Searle
Stati mentali e stati cerebrali L'esistenza di uno stretto legame tra l'attività mentale e l'attività fisico-chimica del cervello è testimoniata da una grande massa di dati sperimentali Stati mentali e cerebrali possono essere identificati? (im)possibilità di circoscrivere le aree cerebrali coinvolte in una determinata attività mentale (logica della localizzazione) (ir)riducibilità delle attività mentali ad antecedenti fisico- chimici del cervello
Il mondo in prima persona Come spiegare, (i) la costruzione di una rappresentazione mentale degli eventi fisici del mondo (ad esempio, nella percezione visiva cosciente) e (ii) il passaggio dall'evento mentale della decisione di compiere una determinata azione alle attività cerebrale e muscolare che la realizzano? In generale, come cogliere l'intrinseca soggettività di ogni evento mentale (esempio, il dolore fisico)? La conoscenza degli stati elettrochimici del cervello, direttamente indagabili in terza persona, non riesce a descrivere in modo esauriente il mondo in prima persona F. Tempia, Attività cerebrale e rappresentazioni mentali, in Scienze Informatiche e Biologiche. Epistemologia e Ontologia, Città Nuova, 2011, pp
Conclusioni Si può parlare di libertà delle macchine (e degli esseri umani)? Due forme di riduzionismo (più una): assimilazione della mente ad un calcolatore (critica di Searle) assimilazione dell'intelligenza umana all'intelligenza algoritmica assimilazione della mente al cervello (questione aperta) (In)adeguatezza della nozione di proprietà emergente il ruolo delle relazioni fra gli elementi presenti ad un certo livello di descrizione di un sistema e l'influenza che esse esercitano sui livelli superiori di descrizione del sistema, a loro volta caratterizzati da un insieme di elementi (in generale diversi) fra loro in relazione: Qual è la natura delle relazioni? Qual è il loro substrato materiale?