La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Alberto F. De Toni, Luca Comello Prede o ragni Uomini e organizzazioni nella ragnatela della complessità UTET, Torino 2005.

Presentazioni simili


Presentazione sul tema: "Alberto F. De Toni, Luca Comello Prede o ragni Uomini e organizzazioni nella ragnatela della complessità UTET, Torino 2005."— Transcript della presentazione:

1 Alberto F. De Toni, Luca Comello Prede o ragni Uomini e organizzazioni nella ragnatela della complessità UTET, Torino 2005

2 Parte Prima Lo stato dell’arte: dalla scienza classica alla teoria della complessità I sistemi complessi La scienza classica I concetti di Prigogine La teoria della complessità

3 Parte seconda Modello proposto: i sette principi della teoria della complessità 1.auto-organizzazione 2.orlo del caos 3.principio ologrammatico 4.impossibilità di previsione 5.potere delle connessioni 6.causalità circolare 7.apprendimento try&learning

4 PARTE PRIMA

5 1. I sistemi complessi

6 Cos’è un sistema complesso? È un sistema composto da molte parti differenziate, organizzate gerarchicamente (un esempio è il corpo umano), fra le quali intercorre una fitta rete di relazioni “non- lineari”. (“Non-linearità” è un concetto matematico che indica la non integrabilità (nel senso del calcolo integrale) delle funzioni che descrivono il sistema).

7 Esempi di sistemi complessi –Il nostro cervello –Il tempo meteorologico –Il sistema economico –I gruppi di persone –I linguaggi –Gli organismi viventi –Ecc.

8 Le colonie di formiche: un «superorganismo»?

9 Formiche che per evitare degli annegamenti di massa nelle foreste pluviali si aggrappano l’una all’altra formando delle enormi zattere con i loro corpi

10 Formica palombaro Anche una sola formica - come quella nella foto, stretta in vita e messa sott'acqua - riesce a galleggiare, grazie ai suoi peli cerosi che intrappolano l'aria attorno al corpo dell'insetto. Fotografia per gentile concessione David Hu e Nathan J.Mlot National Geographic Italia

11 David Hu e Nathan J. Mlot (del Georgia Institute of Technology) sono venuti a conoscenza di zattere di formiche che hanno retto per settimane. "Raccolgono tutte le uova della colonia e quando l'acqua sale formano la zattera", dice Mlot. I ricercatori hanno raccolto le formiche e ne hanno bagnato una parte per vedere cosa accadeva. In meno di due minuti le formiche si sono strette tra loro formando una struttura galleggiante in grado di salvare tutti gli insetti. Anche le formiche che stanno sotto riescono a sopravvivere, grazie ai piccoli peli sul corpo delle formiche che intrappolano un sottile strato d'aria. "Anche quando sono alla base della zattera, non sono mai completamente sommerse dall'acqua", dice Mlot. La ricerca è pubblicata su Proceedings of the National Academy of Sciences. 3

12 La colonia di formiche è un sistema complesso, composto a sua volta da sistemi complessi (le singole formiche) La colonia di formiche è in grado di subire notevoli perturbazioni ritrovando sempre, dinamicamente, un nuovo equilibrio La colonia di formiche riesce a sviluppare comportamenti di cui la singola formica non sarebbe capace Le colonie di comportamento in modo non prevedibile a priori in modo dettagliato: non è dato sapere dove si dirigerà, ad esempio, per trovare cibo Le formiche non sono governate gerarchicamente dall’alto in basso (la regina non svolge funzioni di leader), ma adottano un funzionamento bottom-up

13

14 In un sistema complesso, le parti non sono semplicemente una accanto all’altra: esse sono in grado di sviluppare comportamenti collettivi. Si dice che tali sistemi si “autoorganizzano” –Ad esempio, i teorici dei sistemi complessi (come Phil Anderson, Stuart Kauffman) hanno ipotizzato che la nascita della vita sulla terra sia iniziata per «autocatalisi», ovvero per autoorganizzazione, in presenza di determinate caratteristiche e condizioni, di un aggregato maggiore della somma dei costituenti

15 Si parla poi di sistemi complessi adattativi (Complex Adaptive System) quando ci sono molti «agenti» che operano in parallelo, lasciandosi influenzare l’uno dall’altro → si parla anche di sistemi «multi-agenti» perché si assume che le parti che vanno a costituire il «tutto» non sia parti semplici, ma, appunto, «agenti», capaci di giocare un ruolo attivo.

16 → i sistemi multiagenti si organizzano e si riorganizzano costantemente in strutture più vaste attraverso l’incontro di reciproco e in base a meccanismi di accomodamento e rivalità, cooperazione e competizione

17 Tali sistemi complessi sono detti «adattivi» perché sono «vivi», cioè in grado di tenere conto di ciò che avviene nell’ambiente e di ristrutturarsi di conseguenza

18 Ogni organismo vivente è un Complex Adaptive System. In un mammifero quale l’essere umano, anche il sistema immunitario è un sistema di questo tipo. Il suo effetto è qualcosa di simile all’evoluzione biologica, ma in una scala temporale più veloce (se fossero necessari centinaia di anni per sviluppare gli anticorpi ai batteri, ci troveremmo in guai seri). Il processo di elaborazione del pensiero e dell’apprendimento nell’essere umano è anch’esso un sistema adattativo complesso. Anche le aggregazione di esseri umani possono essere esempi di sistemi adattativi complessi […]: le società, le aziende, le imprese scientifiche e così via (Murray Gell-Mann, 2002)

19 Come spiega John H. Holland – l’economista dell’Istituto di Santa Fe – (Waldrop, 1992, tr. it. 2002, pp. 223 ss.) “sistemi complessi adattativi” si possono trovare dappertutto, una volta che si sia imparato a riconoscerli. –innanzitutto ognuno di tali sistemi è formato da una rete di molti agenti che operano in parallelo. Ogni agente agisce e reagisce in base al comportamento degli altri agenti; –ne segue che il controllo in un sistema adattivo tende a essere molto decentrato (ad es. nel cervello non c’è un neurone centrale). Se il sistema deve presentare un comportamento coerente, questo dipenderà dalla competizione e dalla cooperazione fra gli agenti stessi;

20 –un sistema adattivo complesso ha numerosi livelli di organizzazione, dove gli agenti di un livello servono da mattoni per gli agenti di un livello superiore. Per Holland era centrale l’idea che i sistemi complessi adattativi, accumulando esperienza, continuano a riesaminare e riordinare i loro mattoni. –I sistemi complessi adattativi sono in grado di prevedere il futuro; più in generale ogni sistema complesso adattivo fa costantemente ipotesi fondate basandosi sui suoi diversi modelli interni del mondo.

21 –Per Holland un sistema complesso ha varie nicchie, che può essere sfruttata da un agente atto a occuparla (ad esempio nel sistema economico odierno c’è posto per gli idraulici, ma anche per i negozi di animali tropicali). L’atto stesso di riempire una nicchia permette di aprirne altre: per nuovi parassiti, nuovi predatori e prede, nuovi partner simbiotici. Questo crea nuove opportunità. →Non ha pertanto senso parlare di equilibrio di un sistema complesso giacché non può concepirsi se non in sviluppo, transizione. Qualora il sistema dovesse raggiungere una posizione di equilibrio, sarebbe morto.

22 –Inoltre, sottolinea Holland, non ha neanche senso pensare che gli agenti possano “ottimizzare” il loro adattamento, la loro utilità o qualsiasi altro aspetto del sistema. La gamma delle possibilità è troppo ampia, non si hanno mezzi pratici per raggiungere la condizione migliore. Al massimo possono migliorare la relazione con altri agenti. –La continua novità che caratterizza l’essenza dei sistema dinamici spiega la difficoltà cin cui ci si imbatte nel trattarli matematicamente. La matematica lineare si adatta a particelle immutabili in un ambiente fisso. Per comprendere appieno l’economia complessa, o i sistemi adattativi in generale, occorrono simulazioni che tengano conto dei modelli interni, della presenza di nuovi mattoni, della ricca rete di interazioni fra agenti.

23 Quindi: –Sistema complesso = molte parti; relazioni non lineari –Sistema adattativo complesso = molte parti «agenti»; relazioni non lineari

24 Si suol dire che i sistemi complessi sono: –Robusti/ resilienti –Dotati di « intelligenza collettiva », organizzati in modo non gerarchico secondo logiche bottom-up (e non top-down) –in grado sia di auto-organizzarsi, sia di interagire con l’ambiente (etero-organizzarsi) → «auto-eco-organizzazione» –Prevedibili e controllabili solo per approssimazione e in condizioni vicine all’equilibrio

25 Linearità e non-linearità “Linearità” è un concetto matematico che indica che «esiste al più una soluzione di un’equazione differenziale con condizioni iniziali assegnate» (Stewart, 2008, tr. pt. p. 348) e che, pertanto le funzioni che descrivono il sistema sono integrabili (nel senso del calcolo integrale). Intuitivamente, nella linearità si ha una proporzionalità fra le grandezze in gioco. La fisica deterministica si basa sulla linearità, perché assume che il legame fra cause ed effetti sia di tipo proporzionale ed esprimibile utilizzando leggi deterministiche (Bertuglia, Vaio, 2003)

26 Tale «proporzionalità» viene meno quando siamo in condizioni di «non-linearità». →I sistemi non lineari di solito non cambiano gradualmente ma attraversano delle soglie critiche dopo le quali la loro struttura o il loro comportamento cambia drasticamente…(A. Pluchino) →Si parla allora di livelli di soglia, biforcazioni, transizioni di fase…

27 Ora, occorre considerare che tutti i sistemi reali sono non-lineari. Essi possono essere trattati come lineari solo quando sono in condizioni prossime all’equilibrio. –In queste condizioni, le piccole fluttuazioni a cui il sistema è intrinsecamente soggetto risultano trascurabili e il sistema può essere «linearizzato». Tale linearizzazione è importante perché rende il sistema calcolabile e possono essere così utilizzati modelli matematici per la previsione del suo comportamento.

28 Tale «forzatura» della dinamica del sistema entro un modello matematico che ne consenta la calcolabilità perde quindi la sua efficacia man mano che ci allontaniamo dall’equilibrio: quelle piccole grandezze che in condizioni di equilibrio potevano essere trascurate e «linearizzate» iniziano a incidere in maniera consistente sull’evoluzione del sistema. –Infatti, come per primo ha mostrato Poincaré e più recentemente, tra gli altri, Prigogine, un sistema lontano dallo stato di equilibrio è caratterizzato da notevole non linearità e presenta aspetti che ne rendono l’evoluzione particolarmente ricca di interesse per le imprevedibili nuove situazioni che si possono presentare (Bertuglia, Vaio, 2003, p. 55).

29 La scienza classica si è rivolta con molto interesse alle equazioni differenziali lineari per una ragione molto semplice: a parte alcune eccezioni, queste sono le uniche di ordine superiore al primo che si sanno risolvere analiticamente. (Bertuglia, Vaio, 2003, p. 55)

30 La linearità pareva “elegante” e ciò creò una condizione in virtù della quale si trattavano i problemi linearizzabili.

31 La storiella dell’ubriaco Linearizzare anche laddove non è possibile solo perché sappiamo utilizzare quel tipo di matematica è un modo di agire che ricorda la storiella dell’ubriaco che, di notte, cerca per terra, sotto un lampione acceso, la chiave di casa cadutagli. Un passante gli chiede dove ha perso la chiave e questi risponde “laggiù”, indicando un posto più lontano, al buio. Il passante chiede perplesso: “Allora perché la cerchi qui, se l’hai persa là?”. E l’ubriaco: “Perché qui c’è luce e riesco a vedere, là c’è buio e non vedo niente!”.

32 Del Signore di Balliol si diceva: «ciò che egli non sa non è conoscenza» (cit. in Barrow, 1991, tr. It 1992, p. 371)

33 → Così è la linearità: fornisce belle e facili soluzioni che però sono, sovente almeno, fuori mira rispetto ai problemi che vorrebbero risolvere, e quindi sostanzialmente sbagliate (Bertuglia, Vaio, 2003, p. 265, n.).

34 La matematica è una disciplina astratta, frutto dell’attività speculativa della mente umana, che tratta di enti oggettivi, ma non reali, nel senso consueto del termine (Giusti, 1999). La matematica è un’arte di creare modelli, scheletri della realtà, distillando descrizioni che si adattano all’interazione uomo-mondo.

35 Quindi, per prevedere la realtà, si costruisce un modello che corrisponde alla scelta di aspetti della realtà che ci interessano e lo si esprime utilizzando un formalismo matematico. Poi, e questo è uno degli aspetti più interessanti della questione, si costruisce una teoria di quella particolare matematica utilizzata nel modello (ad esempio, le equazioni differenziali lineari o non lineari, gli automi cellulari, il calcolo tensoriale, la geometria frattale ecc.). L’utilizzo della matematica consente, allora, di operare sul modello generando dei risultati (Bertuglia, Vaio, 2003). → occorre però fare attenzione a non confondere il modello con la realtà.

36 Sin dalla comparsa della scienza sono stati costruiti modelli matematici per tentare di descrivere e prevedere i fenomeni. Questi modelli furono un tempo considerati totalmente predittivi del reale. Ora, le aspettative sono più limitate: ci si aspetta che siano in grado di prevedere alcuni aspetti dei fenomeni (Bertuglia, Vaio, 2003).

37 Questa capacità della matematica di “manipolare” un modello fornendo dei dati riscontrabili nella realtà è sorprendente. È successo sovente che conti fatti su un foglio abbiano anticipato le osservazioni, nel senso che risultati apparentemente incredibili sono stati confermati in seguito dalle verifica sperimentale. Eugen Paul Wigner, premio Nobel per la fisica nel 1963, affermò che “l’enorme utilità della matematica nelle scienze naturali è qualcosa che rasenta il mistero […] non vi è alcuna spiegazione razionale di ciò” (The Unreasonable Effectiveness of Mathematics in the Natural Science, N.Y. 1960).

38 Come dice Vulpiani (1994), la matematica, forse, è potuta sorgere perché esistiamo su un pianeta in cui i modelli lineari predicono abbastanza bene la realtà. La geometria euclidea ha potuto affermarsi ed essere considerata “la” geometria per 2000 anni nonostante il fatto che la terra è rotonda. Se vivessimo in uno spazio in cui le curvature sono molto più evidenti e meno trascurabili forse avremmo fin dall’inizio sviluppato una geometria di tipo non euclideo; lo stesso vale se vivessimo su un pianeta molto più caldo, dove le fluttuazioni dovute al movimento delle particelle (molecole, ioni…) fossero molto più elevate: in questo caso non avremmo probabilmente sviluppato una modalità lineare di descrivere fenomeni. Oppure non avremmo neppure creato uno strumento come la matematica per effettuare astrazioni a fronte di un mondo troppo imprevedibile. Ma, forse, su quel pianeta molto caldo, con fluttuazioni eccessive causate dalle alte temperature, la vita non si sarebbe nemmeno prodotta, perché temperature troppo alte non avrebbero permesso il formarsi degli aggregati molecolari, di cui siamo composti.

39 2. Un percorso tra i giganti

40

41

42

43 Per Aristotele il moto fisico (o moto locale) non era una quantità o una forza, bensì una sorta di mutamento, esattamente come la crescita di una persona. Un grave in caduta sta semplicemente cercando il suo luogo naturale, quello che raggiungerà se non sarà impedito da ostacoli. Galileo, invece, quando guardava un pendolo vedeva una regolarità: aveva una teoria che glielo permetteva. Questa teoria aveva una forza tale da fargli vedere una regolarità che non esisteva, se non utilizzando delle approssimazioni. Per Galilei, trascurando gli attriti, le piume cadono veloci quanto i sassi e i pendoli non si fermano mai. Nella realtà i pendoli si comportano come pensava Aristotele: si fermano (Gleick, tr. it. 1989, p. 43).

44 Si esagera appena nel dire che il 28 aprile 1686 fu una delle più grandi date nella storia dell’umanità. Quel giorno Newton presentò i suoi Principia alla Royal Society di Londra. Essi contenevano le leggi fondamentali del moto insieme ad una chiara formulazione di alcuni dei concetti basilari che ancor oggi usiamo, quali la massa, l’accelerazione, l’inerzia. Fu probabilmente il terzo libro dei Principia ad esercitare le più forti influenze; quel système du monde che conteneva la legge di gravitazione universale. I contemporanei di Newton afferrarono immediatamente l’eminente importanza di questo lavoro. La gravitazione divenne un argomento di conversazione a Londra e a Parigi. (Prigogine, Stengers, 1979, tr. it. 1981, p. 3)

45 La scienza classica Galilei ↓ Newton il mondo come «tavola da biliardo»: la dinamica di tutti gli oggetti si basa su pochi assunti: –«massa» –«accelerazione» –«forza»

46 I principi di Newton 1.Ciascun corpo prosegue nel suo stato di quiete o di moto rettilineo uniforme, salvo che non sia sottoposto a forze applicate ad esso; 2.Il cambiamento di moto di un corpo è proporzionale alla forza ad esso applicata, ed avviene lungo la linea retta secondo la quale la forza stessa è stata esercitata 3.Ad ogni azione corrisponde una reazione uguale e contraria

47 Per la meccanica di Newton i sistemi sono: 1. in equilibrio, a meno che non intervengano forze a turbare l’equilibrio. Es. un’auto sta ferma se non interviene la forza del motore a spostarla; un corpo nel vuoto, senza attriti, o sta fermo o si muove di moto rettilineo uniforme 2. isolabili dall’ambiente Es. per conoscere la velocità massima di un’auto, calcolerò la potenza del motore, gli attriti e altre variabili come la temperatura esterna, la presenza di vento ecc. Calcolate tutte queste variabili, posso definire il sistema di forze a cui è sottoposta l’auto e calcolare la sua velocità. 3.deterministici: stabilite le forze in gioco, i sistemi sono completamente calcolabili. La non-calcolabilità di alcune forze non è tale per principio, ma perché manca tempo per farlo

48 4.lineari: le equazioni che descrivono il sistema ipotizzano variazioni continue, lineari. 5.conservativi dell’energia: l’energia non si crea e non si distrugge: si trasforma 6.reversibili: il tempo definisce la quantità di momenti che servono perché si compia un certo processo. - es. Se un’auto passa da 50 km/h a 100 km/h in 10 s ha una certa accelerazione; se impiega 5 s ha un’accelerazione doppia Tuttavia, tale tempo è quantitativo, e non ha una «freccia»: una volta successo qualcosa, nulla esclude che possa avvenire lo stesso processo all’indietro: l’auto che ha accelerato può decelerare e trovarsi esattamente nello stesso stato fisico precedente 7.ordinati: tutto è «meccanicamente» stabilito e nulla sfugge da tale logica meccanica (cfr. Laplace)

49 Per la teoria della complessità, invece, i sistemi sono: 1.Sempre in disequilibrio, e solo per approssimazione e in determinate condizioni in cui non sono particolarmente «eccitati» possono essere considerati in equilibrio 2.non isolabili dall’ambiente 3.non deterministici 4.non lineari 5.non reversibili: Prigogine contrappone il tempo- reale della biologia e tempo-illusione della fisica 6.In parte ordinati e in parte disordinati contemporaneamente

50 Teoria della relatività / Meccanica quantistica La teoria della relatività ha rappresentato un grande passo avanti rispetto alla dinamica dei corpi della fisica newtoniana, ma rimane entro un approccio di tipo deterministico. –Per la fisica classica (Galilei, Newton) le leggi della fisica sono le stesse in ogni sistema di riferimento inerziale (due osservatori sono «inerziali» se si muovono l’uno rispetto all’altro di moto rettilineo uniforme). –Newton postulò l’esistenza di uno spazio e a un tempo assoluti, che cioè sono gli stessi per tutti i sistemi inerziali *. * In seguito a questo assunto, si parlò dell’esistenza di un «etere», ovvero di una sostanza trasparente, impalpabile, legata alle stelle fisse. Tutti i sistemi inerziali hanno quindi un moto rispetto all’etere.

51 Legge di composizione delle velocità secondo la meccanica classica: Se un corpo ha velocità v rispetto ad un riferimento S che si muove con velocità w rispetto ad un altro riferimento S', allora la velocità v' del corpo rispetto al riferimento S' è: v' = v + w (somma vettoriale) –Es. se due auto procedono in direzione opposta lungo un’autostrada alla velocità di 100 km/h ognuna, la loro velocità relativa sarà di 200 km/h.

52 Per la teoria della relatività è, sì, vero che 1. «le leggi della fisica hanno la stessa forma in tutti i sistemi di riferimento inerziali» ma è anche vero che 2. «la luce ha una velocità finita sempre uguale in tutti i sistemi di riferimento inerziali».

53 Se le auto dell’esempio precedente fossero astronavi che procedessero, rispetto a una persona che le osserva dal bordo della strada, l’una a una velocità di 0,8 c (c = velocità della luce  km/s) e l’altra alla velocità di 0,4 c, i conducenti delle due astronavi non si percepirebbero come viaggianti a 0,8 c + 0,4 c = 1,2 c. Infatti occorre utilizzare la formula di composizione delle velocità prevista dalla teoria della relatività: Applicando tale formula si evince che le astronavi si percepiscono viaggiare a 0,91 c. In ogni caso, infatti, la velocità della luce non può essere superata.

54

55

56 La meccanica quantistica si basa invece sul principio di indeterminazione di Heisenberg e sulla teoria ondulatoria di De Broglie: –il primo afferma che non è possibile determinare contemporaneamente velocità e posizione di una particella; –il secondo sancisce che le particelle si comportano sia come corpuscoli che come onde.

57

58 Dualismo onda-particella della luce Fonte: scienze-como.uninsubria.it/morosi/presentCF/DUAL.ppt Fotoni

59

60 La meccanica quantistica si distingue in maniera radicale dalla meccanica classica in quanto si limita a esprimere la probabilità di ottenere un dato risultato a partire da una certa misurazione, secondo l'interpretazione datane da Niels Bohr, rinunciando così al determinismo assoluto proprio della fisica precedente. La teoria quantistica è stata il primo esempio di teoria essenzialmente statistica. Bohm (1997, p. 96)

61 Questa condizione di incertezza o indeterminazione non è dovuta a una conoscenza incompleta, da parte dello sperimentatore, dello stato in cui si trova il sistema fisico osservato, ma è da considerarsi una caratteristica intrinseca, quindi ultima e ineliminabile, del sistema e del mondo subatomico in generale.

62 Paradosso del gatto di Schrödinger

63 Per mostrare come l’interpretazione di Copenhagen dell’indeterminazione proposta da Niels Bohr avesse conseguenze insostenibili, Schrödinger si divertì a proporre un esperimento, mai realizzato concretamente, nell’ambito del quale egli ipotizza di rinchiudere… «…un gatto in una scatola d’acciaio insieme alla seguente macchina infernale (che occorre proteggere dalla possibilità d’essere afferrata direttamente dal gatto): in un contatore Geiger si trova una minuscola porzione di sostanza radioattiva, così poca che nel corso di un’ora forse uno dei suoi atomi si disintegrerà, ma anche, in modo parimenti probabile, nessuno; se l'evento si verifica il contatore lo segnala e aziona un relais di un martelletto che rompe una fiala con del cianuro. Dopo avere lasciato indisturbato questo intero sistema per un’ora, si direbbe che il gatto è ancora vivo se nel frattempo nessun atomo si fosse disintegrato, mentre la prima disintegrazione atomica lo avrebbe avvelenato. La funzione Ψ dell’intero sistema porta ad affermare che in essa il gatto vivo e il gatto morto non sono stati puri, ma miscelati con uguale peso» (Erwin Schrödinger)

64 Von Neumann dimostrò nel 1926 che la meccanica quantistica non può essere ricavata per approssimazione statistica da una teoria deterministica del tipo di quelle usate nella meccanica classica. ↓ Il risultato di von Neumann inaugurò una linea di ricerca che, passata attraverso il teorema di John Bell del 1964 e gli esperimenti di Alain Aspect del 1982, ha mostrato come la fisica quantistica richieda una nozione di realtà sostanzialmente diversa da quella della fisica classica (Odifreddi).

65 F. Capra (2001, p. 41) spiega come segue la differente realtà a cui fa riferimento la meccanica quantistica: Le particelle subatomiche non hanno alcun significato come entità isolate, ma si possono comprendere solo come interconnessioni, o correlazioni, fra processi di osservazione e misurazione, in altre parole, le particille subatomiche non sono «cose», ma interconnessioni fra cose, e queste, a loro volta, sono interconnessioni fra altre cose, e così via. Nella teoria dei quanti non giungiamo mai a trovare delle «cose»; abbiamo sempre a che fare con interconnessioni […] Per usare le parole di Werner Heisenberg, uno dei fondatori della teoria dei quanti, «il mondo appare così come un complicato tessuto di eventi, i cui rapporti di diversi tipi si alternano, si sovrappongono o si combinano, determinando in tal modo la struttura del tutto.

66 Ad oggi, le due grandi teorie fisiche – relatività e meccanica quantistica – non sono state integrate in una «teoria del tutto». –A tentare una conciliazione in tal senso è la teoria delle stringhe a cui molti fisici stanno lavorando da decenni. Essa sostiene che alla base della realtà non ci sono particelle nucleari note ma delle vibrazioni: differenti vibrazioni generano tutte le particelle subatomiche conosciute, dai quark ai gluoni. E le stringhe esistono in uno spazio di 10, forse 11 dimensioni, prospettando così l’esistenza di mondi paralleli a quello in cui viviamo.

67

68 Il fisico italiano Tullio Regge è molto critico nei confronti della «moda» delle «Teorie del tutto». Egli ritiene che ogni nuovo paradigma non possa essere quello risolutivo, ma che non faccia altro che spostare un po’ più avanti la frontiera della conoscenza. Ci permette di capire nuove cose, ma non tutte: ci sarà sempre da scoprire qualcos’altro… …la mia è, se vuole, una forma di religione, un dogma […] Questa idea che il Principio è irraggiungibile dovrebbe piacere ai preti... (2011)

69

70 La sola menzione dell’infinito procura a molti angosce e senso di insicurezza. Per me invece l’universo chiuso con i suoi miseri km 3 di volume ad essere fonte di noia e claustrofobia. L’universo è infinito non solamente nella sua durata ed estensione ma anche nella sua stessa struttura logica. La nostra stessa esistenza ed il nostro raziocinio sono resi possibili dall’infinito presente nella realtà e ne rispecchiano frammenti sconnessi. Se l’universo fosse finito e prevedibile cesseremmo di essere liberi. (T. Regge, Infinito, Mondadori, Milano 1994, p. 296)

71 Regge cita il celebre teorema di incompletezza del 1931 del suo amico e collega Kurt Gödel Secondo Gödel, chiunque scriva assiomi coerenti tra loro (es. l’1 è un numero dispari, il 2 è pari…) può sviluppare una grande quantità di teoremi, che comporranno una teoria. Nell’ambito di tale teoria può poi formulare proposizioni che risulteranno vere o false, in base a quanto stabilito dagli stessi assiomi di base (es. 1+1=3 è falsa). Gödel dimostrò che in ogni teoria ci sono proposizioni che non si possono valutare: l’insieme di assiomi e teoremi di base non è sufficiente per valutare la verità o falsità della nuova proposizione. [In particolare, non si possono dimostrare quelle proposizioni che garantiscono la coerenza del sistema].

72 GIOVANNI MARIA PACE Ma più piccolo davvero non si può. Si conclude oggi all'università di Padova un convegno sul riduzionismo Il "riduzionismo" - tema di un convegno ideato da Enrico Bellone e Giulio Peruzzi che si conclude oggi all'università di Padova - è il modo di indagare a cui la scienza moderna deve il suo successo. Presuppone l'idea (semplificando) che non si possa comprendere il tutto senza analizzarlo nelle sue componenti e che non si possano comprendere le componenti senza ulteriormente analizzarle nelle loro sottocomponenti, in una successione di livelli in cui quello inferiore spiega il superiore. Nell'ultima delle scatole cinesi dovrebbe trovarsi il livello estremo, la madre di tutte le spiegazioni. Sono pochi però gli scienziati ancora convinti che la riduzione a oltranza porti davvero alla "verità". Nei laboratori ci si rende conto che, allo stato delle conoscenze, non è possibile l'attuazione di un progetto riduzionista di più vasta portata, di quel progetto, per intenderci, che vorrebbe ridurre la vita a una danza di protoni, la mente al corpo, il pensiero a una secrezione del cervello. Esistono fenomeni non spiegabili con gli strumenti di tipo fisico e chimico che abbiamo a disposizione e la maggior parte degli scienziati professa dunque una qualche forma di riduzionismo mitigato. Non per questo nella comunità scientifica mancano le dispute sulla sua utilità, che non sono soltanto teoriche. Nei primi anni Novanta la comunità dei fisici americani si trovò a discutere sulla costruzione di un acceleratore di particelle da sei miliardi di dollari, il famoso Supercollider. Da una parte c'era il Nobel Steven Weinberg, paladino delle alte energie, e dall'altra Philip Anderson, anch'egli premio Nobel ma propugnatore della small science. Il primo sosteneva che la grande macchina avrebbe permesso di scoprire i componenti ultimi della materia, una conoscenza non direttamente utile alla nostra esistenza, è vero, ma sicuramente importante. Al riduzionismo "a maglia larga" di Weinberg, Anderson contrapponeva l'argomento "emergentista": non so - diceva - se la scoperta di un ulteriore livello profondo sia ultimativa, anzi credo che la regressione possa procedere all'infinito. Sarebbe più interessante capire come dagli atomi si passi alla materia strutturata. Nel passaggio emergono infatti proprietà sulle quali la fisica dovrebbe concentrarsi, invece di insistere sulla rottura dell'atomo in frammenti sempre più piccoli. 30 GIUGNO 1999

73 Chi aveva ragione? Difficile rispondere. Si può solo dire che il Supercollider non si fece e che i grandi progressi della fisica, dall'Ottanta a oggi, sono avvenuti più nella comprensione della struttura della materia, vedi la superconduttività, che nel campo delle particelle elementari. In Europa la posizione di Weinberg sembra condivisa dai fisici che si alternano alla direzione del Cern, da Rubbia a Maiani, mentre Carlo Bernardini appare più andersoniano in quanto raccomanda di studiare la fisica dei sistemi dinamici e la fisica del caos, ovvero di approfondire il livello mesoscopico che ritiene più importante (e umano) del livello microscopico. Anche Tullio Regge ha una posizione tutto sommato andersoniana quando dubita che la scalata verso energie sempre più alte sia la strada giusta per il progresso della fisica. Al convegno di Padova il germanista Giuseppe Bevilacqua spiega che anche nella letteratura, soprattutto in quella tedesca, c'è una tendenza riduzionista, vedi il Musil degli scritti che precedono L'uomo senza qualità, dove lo scrittore tenta una descrizione "per componenti" del comportamento umano che ricorda il procedere del chimico nell'analizzare un composto e che sarà ripresa dalla nascente psicoanalisi. Anche il riduzionismo esplicativo, il più accettato, va incontro a obiezioni, soprattutto nelle scienze della vita. Il fatto ad esempio che si conosca il ruolo del Dna nella cellula e che si sappia analizzare la doppia elica in tutti i suoi componenti chimici e molecolari non significa saper costruire una cellula partendo dal filamento di acido nucleico. Ciò perché esistono proprietà e leggi che emergono nel passaggio dal sistema elementare a quello più complesso, leggi che non sono deducibili dal livello inferiore. In biologia la posizione emergentista è alquanto diffusa tra gli studiosi del cervello. I neuroscienziati notano, nell'emergere della mente, la comparsa di proprietà non riducibili al comportamento dei singoli neuroni o a meccanismi cerebrali di tipo elettromagnetico. Esistono di certo relazioni tra il livello fisico e il livello mentale, ma la completa derivazione causale del mentale dal fisico non è dimostrabile. Nel passaggio dalla materia inerte alla materia pensante interviene il fattore quantità. Nel cervello, miliardi di neuroni e decine di miliardi di retroazioni tra neuroni creano un tutto che è anche qualitativamente diverso dalla somma dei singoli neuroni. C'è nel cervello qualcosa legato alla complessità che spiega la nascita della mente..

74 Approcci che hanno anticipato le teorie della complessità

75 La teoria che io sostengo è che l’intera concezione del materialismo si applica solo a entità assolutamente astratte, cioè ai risultati del discernimento logico. Le entità concrete e durevoli sono organismi, talché il piano del tutto influenza le qualità proprie dei vari organismi subordinati che in esso rientrano. Nel caso di un essere animato, gli stati mentali, psichici, rientrano nel piano dell’organismo totale e con ciò modificano i piani degli organismi successivamente subordinati fino agli organismi finali più piccoli, come gli elettroni. Whitehead (1925, La scienza e il mondo moderno, Boringhieri, Torino 1978, p. 94)

76 Psicologia della Gestalt La psicologia della Gestalt (dal 1913) aveva già posto al centro l’idea che “il tutto è più della somma delle parti”.

77 M. Wertheimer ( ) W. Köhler ( ) K. Koffka ( ) K. Lewin ( )

78 Le configurazioni globali hanno caratteristiche delle che non sono riscontrabili nella somma degli elementi costituenti singolarmente considerati. Le “proprietà del tutto” risultano prioritarie rispetto agli elementi costituenti  ne segue, come corollario, che le parti assumeranno ruoli diversi nei differenti contesti in cui sono inserite.

79 I principi dell’organizzazione percettiva secondo la psicologia della Gestalt

80 vicinanza

81 somiglianza

82 chiusura

83 destino comune

84 continuità

85 buona forma o pregnanza Il principio della buona forma suggerisce che il campo percettivo tende ad organizzarsi globalmente, per “grandi tratti”, non tendendo conto dei singoli punti, ma secondo una visione dall’alto” (Wertheimer). Vengono quindi preferite, a livello percettivo, forme più regolari, simmetriche, omogenee, equilibrate, semplici, coerenti.

86 Figura-sfondo

87 Esperienza passata

88 KURT LEWIN –Lewin parte dal concetto di campo: il campo può essere definito come quella dimensione totale in cui coesistono i fatti nella loro interdipendenza. Il campo di Lewin è da pensare come a una dimensione dinamica, animata da una causalità di tipo circolare, piuttosto di tipo modo meccanico e lineare. Lewin concepisce le persone come dotate di un loro «spazio di vita» e utilizza, per descrivere scientificamente il campo, concetti topologici come frontiera, regione, tensione… → Il concetto di campo di Lewin è assimilabile a quello di sistema complesso. 1. C=f(P,A) 2. Ricerca-Azione 3. Teoria del cambiamento

89 1. C=f(P,A) –Il Comportamento (C) è in funzione dello stato della Persona e dell’Ambiente

90 2. Ricerca-azione ─Contrariamente alla ricerca applicata, che pone il ricercatore in una condizione di superiorità scientifica rispetto agli altri attori – dandogli il diritto di elaborare criteri e strategie, stabilire valutazioni, fare previsioni ecc. – nella ricerca-azione il ricercatore si considera parte dell’ «oggetto» di ricerca (la situazione sociale). →Il ricercatore, in quanto parte del campo sociale, tenta di comprendere la situazione “standovi dentro”, nel vivo delle relazioni con gli attori (che ne sono parte attiva), condividendo con essi le sue riflessioni, negoziando altre possibili interpretazioni ecc.

91 Il ricercatore deve avere occhi e orecchi sociali nei punti nevralgici e all'interno degli organismi di azione sociale Lewin

92 Caratteristiche della ricerca-azione* 1.Per la ricerca-azione è centrale che tutti si sentano soggetti attivi, capaci di essere se stessi con le proprie rappresentazioni e i propri sentimenti, anche con quelli inespressi. Ciò non implica un venir meno delle differenze e dei ruoli dei soggetti coinvolti; si tratta di non «bloccare» le differenti posizioni da barriere invalicabili. 2.Il cambiamento della situazione è frutto di un apprendimento collettivo e si sviluppa in un contesto relazionale denso di implicazioni intellettuali e emotive.

93 3.Cambia anche la concezione del “fare scienza»: fra sapere scientifico e sapere profano non esiste una differenza fondamentale, ma diversi gradi di astrazione, per cui tutti gli attori coinvolti hanno diritto ad avere la loro “voce” 4.Gli approcci basati sulla ricerca-azione non sono «lineari»: essi mettono in luce l’esistenza di momenti in cui la realtà rischia di chiudersi e in cui vi è difficoltà a procedere e a individuare significati utili da sviluppare ai fini del progetto. Ma è proprio in questi momenti che si delineano aperture e scoperte, che sono il risultato del lavoro non di un singolo esperto, ma esito delle interazioni fra i diversi attori (Barus-Michel, Enriquez, Lévy, 2003, tr. it. 2005)

94 Per le sue caratteristiche, la ricerca-azione, o ricerca- intervento, è sembrata assai utile in ambito educativo e formativo, in quanto: –coinvolge tutti gli attori. –è radicata nella situazione concreta. –ha come obiettivo non la conoscenza in sé, ma il cambiamento della pratica e dell’azione, inclusi gli atteggiamenti personali. → in particolare la ricerca-azione è stata considerata capace di sviluppare un deuteroapprendimento (Gregory Bateson), cioè di sollecitare un atteggiamento di costante riflessione sulla pratica tale da sviluppare un «apprendere ad apprendere»

95 «Difetti» della ricerca-azione a.La ricerca-azione non funziona quando ci sono conflitti di potere o dove essa potrebbe mettere in discussione i principi di funzionamento dell’organizzazione o le strategie definite ad alto livello; inoltreil ricercatore non può lavorare senza la collaborazione degli attori; ma questi non sono mai disposti a concedere un potere illimitato allo sperimentatore.

96 La ricerca-azione rappresenta una pratica «esemplare» (Boog e altri, 1996), intrinsecamente capace di promuovere forme democratiche di organizzazione sociale (Enriquez, 1984; Bubost, Levy, 1980). Ma, «inevitabilmente, si trova in conflitto con i poteri costituiti a livello economico, professionale, interprofessionale o politico, e in particolare con l’organizzazione della ricerca e dell’insegnamento (pubblico e privato) […] Spesso ci si rassegna a ricorrere a ricercatori che propongono percorsi di ricerca più collaborativi quando approcci più tradizionali hanno mostrato i loro limiti. […] Per lo più la struttura gerarchica del lavoro porta a isolare l’idea di ricerca-azione a livello di utopia, o a confinarla entro situazioni circoscritte, su scala ridotta, a livello locale (lavoroclinico, consulenze a équipe) dove vi siano meno rischi di trovarsi a ridiscutere dei principi di funzionamento dell’organizzazione o strategie definite ad alto livello» ( Barus- Michel, Enriquez, Lévy, 2003, tr. it. 2005, p. 392)

97 b.Siccome nessun intervento di ricerca può iniziare se non c’è una domanda, nella ricerca-azione la definizione della domanda avviene di concerto con gli interlocutori coinvolti nella ricerca: →la domanda iniziale, sia essa vaga (come spesso avviene: un semplice desiderio di essere ascoltati perché qualcosa «non va»), o più precisa (desiderio di acquisire più potere), può poi cambiare fisionomia durante la ricerca. →Coloro che commissionano la ricerca possono man mano che i lavori procedono, cambiare radicalmente opinione. c.Infine, alcune dimensioni latenti e occulte del funzionamento di una collettività possono non essere a disposizione della collettività, né queste avere interesse a renderle coscienti; →in questi casi, un ricercatore «esterno» può avere un vantaggio maggiore (Barus-Michel, Enriquez, Lévy, 2003, tr. it. 2005).

98 3. Teoria del cambiamento –La teoria del campo permette di pensare in nuovo modo al cambiamento nei fenomeni sociali. Questi vengono pensati da Lewin più in termini di processi che di «cose».

99 –In condizioni normali, il campo può essere pensare in uno stato di equilibrio quasi stazionario tra le forze che lo animano →con questo concetto si allude al fatto che un equilibrio sociale non è la risultante passiva delle forze presenti, ma un equilibrio dinamico →un tale equilibrio genererà una resistenza al cambiamento qualora le condizioni iniziali cambino: infatti le dinamiche di gruppo (appartenenza al gruppo, sicurezza, condivisione di ideali ecc.) tendono a persistere nel tempo. →Questa è la ragione per cui in certe situazioni gli interventi mirate alle singole persone senza tener conto dello spirito di gruppo non sortiscono gli effetti attesi.

100 Per provocare un qualsivoglia cambiamento occorre turbare l’equilibrio delle forze che mantengono ad un determinato livello l’autoregolazione sociale. Lewin (Teoria e sperimentazione in psicologia sociale, 1951)

101 Unfreezing → change → refrizing (scongelamento-cambiamento-ricongelamento) –Per superare le “tendenze alla conservazione” occorre realizzare una trasformazione delle percezioni sociali del gruppo tale che si abbia un “nuovo sistema di valori” esperito dall’individuo come qualcosa che egli ha scelto liberamente. Per raggiungere tale obiettivo occorre che si produca insoddisfazione verso la situazione attuale, lavorando contro la situazione stessa o riducendo le forze che la sostengono. Il ricongelamento è il consolidamento del nuovo equilibrio raggiunto.

102 Gestalttheorie: apprendimento come ristrutturazione cognitiva Per la psicologia della Gestalt l’apprendimento è interpretabile come passaggio da una Gestalt ad un’altra che avviene per “insight”, ovvero come riorganizzazione del campo dell’esperienza ed è frutto dell’ “autoregolazione organismica” (K. Goldstein 1939) (contro un apprendimento per “prove ed errori” di estrazione comportamentista)

103 Ludwig von Bertalanffy Teoria generale dei sistemi (1968) Fra le discipline che hanno consentito alla teoria della complessità di sorgere vi è senza dubbio la «teoria del sistema generale», come la definì von Bertalanffy (detta anche teoria generale dei sistemi o sistemica). Von Bertalannfy pose l’attenzione al funzionamento del sistema come qualcosa che è diverso dalle singole parti di cui è costituito, in un’ottica antiriduzionista e antimeccanicista.

104 Un sistema, per Bertalanffy, non può essere definito come un insieme di parti aventi determinate caratteristiche, ma come una rete di interazioni reciproche fra parti, secondo un modello di circolarità in base al quale ogni elemento condiziona l’altro ed è a sua volta condizionato. → Ne segue che per conoscere il singolo elemento la rete di relazioni che coinvolgono quell’elemento, e quindi in definitiva l’intero sistema.

105 Sistemi chiusi e sistemi aperti I sistemi chiusi sono quelli che non scambiano energia e materia con l’ambiente. –Le modellizzazioni della fisica classica facevano riferimento a questa tipologia di sistemi Invece, i sistemi caratterizzati da un «equilibrio dinamico […], come quelli viventi, che devono la loro sopravvivenza al costante flusso di energia e materia» (von Bertalanffy, 1951) sono tipicamente sistemi aperti.

106 Il sistema aperto possiede la sorprendente caratteristica di poter assorbire energia dall’ambiente; tale capacità è chiamata anche negentropia o entropia negativa, con riferimento al secondo principio della termodinamica. –Il secondo principio della termodinamica (si veda in seguito) stabilisce che ogni «lavoro» comporta una cessione di calore all’ambiente. Ciò comporta una degradazione dell’energia in virtù di tale inesorabile trasformazione in calore; essa, così, non sarà più utilizzabile per gli scopi del sistema e per produrre lavoro. I sistemi aperti, invece, possono assorbire energia e informazione dall’esterno e immetterla all’interno dei confini del sistema stesso (anche se naturalmente l’entropia dell’universo continuerà ad aumentare): i sistemi si “nutrono” di ordine ambientale e restituiscono scorie.

107 A causa dei continui scambi con l’ambiente, i sistemi aperti non sono vincolati a un equilibrio rigido e immodificabile, statico, ma a un equilibrio dinamico, al mantenimento di uno «stato stazionario». la sopravvivenza di organismo o di un’azienda rappresentano esempi di «equilibri stazionari»; questi non debbono essere raggiunti in una sola maniera, come avverrebbe se fossero contraddistinti da equilibri statici, ma per molte strade.

108 Bertalanffy parla in tal senso di equifinalità, evidenziando con tale concetto che: a)gli stessi risultati possono avere origini diverse; b)Le stesse cause non producono i medesimi effetti e viceversa –Ad esempio, un’azienda può mantenere il suo livello di vendite aumentando la qualità del prodotto o riducendo il prezzo. Dal punto di vista del di vista dell’obiettivo – il mantenimento dei livelli di vendita – le differenti opzioni, per quanto assai diverse fra di loro, anche nelle loro ricadute sociali, sono degli equivalenti funzionali

109 Inoltre, sempre in contraddizione con il 2^ principio della termodinamica, i sistemi aperti possono passare da una condizione di maggiore disordine ad una situazione di minore disordine ovvero da una struttura regolare ad una irregolare e più differenziata. –i sistemi biologici hanno un livello di organizzazione molto più alto dei sistemi non viventi e quindi minore entropia.

110 Come osserva il gestaltista W. Metzger (1976, tr. it. 2000), poi, i sistemi aperti tendono ad una “condizione finale pregnante”, al cui interno si posso realizzare sottosistemi di varia complessità e differenziazione, con stadi finali strutturalmente pregnanti. L’affermazione di tale finalismo non contraddice la spiegazione del comportamento umano in termini di causa-effetto.

111 Ross Ashby, che divenne l’esponente di punta della cibernetica (vedi sotto) negli anni ‘50 e ‘60, sottolinea con chiarezza il fatto che i sistemi viventi sono aperti dal punto di vista energetico ma chiusi dal punto di vista organizzativo. –Su tali concetti ritorneranno con profitto Maturana e Varela con il loro concetto di autopoiesi.

112 La cibernetica Cibernetica deriva dal termine greco kybernetes (pilota, timoniere) e studia i fenomeni di autoregolazione e comunicazione sia negli organismi naturali che nei sistemi artificiali. → Tale autoregolazione, o autocontrollo, delle macchine naturali o artificiali viene raggiunto attraverso meccanismi a retroazione o feedback.

113 I comportamenti non vengono considerati in sé, ma in riferimento al progetto che la struttura intende sviluppare. → Il modello cibernetico riporta in tal modo all'interno del pensiero scientifico il concetto di scopo. (CIRED)

114 La disciplina trae origine dalle Many Conferences, tenutesi dal 1946 al Così le ricorda Francisco Varela nel 1985: Questi incontri radunavano il fior fiore dell’intellighenzia del dopoguerra, tutti coloro che tendevano ad avere in comune un terreno problematico inerente a quegli argomenti che oggi definiremmo come modelli della conoscenza, computazioni biologiche, pensiero sistemico, epistemologia sperimentale e che allora costituivano un insieme unico, vasto e indifferenziato. […] Le Macy Conferences, che continuarono per più di dieci anni, furono caratterizzate senza ombra di dubbio dallo stile, dalla personalità e dalle differenti concezioni di due giganti intellettuali: John von Neumann e Norbert Wiener. Entrambi erano di origine europea, entrambi erano matematici e insegnavano in prestigiose università nordamericane, entrambi erano profondi pensatori nell’ambito scientifico e oltre l’ambito scientifico.

115 Retroazione (feedback) negativo/positivo Il meccanismo di retroazione è un meccanismo di controllo automatico che permette ad una "macchina", finalizzata al raggiungimento di un dato obiettivo, di autoregolarsi, nel corso del proprio funzionamento, correggendo gli scarti dal programma previsto in sede di progetto. –La retroazione si può ottenere dotando la macchina di un sensore che mette in relazione le prestazioni in uscita (output) della macchina con quelle prestabilite in entrata (input) e annulla poi la differenza fra segnale di uscita e segnale di entrata. Gli organismi viventi e i sistemi naturali sono già dotati di questi sistemi di autocontrollo che fanno parte di programmi genetici evolutisi nel tempo. (CIRED)

116 Fonte: wikipedia

117 I meccanismi di retroazione possono essere fondamentalmente di due tipi: –La retroazione negativa: ha l'effetto di contrastare le deviazioni nel funzionamento del sistema, opponendosi ai cambiamenti e stabilizzandolo Un esempio elementare di retroazione negativa può essere il termostato per regolare la temperatura in un locale; un esempio più complesso è il processo mediante il quale un mammifero mantiene una temperatura corporea costante –La retroazione positiva invece accelera le deviazioni incrementandole: tende così a creare instabilità nel sistema, che tenderà a sua volta a crearsi un nuovo stato di equilibrio Si ha un esempio di retroazione positiva nel comportamento di un animale in una situazione di pericolo incombente, quando cioè il cervello agisce in modo da provocare il rilascio di sostanze, come l’adrenalina, che aumentano l’attenzione e la capacità di reazione

118 John von Neumann e Norbert Wiener John von Neumann e Norbert Wiener svilupparono in realtà punti di vista diversi di considerare i sistemi autoregolantisi. Per Varela (1985, pp. 117 ss), la controversia fra i due è centrale anche per il pensiero di oggi, tanto che queste due figure possono essere assunte quali orientamenti contrastanti rispetto alla ricerca di quali siano i meccanismi della cognizione, ricerca che costituisce una dimensione fondamentale dei sistemi complessi.

119 John Von Neumann si interessa di procedimenti per risolvere ogni problema → egli, più interessato alla teoria degli automi e degli elaboratori digitali, concepisce la cognizione fondamentalmente come un’attività di problem solving, ovvero di come i sistemi viventi e le macchine artificiali possano aggiustare il proprio funzionamento sulla base degli input ricevuti dall’ambiente. → i sistemi concepiti da von Neumann sono pertanto eteronomi, in-formati dagli input esterni e generanti degli out-put come conseguenza della risposta del sistema agli input.

120 Scrive Piergiorgio Odifreddi di von Neumann (John von Neumann. L’apprendista stregone, ) John von Neumann (nato János Neumann a Budapest, 28 dicembre 1903, e morto a Washington, 8 febbraio 1957) faceva parte di quegli intellettuali ungheresi ebrei che si trasferirono negli USA dove morirono cattolici. Von Neumann fu un bambino prodigio: a sei anni conversava con il padre in greco antico; a otto conosceva l'analisi; a dieci aveva letto un'intera enciclopedia storica; quando vedeva la madre assorta le chiedeva che cosa stesse calcolando; in bagno si portava due libri, per paura di finire di leggerne uno prima di aver terminato. Da studente, frequentò contemporaneamente le università di Budapest e Berlino, e l'ETH di Zurigo: a ventitré anni era laureato in ingegneria chimica, ed aveva un dottorato in matematica. La sua velocità di pensiero e la sua memoria divennero in seguito tanto leggendarie che Hans Bethe (premio Nobel per la fisica nel 1967) si chiese se esse non fossero la prova di appartenenza ad una specie superiore, che sapeva però imitare bene gli umani. In realtà, il sospetto di un'origine marziana era esteso non solo a von Neumann, ma a tutto il resto della banda dei figli della mezzanotte, i coetanei scienziati ebrei ungheresi emigrati che contribuirono a costruire la bomba atomica. […]

121 […] Nel 1937 von Neumann, appena ricevuta la cittadinanza statunitense, iniziò ad interessarsi di problemi matematici applicati. Egli divenne rapidamente uno dei maggiori esperti di esplosivi, e si impegnò in un gran numero di consulenze militari, soprattutto per la marina (sembra che egli preferisse incontrarsi con gli ammiragli piuttosto che coi generali perché in mensa i primi bevevano liquori ed i secondi acqua). Il suo risultato più famoso nel (o sul) campo fu la scoperta che le bombe di grandi dimensioni sono più devastanti se scoppiano prima di toccare il suolo, a causa dell’effetto addizionale delle onde di detonazione (i media sostennero più semplicemente che von Neumann aveva scoperto che è meglio mancare il bersaglio che colpirlo). L’applicazione più infame del risultato si ebbe il 6 e 9 agosto del 1945, quando le più potenti bombe della storia detonarono sopra il suolo di Hiroshima e Nagasaki, all’altezza calcolata da von Neumann affinché esse producessero il maggior danno aggiuntivo. Questo non fu comunque l’unico contributo di von Neumann alla guerra atomica. Dal punto di vista tecnico, ancora più sostanziale fu il suo lavoro sulla cosiddetta lente di implosione, la stratificazione di esplosivi attorno alla massa di plutonio che permette di comprimerla fino ad innescare la reazione a catena. Dal punto di vista politico, egli fece parte del comitato che decise gli obiettivi (la sua prima scelta, la città santa di Kyoto, fu fortunatamente bocciata dal Ministro della Guerra in persona). Secondo il suo stesso direttore Robert Oppenheimer, l’impresa atomica aveva mutato gli scienziati in distruttori di mondi: il cinico commento di von Neumann fu che a volte qualcuno confessa una colpa per prendersene il merito. Egli proseguì poi imperterrito e divenne, assieme a Teller, il convinto padrino del successivo progetto di costruzione della bomba all’idrogeno (che fu approvato da Truman nonostante la raccomandazione contraria dell’apposito comitato presieduto da Oppenheimer, il quale pensava che gli scienziati avessero già fatto abbastanza male all’umanità).

122 […] La complessità dei calcoli balistici richiesti per le tavole di tiro di armamenti sempre più sofisticati aveva portato, nel 1943, al progetto del calcolatore elettronico ENIAC di Filadelfia. Non appena ne venne a conoscenza, nell’agosto 1944, von Neumann vi si buttò a capofitto: nel giro di quindici giorni dalla sua entrata in scena, il progetto del calcolatore veniva modificato in modo da permettere la memorizzazione interna del programma. La programmazione, che fino ad allora richiedeva una manipolazione diretta ed esterna dei collegamenti, era così ridotta ad un’operazione dello stesso tipo dell’inserimento dei dati, e l’ENIAC diveniva la prima realizzazione della macchina universale inventata da Alan Turing nel 1936: in altre parole, un computer programmabile nel senso moderno del termine. Nel frattempo un nuovo modello di computer, l’EDVAC, era in cantiere, e von Neumann ne assunse la direzione. Nel 1945 egli scrisse un famoso rapporto teorico, che divenne un classico dell’informatica: in esso la struttura della macchina era descritta negli odierni termini di memoria, controllo, input e output. L’effettiva costruzione della macchina andò però a rilento: le maniere di von Neumann, ed in particolare il fatto che egli contrabbandasse sotto il suo nome molte delle innovazioni che erano frutto di lavoro comune, non erano piaciute al resto del gruppo di lavoro dell’EDVAC, che si sfaldò subito dopo la guerra. Anche von Neumann se ne andò dal miglior offerente, e cioè all’Istituto di Princeton. Qui egli si dedicò alla progettazione di un nuovo calcolatore, producendo una serie di lavori che portarono alla definizione di quella che oggi è nota come architettura von Neumann: in particolare, la distinzione tra memoria primaria (ROM) e secondaria (RAM), e lo stile di programmazione mediante diagrammi di flusso. Anche questa macchina non fu fortunata: essa fu inaugurata solo nel 1952, con una serie di calcoli per la bomba all’idrogeno, e fu smantellata nel 1957 a causa dell’opposizione dei membri dell’Istituto, che decisero da allora di bandire ogni laboratorio sperimentale. Oltre che per varie applicazioni tecnologiche (dalla matematica alla metereologia), il computer servì a von Neumann anche come spunto per lo studio di una serie di problemi ispirati dall’analogia fra macchina e uomo: la logica del cervello, il rapporto fra l’inaffidabilità dei collegamenti e la loro ridondanza, e il meccanismo della riproduzione. Egli inventò in particolare un modello di macchina (automa cellulare) in grado di autoriprodursi, secondo un meccanismo che risultò poi essere lo stesso di quello biologico in seguito scoperto da James Watson e Francis Crick (premi Nobel per la medicina nel 1962).

123

124 - Norbert Wiener, è maggiormente interessato all’ «uso umano dell’uomo» – come recita il sottotitolo del suo Introduzione alla cibernetica (1950, tr. it 1970) – ed è preoccupato dei rischi morali di uno «sfruttamento grettamente egoistico» delle nuove possibilità offerte dalle macchine, «in un mondo in cui, agli uomini, debbono importare soprattutto le cose umane» (p. 16).

125 → egli si occupa della relazione fra conoscenza e scopo → sottolinea come la cognizione sia un’attività autonoma, autocreatrice. → Varela (1985, p. 119) osserva come l’orientamento di von Neumann e la connessa metafora della mente come computer è diventata dominante, mentre l’aspetto autonomo e produttore di senso degli esseri viventi è stato trascurato.

126 «La società può essere compresa soltanto attraverso lo studio dei messaggi e dei mezzi di comunicazione relativi ad essi; […] Nello sviluppo futuro […] i messaggi fra l’uomo e le macchine, fra le macchine e l’uomo, e fra macchine e macchine sono destinati ad avere una parte sempre più importante» (1950, tr. it. 1970, pp. 23 ‐ 24). «Uno degli aspetti più interessanti del mondo è il fatto che esso può ritenersi costruito sulla base di modelli. Un modello è essenzialmente una disposizione caratterizzata dall’ordinamento degli elementi di cui si compone anziché dalla natura intrinseca di questi elementi» (pp. 17 ‐ 18). L’informazione allora altro non è che «la misura della regolarità di un modello le cui parti componenti si sviluppano nel tempo» (p. 21).

127 «Le vecchie macchine e in specie i primi tentativi di costruire automi erano basati praticamente sul principio puro e semplice del meccanismo di orologeria. Le macchine moderne, invece, sono provviste di organi sensori, cioè organi di ricezione dei messaggi che provengono dall’esterno» (p. 25). «Affinché ogni macchina subordinata a un ambiente esterno variabile possa funzionare efficacemente, è necessario che sia fornita ad essa l’informazione relativa ai risultati della sua stessa azione, come parte dell’informazione in base alla quale essa deve continuare ad operare [feedback]» (p. 26).

128 «Il comportamento degli individui viventi è esattamente parallelo al comportamento delle più recenti macchine per le comunicazioni […] In entrambi esiste, cioè, un apparato speciale per raccogliere informazioni dal mondo esterno a bassi livelli di energia, e per renderle utilizzabili nel comportamento dell’individuo o della macchina. In ambedue i casi questi messaggi esterni non sono utilizzati al loro stato naturale, ma dopo un processo interno di trasformazione operato dalle forze dell’apparato, siano esse viventi o no» (pp. 29 ‐ 30).

129 → i viventi non funzionano solo su base eteronoma, non sono solamente re-agenti a input ambientali, secondo una causalità di tipo lineare («Nessuno dei fenomeni veramente eversivi della natura o dell’esperienza è, anche soltanto approssimativamente, di tipo lineare», p.47), ma sono in grado di agire e di generare il nuovo.

130 Le «premure antropologiche» di Wiener lo inducono a sottolineare ripetutamente che l’uomo è diverso dagli altri esseri viventi: la condizione delle formiche, ad esempio, è «meccanicamente regolata»: «un insetto è condizionato dall’intero processo del suo sviluppo ad essere un individuo essenzialmente stupido e incapace di perfezionamento, modellato su uno stampo che non può essere apprezzabilmente modificato» (p. 76). «L’insetto appare simile a una macchina con tutte le istruzioni impresse in anticipo sui “nastri” e con una facoltà minima di cambiare queste istruzioni» (p. 82).

131 → si potrebbe dire che i pattern comportamentali (gli «istinti») dell’insetto sono rigidi e poco modificabili; quelli dell’uomo sono molto più malleabili e si affidano all’esperienza condivisa e alla cultura per modellarsi. → l’uomo come «animale culturale»

132 La teoria del C A O S

133 Dove comincia il caos si arresta la scienza classica. Finché il mondo ha avuto fisici che investigavano le leggi della natura ha infatti sofferto di una speciale ignoranza sul disordine presente nell’atmosfera, nel mare turbolento, nelle fluttuazioni delle popolazioni di animali e piante allo stato di natura, nelle oscillazione del cuore e del cervello. L’aspetto irregolare della natura, il suo lato discontinuo e incostante, per la scienza sono stati dei veri rompicapo o peggio mostruosità (Gleick, 1987, tr. it. 2000, p. 9)

134 Il caos ha iniziato ad assumere una connotazione positiva quando ci si accorse della sua onnipresenza in ogni angolo dell’universo. I teorici caos sostengono che la sua scoperta rappresenti la terza grande rivoluzione scientifica del XXI secolo assieme alla relatività e alla meccanica quantistica.

135 Per primo fu Henri Poincaré ( ) a mostrare come semplici equazioni deterministiche potessero produrre traiettorie di incredibile complessità, tale da resistere a ogni tentativo di previsione, scoprendo di fatto il caos deterministico.

136 Un problema che aveva afflitto l’astronomia dai tempi di Newton era il cosiddetto problema dei tre corpi, che consiste nel calcolare, date la posizione iniziale, la massa e la velocità di tre corpi soggetti all'influsso della reciproca attrazione gravitazionale, l'evoluzione futura del sistema da essi costituito. Matematici come Laplace e Lagrange ritenevano che lo si potesse prima o poi risolvere, anche se dai tempi di Newton fino a fine ‘800 ciò non era ancora avvenuto perché le equazioni erano così complicate che non si potevano risolvere con una formula matematica. Infatti, non era possibile integrare le equazioni che descrivono il moto dei tre corpi. Soluzioni potevano aversi solo per determinati casi specifici (quando si ipotizzi, ad esempio, che i tre corpi stanno ai vertici di un triangolo equilatero). La fine dell’800 rappresenta così un momento di profonda crisi nel campo della meccanica celeste classica. (Luca Dell’Aglio).

137 Nel 1889 il re di Svezia mise addirittura in palio un premio (quello che oggi è il premio Nobel) con un ingente quantitativo di denaro per chi fosse riuscito a risolverlo. Il celebre matematico Weierstrass faceva parte della commissione che doveva giudicare i lavori. ↓ Il premio fu attribuito a Poincaré che scrisse una «Memoria» dal titolo Sur le problème des trois corps et les équations de la dynamique.

138 Nella Memoria, Poincaré evidenziava che le equazioni differenziali rappresentano la realtà come un continuum che scorre in modo regolare da un istante a quello successivo; a seguito di tale assunzione, osservava Poincaré, …invece di considerare il progressivo sviluppo di un fenomeno nella sua interezza, bisogna semplicemente cercare di correlare un istante a quello immediatamente precedente, supponendo che lo stato effettivo del mondo dipenda soltanto dal passato più recente, senza essere direttamente influenzato, per così dire, dalla memoria del passato distante. Grazie a questo postulato, piuttosto che studiare direttamente l’intera successione di un fenomeno, ci si può limitare a scrivere la sua ‘equazione differenziale’ (Poincaré, cit. in Luisa Bonolis, Il moto dei pianeti, ordine o caos?, 2010)

139 → Poincaré, in sostanza, stava affermando che le equazioni differenziali hanno due caratteristiche: 1.Esprimono una continuità della natura, una proporzionalità dell’avvenire delle cose, per cui a certe cause corrisponderanno effetti proporzionali; 2.Sono «modulari» (Gleick, 1987, tr. it. 2000, p. 28), cioè si possono scomporre in «pezzi» e poi «rimontare» → ciò dà la possibilità di studiare il fenomeno localmente piuttosto che globalmente

140 Ma poiché non esistevano formule esplicite per calcolare le soluzioni delle equazioni (non lineari) che descrivono il moto dei tre corpi, Poincaré focalizzò la sua attenzione sulla questione centrale che era in ballo con il problema dei tre corpi (o N-corpi) e si chiese: «cosa veramente si vuole conoscere della dinamica dei tre corpi»? Si vuole sapere qualcosa di «qualitativo», ovvero se il sistema nel tempo rimane stabile, perché ne va della stabilità dello stesso sistema solare! Non potremmo chiederci se uno dei corpi rimarrà sempre in una certa regione dei cieli, o se se ne allontanerà sempre di più, per sempre; se la distanza tra due corpi crescerà o diminuirà in un futuro lontano quanto si voglia, o se invece rimarrà confinata tra certi limiti per sempre? Non ci si potrebbe fare migliaia di domande di questo tipo, che sarebbero tutte risolte quando riuscissimo a capire come costruire qualitativamente le traiettorie di tre corpi?

141 Scrive Marco Abate: «…il punto che distingue la teoria dei sistemi dinamici da altre branche della matematica è il tipo di domande che ci si pone. Infatti […] non siamo interessati a una formula esplicita che ci permetta di calcolare tutte le iterate di f; siamo invece interessati al comportamento qualitativo e a lungo termine delle orbite generiche, e alla stabilità di questo comportamento rispetto a perturbazioni del punto iniziale dell’orbita o della funzione stessa» (Abate, 2008).

142 Poincaré, quindi, iniziò a introdurre tecniche di carattere qualitativo nello studio del sistema di equazioni differenziali, tecniche che però dovranno attendere parecchi decenni – precisamente la seconda metà del Novecento e hanno tratto molto beneficio dall’uso del computer, in quanto questo ha permesso di simulare il comportamento di sistemi dinamici anche molto complessi.

143 Poincaré utilizzò la topologia, «…una branca della matematica che ebbe un grande sviluppo nel XX secolo e che conobbe un particolare successo negli anni Cinquanta. La topologia studia le proprietà che rimangono immutate quando si deformano delle figure sottoponendole a torsione, stiramento o compressione» (Gleick, p. 49) Per esempio un cubo e una sfera sono oggetti topologicamente equivalenti (cioè omeomorfi), perché possono essere deformati l'uno nell'altro senza ricorrere a nessuna incollatura, strappo o sovrapposizione; una sfera e un toro invece non lo sono, perché il toro contiene un "buco" che non può essere eliminato da una deformazione.

144 → La motivazione profonda della topologia è che alcuni problemi geometrici non dipendono dalla forma esatta degli oggetti coinvolti, ma «dal modo in cui questi sono connessi tra loro» (http://it.wikipedia.org/wiki/Topologia).

145 Fonte: K. Devlin, I problemi del millennio, tr. it. 2009, p.219

146 Es: non è possibile durante una passeggiata attraversare una sola volta i ponti di Königsberg

147 Eulero (1707–1783), astraendo dalla situazione specifica di Königsberg, arrivo a elaborare la teoria dei grafi: innanzitutto eliminò tutti gli aspetti contingenti ad esclusione delle aree urbane delimitate dai bracci fluviali e dai ponti che le collegano (fig. B); secondariamente rimpiazzò ogni area urbana con un punto, ora chiamato vertice o nodo e ogni ponte con un segmento di linea, chiamato spigolo, arco o collegamento (fig. C). Siccome dai nodi A, B e D partono (e arrivano) tre ponti; dal nodo C, invece, cinque ponti, tali sono i «gradi dei nodi» (rispettivamente, 3, 3, 5, 3). Eulero giunse alla seguente conclusione: Un qualsiasi grafo è percorribile se e solo se ha tutti i nodi di grado pari, o due di essi sono di grado dispari; per percorrere un grafo "possibile" con due nodi di grado dispari, è necessario partire da uno di essi, e si terminerà sull’altro nodo dispari. → AB C

148 Come è evidente, la forma di un grafo può essere modificata spostando i vertici e distorcendo le linee che li collegano, pur di mantenere i collegamenti effettivi. Non conta se un collegamento si presenta rettilineo o curvato e neppure se un vertice sta da una parte o dall'altra rispetto a un collegamento di vertici vicini.

149 La topologia interessa i «sistemi dinamici», come quello dei tre corpi, in quanto «offre la possibilità di usare una figura come ausilio a visualizzare l’intera gamma di comportamenti di un sistema» (Gleick, p. 50). Un punto singolo su tale superficie rappresenta lo stato di un sistema in un istante congelato nel tempo. Man mano che un sistema progredisce nel tempo il punto si muove, tracciando un’orbita attraverso tale superficie. Un leggero incurvamento della figura corrisponde a una modificazione dei parametri del sistema, rendendo un fluido più viscoso o dando al pendolo una spinta un po’ più forte. Le figure che sembrano grosso modo uguali danno grosso modo gli stessi tipi di comportamento. Se si riesce a visualizzare una figura, si riesce a capire il sistema. (idem)

150 Dopo importanti contributi alla teoria qualitativa dei sistemi dinamici, forniti dalla scuola russa negli anni '30 e dagli studi di Birkhoff negli Stati Uniti, due articoli diedero un decisivo contributo alla diffusione e alla crescente popolarità di questo settore della Matematica: quello del 1963 del meteorologo americano Edward Lorenz e quello del 1976 di Robert May, un fisico inglese che studiò modelli per l'Ecologia.

151 Tentando di comprendere la geometria, o meglio la topologia, del moto dei tre corpi, Poincaré però si sorprese : Si rimarrebbe sbalorditi dalla complessità di questa figura che non cerco nemmeno di tracciare. Niente è più adatto a darci un’idea della complessità del problema dei tre corpi.

152 → Poincaré aveva scoperto ciò che si sarebbe chiamato CAOS deterministico : si ha caos deterministico quando leggi perfettamente deterministiche producono un moto completamente caotico e assolutamente imprevedibile.

153 Come evidenzia Marco Abate (2008), «…uno dei principali motivi della diffusione e dell’interesse dei sistemi dinamici: comportamenti complessi possono essere rappresentati da sistemi dinamici (non lineari) anche molto semplici. La complessità è introdotta dalla ripetizione della funzione che genera il sistema, e non dalla complessità intrinseca della funzione stessa. Questo risponde anche a un principio di economicità spesso presente in natura (e sempre cercato dalla scienza): un fenomeno complesso viene generato ripetendo azioni elementari, per cui è sufficiente che il sistema biologico, fisiologico, fisico, economico, eccetera sia in grado di generare azioni elementari a livello microscopico per ottenere comportamenti complessi a livello macroscopico».

154 Poincaré si sorprese anche della grande influenza che potevano avere piccole grandezze e approssimazioni sull’esito finale della dinamica : …una causa piccolissima che sfugga alla nostra attenzione determina un effetto considerevole che non possiamo mancare di vedere, e allora diciamo che l'effetto è dovuto al caso. Se conoscessimo esattamente le leggi della natura e la situazione dell'universo all'istante iniziale, potremmo prevedere esattamente la situazione dello stesso universo in un istante successivo. Ma se pure accadesse che le leggi naturali non avessero più alcun segreto per noi, anche in tal caso potremmo conoscere la situazione iniziale solo approssimativamente. Se questo ci permettesse di prevedere la situazione successiva con la stessa approssimazione, non ci occorrerebbe di più e dovremmo dire che il fenomeno è stato previsto. Ma non è sempre così; può accadere che piccole differenze nelle condizioni iniziali ne producano di grandissime nei fenomeni finali. Un piccolo errore nelle prime produce un errore enorme nei secondi. La previsione diviene impossibile (Poincaré, Scienza e metodo, 1903).

155 Recenti studi sul problema degli N-corpi (Laskar, 1990, 1997, 2003; Roubutel e Laskar, 2001; Correia e Laskar, 2003 e altri), «basati sulle idee di Poincaré, ha permesso di calcolare con grande precisione le orbite dei pianeti per miliardi di anni e di giungere alla conclusione che il sistema solare è caotico, altamente non periodico e (soprattutto per i pianeti interni) tendenzialmente instabile. […] L’immagine odierna dell’evoluzione del Sistema Solare è ben diversa da quella dei matematici del Settecento, sostanzialmente convinti della stabilità dell’orbita dei pianeti; le intuizioni di Poincaré, assieme alla potenza di calcolo dei calcolatori odierni, ci hanno portato a una visione più realistica e affascinante, anche se forse meno rassicurante, dell’universo in cui viviamo» (Abate, 2008).

156 Lorenz e la scoperta del C A O S Il meteorologo Edward Lorenz andava compiendo negli anni Sessanta dello scorso secolo delle simulazioni sul clima al computer utilizzando un programma con dodici parametri he simulavano gli andamenti di temperature, pressione, venti, ecc. Col suo primitivo computer Lorenz aveva ridotto il tempo meteorologico al suo scheletro più essenziale; utilizzando un modello deterministico egli aveva simulato qualcosa che assomigliava assai a quanto avviene al tempo sulla terra. Un giorno dell’inverno del 1961, nel corso di una simulazione, successe qualcosa di inatteso. Pur avendo copiato esattamente i numeri di una precedente simulazione, l’evoluzione dell’ultima simulazione era assai differente dalla precedente, contrariamente doveva accadere.

157 Lorenz si rese conto che, per risparmiare spazio, nella seconda simulazione aveva approssimato i numeri a 3 decimali dopo la virgola, invece dei 6 della precedente simulazione. Lorenz aveva introdotto un’approssimazione al decimillesimo, supponendo che la differenza avesse un’incidenza del tutto trascurabile. Il computer di Lorenz utilizzava un sistema di equazioni puramente deterministiche. Lorenz si attendeva che, dato un particolare punto di partenza, il tempo sarebbe seguito ogni volta esattamente nello stesso modo. Dato un punto di partenza leggermente diverso, le condizioni meteorologiche dovevano evolversi in modo leggermente diverso. Un piccolo errore numerico era come un soffio di vento, eppure nel particolare sistema di equazioni di Lorenz, piccoli errori si dimostravano catastrofici.

158 → Lorenz aveva scoperto l’effetto farfalla (butterfly effect): piccole differenze nelle condizioni iniziali generano grandissime differenze nell’evoluzione del sistema, come aveva già scoperto Poincaré.

159 Successivamente Lorenz mise da parte la meteorologia e si concentrò su sistemi più semplici; ne trovò uno che poteva essere descritto mediante l’utilizzo di tre sole equazioni non lineari. Si tratta di un particolare tipo di ruota idraulica. Flusso d’acqua foro

160 Descrizione della ruota idraulica di Lorenz. In alto dell’acqua cade costantemente nei secchi appesi al cerchio della ruota. Ogni secchio perde costantemente un filo d’acqua da un foro sul fondo. -Se il flusso dell’acqua che va a cadere nel secchio alla sommità è lento, il secchio non si riempie mai abbastanza per superare l’attrito e la ruota non comincia mai a girare. -Se il flusso è più veloce, il peso del secchio in alto mette in movimento la ruota (a sinistra in figura). La ruota idraulica può iniziare un movimento che continua a velocità costante (in centro). -Se però il flusso è ancora più veloce (a destra), la rotazione diventa caotica, a causa degli effetti non lineari presenti nel sistema. Quando i secchi passano sotto la caduta d’acqua, in quale misura si riempiano dipende dalla velocità della rotazione. Se la ruota sta girando rapidamente, i secchi hanno poco tempo per riempirsi. Inoltre, se la ruota gira rapidamente, i secchi possono salire dall’altra parte prima di avere avuto il tempo di svuotarsi completamente. Di conseguenza, il peso dell’acqua contenuta nei secchi che stanno risalendo farà prima rallentare e poi invertire la rotazione. Come scoprì Lorenz, la rotazione può così invertirsi molte volte, non passando mai a una velocità costante e non ripetendosi mai in modo prevedibile.

161 Tre equazioni descrivevano interamente il moto del sistema. Inserendo le equazioni non lineari in un computer si poteva vedere i valori che assumevano le equazioni col passare del tempo (0-10-0; , ; ;…). Lorenz utilizzò tali triadi di numeri ipotizzando che si trattasse di coordinate di uno spazio tridimensionale. Così ebbe un’idea di come il sistema di andava comportando. → Tale espediente che consente di visualizzare l’evoluzione del sistema nel tempo si chiama spazio delle fasi. Esso non rappresenta il sistema reale, ma dà il senso del moto del sistema reale.

162 In matematica si chiama attrattore il punto (o l’insieme di punti ) verso il quale evolve un sistema dinamico dopo un tempo sufficientemente lungo. –Nel caso del pendolo con attrito l’attrattore è un punto (il pendolo si ferma); –Nel caso del pendolo senza attrito l’attrattore è ciclico (il pendolo non si ferma mai e resta sempre nella stessa traiettoria)

163 PENDOLO SENZA ATTRITOPENDOLO CON ATTRITO

164 Lorenz inserì i valori che assumevano passo dopo passo le equazioni del suo sistema in un grafico a tre dimensioni. –Lo spazio delle fasi che ne risultava, pur non rappresentando il sistema reale, riusciva in qualche modo a dare un’idea della dinamica del sistema. Per esempio, il passaggio da un’ala dell’attrattore all’altra corrisponde a un’inversione nella direzione della rotazione della ruota idraulica.

165 La dinamica del sistema nello spazio delle fasi rivelava una sorta di infinità complessità, che restava confinata nell’ambito di un attrattore, per quanto questo fosse «strano», come lo definì Lorenz.

166 Attrattore di Lorenz

167 Fonte:

168 Fonte:

169 tempo velocità Fonte: Gleik 1987

170 Sistema caotico: imprevedibile localmente ma stabile su scala globale (Gleick, p. 52)

171 Un sistema non può essere solo stabile vs. instabile (biglia sul fondo di una ciotola, o matita dritta sulla sua punta), ma può avere compresenza di caos e stabilità (Gleick, 51) → compare quindi l’idea che i sistemi possano essere un «mix» di ordine e caos

172 Ancora alla scoperta del caos: Come cresce una popolazione? Modello di crescita della popolazione di topo esponenziale lineare (Malthus): se non c’è competizione e una disponibilità illimitata di cibo, la popolazione cresce in maniera progressiva e lineare secondo una legge del tipo x n+1 = rx n, dove r è il tasso di incremento della popolazione

173 –Es. se r = 1,1 e se la popolazione (x) è individui, dopo un anno (x+1) sarà di individui, l’anno dopo ecc → crescita costante –Es. r = 0,9 e la popolazione (x) è sempre di individui, dopo un anno (x+1) sarà di 9000 individui, l’anno dopo 8100 ecc → decrescita costante –Es. r = 1 e la popolazione (x) è sempre di individui, dopo un anno (x+1) sarà di individui, l’anno dopo ecc → equilibrio

174 Ma il modello malthusiano è poco realistico in quanto, essendo le risorse ambientali limitate occorre considerare anche una variabile che rappresenta anche della competizione fra gli individui.

175 Si può facilmente evidenziare che equazione che tenga conto della competitività ha la seguente struttura: Tale “mappa logistica” si legge così: la popolazione all’istante x+1 deriva dal calcolo di rx n (1-x n ), dove 1-x n è la popolazione espressa come un valore fra 0 e 1, dove 0 è il minimo e 1 il massimo.

176 Ci si attende che l’equazione si stabilizzi, nel tempo, attorno a un valore di equilibrio Gleick, 1989, p. 67

177 Tuttavia questo avviene solo per certi valori di r. Per valori alti di r non c’è tale convergenza verso un valore determinato, ma neppure i numeri crescono oltre ogni limite.

178 Non riuscendo a trovare un valore di convergenza, i primi ecologi immaginarono che la popolazione stesse oscillando attorno a un qualche equilibrio soggiacente che non si riusciva a individuare...

179 Guardando più a fondo, avrebbero scoperto che l’equazione non converge mai attorno a un valore! «Il biologo Robert May osservò che quando il parametro r era basso il modello si attestava in uno stato stazionario. Quando il parametro era alto, lo stato stazionario veniva meno e la popolazione oscillava tra due valori che si alternavano. Quando il parametro era altissimo, il sistema – lo stessissimo sistema – sembrava comportarsi in modo imprevedibile. Perché?» (Gleick, p.73)

180 Al variare del parametro r, si osservano i seguenti comportamenti: –Con r compreso tra 0 e 1, la popolazione calerà fino a morire, indipendentemente dal valore iniziale della popolazione. –Con r compreso tra 1 e 2 la popolazione andrà velocemente a stabilirsi al valore (r-1)/r, indipendentemente dal valore iniziale della popolazione. –Con r compreso tra 2 e 3, la popolazione andrà comunque a stabilizzarsi al valore (r-1)/r ma prima oscillando. –Con r compreso tra 3 e approssimativamente 3.45, la popolazione potrebbe oscillare per sempre tra due valori. –Con r compreso tra ~3,45 e ~3,54, la popolazione potrebbe oscillare per sempre tra 4 valori. –Con r leggermente superiore di 3,54, la popolazione oscillerà tra 8 valori, poi 16 poi 32, etc. –Con r approssimativamente 3,57 avviene l'insorgenza del caos. Minime variazioni del valore iniziale della popolazione daranno differenti risultati, una caratteristica primaria del caos → sensibilità alle condizioni iniziali –La maggior parte dei valori oltre 3,57 esibiscono un comportamento caotico, ma ci sono comunque ancora dei valori isolati di r che non mostrano comportamenti caotici; ci sono ogni tanto delle isole di stabilità.

181

182 Anziché usare singoli diagrammi per visualizzare il comportamento di popolazioni con gradi diversi di fertilità, Robert May e altri scienziati usarono un «diagramma di biforcazione» per riunire tutta l’informazione in una singola immagine (Gleick, p. 74). I valori del parametro r aumentano da sinistra verso destra e la popolazione aumenta dal basso verso l’alto. –quando il parametro è basso la popolazione si estingue (a sinistra) –quando il parametro aumenta, la popolazione è in equilibrio (al centro) –All’aumentare del parametro, inizia a manifestarsi un’instabilità e la popolazione oscilla fra due valori –All’aumentare ancora del parametro le biforcazioni diventano sempre più rapide. –Infine il sistema diventa caotico (a destra) e la popolazione passa per un numero infinito di valori diversi

183

184 È interessante osservare – come mostrato dalla figura nella pagina che segue – che anche «in mezzo al caos» non c’è completa casualità, perché tornano d’improvviso cicli stabili. Ogni 3 o 7 anni c’è un periodo di stabilità, interrotto da periodi di biforcazioni crescenti e di nuovo caos.

185

186 «Il caos portò un messaggio sorprendente: quello che sembrava un comportamento casuale poteva essere prodotto da semplici modelli deterministici» (Gleick, p. 82) –Il caos fu individuato nei dati sulle epidemie di morbillo a New York, nelle fluttuazioni della popolazione della lince in Canada; i fisiologi iniziarono a guardare gli organi non come a strutture statiche, ma come a complessi di oscillazioni, regolari e irregolari.

187 Robert May depose il “verbo” del caos in un articolo che consegnò a Nature (Simple Mathematical Models with Very Complicated Dynamics, 1976). –A suo parere, se ogni giovane studente si fosse trastullato con la sua calcolatrice tascabile con l’equazione logistica, il mondo sarebbe diventato migliore… (Gleick, p. 83)

188 I frattali Benoît Mandelbrot (1924 – 2010), matematico polacco. Studiò l’andamento dei prezzi del cotone di otto anni, tenendo conto sia delle grandi variazioni di prezzo che delle piccole. Egli osservò un fatto curioso: che c’era una simmetria fra scale grandi e piccole: le curve per le variazioni giornaliere e mensili dei prezzi coincidevano (Gleick, p. 88).

189 Perché la geometria viene spesso descritta come fredda e arida? Una ragione è l’inabilità di descrivere la forma di una nuvola o di una montagna una linea costiera o un albero. Le nuvole non sono delle sfere, le montagne non sono dei coni le linee costiere non sono dei cerchi, il sughero non è liscio ed i fulmini non si muovo lungo linee diritte. Benoît Mandelbrot

190 Poiché le misure euclidee non riescono a cogliere l’essenza di forme irregolari, Mandelbrot si volse a un’idea diversa, quella di dimensione. –Normalmente si usano le tre dimensioni spaziali: 0 dimensioni per un punto 1 dimensione per una linea 2 dimensioni per una superficie 3 dimensioni per un solido –Mandelbrot chiese: se osservate un gomitolo, se siete abbastanza vicino vi servono le tre dimensioni, ma se siete molto lontano ve ne basta una. Mandelbrot mosse oltre le dimensioni 0, 1, 2, 3 verso le dimensioni frazionarie (Gleick, 1987).

191 La nozione di dimensione frazionaria è un atto di «funambolismo intellettuale». Mandelbrot specificò il modo di calcolare la dimensione frazionaria di oggetti reali (Gleick, 1987, p. 99).

192 Egli diede il nome al suo concetto di frattale, che deriva dal latino fractus (rompere, frangere), poiché la dimensione di un frattale non è intera. Un frattale è un oggetto geometrico che si ripete nella sua struttura allo stesso modo su scale diverse (invarianza di scala), ovvero che non cambia aspetto anche se visto con una lente d'ingrandimento (autosomiglianza).

193 Frattale di Mandelbrot

194 Fonte di questa e della precedente immagine:

195 Un frattale si costruisce in modo diverso da un oggetto geometrico euclideo, definito da una funzione del tipo y=f(x). Il frattale si basa su un algoritmo, ovvero un meccanismo di calcolo, che deve essere utilizzato più volte, teoricamente un numero di volte infinito. –Ad esempio, il frattale di Mandelbrot deriva dall’applicazione dell’algoritmo: Z t+1 = Z T 2 + C (dove Z, C appartengono all’insieme dei numeri complessi. I numeri complessi sono un'estensione dei numeri reali nata inizialmente per consentire di trovare tutte le soluzioni delle equazioni polinomiali, come ad esempio, l'equazione x 2 = -1)

196 Curva di Von Koch: si prenda un triangolo equilatero e si divida il suo lato in tre parti uguali; si tolga quella centrale e si costruisca al suo posto un triangolo equilatero. Iterando questa operazione più e più volte, teoricamente all’infinito, si otterrà una figura simile a un fiocco di neve. Click!

197

198

199 Le intuizioni della geometria frattale furono d’aiuto agli scienziati che studiavano i modi in cui le cose si fondono assieme, in cui si ramificano, o in cui si spezzano. Rappresentò un modo nuovo di guardare ai materiali: le superfici microscopicamente frastagliate dei metalli, i minuscoli pori e canali delle porose rocce petrolifere… Alcuni biologi teorici cominciarono a trovare un’organizzazione frattale che controllava strutture in tutto il corpo. La descrizione “esponenziale” ortodossa della ramificazione dei bronchi si dimostrò del tutto erronea e si rivelò conforme ai dati una descrizione frattale. Vari cardiologi trovarono che lo spettro di frequenza del ritmo delle pulsazioni, come quello dei terremoti, seguiva leggi frattali Gleick (1987, pp. 107, 112).

200

201 Differenze fra teoria del caos e teoria della complessità Ci viene spesso chiesto quale sia la differenza tra complessità e caos. La risposta più semplice è che il caos ha a che fare con situazioni come la turbolenza che diventano rapidamente disordinate e non gestibili. La complessità, invece, ha a che fare con sistemi composti di molti agenti interconnessi. Se i sistemi complessi sono difficili da prevedere, presentano anche un buon livello di struttura e permettono miglioramenti in seguito a interventi ragionati (Alelrod- Cohen, 1999, p. XV, cit. in De Toni-Comello, p, 49).

202 Doyne Farmer e a Norman Packard che avevano studiato sin dagli anni ’70 i sistemi dinamici collettivi, i comportamenti caotici e gli attrattori strani, si stancarono della teoria del caos, che era già ben consolidata, ed erano desiderosi di mettere le mani su di una teoria della complessità vera. → Le dinamiche del caos erano complesse, ma ripetitive e quindi superficiali, non generative. Niente si modifica e niente si adatta, come una foglia sospinta caoticamente dal vento.

203 Il secondo principio della termodinamica La termodinamica studia il comportamento e le proprietà dei sistemi che scambiano energia con l’ambiente esterno, scambi che si manifestano in forma di calore e lavoro. Ogni esecuzione di un «lavoro» è possibile quando c’è uno scambio di calore tra due sorgenti a temperature differenti (Carnot, 1824). –Carnot quantificò questo lavoro e introdusse il concetto di rendimento termodinamico.

204 Il secondo principio della termodinamica stabilisce che ogni «lavoro» comporta una cessione di calore all’ambiente.

205 Vi sono due formulazioni equivalenti di tale principio: –Enunciato di Kelvin-Plank: è impossibile realizzare una trasformazione il cui unico risultato sia la conversione in lavoro del calore fornito da una sorgente a temperatura uniforme. → Quindi, è teoricamente impossibile costruire una macchina che lavori al 100% di rendimento; non esiste il motore perfetto !

206 –Enunciato di Clausius: è impossibile realizzare una trasformazione il cui unico risultato sia il passaggio di calore da un corpo a una data temperatura a un altro a temperatura maggiore. → Ciò nega la possibilità di realizzare il cosiddetto moto perpetuo - es. Un pendolo diminuisce nel tempo le sue oscillazione perché una parte della sua energia viene «bruciata» negli attriti. Una volta avvenuta questa cessione di energie, non è possibile «riestrarre» il calore dall’aria e ridare energia meccanica al pendolo

207 Si usa il termine entropia per riferirsi a questa degradazione dell’energia, che viene anche interpretata come una misura del disordine, intesa come perdita di energia utilizzabile per il lavoro ad effetto della sua degradazione in calore.

208 Il concetto di entropia venne introdotto agli inizi del XIX secolo per descrivere una caratteristica di tutti i sistemi allora conosciuti, nei quali si osservava che i fenomeni spontanei/irreversibili, fra cui compaiono i fenomeni naturali, avvenivano invariabilmente in una direzione sola, quella verso il maggior disordine. estensivamente il termine è stato utilizzato anche in altri ambiti, come nella teoria dell’informazione, per riferirsi alla degradazione dei segnali trasmessi

209 Esempi di fenomeni che causano l’aumento di entropia

210

211 → ogni trasformazione (spontanea e/o irreversibile) che avviene in natura comporta un aumento dell’entropia dell’Universo → L’esito finale di tutte queste cessioni di calore previste dal secondo principio della termodinamica è un aumento della temperatura dell’universo, che prima o poi giungerà ad uno stadio in cui si troverà in condizioni di temperatura uniforme – la cosiddetta «morte termica dell’Universo» – in cui non ci sarà più possibilità di compiere lavoro, in quanto, come aveva stabilito Carnot, ogni esecuzione di un «lavoro» è possibile quando c’è uno scambio di calore tra due sorgenti a temperature differenti.

212

213 Dal principio di aumento di entropia dell’Universo e dall’irreversibilità dei fenomeni naturali/spontanei possiamo ricavare anche la nozione dello scorrere del tempo: è proprio l’irreversibilità di alcuni processi che ci evidenzia che le cose non possono tornare indietro.

214 La nascita della complessità: le strutture dissipative di Prigogine e il problema del tempo Ilya Prigogine ( ), chimico e fisico russo, ricevette nel 1977 il premio Nobel per la chimica per le sue teorie riguardanti la termodinamica applicata ai sistemi complessi e lontani dall'equilibrio.

215 Prigogine ha voluto sviluppare l’idea di irreversibilità già contenuta nella termodinamica classica, che egli definisce termodinamica della «stabilità» con una termodinamica instabile ed evidenziando che in quest’ultima si producono strutture complesse e altamente instabili (che egli chiama «dissipative») che generano proprietà nuove: si tratta di strutture che si creano lontano dall’equilibrio in concomitanza dei punti di biforcazione e possono assumere diverse configurazioni, non prevedibili. Quale biforcazione «sceglierà» il sistema entra a far parte della sua «storia» → occorre tenere conto della «storicità» delle scelte adottate da tali sistemi.

216 → per Prigogine occorre pensare al tempo non come al tempo-illusione della fisica (per Hawking e Einstein il tempo è un’illusione) ma al tempo-reale della biologia: le strutture dissipative, a cui poi si è aggiunto il caos dissipativo, hanno chiarito che siamo tutti immersi nella corrente del tempo, siamo costituiti da tempo. …strutture e caos dissipativi sono figli del secondo principio, in condizioni lontane dall’equilibrio, e manifestazioni del ruolo costruttivo dell’irreversibilità. D’altro canto appartengono entrambi alla nuova scienza dei processi non lineari che sovverte le categorie tradizionali che associano l’intelligibilità all’ordine, alla regolarità, alla predicibilità (La nuova alleanza, p. XI)

217 Il problema centrale è quello dell’evoluzione temporale associata alla descrizione statistica. Nel caso dei sistemi stabili la descrizione statistica può essere ridotta alla descrizione deterministica di un sistema individuale, ossia alla definizione della sua traiettoria. La descrizione statistica è dunque “riducibile”. Per i sistemi dinamici “caotici” la situazione cambia radicalmente. In questo caso è possibile costruire una descrizione statistica irriducibile e il ritorno alla traiettoria è dunque impossibile (La nuova allenza, XIII)

218 Quindi, per Prigogine tutti i sistemi possono essere considerati instabili. Trattarli come stabili può avvenire per approssimazione e in determinate condizioni. Tale approssimazione è utile perché consente la “calcolabilità” del sistema in termini riduzionistici (→ individuare le traiettorie) e il sistema diventa, pertanto, prevedibile con buona approssimazione. Questa approssimazione cessa però di diventare trascurabile nei sistemi lontani dall’equilibrio. Questi richiedono che si abbandoni il modello meccanicistico che li descrive in termini di sommatoria della dinamica delle parti in quanto, in tali condizioni, manifestano dei comportamenti “intrinsecamente aleatori”; essi diventano descrivibili solo probabilisticamente (Prigogine, 1996, tr. it. 1997, p. 35).

219 Nei sistemi instabili si generano “fluttuazioni” che innescano risonanze e correlazioni fra le parti su distanze macroscopiche: tali risonanze conducono a comportamenti collettivi che producono nuove strutture. In prossimità dell’equilibrio, come ama ripetere Prigogine, la materia è “cieca”; lontano dall’equilibrio, “comincia a vedere” (ibidem, p. 121). Le interazioni fra le parti del sistema e quelle con il contesto, trascurabili in sistemi stabili o quasi stabili, diventano fondamentali per descrivere la dinamica di un sistema lontano dall’equilibrio. Tali sistemi instabili incontrano dei “punti di biforcazione” nei quali essi possono assumere diverse modalità di funzionamento collettivo.

220 Mi piace dire che la materia in prossimità dell’equilibrio è “cieca”, perché ogni particella “vede” soltanto le molecole che la circondano; mentre lontano dall’equilibrio si producono le correlazioni di lunga portata che permettono la costruzione degli stati coerenti e che oggi incontriamo in numerosi campi della fisica e della chimica (Prigogine, Il ruolo creativo del tempo, 1984).

221 Nozioni come quelle di risonanza, punti di biforcazione, cambiamento di stato, aggancio di fase ecc. sono utilizzati dai teorici della complessità per dar conto di come l’evolvere di strutture complesse non sia semplicemente spiegabile in termini di sommatoria del funzionamento delle parti. I sistemi complessi, a differenza delle idealizzazioni tratte dalla meccanica classica, sono sensibili a perturbazioni, “rumori”, processi intrinseci ed estrinseci (Prigogine & Stengers, 1981, p. 268, n. 1).

222 L’ideale della scienza classica è un ideale universale e atemporale, mentre le scienze umane sono legate all’idea di uno schema storico e di strutture che si sovrappongono alle altre. A parere di Prigogine …si è verificato un divorzio tra la situazione esistenziale dell’uomo, nella quale il tempo svolge un ruolo essenziale, e la visione atemporale, vuota della fisica classica, pur con le integrazioni e le novità apportate dalla meccanica quantistica e dalla relatività.

223 Ilya Prigogine scrisse con Isabelle Stengers nel 1979 il libro La nuova alleanza (tr. it. Einaudi 1981) nel quale intendeva mostrare come la vita non sia frutto del caso e della necessità, bensì della capacità dei sistemi viventi lontani dall’equilibrio di auto-organizzarsi. Il libro rappresenta una risposta al celebre testo di Jacques Monod Il caso e la necessità. In esso, con lucido pessimismo, l’autore proclamava che la scienza aveva infranto l'antica alleanza tra la natura e l'uomo. L’ideale della scienza è l’ideale di uno schema universale e atemporale, mentre le scienze umane sono basate su uno schema storico legato al concetto di situazioni nuove o strutture nuove che di sovrappongono ad altre. Monod scriveva: L’antica alleanza è infranta; l’uomo finalmente sa di essere solo nell’immensità indifferente dell’universo da cui è emerso per caso. Il suo dovere, come il suo destino non è scritto in nessun luogo. A lui la scelta tra il Regno e le tenebre.

224 Occorre da un lato non attaccare la scienza come strumento positivista, né l’arte e la letteratura come se fossero artifici privi di portata reale. Io credo – continua Prigogine – che il mio libro La nuova alleanza esprima una corrente di sintesi molto radicata nel nostro tempo.

225 Prigogine fu insignito del premio Nobel nel 1977 per i suoi studi su sulle «strutture dissipative». → Una struttura dissipativa è sistema termodinamicamente aperto, instabile e lontano dall'equilibrio termodinamico, caratterizzato dalla capacità di formare spontaneamente strutture ordinate e complesse. Questi sistemi, possono acquisire energia dall’esterno diminuendo così la propria entropia (neghentropia) e, passando attraverso fasi di instabilità, evolvere in strutture di maggiore complessità.

226 Il termine «struttura dissipativa» tende a sottolineare la stretta associazione fra struttura e ordine da una parte e perdite e sprechi dall’altra. La dissipazione dell’energia e della materia diventa, in condizioni lontane dall’equilibrio, fonte di ordine […] La dissipazione è all’origine di ciò che si possono chiamare, a giusto titolo, nuovi stati della materia (Prigogine, Stenger, 1979, tr it. 1981, p. 148)

227 Un esempio di struttura dissipativa: le celle di Bénard. Bénard effettò nel 1900 un esperimento consistente nel riscaldare dal basso un sottile strato di liquido in modo tale da osservare i moti convettivi che in esso si generano. Fino a quando la variazione di temperatura è piccola tra l'interno e la superficie si ha unicamente un fenomeno di conduzione senza trasporto di materia. Al di sopra di una certa temperatura ha inizio un meccanismo di convezione che risulta sorprendente: il moto del fluido si struttura in una serie di cellette, chiamate appunto Celle di Bénard.

228 Prigogine ebbe con il concetto di struttura dissipativa il merito di evidenziare situazioni fortemente dinamiche e instabili, diverse da quelle statiche e di equilibrio generalmente studiate fino ad allora, contribuendo in maniera fondamentale alla nascita di quella che oggi viene chiamata epistemologia della complessità. → Prigogine è riuscito a risolvere il paradosso delle due contrapposte visioni dell’evoluzione in fisica e in biologia: quella di un motore che si esaurisce e quella di un mondo vivente che si dispiega verso un ordine e una complessità crescenti (De Toni, Comello, p. 51)

229 Per Prigogine tutti i sistemi sono «aperti», nel senso della cibernetica. «I sistemi isolati sono un’astrazione. Ogni sistema reale è, in pratica, contenuto in un altro sistema, di cui è sottosistema. In un certo senso esiste anzi un solo gigantesco sistema, l’universo. Ogni altro sistema può essere individuato, ritagliato dal resto dell’universo (dallo sfondo) ed etichettato con un nome sono da un osservatore» (Cammarata, 1999, p. 20)

230 I sistemi aperti scambiano energia e informazione con l’ambiente. Per essi la seconda legge della termodinamica non vale, perché sono in grado di importare energia (neghentropia) ↓ (Ciò non è in contraddizione con la seconda legge della termodinamica, perché l’entropia dell’intero ambiente aumenterà in modo corrispondente).

231 Prigogine, maestro (cattivo?) della complessità di Fabio Pagan* Strano destino, quello di Ilya Prigogine, il famoso chimico fisico (e filosofo) scomparso il 28 maggio 2003 a Bruxelles all'età di 86 anni. Strano e soprattutto amaro. Perché, ottenuto il premio Nobel per la chimica nel 1977 per le sue ricerche fondamentali sulla termodinamica dei sistemi in non-equilibrio, il Prigogine filosofo degli ultimi trent'anni sembra aver fallito proprio lì dove il Prigogine scienziato aveva invece avuto successo. Fino a venire considerato, lui, pioniere degli studi sulla complessità, una sorta di "cattivo maestro" proprio da coloro che dovrebbero esserne gli eredi naturali. *Fabio Pagan, laureato in Scienze Biologiche all'Università di Trieste, è giornalista professionista. Per 25 anni è stato redattore del quotidiano "Il Piccolo" di Trieste, sul quale scrive articoli di scienza e tecnologia fin dal Collabora con la RAI dal 1971 per programmi regionali e nazionali, attualmente è uno dei conduttori della trasmissione "Radio3 Scienza". Per dieci anni è stato addetto stampa del Centro internazionale di fisica teorica (ICTP) e nel 1993 è stato tra i fondatori del Master in comunicazione della scienza della SISSA, di cui è stato docente e vicedirettore fino al Fa parte del comitato scientifico del Museo di storia naturale e archeologia di Montebelluna-Treviso. Collabora a varie riviste e organizza eventi pubblici di scienza e cultura.

232 Osserva il fisico Giorgio Parisi, che all'Università di Roma La Sapienza ha recentemente fondato sotto l'egida dell'INFM un centro di meccanica statistica e complessità: "Prigogine ha avuto enormi meriti per i suoi lavori degli anni quaranta e cinquanta. Poi è come inciampato sul problema dell'irreversibilità di certi fenomeni, della freccia del tempo. E questo lo ha portato in disaccordo con la quasi totalità della comunità scientifica, infilandosi in un vicolo cieco. E' un po' quello che è accaduto a un altro grande scienziato recentemente scomparso, il matematico René Thom. Il quale ha costruito una teoria geniale, la teoria delle catastrofi. Ma ha poi cominciato a voler spiegare tutto secondo questa teoria". Nato a Mosca nel fatale 1917, portato dai genitori prima in Germania e poi in Belgio, Prigogine aveva focalizzato i suoi interessi sui fenomeni irreversibili fin da quando era studente alla Libera Università di Bruxelles.

233 E in un paper dato alle stampe nel 1967, intitolato "Structure, Dissipation and Life", aveva introdotto il concetto di struttura dissipativa. Ovvero un sistema termodinamico in non-equilibrio in grado di scambiare energia con l'esterno e di far emergere l'ordine dal disordine. Opponendosi così a quel secondo principio della termodinamica che prevede per ogni sistema isolato un progressivo degrado verso uno stato di maggiore disordine molecolare (e quindi di maggiore entropia). Tipico sistema dissipativo è il vivente, dalle cellule agli organismi superiori. Prigogine iniziava così l'ambizioso progetto di portare il concetto di auto- organizzazione spontanea al di fuori del terreno della fisica e della chimica, invadendo la biologia, i sistemi sociali, la stessa storia umana. E da queste riflessioni nasceva nel 1979 il suo libro più importante, più bello e più controverso: "La nuova alleanza", scritto a quattro mani con la sua collaboratrice Isabelle Stengers (edito in Italia da Einaudi nel 1981).

234 "La nuova alleanza" fu per Prigogine la risposta a un altro saggio celebre scritto dal biochimico francese Jacques Monod, "Il caso e la necessità". Se Monod, nel suo lucido pessimismo esistenziale, proclamava che la scienza aveva infranto l'antica alleanza tra la natura e l'uomo, Prigogine voleva ricomporre il dissidio: la vita (e quindi l'uomo) non è frutto del caso, bensì delle fluttuazioni irreversibili di un sistema capace di auto- organizzarsi. E al tempo illusorio della fisica Prigogine contrapponeva il tempo reale della biologia, ricapitolando la controversia tra Einstein e Bergson. Da qui partì il tentativo di Prigogine di estendere i risultati ottenuti nei sistemi termodinamici lontani dall'equilibrio a tutti i sistemi complessi, il cui comportamento è stocastico, aleatorio, affidato a troppi parametri per poter essere previsto a priori. Direttore degli Istituti Solvay di Bruxelles, direttore del Centro di meccanica statistica e termodinamica dell'Università del Texas a Austin, Prigogine veicolerà le sue idee attraverso numerosi libri e un attivismo personale quasi incredibile. Convegni, dibattiti, interviste ne faranno un personaggio privilegiato dai media ma sempre più soggetto alle critiche dei colleghi scienziati.

235 Non senza ragione. Dice Miguel Virasoro, tornato all'Università di Roma dopo aver diretto per sette anni il Centro internazionale di fisica teorica di Trieste e avervi creato una scuola della complessità: "Prigogine si è mosso in anticipo sui tempi e con ambizioni eccessive. Cercava una legge unica che servisse a spiegare fenomeni diversissimi. E così la sua visione della complessità rischia ora di fare la stessa fine di altri concetti che in passato pretendevano di spiegare il mondo: come la cibernetica di Wiener, o la sinergetica di Haken. Oggi siamo più scettici, perlomeno in Europa. Al massimo possiamo dire che i paradigmi trovati per certi sistemi complessi possono aiutarci ad affrontarne altri. Nulla di più. In America, invece, la scuola di Santa Fe sembra rifarsi esplicitamente a Prigogine. Stuart Kauffman con i suoi fenomeni al margine del caos, il danese Per Bak con la sua criticità auto-organizzata... Sembra quasi la ricerca di metafore vincenti, più che un serio lavoro di ricerca".

236 E' d'accordo Riccardo Zecchina, esponente di punta della scuola dei "complessologi" triestini: "L'approccio di Prigogine alla complessità appare oggi utopistico e paradossalmente poco interdisciplinare. Voleva ridurre tutti i sistemi complessi a un unico schema, ma senza successo. Qui a Trieste sperimentiamo invece un approccio multisciplinare, usando tecniche diverse: la fisica statistica, la teoria della probabilità, la teoria dei giochi, la computer science. Metodi e paradigmi diversi a seconda dei tipi di complessità che studiamo. Esiste infatti una complessità computazionale, legata al calcolo; una complessità di sistemi che hanno molti agenti che interagiscono tra loro, come avviene in economia; una complessità dei sistemi fisici fuori dell'equilibrio, come nei cosiddetti vetri di spin; una complessità di ispirazione biologica. Usiamo algoritmi, teoremi, con forte rigore formale. E i risultati cominciano a vedersi".


Scaricare ppt "Alberto F. De Toni, Luca Comello Prede o ragni Uomini e organizzazioni nella ragnatela della complessità UTET, Torino 2005."

Presentazioni simili


Annunci Google