Probabilità:da gioco a scienza 1 Dall’antichità al Rinascimento 2 Dal ‘600 al ‘700 3 4 Dal ‘700 all’800 Il ‘900
Probabilità: da gioco a scienza Alea iacta est
Introduzione Spesso nella vita quotidiana affrontiamo scelte di cui non sappiamo prevedere le conseguenze. La parte della matematica che si occupa di razionalizzare le interpretazioni dei fenomeni casuali, invece che affidarsi a pregiudizi, a superstizioni o al fato, è detta calcolo delle probabilità. Quest’ ultima è nata come scienza analitica nel Seicento, tuttavia affonda le proprie radici nell’età antica, che ha fornito basi concettuali in seguito riprese ed ampliate.
«È lo stesso delle cose molto piccole e molto grandi. I primi riferimenti nel mondo greco al concetto della distribuzione statistica intorno ad una media risalgono addirittura al V secolo a.C. Leggiamo, infatti, nel Fedone di Platone. «È lo stesso delle cose molto piccole e molto grandi. Credi forse che sia tanto facile trovare un uomo o un cane o un altro essere qualunque molto grande o molto piccolo o, che so io, uno molto veloce o molto lento o molto brutto o molto bello o tutto bianco o tutto nero? Non ti sei mai accorto che in tutte le cose gli estremi sono rari mentre gli aspetti intermedi sono frequenti, anzi numerosi?» Platone
Un passo in avanti, che ha contribuito agli studi riguardanti il calcolo probabilistico, fu la scoperta del “metodo di esaustione”. Quest’ultimo viene tradizionalmente attribuito ad Eudosso ma fu perfezionato da Archimede. Si può esplicare mediante l’assioma: se da una qualsiasi grandezza si sottrae una parte non inferiore alla sua metà e se dal resto si sottrae ancora non meno della metà della parte rimanente, continuando questo processo, alla fine rimarrà una grandezza inferiore a qualsiasi grandezza dello stesso genere già assegnata. Ciò permise di verificare il rapporto tra due determinate figure. Archimede
Nell'antica Grecia degli eroi i dadi rappresentavano il fato e la sorte. La loro simbologia ha origini antiche. Secondo Sofocle i dadi da gioco ed anche gli scacchi sarebbero stati inventati da Palamede, durante l'assedio di Troia. Era il gioco più diffuso al tempo dei greci tanto che una loro rappresentazione è visibile ance nella famosa anfora di Aiace e Achille, in cui i guerrieri sono raffigurati nel corso di una partita, a rappresentare la possibilità degli eroi di vincere il fato, determinando il proprio destino.
Nella civiltà greco-latina per l’interpretazione dei fenomeni casuali ci si affidava al concetto di 'Fato', che era invincibile e persino gli dei vi dovevano sottostare. Nella cultura greca è personificato dalle tre Moire (chiamate Parche dai Romani). Una dea senza scrupoli, Nemesis, rappresentava la cieca distribuzione della fortuna per gli antichi greci con intenzioni né buone né cattive, ma semplicemente in proporzione a seconda dei suoi desideri. Le tre Parche
Nel Medioevo il problema probabilistico ebbe una funzione utilitaristica; fu, infatti, adoperato per l’interpretazione dei giochi d’azzardo. Potrebbe essere che qualche giocatore intelligente avesse sviluppato qualche metodo, tuttavia non ci sono pervenute trattazioni sistematiche dell’argomento. Wibold, vescovo vissuto attorno all’anno 1000, inventò un gioco in cui enumerò 56 virtù, ciascuna corrispondente ai modi in cui tre dadi possono essere lanciati, a prescindere dall'ordine.
Tra le più antiche descrizioni dei modi in cui tre dadi possono cadere troviamo il poema De vetula. Si è supposto a lungo che l’opera fosse stata scritta da Ovidio, tuttavia oggi l’attribuzione più probabile sembra quella di Richard de Fournival (1200), dotato umanista nonché uomo di Chiesa. Secondo quest’ opera, se tutti e tre i numeri sono uguali v'è un solo modo per ciascun numero; se due sono uguali ed uno differente vi sono tre modi; e se tutti sono differenti vi sono sei modi, a prescindere dall’ordine. Menù
Probabilità: da gioco a scienza Tra giochi di corte e cavalieri
In seguito, durante l’epoca rinascimentale, studiosi come Tartaglia, XV-XVI sec., e successivamente Galileo e Cardano, XVI sec., cominciarono ad affrontare il problema, gettando le basi della futura disciplina. Tartaglia Galileo A Niccolò Tartaglia (1499-1577) dobbiamo la formulazione dell’omonimo triangolo, che fu in seguito adottato dagli studiosi francesi Pascal e Fermat. Tale triangolo permette di calcolare rapidamente i coefficienti dello sviluppo di un binomio. Per tale motivo i numeri che compongono questo triangolo sono anche detti coefficienti binomiali. Cardano
Come sappiamo furono i dadi a portare i matematici del XVII sec Come sappiamo furono i dadi a portare i matematici del XVII sec. a trattare il problema del calcolo delle probabilità. Uno dei protagonisti delle vicende fu il Cavaliere di Merè, un incallito giocatore d’azzardo, che, volendo trovare un metodo che gli consentisse di vincere al gioco, pose a Blaise Pascal due problemi che ormai sono rimasti celebri nel mondo del calcolo delle probabilità: E’ più probabile avere un 6 lanciando 4 volte un dado o avere almeno una volta il doppio 6 lanciando 24 volte due dadi? Se due giocatori, della stessa bravura, interrompono all’improvviso un gioco in cui vince chi per primo totalizza un fissato numero di punti, come va divisa la posta se nessuno raggiunge il punteggio? Il cavaliere di Merè
Pascal e Fermat La nascita della teoria delle probabilità, quindi, risale al XVII secolo e va attribuita ai matematici francesi Pascal e Fermat. Infatti per risolvere i problemi posti dal Cavaliere di Merè, Pascal (1623-1662) si consultò con Pierre de Fermat(1601-1665) e ne nacque una famosa corrispondenza epistolare. Il 29 luglio 1654 Pascal scriveva a Fermat: "Vedo che la verità è la stessa a Tolosa come a Parigi." I due grandi matematici avevano scoperto le prime leggi della probabilità e inventato il calcolo combinatorio. Sempre in quell’anno, infatti, Pascal pubblica il Traité du Triangle Arithmétique dove si parla del triangolo di Tartaglia. Ricompaiono finalmente i coefficienti binomiali, con i quali Pascal risolse il problema della divisione della posta: Se ad un giocatore mancano j punti per vincere e all’altro k, la posta deve essere divisa nel rapporto seguente
Ma naturalmente lo studio della probabilità non si esaurì con i risultati proposti dal francese Pascal ma fu affrontato anche da altri studiosi europei. Nel 1657 il fisico olandese Christiaan Huygens (1629-1695) diede alle stampe De ratiociniis in ludo aleae, dove appare il concetto di speranza matematica appositamente inventato per risolvere il problema della divisione della posta. Inoltre anche gli studi di Tartaglia sui coefficienti binomiali furono ripresi ed integrati da Newton e Leibniz, tra i quali nacque una forte rivalità sulla paternità delle scoperte. Newton contribuì con la cosiddetta Formula di Newton, che riprese le idee di Tartaglia. Secondo tale formula la potenza del binomio può essere scritta come: Leibniz usa, ma non dimostra, che la somma dei coefficienti binomiali su una riga è una potenza di due : Christian Huygens Isaac Newton Gottfried Wilhem Leibniz
L’Età dei Lumi: la famiglia Bernoulli Nonostante le numerose teorie enunciate nel XVII secolo è solo nel corso del secolo successivo che cominciarono ad essere enunciate le prime leggi e definizioni riguardanti il calcolo delle probabilità. Importante fu in questo senso il ruolo della famiglia Bernoulli, le cui scoperte anticipavano la formulazione della definizione classica di Laplace. A Jacob Bernoulli (1654-1705) si devono in particolare: la risoluzione del problema delle navi mediante la Distribuzione Binomiale l’enunciazione della Legge dei Grandi Numeri Jacob Bernoulli
Il problema delle navi poneva tale interrogativo: Se una nave ha probabilità p di naufragare, si chiede qual è la probabilità che di n navi salpate, più o meno dello stesso tipo e per la stessa rotta, k di esse facciano naufragio. Detta q=1-p la probabilità che la nave non naufraghi, la probabilità richiesta è: Tale formula è nota con il nome di Distribuzione Binomiale Con la Legge dei Grandi Numeri nasceva la teoria della misura e dell’analisi funzionale: Un evento di probabilità p, sconosciuta, viene considerato in n prove indipendenti. Sia Sn il numero di volte in cui l’evento si è verificato ed ε > 0 un numero piccolo a piacere. Allora la probabilità che Sn /n differisca in modulo meno di ε da p, quando il numero n di prove cresce all’infinito, è uguale a uno.
Menù Daniele Bernoulli (1700-1782), nipote di Jacob, nel suo Specimen Theoriae novae de mensura sortis affrontò, invece, il problema del paradosso di Pietroburgo: Supponiamo che Pietro e Paolo si mettono a giocare a testa e croce con una moneta. Se il primo lancio dà testa, Paolo darà a Pietro una corona; se il primo lancio dà croce, ma si ottiene testa per la prima volta al secondo lancio, Paolo darà a Pietro due corone; […] Qual è la somma che Pietro dovrebbe pagare a Paolo perché questi accetti di giocare? Daniel Bernoulli
Probabilità: da gioco a scienza Le basi di una nuova scienza
All’inizio del ‘700, con De Moivre e Bayes, la probabilità si cominciò a porre come disciplina matematica vera e propria. Nell’opera del 1718 Doctrine of chances De Moivre affrontò uno dei problemi della teoria della probabilità dimostrando e utilizzando la Formula di Stirling. De Moivre è noto anche per i suoi lavori sulla distribuzione normale, in seguito ripresi da Gauss. . Abraham De Moivre
Teorema di Bayes (sulla probabilità delle cause): Poco più tardi, nel 1763, uscirono i lavori di Bayes sulla probabilità condizionata. Teorema di Bayes (sulla probabilità delle cause): Supponiamo che in una singola prova possa verificarsi uno e uno solo fra due o più possibili eventi H1, H2, ... Hn (indichiamo con p(Hi) la probabilità che si verifichi Hi), e che, qualora si verifichi l'evento Hi, ci sia una ben determinata probabilità p(E/Hi) che si verifichi un dato evento E Insomma, gli eventi H1, H2, ... Hn costituiscono le possibili CAUSE dell’evento E; tali cause sono: fra loro incompatibili (=non è possibile che si verifichino contemporaneamente due eventi Hi, Hj, se i≠j) ed "esaustive" (=nessuna altra causa, al di fuori delle Hi, può generare l’evento E). Allora, se si verifica l'evento E, la probabilità che esso sia stato provocato dalla causa Hi è data dalla formula: Thomas Bayes
A inizio ‘800, cominciarono a nascere legami tra il calcolo delle probabilità e le altre discipline scientifiche: nel 1809, durante il suo studio degli errori di osservazione in astronomia, Gauss trovò la curva che prenderà il suo nome. Carl Friedrich Gauss
CAMPANA DI GAUSS In prima approssimazione la curva di Gauss rappresenta la frequenza con la quale si presentano gli errori casuali. Gli errori più piccoli sono più frequenti di quelli grandi. Infatti per il punto P si ha: errore -2, frequenza 82 %; per il punto Q errore -5, frequenza 14 %. Graficamente la curva ha la forma di una campana, è simmetrica, è asintotica rispetto all'asse orizzontale. C'è però anche un altro modo di usare la curva di Gauss: essa può rappresentare la probabilità p con la quale un certo errore può presentarsi. Se le misure sono già state eseguite, sulle ascisse si riportano gli scarti:se la loro distribuzione è simile a quella della curva di Gauss, significa che abbiamo operato correttamente. Come si vede la curva di Gauss ha una grande importanza nella teoria degli errori, nella statistica, nel calcolo delle probabilità.
Pierre Simon de Laplace Fino a questo punto si erano andate delineando due differenti definizioni di probabilità, nate dalla necessità di dare basi matematiche adeguate a questo “nuovo” concetto. Definizione classica di probabilità Laplace, nella sua opera Théorie analytique des probabilités del 1812, ci fornì la sua celebre definizione conosciuta come classica: La probabilità di un evento E è il rapporto tra il numero m dei casi favorevoli (al verificarsi di E) e il numero n dei casi possibili, supposti tutti equiprobabili. La definizione di Laplace, tuttavia, risultava facilmente criticabile in quanto presupponeva: l’equiprobabilità dei possibili esiti elementari la possibilità di conteggiarli in termini combinatori la finitezza del loro numero Pierre Simon de Laplace
Definizione frequentista Menù Circa 30 anni dopo la comparsa del lavoro di Laplace, Antoine Cournot e Robert Leslie Ellis separatamente proposero una nuova definizione di impostazione statistica, nota come definizione frequentista: La probabilità di un evento E è il rapporto tra il numero k di volte che si è verificato E e le n prove effettuate. Naturalmente quando n tende a infinito questo rapporto corrisponderà a quello individuato da Laplace. Ma anche questa definizione venne sottoposta a molte critiche in quanto conteneva elementi di arbitrarietà o quantomeno di soggettività. Antoine Cournot
Probabilità: da gioco a scienza La probabilità diventa scienza
Probabilità…una nuova scienza? Nel 1900 Hilbert, durante il congresso mondiale dei matematici, pose la questione dei fondamenti del calcolo delle probabilità; infatti fino ad allora non si era riusciti a dare una struttura assiomatica affinché questa teoria potesse essere definita una scienza. David Hilbert
La teoria soggettiva: Bruno De Finetti Il primo matematico a rispondere alla questione sollevata da Hilbert fu De Finetti con la teoria soggettiva sintetizzata nei seguenti modi: “La probabilità di un evento è fornita secondo l’esperienza personale e le informazioni disponibili.” “La probabilità soggettiva è il prezzo che un individuo stima equo pagare per avere un guadagno unitario.”
La teoria assiomatica Agli inizi del ‘900 prese il sopravvento l’idea di svincolare il concetto di probabilità da ogni riferimento concreto. La sistemazione definitiva è dovuta a Kolmogorov che nel 1933 propose una definizione di probabilità prendendo come punto di partenza alcuni assiomi che esprimono la natura , le proprietà matematiche degli enti su cui opera e i relativi legami. Sia lo spazio degli eventi possibili. Si dice probabilità una qualsiasi funzione P definita sulla classe degli eventi tale che: Se A è un evento allora Se è l’evento certo allora Se sono eventi a due a due incompatibili allora In tal modo la probabilità acquista ufficialmente la dignità di disciplina matematica! Kolmogorov
I fisici protagonisti Superato il muro del determinismo la probabilità fece il suo ingresso trionfale nel mondo fisico fin dai primi anni del ‘900. Nel 1905 Albert Einstein spiegò il moto browniano in termini casuali scoprendo che tutto il mondo degli atomi è governato da leggi probabilistiche. Nel 1910 Rutherford, Bateman e Geiger vinsero il Nobel per la fisica: scoprirono che il numero di particelle emesso da una sostanza radioattiva è una variabile aleatoria (con distribuzione di Poisson). Nel 1928 i fisici Paul e Tatiana Ehrenfest vinsero il Nobel per aver spiegato la diffusione dei gas mediante un modello probabilistico (catene di Markov). Nel 1926 Einstein scriveva a Max Born: “Tu ritieni che Dio giochi a dadi col mondo, io credo invece che tutto obbedisca ad una legge ….”. Albert Einstein
Metodo Monte Carlo Nei primi decenni del ‘900 l’utilizzo di metodi probabilistici iniziò a diffondersi negli ambiti scientifici soprattutto per effettuare stime attraverso simulazioni. Una di queste tecniche introdotte è il Metodo Monte Carlo. I suoi formalizzatori sono stati John von Neumann e Stanislaw Marcin Ulam che lo hanno utilizzato all’interno del progetto Manhattan verso gli anni ‘40. Il nome, invece, deriva dal noto casinò per merito di Nicholas Constantine Metropolis. Una delle applicazioni più famose di tale metodo è sicuramente quella di Enrico Fermi che nel 1930 lo usò per calcolare le proprietà del neutrone. Da un altro punto di vista esso è anche una valida tecnica numerica per il calcolo di integrali. Due classici esempi di utilizzo di tale metodo sono: La determinazione della superficie di un lago La determinazione del valore di Un primo esempio di utilizzo di questo metodo è rappresentato dall’esperimento dell’ago di Buffon, il cui utilizzo più famoso è quello di Enrico Fermi.
Fine Superficie di un lago Valore di Per determinare l’area sconosciuta di un lago si chiede di tirare N colpi di cannone in modo aleatorio. Contiamo le palle X cadute fuori dal lago e quelle N-X cadute dentro. Valore di Sia M un punto di coordinate (x,y) Con e Scegliamo in modo casuale i valori di x ed y. Tutte le volte che il punto M si trova dentro al disco di centro (0,0) e raggio 1. Facendo il rapporto del numero dei punti che cadono nel disco con il numero delle prove effettuate si ottiene una buona approssimazione di π/4 quando il numero delle prove è sufficientemente elevato. Fine
Liceo scientifico "A. Einstein" Classe IV C 2006-2007 Alessiani Mario Bonomo Francesca Carlini Marco Casalena Gianguido Cipriani Benedetta Crocetta Irene D’Ignazio Natalina Di Romano Simone Di Stefano Michela Di Varano Stefano Foschi Matteo Leotta Matteo Martegiani Laura Marzoli Riccardo Menghini Jenny Pompei Ilaria Rapagnà Serena Santarelli Catia Sperandio Laura Standoli Gianluca Topitti Alfonso Valentino Gennaro Verticelli Alice Verzilli Giordano GRAZIE