www.treccani.it
Enciclopedia online
In gnoseologia, dottrina secondo cui, pur non potendo avere conoscenza oggettivamente certa della realtà, si può discriminare le conoscenze più probabili da quelle meno probabili. La sua forma classica è quella elaborata dalla Nuova Accademia, soprattutto da Carneade; Cicerone, traducendo con probabiles (nel senso di «approvabili») le rappresentazioni che Carneade chiama «persuasive», determina l’origine del termine probabilismo. Nell’età moderna l’atteggiamento probabilistico si è rinnovato in scettici come Montaigne e D. Hume.
Il probabilismo nel pensiero antico. Con la trattazione aristotelica delle forme di ragionamento non dimostrativo, caratterizzanti la dialettica e la retorica, prese avvio il primo sistematico tentativo di analisi rigorosa della conoscenza ‘probabile’, non riconducibile alla ferrea contrapposizione platonica tra ἐπιστήμη e δὸξα. Diversamente dalle premesse «vere, prime, immediate, più note della conclusione, anteriori ad essa e cause di essa» (Analitici secondi, I, 2, 71b 21-22) dei sillogismi apodittici, procedenti per via deduttiva dall’universale al particolare, le premesse delle argomentazioni dialettiche e retoriche furono definite da Aristotele come «opinioni che sono in fama» (ἔνδοξα), vale a dire opinioni «condivise da tutti o dai più o dai sapienti, e tra questi o da tutti o dai più o dai più noti e famosi» (Topici, I, 100 b 21-23): né ‘probabili’ in senso statistico né ‘verosimili’, le premesse ἔνδοξα costituiscono le opinioni autorevoli, importanti, a cui si deve necessariamente dar credito nell’argomentazione non apodittica e da cui non ci si può discostare. La distinzione tra ἐπιστήμη e δὸξα fu oggetto di profondo riesame nel nuovo orientamento filosofico, di stampo ‘probabilistico’, assunto dall’Accademia con Arcesilao di Pitane e Carneade nella polemica contro la pretesa stoica del possesso della scienza da parte del saggio, fondata sulla rappresentazione catalettica (κατὰληψις), riproducente fedelmente le caratteristiche dell’oggetto esterno. Negata l’affidabilità del principio stoico della rappresentazione come mezzo di comprensione del reale e criterio assoluto di verità, e sostenuta l’opportunità dell’ἐποχή scettica, Arcesilao indicò nel «ragionevole» (εὔλογον) il criterio pratico di giudizio, mentre Carneade lo identificò con il «persuasivo» o «approvabile» (πίϑανον), discriminando le conoscenze secondo il loro grado di probabilità (semplice rappresentazione persuasiva, dotata della medesima probabilità delle altre rappresentazioni; rappresentazione persuasiva e non contraddetta da alcuna contraria; rappresentazione persuasiva e non contraddetta, oggetto di un esame particolare). Conseguenze sul piano etico del p. accademico – che giungeva a dichiarare ‘probabili’, privi quindi di ogni pretesa di verità assoluta, i suoi stessi principi – furono il rifiuto dell’ideale stoico di virtù quale adesione incondizionata al fato, e la ricerca di un bene realizzabile di volta in volta come assenza di dolore, piacere, conformità alla natura, ecc.
La nascita del calcolo della probabilità e la logica dell’incerto. Rinnovatasi con la «crisi pirroniana» del tardo Rinascimento e la riscoperta dello scetticismo greco, la riflessione sulla nozione di probabilità e le sue implicazioni teoriche conobbe, a partire dalla metà del Seicento, nuovo impulso soprattutto grazie alla costituzione del calcolo delle probabilità, che venne formandosi come inedito ramo delle matematiche – prefigurato negli studi di L. Pacioli, Cardano, N. Tartaglia e Galilei – nelle ricerche sui giochi d’azzardo, sulla durata probabile della vita e sulla plausibilità delle opinioni, condotte da Pascal, P. Fermat, Chr. Huygens, Leibniz, i fratelli Bernoulli, A. de Moivre, solo per citare i nomi più noti. Il ragionamento sui giochi di sorte e la riflessione sul celebre «pari» (scommessa) di Pascal sulla fede in Dio mostrarono come l’aritmetica aleatoria potesse rientrare in una generale «arte della congettura», modello per l’analisi dei problemi di decisione in condizioni di incertezza. Nella Logique ou l’art de penser di Arnauld e Nicole (1662; trad. it. Logica di Port-Royal) il tipo di argomentazione impiegato da Pascal venne esteso e sintetizzato nel principio secondo cui «per giudicare quel che dobbiamo fare per ottenere un bene o evitare un male, non dobbiamo considerare solo il bene o il male in sé, ma anche la probabilità che si verifichi o meno; e valutare geometricamente il rapporto di queste cose tra di loro». Leibniz indagò la probabilità in rapporto alla costituzione di una logica combinatoria e induttiva, in grado di risolvere le dispute mediante il calcolo. Sulla scia di Pascal, Fermat e Leibniz lo studio della nozione quantitativa di probabilità ricevette nel Settecento un forte impulso, estendendo il campo d’applicazione dell’atteggiamento probabilistico a vari settori delle scienze morali e nella storia naturale, secondo una duplice valenza teorica spesso coesistente nei medesimi autori – probabilità intesa in senso epistemico come grado di credenza, e probabilità intesa in senso empirico come valore di frequenza –, su cui si è acceso un vasto dibattito tutt’ora in corso. Con l’analisi della «probabilità diretta» nell’Ars coniectandi di J. Bernoulli (pubblicata postuma nel 1713), stabilente, nella «legge dei grandi numeri», una connessione numerica tra le probabilità e le frequenze osservate, era definito un metodo di analisi congetturale («Noi definiamo l’arte di congetturare, o stocastica, come quella di valutare il più esattamente possibile le probabilità delle cose, affinché sia sempre possibile, nei nostri giudizi e nelle nostre azioni, orientarci su quella che risulta la scelta migliore, più appropriata, più sicura, più prudente; il che costituisce il solo oggetto della saggezza del filosofo e della prudenza del politico»), fondato su metodi statistici, che trovò importanti sviluppi tanto in Th. Bayes – autore del celebre teorema che porta il suo nome, che consente di valutare la probabilità delle ipotesi statistiche alla luce delle frequenze osservate –, quanto nel metodo induttivistico di Buffon e nella sua analisi del problema della «misura delle cose incerte» (Essai d’arithmétique morale, 1777). L’idea che la probabilità e la descrizione statistica costituissero un importate ausilio nello studio dell’uomo si affermò nell’Ottocento, soprattutto a opera di A. Quételet e F. Galton sulla scia del progetto dell’«aritmetica sociale» elaborata da Condorcet: alla fine del secolo le nuove scienze sociali (teoria economica, sociologia, demografia, geografia, psicologia, criminologia, ecc.) si avvalevano ormai ampiamente dei dati e delle metodologie statistiche nello studio sia delle medie sia della variabilità dei fenomeni attorno a valori medi, approdando allo studio sistematico delle correlazioni tra fenomeni osservabili e alla loro descrizione quantitativa.
Probabilismo e determinismo. Nella teoria classica di Laplace la probabilità è analizzata come il rapporto dei casi favorevoli su tutti i casi equipossibili, divenendo oggetto di una trattazione matematica e filosofica che ebbe enorme influenza nella sistematizzazione dell’immagine deterministica del meccanicismo classico. Sottoposta a un processo di assiomatizzazione della sua struttura formale, nella Théorie analytique des probabilités (1812) e nell’Essai philosophique sur les probabilités (1814) la probabilità fu definita da Laplace in relazione all’incapacità della conoscenza umana di cogliere il complesso delle concatenazioni degli stati causali dell’Universo, rigorosamente determinati dai precedenti, in linea di principio conoscibili in tutti i particolari da un’intelligenza superiore, che sarebbe perfettamente in grado di cogliere nei minimi dettagli tutto il passato e tutto il futuro di ogni singola particella materiale. Di qui l’elezione della probabilità a strumento indispensabile d’analisi del reale come fondamento dei metodi più importanti d’acquisizione delle conoscenze, quali l’induzione e l’analogia, e delle approssimazioni nelle spiegazioni dei fenomeni. Alla codificazione delle tecniche di previsione del comportamento delle variabili nelle modificazioni controllate dei dati sperimentali si dedicarono i più importanti teorici ottocenteschi dell’induzione, da Whewell a Stuart Mill e C. Bernard. Lo sviluppo di considerazioni probabilistiche per il riconoscimento nei fenomeni fisici più complessi della presenza di un ordine governato da un numero limitato di cause e leggi generali ebbe impulso, nella seconda metà dell’Ottocento, con l’analisi meccanica delle collisioni tra coppie di particelle elaborata da J.C. Maxwell nel campo della teoria dinamica del calore, con gli studi di Poincaré sui fenomeni caotici legati alle perturbazioni dei moti in meccanica celeste, idrodinamica, metereologia e, soprattutto, con le ricerche sull’equilibrio termico dei gas di L. Boltzmann. Questi, nel tentativo di conciliare meccanicismo ed energetismo, si sforzò d’interpretare le prime due leggi della termodinamica in termini di modelli molecolari e di spiegare l’entropia attraverso le leggi del calcolo statistico e delle probabilità, risolvendo la contraddizione tra reversibilità delle leggi meccaniche e irreversibilità termodinamica mediante l’elaborazione di una visione probabilistica della natura. Il 20° sec. ha conosciuto applicazioni sempre più ampie e profonde dei metodi statistici e dell’approccio probabilistico alla descrizione dei fenomeni, tanto nelle scienze umane quanto in quelle naturali. La formulazione della meccanica quantistica ha decretato l’impossibilità a livello subatomico di predire deterministicamente un fenomeno o i risultati di un evento: il principio d’indeterminazione di Heisenberg (➔), stabilendo l’impossibilità di misurare con esattezza simultaneamente la posizione e la velocità iniziali di una particella, e la conseguente necessità d’impiego in microfisica di previsioni di carattere statistico, aventi per oggetto non la comparsa di un evento, ma il grado di probabilità che esso abbia luogo, ha condotto a una profonda revisione critica dei concetti di causalità e misurabilità su cui si fondava l’impianto della fisica classica. La nuova meccanica quantistica ha suscitato un vasto dibattito scientifico-filosofico: il dualismo onda-corpuscolo da essa introdotto, e la tesi dell’impossibilità di principio di una descrizione deterministica del mondo atomico, sono stati rifiutati da alcuni dei massimi fisici del Novecento, in partic. Einstein, Planck e Schrödinger, i quali hanno giudicato le teorie di Bohr e di Heisenberg provvisorie e incomplete, efficaci soltanto sul piano della descrizione matematica dei processi quantistici.
Il Novecento e l’epistemologia della probabilità. Nella ricerca filosofica contemporanea la probabilità si è imposta come una nozione di cruciale rilievo epistemico. All’interpretazione laplaciana è venuta affiancandosi l’intepretazione frequentista-empirista della probabilità e della conoscenza, che ha avuto grande impulso grazie agli studi di Von Mises e Reichenbach, secondo la quale la probabilità si applica a fenomeni collettivi e processi ricorrenti, e non a eventi individuali. Reichenbach, in partic., si è sforzato di sviluppare un’epistemologia probabilistica su base induttiva, volta a sostituire la logica classica con una logica probabilistica in cui la dicotomia vero/falso è rimpiazzata dalla costruzione di una scala di valutazioni fondata sul calcolo delle frequenze. Una variante del frequentismo è stata avanzata da Popper per affrontare il problema della probabilità in microfisica: si tratta di un’interpretazione «propensionista», che considera come primitiva la probabilità del risultato di ogni singolo esperimento, in rapporto alle condizioni di contorno in cui ha luogo, e non alla sua frequenza. L’idea di propensità è divenuta nell’ultima fase della riflessione di Popper la base di un programma metafisico d’impronta realista e indeterminista, volto a comporre in un quadro unitario tutte le disposizioni causali, dalla microfisica all’agire umano. Una diversa interpretazione della probabilità è stata elaborata dalla corrente logicista risalente a Boole, che ha trovato riformulazione nell’opera di J.M. Keynes Treatise on probability (1921) e nei lavori sulla logica della probabilità di Carnap, secondo cui la probabilità è una nozione epistemica, relativa alla nostra conoscenza e non ai fenomeni del reale, esprimente una relazione tra proposizioni, che ha carattere oggettivo, tra un’ipotesi e l’insieme di premesse descriventi l’informazione a suo sostegno. L’interpretazione soggettivistica della probabilità è stata avanzata, in aperto contrasto con la teoria di Keynes, da Borel, Ramsey e de Finetti nella seconda metà degli anni Venti: la probabilità è definita come un grado di credenza soggettivo, dotato di un fondamento psicologico anziché logico, che esprime la credenza che il soggetto, sulla base delle informazioni in proprio possesso, nutre sull’accadimento di determinati eventi. Con de Finetti (La prévision: ses lois logiques, ses sources subjectives, 1937) l’interpretazione soggettiva della probabilità è stata dotata di un metodo dall’immediata applicabilità all’inferenza statistica.
Il probabilismo nella teologia morale. Sulla definizione tomistica dell’opinione probabile come opinione sorretta dall’autorità e dalla rettitudine della testimonianza si fondò il p. dei cosiddetti «sistemi di teologia morale», sviluppatisi in Europa a partire dalla metà del sec. 16°. Il p. in teologia morale deve la sua sistematica elaborazione, in piena crisi riformistica, a opera del domenicano B. de Medina, il quale sostenne che per essere liberi davanti alla legge in caso di dubbio, è sufficiente una sentenza «probabile», vale a dire suffragata da motivi ragionevoli e plausibili. Le tesi di Medina furono accolte dai teologi gesuiti, tra i quali Suárez e L. Lessio, e da molti domenicani, tra cui Báñez. La fortuna del p. provocò la violenta reazione del giansenismo (secondo cui ci si può decidere contro l’obbligazione morale soltanto se è assolutamente certa l’opinione in favore della libertà), e anche tra i moralisti cattolici una reazione in senso rigoristico: così esso fu condannato dai teologi dell’univ. di Lovanio (1655), e fu messo in ridicolo da Pascal nelle Provinciali (➔). Con la condanna del rigorismo (1690) e la fine del periodo acuto delle lotte giansenistiche, i teologi si trovarono divisi tra probabilisti e probabilioristi (per i quali, nel dubbio tra la liceità e l’illiceità di un’azione, si deve necessariamente scegliere quell’opinione che ha un maggiore grado di probabilità): tra i primi prevalevano i moralisti gesuiti, tra i secondi quelli domenicani. Per conciliare il p. e il probabiliorismo sorse l’equiprobabiliorismo, secondo cui è lecito scegliere tra l’osservanza o meno della legge se le opinioni a favore o contro hanno un eguale grado di probabilità. Spentesi le controversie suscitate dal giansenismo, il probabiliorismo perdette sempre più terreno in favore del p., che è tutt’ora prevalente in teologia morale.