Emiliano Ippoliti
Il vero e il plausibile
Ringrazio il prof. Carlo Cellucci, fonte d’ispirazione scientifica e umana, e la prof.ssa Mirella Capozzi per gli stimoli e l’attenzione dati al mio lavoro. Ringrazio il prof. Riccardo Chiaradonna per i suoi preziosi contributi, il prof. Roberto Cordeschi per le sue indicazioni, il prof. Donald Gillies e il prof. Nicholas Rescher per la loro disponibilità, il prof. Gaetano Oliva per un piccolo ma prezioso suggerimento. Infine ringrazio l’amico prof. Luigi Laura e in modo speciale Maria, mio padre, mio fratello e mia madre. Senza il loro sostegno questo libro non sarebbe stato possibile.
Emiliano Ippoliti Il vero e il plausibile © 2007 Emiliano Ippoliti Copertina: progetto grafico Studio Ippoliti ISBN: 978 – 1 – 4303 – 2998 – 5 Finito di stampare nel mese di marzo 2007 Stampato e distribuito da: Lulu Press, Inc. 860 Aviation Parkway, Suite 300 Morrisville, North Carolina 27560 U.S.A. http://www.lulu.com Proprietà letteraria riservata. È vietata la riproduzione, anche parziale, con qualsiasi mezzo effettuata, compresa la fotocopia, anche a uso interno o didattico, senza l’esplicita autorizzazione dell’Autore.
Il vero e il plausibile
Indice del volume Introduzione Capitolo 1. Vero e plausibile: brevi cenni storici 1. Premessa 2. La scuola siracusana: la subordinazione del vero al plausibile 3. Aristotele e l’isomorfismo tra vero e plausibile 4. Carneade e l’illusione della verità 5. Cenni sulla nozione di probabile 6. Kant e la distinzione probabile-verosimile
Capitolo 2. Plausibilità e credenza 1. Funzioni e caratteristiche della plausibilità 2. Incertezza dei metodi e incertezza delle premesse 3. Incertezza e allocazione della credenza globale
7 13 13 14 17 20 25 30 33 33 35 37
Parte Prima: La concezione probabilistica
41
Capitolo 3. La concezione probabilistica
43
1. Le ragioni della concezione probabilistica 2. Il teorema di Cox 2.1. Plausibilità e teorema di Cox: alcuni limiti 3. L’inferenza bayesiana 4. Alcuni limiti della concezione bayesiana
Capitolo 4. La concezione di Polya 1. 2. 3. 4. 5.
Premessa I modelli d’inferenza plausibile Probabilità e modelli d’inferenza plausibile Credibilità e plausibilità I limiti dell’approccio di Polya
43 44 46 47 51 53 53 54 58 61 61
Indice del volume
Capitolo 5. Il problema dell’analogia 1. 2. 3. 4. 5. 6. 7. 8.
La natura duplice dell’analogia Le due principali concezioni dell’analogia Analogia e probabilità Analogia e scoperta Analogie e giustificazione Analogia e ragionamento parallelo La concezione euristica dell’analogia I limiti dell’analogia
Capitolo 6. La teoria di Dempster-Shafer 1. 2. 3. 4.
La concezione della plausibilità di Dempster-Shafer Allocazioni razionali di credenza Credenza e plausibilità Alcuni limiti della teoria di Dempster-Shafer
Capitolo 7. La teoria di Dezert-Smarandache 1. 2. 3. 4. 5. 6.
La teoria di Dezert-Smarandache Allocazioni estese di credenza Credenza e plausibilità Il superamento dei limiti della teoria DS Limiti dell’approccio della teoria DSm Osservazioni sui limiti dell’approccio probabilistico
65 65 67 68 70 75 78 81 84 87 87 88 90 94 97 97 99 100 103 104 105
Parte seconda: la concezione non-probabilistica
107
Capitolo 8. La concezione non-probabilistica
109
1. Le ragioni della concezione non-probabilistica 2. L’approccio deduttivista di Rescher 2.1. Il sistema d’inferenze plausibili di Rescher 3. Plausibilità vs. probabilità 3.1. La negazione 3.2. La congiunzione
109 110 114 115 116 117
4
Il vero e il plausibile 3.3. L’orientazione sistematica 3.4. L’incoerenza Plausibilità e probabilità: una comune origine Il legame tra probabile e plausibile Limiti della teoria di Rescher Limiti dell’approccio deduttivista
118 118 119 120 124 129
Capitolo 9. Plausibilità e non-monotonicità
131
4. 5. 6. 7.
1. Plausibilità e logiche non-monotoniche 2. Probabilità e non-monotonicità 3. Limiti dell’approccio non-monotonico
131 133 135
Capitolo 10. L’approccio cognitivista
139
1. Le ragioni dell’approccio cognitivista 2. Le basi della teoria di Collins-Michalski 2.1. La rappresentazione della conoscenza 2.2. I parametri di certezza 2.3. I modelli d’inferenza plausibile 3. Prospettive e illusioni plausibili 3.1. L’avversione al rischio 3.2. Il rischio non conoscibile 4. Cognizione, plausibilità e probabilità 5. Alcuni limiti della teoria di Collins-Michalski 6. Prospettive e criticità dell’approccio cognitivista
Capitolo 11. Plausibilità e oggettività 1. 2. 3. 4. 5.
Verisimiglianza e oggettività Contenuto e verisimiglianza La definizione della verisimiglianza Verisimiglianza e probabilità I limiti della verisimiglianza
5
139 142 144 145 146 151 152 154 156 157 160 165 165 168 169 170 172
Indice del volume
Capitolo 12. Plausibilità senza verità
177
1. Il plausibile e il vero 2. Plausibilità e ampliatività 2.1. Plausibilità come compatibilità 2.2. Inferenza e contenuto 3. Plausibilità senza verità 4. Plausibilità e conoscibilità
177 178 179 180 182 185
Bibliografia
187
Indice analitico
195
6
Il vero e il plausibile
Introduzione La plausibilità è un concetto che nasce da un’esigenza fondamentale non solo dell’impresa conoscitiva e scientifica, ma dell’uomo in quanto tale: quella di limitare e gestire l’incertezza e la provvisorietà che contraddistinguono ogni aspetto della sua esistenza e che è essenziale per la sua sopravvivenza e per il suo benessere. Ciò la rende un concetto multiforme: può occorrere in molti contesti, servire molti scopi e assumere molte forme. Di conseguenza la nozione di plausibilità è largamente usata non solo nel linguaggio e nei ragionamenti quotidiani, ma anche nella ricerca scientifica e filosofica. Ciononostante, come osservano Connell e Keane 1 , essa presenta una diffusa mancanza di specificità nella sua definizione, o quantomeno di chiarezza concettuale. Questo libro offre un contributo per colmare questa lacuna. Affermare che la plausibilità risponde al tentativo di gestire e limitare l’incertezza significa che essa ha lo scopo di modellare quelle situazioni in cui la conoscenza acquisita non è giustificata in modo sicuro e definitivo, ma sulla quale può essere sempre sollevato un dubbio. Il termine latino da cui deriva – plausus, ossia consenso, – rimanda a uno dei caratteri principali: la sua natura soggettiva. Plausibile è ciò che suscita e provoca il consenso e pertanto ciò che è plausibile per me potrebbe non esserlo per un'altra persona. Questa è una delle principali ragioni che rende la costruzione di una teoria della plausibilità un compito così complesso e che tende a sottrarsi ad approcci sistematici e allo sviluppo di modelli di calcolo. La teoria della plausibilità studia dunque i processi inferenziali che consentono di assolvere due principali compiti: la costruzione e la valutazione d’ipotesi, argomenti e processi decisionali. A partire dall’osservazione che non tutto ciò che è plausibile è vero, e viceversa, fin dall’antichità l’indagine sulla plausibilità ha costituito una questione che ha prodotto riflessioni dagli esiti molto diversi. Tali riflessioni hanno tentato di individuare cosa si debba intendere per plausibilità, di stabilire se essa sia, e in quali casi, uno strumento di conoscenza, di delineare quale rapporto abbia con la verità ed eventualmente in quale grado. Per tentare di assolvere il compito di limitare e gestire l’incertezza, la plausibilità ricorre a un’ipotesi di natura conservativa: cerca di utilizzare la conoscenza esistente e ciò che è noto per tentare di spiegare e 1
Cfr. Connell - Keane 2003b, 269.
7
Introduzione comprendere ciò che noto ancora non è. In altre parole, tenta di costruire e valutare ipotesi e fatti in accordo con le conoscenze acquisite e le esperienze note, cercando di estenderle (e quindi conservandone l’informazione o la struttura) a fatti futuri ed esperienze non note. La sua natura è controversa: assimilata ora alla probabilità, ora alla verosimiglianza, ora alla corroborazione, ora alla credibilità, può rappresentare un mezzo d’avanzamento della conoscenza, oppure può ridursi a un mero apparato retorico, mediante il quale riuscire a prescindere dalla realtà. Di conseguenza anche la sua relazione con la conoscenza e la verità è controversa: può avere che fare con esse, oppure si risolve in una tecnica di natura sofistica, che ha a che fare solo con l’apparenza ed è volta unicamente a produrre persuasione. Questo testo intende presentare e sviluppare una prospettiva unitaria sul problema della plausibilità, che aiuti a orientarsi tra le sue diverse articolazioni storico-concettuali. Per fare questo prendo in esame i principali problemi connessi alla costruzione di una teoria della plausibilità. Il primo è quello della possibilità della conoscenza: esso cerca di rispondere alla domanda se la plausibilità permetta di conoscere, e conoscere qualcosa di vero. Tale questione ammette diverse risposte, che danno origine, come vedremo, a differenti teorie e concezioni della plausibilità. Sebbene di recente il ragionamento plausibile abbia ottenuto una sua autonomia dalla logica, e nonostante il diffuso e crescente interesse per esso, l’argomento, come sottolineano Shafer e Pearl 2 , non ha acquisito una terminologia standard e un nucleo teorico condiviso come è accaduto per la logica deduttiva: una delle cause di ciò è il fatto che il trattamento formale del ragionamento plausibile ha sempre teso a essere assorbito dalla teoria della probabilità 3 . Non a caso, Walton osserva che la questione se la plausibilità sia differente dalla probabilità rimane controversa 4 , concludendo che è difficile escludere completamente la possibilità che la plausibilità possa risolversi in un qualche caso speciale di probabilità. In particolare, tale questione ammette ovviamente due riposte: una affermativa, da cui segue l’approccio probabilistico della plausibilità, e una negativa, da cui segue l’approccio non-probabilistico. Tale distinzione si iscrive all’interno della prima delle due principali concezioni della plausibilità: - la concezione epistemologica, secondo la quale la plausibilità è un mezzo di conoscenza e di avanzamento della stessa. Essa studia le for2
Cfr. Shafer - Pearl 1990, 629.
3
Cfr. p. es. Polya 1954, Shafer 1976, Dezert 2002, Van Horn 2003.
4
Cfr. Walton 2001b, 149.
8
Il vero e il plausibile me di ragionamento che permettono di costruire e valutare ipotesi, argomenti e processi decisionali in condizioni d’incertezza; - la concezione retorica, secondo la quale la plausibilità è un mezzo di persuasione e studia le tecniche che permettono di vincere il consenso mediante argomenti che risultano persuasivi in quanto ammantati della parvenza del vero e delle vestigia del ragionare corretto, capaci di rendere accettabile razionalmente ciò che tale non è. Queste concezioni sono il risultato di diverse tradizioni scientifiche e filosofiche, che hanno origine in contesti eterogenei e si sviluppano e fanno riferimento a terminologie differenti. La concezione epistemologica La concezione epistemologica della plausibilità ritiene che la plausibilità abbia a che fare con la conoscenza e muove dall’idea che sia uno strumento per arrivare a conoscere qualcosa in condizioni d’incertezza. Per far ciò essa parte da una definizione, esplicita o implicita, della forma di incertezza che intende trattare. In generale, questa è quella epistemologica, ossia quella che attiene allo stato di conoscenza di un soggetto, al suo stato epistemico, e può riguardare sia le premesse sia i metodi cui si fa ricorso nel corso del ragionamento. La teoria della plausibilità che ne consegue cerca di stabilire quale sia il grado di affidabilità della conoscenza ottenuta o delle decisioni prese in tali circostanze. La concezione epistemologica istituisce nelle sue varie articolazioni concettuali diverse relazioni con la verità. Nel far ciò essa elabora modelli d’inferenza, e in alcuni casi veri e propri calcoli, che permettono di trattare le credenze, il loro aggiornamento o la loro revisione in relazione sia a fatti sia ad altre credenze. In particolare le teorie della plausibilità di natura epistemologica affrontano e tentano di fornire risposte alle seguenti questioni: - quando un’ipotesi, un argomento o una decisione può essere ritenuta plausibile; - se è possibile fornire una trattazione formale della plausibilità; - quale relazione e quale differenza esiste, se esiste, tra la plausibilità e nozioni affini come quella di probabilità, verosimiglianza, credibilità o corroborazione; - se è possibile, ed eventualmente come, determinare quale ipotesi sia più plausibile; - se esiste una logica del plausibile, della quale possano esserne esplicitate le regole. I principali approcci teorici della concezione epistemologica sono due: quello probabilistico e quello non-probabilistico. 9
Introduzione L’approccio probabilistico è il risultato della tradizione che si richiama al calcolo della probabilità, e più precisamente alla sua interpretazione epistemologica 5 , che ha origine dal risultato noto il come teorema di Bayes 6 . La concezione probabilistica considera la plausibilità una forma di ragionamento sotto condizioni d’incertezza deputata a esprimere la credenza, e i suoi gradi, in relazione all’evidenza o ad altra credenza. Secondo tale concezione la plausibilità è suscettibile di un trattamento formale e può essere in ultima analisi ricondotta a un’opportuna versione del calcolo probabilistico, portando a una sostanziale identificazione tra plausibilità e probabilità 7 . L’approccio non-probabilistico si richiama alla teoria della plausibilità già sviluppata in ambito greco attraverso gli argomenti eikotici 8 , gli endoxa di Aristotele 9 , la teoria della plausibilità di Carneade e ha nella riflessione kantiana sulla nozione di verisimilitudo una sua significativa anticipazione. Essa muove dall’indipendenza e da un’essenziale irriducibilità tra plausibilità e probabilità, e si sviluppa in ambito moderno lungo almeno due principali articolazioni storico-concettuali: l’approccio deduttivista (cfr. capp. 8 e 9) e l’approccio cognitivista (cfr. cap. 10). La concezione retorica Lo studio della plausibilità quale mezzo di persuasione mira a indagare e chiarire i processi mediante i quali si costruiscono argomenti e schemi di argomenti volti a generare persuasione, ossia che siano credibili indipendentemente dalla loro relazione con la realtà e la verità. Tali argomenti fanno sorgere il problema di determinare i criteri di carattere razionale che consentano di valutarne la loro apparente veridicità, e come sia possibile individuarne i meccanismi di mascheramento della verità e di invertibilità degli argomenti. La plausibilità gioca un ruolo particolarmente rilevante in queste forme d’argomento persuasivo: essa è infatti lo strumento mediante cui si tenta di ammantare il ragionamento di una validità di cui non gode e rendere accettabile razionalmente ciò che tale non è.
5
Cfr. de Finetti 1931.
6
Cfr. Bayes 1763.
7
Cfr. Cox 1946, de Finetti 1949 e 1989, Van Horn 2003, Colyvan 2004.
8
Cfr. Gagarin1994.
9
Cfr. Renon 1998.
10
Il vero e il plausibile La concezione retorica, pertanto, si dedica allo studio dei processi attraverso i quali qualcosa di non plausibile può essere reso plausibile. Ad esempio è possibile rendere uno scenario plausibile «forzando la connessione tra i suoi eventi» 10 , in particolare mostrando come «la percezione della plausibilità di uno scenario possa essere manipolato incoraggiando le persone a rappresentare gli eventi in un catena causale o in una sequenza temporale» 11 . La concezione retorica è, almeno in parte, connessa alla concezione epistemologica, in particolare a quella non-probabilistica sia nella sua forma deduttivista sia in quella cognitivista. Nel primo caso è legata alla teoria della plausibilità di Rescher – là dove tratta la plausibilità come una forma di ragionamento entimematico 12 , ossia come un ragionamento che necessita di premesse mancanti per essere deduttivamente valido. Nel secondo caso è legata allo studio del ruolo dello stato epistemico e dei processi cognitivi degli esseri umani chiamati a costruire e accettare razionalmente argomenti, ipotesi o scenari. Il suo fine può dunque essere anche di tipo conoscitivo, in quanto può fornire criteri mediante i quali valutare l’attendibilità e la validità d’argomentazioni ammantate della parvenza del vero e di svelarne gli eventuali errori. La concezione retorica si concentra su schemi argomentativi non modellati dalla logica classica e anche di natura informale, come gli argomenti convergenti e legati, gli argomenti basati sulla conoscenza comune e gli entimemi 13 . Essa mostra come le inferenze plausibili siano argomenti che hanno un carattere presuntivo, ossia che candidano ipotesi e conclusioni sulla base di conoscenze comuni e presunzioni che possono essere usate, anche in modo occulto o implicito, quali premesse delle inferenze e argomentazioni. Indagando la plausibilità quale mezzo di persuasione, la concezione retorica si rivela di particolare importanza ed efficacia nei settori sociali e politici, dove la capacità di distinzione tra verità e plausibilità e di delinearne la chiara relazione assume un ruolo essenziale. La nozione di plausibilità, in quanto distinta da quella di verità, ha ricevuto e continua a ricevere grande attenzione in ambito retorico. La concezione della plausibilità come argomentazione persuasiva risale almeno alla riflessione stoica, la quale muove della separazione tra verità e plausibilità e considera quest’ultima come uno strumento di persuasione. In questo volume non intendo affrontare e trattare la concezione 10
Connell - Keane 2004a, 1.
11
Ibid.
12
Cfr. Rescher 1976, 55-68.
13
Cfr. Walton 2001a.
11
Introduzione retorica della plausibilità e mi concentrerò sulla trattazione della concezione epistemologica. Il libro è suddiviso in due parti principali: nella prima (cfr. capp. 37) analizzo la concezione probabilistica della plausibilità e alcune delle sue principali articolazioni storiche e concettuali; ne illustro le assunzioni e i modelli teorici e ne evidenzio alcuni limiti, di natura sia interna sia esterna. Nella seconda parte (cfr. capp. 8-11) analizzo la concezione non-probabilistica della plausibilità e le sue principali articolazioni storiche e concettuali, ne discuto le assunzioni e i modelli teorici evidenziandone alcuni limiti sia interni sia esterni. Negli ultimi due capitoli tratto rispettivamente la teoria della verosimiglianza popperiana (cfr. cap. 11), le debolezze delle cui ipotesi offrono l’occasione di mettere apertamente in discussione l’ipotesi della separazione tra vero e plausibile (cfr. cap. 12).
12
Il vero e il plausibile
1 Plausibilità e verità: brevi cenni storici 1. Premessa La plausibilità è una nozione complessa sulla quale convergono e si intrecciano differenti tradizioni terminologiche e concettuali, che sono all’origine delle difficoltà tuttora esistenti nel costruirne una trattazione standard condivisa. La trattazione della plausibilità, fin dall’antichità, è infatti associata a una costellazione di termini diversi (come eikos, pithanon, endoxa, verisimilitudo), ed emerge da ambiti (la retorica, l’estetica, la logica) e analisi concettuali differenti seppur affini, che interagiscono a più livelli lungo il loro sviluppo nella storia del pensiero. La nozione di plausibilità, e la relazione tra plausibilità e verità, hanno rappresentato fin dall’antichità argomenti a partire dai quali sono state sviluppate teorie della conoscenza, strumenti dialettici, e modelli sia per costruire sia per valutare ipotesi, argomenti e processi decisionali. La riflessione intorno alla nozione di plausibilità, pertanto, ha assunto varie forme nel corso della storia del pensiero. In questo libro non intendo esaminare tutte queste forme, ma offrirò una trattazione delle due principali concezioni moderne della plausibilità, quella probabilistica e quella non-probabilistica, limitandomi a esaminare alcune articolazioni storico-concettuali da cui esse hanno origine e che sono particolarmente influenti sul loro sviluppo. A tal fine in questo capitolo ripercorrerò brevemente la trattazione della moderna nozione di probabilità (cfr. par. 5), base dell’approccio probabilistico, e mi soffermerò su alcune riflessioni cui si richiamano le teorie caratterizzate da un approccio non-probabilistico, come la scuola siracusana (cfr. par. 2), la teoria aristotelica degli endoxa (cfr. par. 3), la teoria di Carneade (cfr. par. 4). Queste ultime hanno origine nell’antichità greca non solo perché banalmente la nozione di probabilità in senso moderno non era stata sviluppata, ma perché, come mostra in modo esemplare l’esito della riflessione kantiana (cfr. par. 6), la loro concezione di plausibilità ha ragioni diverse e irriducibili alla teoria della probabilità. Infatti, se da una parte «diversi fattori hanno impedito lo sviluppo della teoria della probabilità nella Grecia antica» 1 , è anche vero che tali teorie intendono modellare
1
Gillies 2000, 22.
13
Capitolo 1. Plausibilità e verità: brevi cenni storici problemi e situazioni che non si prestano a essere adeguatamente trattate dal calcolo probabilistico. In particolare mi soffermerò sul rapporto tra verità e plausibilità, chiave di volta delle riflessioni intorno alla nozione di plausibilità. Pur condividendo l’ipotesi della loro distinzione e l’idea della plausibilità quale strumento di gestione e limitazione dell’incertezza, tali riflessioni sostengono diverse posizioni sulla possibile relazione tra vero e plausibile, fornendo varianti teoriche che vengono assorbite e sviluppate dalle moderne teorie della plausibilità. 2. La scuola siracusana: la subordinazione del vero al plausibile La riflessione intorno alla nozione di plausibilità può essere fatta risalire alla retorica antica 2 , e in particolare alla scuola siracusana, nell’ambito della quale essa viene introdotta e sviluppata mediante l’argomento eikotico 3 – ossia basato sull’eikos, su ciò che assomiglia al vero (la verosimiglianza) – attribuito da Aristotele e Platone, in particolare, a Corace e Tisia 4 . Questi definiscono la plausibilità in termini di somiglianza al vero (eikos) – qualcosa è plausibile, ossia capace di forzare il consenso, in quanto somigliante al vero, – attribuendo a tale nozione funzioni e caratteristiche che sono la base della concezione retorica, oltreché dell’approccio non-probabilistico, della plausibilità. Secondo tale concezione, infatti, essa ha a che fare con l’apparenza e non con le condizioni materiali di verità e ha un valore strumentale: serve per argomentare a favore o contro qualcosa, non per ricercare la verità. Il suo fine dunque non è l’avanzamento della conoscenza, ma la persuasione. La plausibilità, in questo senso, è connessa all’apparenza e allo stato epistemico proprio del soggetto conoscente, e dà luogo a inferenze condotte su assunzioni parzialmente implicite, che traggono origine dal senso comune e quindi da «qualcosa su cui il ragionamento logico non può essere basato» 5 .
2
Cfr. p. es. Schiappa 1999.
3
Cfr. p. es. Smith 1921 e Gagarin 1994.
4
Visto il carattere selettivo di questa breve presentazione, volta a ripercorrere le radici
storiche cui si richiamano le moderne teoria della plausibilità, non prenderò in esame l’uso di plausibile in altri contesti, come l’uso platonico di eikos nel Timeo (cfr. Tim. 29 c). Walton 2001a, 105.
5
14
Il vero e il plausibile La funzione della plausibilità è dunque quella di vincere il consenso senza curarsi che ciò avvenga in conformità e in corrispondenza con le condizioni materiali di verità. A tal fine, essa consente la costruzione d’argomenti che hanno l’apparenza del vero e che si basano sull’empatia e il senso comune, ossia fanno appello non solo alla ragione (e quindi all’apparente rigore logico dell’argomentazione), ma anche alle comuni facoltà sensibili degli individui. Questa concezione della plausibilità «può essere meglio esemplificata citando un suo classico esempio nel mondo antico» 6 , utilizzato sia da Platone sia da Aristotele, nel quale una giuria viene chiamata a dirimere un caso di scontro fisico tra due uomini nel quale entrambi sostengono di essere stati inizialmente aggrediti dall’altro. Tale esempio mostra le funzioni e le caratteristiche costitutive della concezione retorica e soprattutto alcuni aspetti fondamentali della concezione non-probabilistica della plausibilità. In particolare: 1) la plausibilità è volta a trattare l’incertezza, nel senso che è uno strumento per gestire e limitare l’incertezza derivante da una mancanza di conoscenza soggettiva. Essa è il principale strumento della retorica, la quale entra in gioco proprio «là dove erriamo nell’incertezza» 7 . 2) La plausibilità è concepita come «un’inferenza tracciata sulla scorta delle normali, comuni attese basate sulle condizioni con le quali una persona è familiare» 8 , o meglio «basata sulla comprensione soggettiva di una persona su come qualcosa si possa normalmente ritenere che vada in una situazione familiare» 9 . L’uomo che è indiziato di aver iniziato la lotta, infatti, in quanto più piccolo di corporatura e notoriamente più debole dell’altro, per discolparsi agli occhi dei giurati ricorre a un argomento eikotico: può sembrare plausibile che egli, evidentemente più gracile e meno vigoroso dell’altro, possa aver assalito un uomo molto più grande e forte di lui? Alla giuria un simile argomento non può che apparire plausibile, ed esso ha l’effetto di spostare il peso dell’evidenza e il consenso dalla parte di chi lo ha usato, dimostrando che «la plausibilità è basata su qualcosa che oggi potremmo chiamare empatia, l’abilità di porsi dentro una situazione familiare, in una storia o una descrizione nella quale sono descritte le azioni di qualche protagonista» 10 . La sua utilità, dunque, può essere anche solo pratica – ossia rappresentare sem-
6
Walton 2001b, 149.
7
Plato, Phaedr., 263 b.
8
Walton 2001a, 153.
9
Ibid.
10
Walton 2001b, 104.
15
Capitolo 1. Plausibilità e verità: brevi cenni storici plicemente una guida all’azione, – limitata all’accettazione razionale di fatti o ipotesi. 3) La plausibilità è diversa dalla verità. Essa «non è una prova empirica che descrive cosa sia realmente accaduto, ma ha a che fare con le apparenze. Ha a che fare con come la situazione appare alla giuria, e come coloro che vi partecipano avrebbero plausibilmente reagito in quel tipo di situazione» 11 : così «un giudice, con un atto di empatia, può porsi nella situazione proprio prima che la lotta cominci» 12 . Ciò permette alla giuria, poste come uguali tutte le altre condizioni, di ritenere come imprudente l’attacco dell’uomo più piccolo e debole, in quanto destinato al fallimento, anche se questo non implica che ciò non possa essere avvenuto. 4) La plausibilità è diversa dalla probabilità, in quanto «non ha a che fare con la probabilità statistica di ciò che è accaduto in un dato caso»13 , ma con le apparenze e con lo stato epistemico del soggetto. 5) La verità è subordinata alla plausibilità, in quanto la plausibilità ha il fine di persuadere indipendentemente dalle condizioni materiali di verità. Per la scuola siracusana, infatti, non solo il vero può non essere plausibile e viceversa (ossia sono distinti), ma il primo è subordinato al secondo. Infatti «nei tribunali su questi argomenti non importa proprio a nessuno della verità; ciò che importa è la credibilità, la quale non consiste che nel verosimile (eikos, NdA)» 14 e al fine di ottenere il risultato desiderato, ossia la persuasione, «qualche volta neanche i fatti veri e propri bisogna raccontare, a meno che non si siano svolti verosimilmente, sia nell'accusa, sia nella difesa» 15 . Da ciò segue che è necessario «cercar il verosimile, e alla verità fare tanti saluti» 16 , visto che la perfetta arte retorica consiste nel «tenersi a quello (il verosimile, NdA) per tutto il discorso» 17 . 6) La plausibilità è invertibile, ossia è tale da permettere la costruzione di un’argomentazione sia a favore sia contro uno stesso fatto o tesi. L’uomo più grande, infatti, ricorre al seguente contro-argomento per discolparsi e spostare il peso dell’evidenza e il consenso a suo favore: dal momento che egli è visibilmente più forte e grande, è perfettamente consapevole del fatto che se avesse portato lui l’attacco all’altro 11
Ibid.
12
Ibid.
13
Walton 2001b, 150.
14
Plato, Phaedr., 272 d.
15
Ivi, 272 e.
16
Ibid.
17
Ivi, 273 a.
16
Il vero e il plausibile uomo ciò avrebbe deposto a suo sfavore di fronte ad una giuria. In questo modo l’uomo più grande asserisce di essere consapevole delle probabili conseguenze del suo attacco a un uomo più piccolo. Sarebbe imprudente per lui farlo. Fintantoché ogni membro della giuria è conscio che l’uomo più grande è consapevole di queste conseguenze, può capire perché l’uomo più grande avrebbe dovuto essere riluttante all’idea di attaccare un uomo più piccolo. Dunque da una forma di atto di empatia, e dalla conoscenza di fatti che sarebbero familiari sia ai giudici sia a coloro che prendono parte alla situazione, ogni membro della giuria può tracciare un’inferenza plausibile. Questa inferenza dà una ragione del perché non è plausibile che un uomo più grande attacchi un uomo più piccolo 18 .
Essendo egli a conoscenza di questo fatto, si può ritenere non più plausibile che sia stato lui ad attaccare l’altro uomo: da ciò segue che è possibile costruire argomenti a favore di entrambe le tesi. La reversibilità dell’argomento eikotico si basa su ciò che viene definita, come avremo modo di vedere (cfr. cap. 10), una conoscenza comune, ossia un’informazione che non solo è nota ai componenti di un gruppo di persone, ma queste sono a conoscenza che gli altri la conoscono, sanno che altri sanno che loro la conoscono, e così via. Essa è qualcosa di più di una conoscenza reciproca, la quale richiede solo il possesso di quella informazione e non anche la consapevolezza della conoscenza altrui. La reversibilità dell’argomento eikotico rivela un aspetto decisivo del ragionamento plausibile, che lo differenzia in modo sostanziale, come mostra in particolare l’approccio deduttivista di Rescher (cfr. cap. 8), dalla nozione di probabilità: il suo non essere un’inferenza a somma-uno (cfr. cap. 2, par. 3). Possono cioè esistere, o meglio coesistere, ipotesi e conclusioni opposte, supportate da prove della stessa forza, al limite da prove che sono entrambe vicine alla certezza. 7) La plausibilità è non-monotonica, e dunque sensibile all’ingresso di nuova informazione (cfr. cap. 9). Se nel corso del processo si viene a sapere, per esempio, che l’uomo più piccolo è un pugile o un praticante di una disciplina di lotta, il suo argomento non è più plausibile e la conclusione candidata deve essere sottoposta a un processo di revisione, il cui esito può essere l’aggiornamento o anche l’abbandono della conclusione. Premessa fondamentale per tracciare inferenze plausibili, pertanto, è che tutti gli altri fattori siano uguali, in quanto l’ingresso di nuova informazione può inficiare la conclusione candidata.
18
Walton 2001a, 105.
17
Capitolo 1. Plausibilità e verità: brevi cenni storici 3. Aristotele e l’isomorfismo tra vero e plausibile Aristotele fornisce una trattazione particolarmente rilevante del ragionamento plausibile, tanto che Rescher sostiene che «la teoria della plausibilità risale alla Topica di Aristotele, dove l’argomento del ragionamento plausibile trova la sua prima esposizione sistematica» 19 . Lo Stagirita, mediante la teoria degli endoxa, modella la nozione di plausibilità su quella di verità, istituendo un isomorfismo tra le due nozioni che è la base della trattazione deduttivista della plausibilità (cfr. cap. 8), in quanto consente di trasferire alla plausibilità un insieme di strumenti concettuali e formali elaborati per trattare la verità. In particolare alla luce della teoria degli endoxa: 1) plausibile è ciò che è ragionevole accettare per un interlocutore all’interno di un certo contesto. Ricorsivamente è plausibile (endoxos) ciò che «appare accettabile a tutti, oppure alla grande maggioranza, oppure ai sapienti, e tra questi o a tutti, o grande alla maggioranza, o a quelli oltremodo noti e illustri» 20 . Sebbene non sia propriamente una definizione, «ma una classificazione di tipi e criteri di endoxalità» 21 , questa concezione rappresenta la base per una trattazione formale della plausibilità. E’ opportuno osservare che è proprio riferendosi a questo passo che Boezio 22 traduce il termine greco endoxos con il termine latino probabile 23 , rendendosi involontariamente autore di un contributo che ha fortemente alimentato, già a livello terminologico, quell’ambiguità e quell’intreccio tra plausibile e probabile che è uno dei temi di questo libro. 2) La teoria della plausibilità aristotelica fornisce un metodo per trattare l’incertezza, nella fattispecie la deduzione (sillogismo) da premesse incerte, e ha l’obiettivo di «trovare un metodo che consenta di ragionare su qualsiasi problema sulla base della plausibilità, senza cadere in alcuna contraddizione» 24 . Tale metodo consta di tre passi fondamentali: a) raccogliere un insieme iniziale di endoxa, o endoxa putativi, rilevanti per il punto in questione;
19
Rescher 1976, xi.
20
Arist., Top. I, 1, 100 b 20.
21
Renon 1998, 101.
22
Ringrazio, tra le altre cose, la professoressa Mirella Capozzi per aver richiamato la mia
attenzione su questo punto. 23 Cfr. Maierù 1972, 398. 24
Renon 1998, 106.
18
Il vero e il plausibile b) valutare le difficoltà ed esaminare gli endoxa, mediante una verifica – infatti, essi potrebbero essere o in conflitto, o ambigui o apparentemente contraddittori; c) ritornare all’insieme iniziale degli endoxa, una volta che «la dottrina corretta sia stata fissata» 25 e testarli di nuovo in modo da tenere quelli meglio fondati o meglio revisionati. 3) Plausibilità e verità sono distinte. La plausibilità si differenzia dalla verità non perché sia falsa, infatti alcune opinioni plausibili sono vere, ma in virtù dei criteri sui quali i giudizi sono formati. Nel caso della verità il giudizio viene formato attraverso il riferimento alla cosa in sé con cui l’opinione ha a che fare (e l’opinione è vera quando coincide con la cosa); nel caso della plausibilità, il giudizio viene formato attraverso il riferimento agli interlocutori all’interno di un certo contesto e alle loro assunzioni sulle cose prevalenti in esso, piuttosto che in riferimento alle cose in sé. 4) La plausibilità è isomorfa alla verità. Infatti, essa gode delle proprietà e sottostà alle condizioni fondamentali che regolano la verità. In particolare, una volta raggruppate le proposizioni in tre classi di appartenenza, ossia in proposizioni plausibili (endox), implausibili (adox) e neutre (neut) – per le quali non esiste un supporto né a favore né contro, – esse soddisfano le seguenti relazioni 26 : - endox(A) → ¬(endox(¬A)) ; - adox(A) → ¬(adox(¬A)) ; - ¬(endox(A)) → adox(A) ∨ neut(A) ; - ¬(adox(A)) → endox(A) ∨ neut(A) ; - neut(A) → neut(¬A) . Tali relazioni derivano dal principio costitutivo della teoria della plausibilità aristotelica, il quale asserisce che se A è più o meno plausibile, allora ¬A è rispettivamente più o meno implausibile e viceversa. Ciò equivale ad assumere la condizione di somma-uno (cfr. cap. 2, par. 3) e il principio del terzo escluso, ossia due condizioni che informano la nozione di verità e le sue proprietà fondamentali. 5) Il ragionamento plausibile si articola secondo una modalità precisa: le premesse possono essere meno plausibili delle conclusioni, e quindi le conclusioni candidate mediante la teoria della plausibilità possono essere più plausibili delle loro premesse. Ciò differenzia in modo
25
Ivi, 102.
26
Cfr. p.es. Cavini 1989 e Renon 1998.
19
Capitolo 1. Plausibilità e verità: brevi cenni storici sostanziale questa nozione di plausibile da quella di probabilità (cfr. cap. 8, par. 3). È opportuno sottolineare che accanto alla trattazione della plausibilità incentrata sulla teoria degli endoxa, Aristotele, nel De Interpretatione, fa uso di un’altra nozione, il ‘per lo più’ (hos epi to polu), che assume particolare rilevanza in questa sede 27 . Tale nozione, che si lega a proposizioni «più spesso vere che false» 28 e quindi a «eventi del tipo dove c’è una predominanza dell’accadere rispetto a non accadere» 29 , è infatti oggetto di una interpretazione statistica che, sebbene non esente da debolezze 30 , ha autorizzato letture secondo cui Aristotele penserebbe a qualcosa che si avvicina alla probabilità statistica (ossia alla frequenza nel tempo), e quindi a un prototipo della nozione moderna di probabilità. Anche se ovviamente Aristotele, alla stregua di tutti i filosofi antichi, non arriva a proporre una trattazione matematica della probabilità, l’esistenza di tale nozione rafforza la sua trattazione non-probabilistica della plausibilità, in quanto dimostra non solo che essa è meno inconsapevole di quanto si possa credere, ma soprattutto che la trattazione dalla teoria degli endoxa avviene all’interno di una costellazione di concetti nei quali si prefigura anche un’idea di probabilità, e dove in qualche modo la nozione di plausibilità ha ragioni e tratta fenomeni distinti e non riducibili a essa. 4. Carneade e l’illusione della verità La teoria della plausibilità 31 di Carneade affronta alcuni temi centrali dell’approccio non-probabilistico, tanto che Walton afferma che essa offre «la migliore definizione della nozione base di plausibilità» 32 e la pone a base della sua trattazione non-probabilistica dell’inferenza plausibile.
27
Ringrazio il prof. Riccardo Chiaradonna per aver richiamato, tra le altre cose, la mia
attenzione su questo punto. 28 Gaskin 1995, 37. 29
Ibid.
30
Cfr. Gaskin 1995, 37-40.
31
Con plausibilità si rende qui il termine phitanos, ossia persuasivo. Visto il carattere
selettivo di questa presentazione, non prenderò in esame l’uso di questa nozione di plausibile in altri contesti, ad esempio nell’epistemologia di Galeno. Walton 2001b, 153.
32
20
Il vero e il plausibile Tale teoria concepisce la plausibilità in termini di concordanza (aderenza) di fatti o ipotesi con la conoscenza esistente, distinguendo in modo esplicito tale nozione non solo da quella di verità ma anche da quella di credenza: infatti, se una persona ritiene plausibile una cosa, da ciò «non segue che questa persona sappia che sia vera, o anche necessariamente che creda che sia vera» 33 . Essa, inoltre, mette in discussione la fondatezza della separazione tra verità e plausibilità. La teoria di Carneade nasce e si sviluppa in seno a una posizione scettica complessa e articolata, all’interno della quale la nozione di plausibilità offre un’alternativa alla teoria della conoscenza proposta dall’ortodossia stoica. L’esito della sua riflessione, in particolare, è l’impossibilità della conoscenza: non solo nulla è conoscibile, ma neanche il fatto che nulla sia conoscibile è conoscibile. A ogni apparenza vera, infatti, si accompagna in modo indistinguibile un’apparenza falsa, che fa sì che sia impossibile giungere a una qualsiasi conoscenza certa e indubitabile. Tale argomento ha un obiettivo preciso: l’epistemologia stoica e il suo criterio di verità, ossia la nozione di apparenza conoscitiva, o rappresentazione catalettica (phantasia kataleptike) 34 . L’ortodossia stoica sostiene, infatti, che la conoscenza di qualcosa nasce dall’apprensione, e l’apprensione altro non è che «assenso a una apparenza conoscitiva» 35 . Ora, un’apparenza è conoscitiva di qualcosa se è vera di quella cosa, ed è vera di quella cosa se è causata da quella cosa e non avrebbe potuto essere prodotta da nient’altro, ossia non è possibile che «qualcosa di vero possa apparire in un modo tale che ciò che è falso possa apparire nello stesso modo» 36 . Limitandosi a concedere l’assenso alle sole apparenze conoscitive, e sospendendo il giudizio (epoche) negli altri casi, è possibile evitare qualsiasi errore e conseguire una condizione di saggezza, caratterizzata dalla libertà da ogni opinione (doxa). La nozione d’apparenza conoscitiva, tuttavia, è inadeguata a fungere da fondamento epistemologico e criterio di verità, in quanto è inaffidabile e si espone a una serie di contro-esempi 37 . Nel caso della sfera percettiva, un celebre contro-esempio è quello dei gemelli Castore e Polluce 38 : in tal caso non è possibile distinguere l’apparenza generata da un
33
Ibid.
34
Cfr. p. es. Ioppolo 2005.
35
Sex. Emp., Adv. Log., I, 152.
36
Cicero, De natura deorum, II, 33.
37
Ossia di casi in cui qualcosa di vero può apparire nello stesso modo di ciò che è falso.
38
Cfr. Sext. Emp., Adv. Math., VII, 159-173.
21
Capitolo 1. Plausibilità e verità: brevi cenni storici gemello da quella generata dall’altro, e quindi dare luogo a un’apparenza conoscitiva 39 . Lo stoicismo si difende da questo argomento sostenendo che senza la rappresentazione catalettica sarebbe del tutto impossibile per gli esseri umani avere una base per l’azione razionale o la ricerca, in quanto essi rimarrebbero confinati nella sfera della mera opinione (è la celebre accusa di apraxia). Ed è proprio in risposta a questo argomento che Carneade elabora la sua teoria della plausibilità, la quale fornisce un criterio per l’azione razionale e la ricerca senza fare appello alla nozione di verità né a una fonte conoscitiva da cui farla scaturire. La plausibilità, infatti, è tutto ciò che serve in questi casi: attenendosi a presentazioni che risultano plausibili si può progredire nella ricerca e disporre di una base razionale per agire e prendere decisioni. La teoria di Carneade della plausibilità, in particolare, stabilisce quanto segue: 1) la plausibilità serve a gestire e limitare l’incertezza, la quale attiene a ogni atto conoscitivo visto che non esiste un criterio di verità, ossia una fonte della conoscenza in grado di giustificare in modo definitivo e oltre ogni ragionevole dubbio le nostre conoscenze. 2) Plausibilità e verità sono separate, nel senso che non è necessario che qualcosa, per essere plausibile, sia vera o solo anche creduta tale. La plausibilità deve semplicemente soddisfare certi requisiti di concordanza, in modo da permettere di valutare un fatto come in accordo con altri fatti ad esso connessi. 3) Qualcosa è plausibile se soddisfa tre condizioni: - sembra vera, ossia si presenta sotto forma di «presentazione apparentemente vera» 40 ; - è stabile. Poiché «nessuna presentazione è mai in forma semplice ma, come anelli in una catena, una è legata all’altra» 41 , qualcosa è (ancora più) plausibile se sembra essere vera (ossia soddisfa la prima condizione) ed è compatibile (ossia non è contraddetta) con altri fatti a essa connessi che sembrano veri. Pertanto «nessuna delle presentazioni collegate ci dovrebbe disturbare con un dubbio sulla sua falsità ma dovrebbe essere apparentemente vera e non implausibile» 42 ; - oltreché stabile è testata, ossia supera i test di confronto con l’esperienza e la conoscenza esistente e quindi «in caso di una co-occor39
Lo stesso argomento può essere costruito per altri casi percettivi come i sogni, la follia,
le illusioni ottiche e le visioni prodotte da ispirazione divina. 40 Sex. Emp., Adv. Log., I, 174. 41
Ivi, 176.
42
Ivi, 182.
22
Il vero e il plausibile renza che implica la presentazione testata, esaminiamo attentamente ogni presentazione che co-occorre» 43 . La plausibilità è dunque di natura graduale: qualcosa può essere più plausibile di un'altra, anche se non si potrà ottenere la certezza. Il primo criterio stabilisce il carattere presuntivo 44 e provvisorio della plausibilità. Esso asserisce semplicemente che quando un soggetto si trova a esperire una presentazione – qualcosa che gli appare, – essa può rivelarsi come apparentemente vera, o sembrare essere vera in modo persuasivo. Ovviamente ciò non significa che lo sia: può sempre rivelarsi erronea ed è comunque soggetta al dubbio. Tuttavia questa presentazione, almeno a fini pratici, dovrebbe essere ritenuta provvisoriamente e presuntivamente come vera. Il secondo criterio asserisce che qualcosa è plausibile (possibilmente ancora più plausibile) se la sua presentazione soddisfa il primo criterio e quello della irreversibilità: l’accordo tra la presentazione attuale e altre presentazioni che appaiono vere (soddisfano a loro volta il primo criterio). Un medico, ad esempio, ritiene plausibile in prima battuta che un paziente abbia la febbre dalla sua temperatura corporea (ossia una presentazione che sembra vera), e quindi rinforza questa plausibilità con altre presentazioni che sembrano vere, come la sete del paziente 45 . Il terzo criterio mette in gioco la nozione di test (o confronto con l’esperienza e la conoscenza esistente), e viene esemplificato attraverso l’esempio della fune 46 . Un uomo scorge una fune arrotolata in una stanza poco illuminata. Essa ha le sembianze di un serpente, e arriva così a ritenere plausibile che essa sia effettivamente un serpente (presentazione che sembra vera). Convinto di ciò, salta oltre il presunto rettile e, girandosi, constata che non si è mosso. Ciò lo porta a correggere la sua prima conclusione, convincendosi che quello che credeva un serpente è in realtà una fune. Nonostante ciò, ricordandosi che alcuni serpenti rimangono immobili, decide di effettuare un ulteriore test: prende un bastoncino e dà un colpo all’oggetto. Nel caso in cui rimanga ancora immobile, allora l’uomo può definitivamente concludere che si tratta di una fune. Lo status e la funzione della nozione di plausibilità di Carneade, tuttavia, non sono affatto pacifici né univoci 47 , e hanno alimentato nume43 44
Ibid. Per un’analisi della relazione tra presunzione e plausibilità cfr. Rescher 2006, cap. 3,
par. 6. 45
Cfr. Sex. Emp., Adv. Log., I, 179.
46
Cfr. Sex. Emp., Adv. Log., I, 187-188.
47
Cfr. p. es. Bett 1989 e Ioppolo 2005.
23
Capitolo 1. Plausibilità e verità: brevi cenni storici rose interpretazioni volte a rendere compatibile con lo scetticismo una nozione, quella di plausibilità appunto, che prevede comunque una forma di assenso. Ad esempio, Filone di Larissa, allievo di Carneade, sostiene che la plausibilità è la base di una diversa teoria della conoscenza e, quindi, che Carneade non sarebbe uno scettico, o almeno non in una forma integrale. Sant’Agostino, da parte sua, afferma che lo scetticismo di Carneade attacca non la conoscenza filosofica, ma solo quella ordinaria: la teoria della plausibilità fornirebbe una descrizione della nostra conoscenza delle cose ordinarie. Sesto Empirico, invece, sostiene che la plausibilità è un criterio d’azione: la teoria di Carneade fornisce un criterio non per stabilire cosa sia razionale credere, ma semplicemente su quale base sia razionale agire. Anche Walton, nello sviluppo di un approccio non-probabilistico, sposa questa posizione, sostenendo che «la plausibilità non è una teoria della conoscenza o della credenza. È una guida all’accettazione o all’impegno razionale, una guida all’azione» 48 . Anche ammesso che non sia possibile conoscere nulla, infatti, le apparenze non godono tutte dello stesso status e non v’è ragione per sospendere il giudizio. La plausibilità può avere una funzione meramente esplicativa e non normativa e rispondere non alla domanda come uno scettico dovrebbe agire, ma come uno scettico può agire. In base alla teoria della plausibilità di Carneade, l’azione può dipendere dalle apparenze. Esse differiscono in grado (non tutte le apparenze sono plausibili nella stessa misura) e uno scettico si muoverà sulla scorta dell’apparenza più plausibile. Ciò non significa che egli crederà che l’apparenza sia vera, ma essa godrà dell’assenso fintanto che l’azione ha ragione di dipenderne. La nascita della teoria della probabilità ha cambiato radicalmente questo scenario e la riflessione sulla nozione di plausibile, offrendo uno strumento particolarmente potente e raffinato per assolvere molti dei compiti attribuiti alla plausibilità. In seguito al suo sviluppo, infatti, la nozione di plausibilità ha subito una lunga eclissi e numerosi tentativi di riduzione a essa. Tuttavia il recupero della nozione di plausibilità espressa dalle riflessioni del mondo greco antico è esplicitamente posto alla base delle moderne modellizzazioni dell’inferenza plausibile alternative a quelle basate sul calcolo probabilistico 49 .
48
Ibid.
49
Cfr. Rescher 1976 e 2006, Walton 2001a e 2001b.
24
Il vero e il plausibile 5. Cenni sulla nozione di probabile Nella sua presentazione standard 50 la moderna nozione di probabilità è oggetto di due principali interpretazioni: quella ontologica e quella epistemologica. Quest’ultima, in una sua particolare formulazione, rappresenta la base dell’approccio probabilistico alla plausibilità. Sebbene tale distinzione sia problematica, in quanto «qualsiasi scelta terminologica riflette una particolare prospettiva teorica» 51 , si può asserire che l’interpretazione ontologica è caratterizzata dalla descrizione della probabilità, e della casualità e incertezza a essa connesse, come oggettive, ossia come in qualche modo esistenti e date di per sé in Natura. Essa si articola in tre principali correnti: quella classica, quella frequentista, quella propensiva. La concezione classica è la più antica e il suo rappresentante più significativo può essere considerato Laplace 52 . In questa breve presentazione viene annoverata nell’interpretazione ontologica, anche se questa è una questione controversa e, come osserva Gillies, «i probabilisti del periodo fino a Laplace consideravano la probabilità epistemologica piuttosto che oggettiva» 53 . Tale concezione è il risultato del determinismo universale d’origine newtoniana e dell’idea di demone laplaciano, e si fonda su due principi fondamentali: - il principio di ragion insufficiente, il quale asserisce che nell’impossibilità di determinare il risultato più probabile, bisogna porre tutti i risultati come egualmente probabili; - il principio di ragione cogente, che sostiene che le simmetrie fisiche implicano uguali probabilità (p. es. se tutte le facce del dado sono uguali, allora ogni faccia ha la stessa probabilità delle altre di occorrere in un lancio). Tale concezione dipende quindi in modo essenziale dalla nozione di equi-probabilità, poiché «il calcolo della probabilità può essere applicato solo quando abbiamo un numero di casi egualmente possibili» 54 . Da essa e dai due principi di cui sopra, segue la tradizionale definizione della probabilità quale «rapporto del numero dei casi favorevoli su quello di tutti i casi possibili» 55 , e in particolare la definizione di probabilità di un evento in una prova casuale come il numero dei risultati egual50
Per una esposizione dell’argomento si rimanda ai classici Hacking 1975 e Daston 1988.
51
Gillies 2000, 20.
52
Cfr. Laplace 1812.
53
Gillies 2000, 21.
54
Ivi, 17.
55
Laplace 1812, xi.
25
Capitolo 1. Plausibilità e verità: brevi cenni storici mente probabili che conducono a quell’evento diviso per il numero totale dei risultati egualmente probabili. Questa visione, tuttavia, presenta molti problemi e limitazioni, che sono legati principalmente al significato attribuito alla nozione di simmetria e alle possibili conseguenze paradossali del principio di ragion insufficiente 56 . Per ovviare a queste difficoltà, l’interpretazione classica è stata sottoposta a numerose riformulazioni e varianti teoriche, tra le quali spicca quella nota come concezione frequentista 57 . Essa si basa sulla nozione primitiva di kollektiv 58 , che è un’astrazione matematica che esprime semplicemente una serie ordinata infinita di prove indipendenti. La nozione di probabilità viene così definita a partire da quella di kollektiv, in quanto «l’esistenza di un collettivo è una condizione necessaria per la probabilità, nel senso che senza un collettivo non ci può essere alcuna assegnazione di probabilità dotata di senso» 59 : la probabilità di un dato evento, nel corso di una particolare prova, è dunque la frequenza relativa all’occorrenza di quell’evento in un kollektiv. In un certo senso questa concezione è connessa alla famosa legge dei grandi numeri di Bernoulli. Questa, infatti, afferma che se un evento si ripete per un certo numero di volte, diciamo k, in n prove indipendenti e identiche, allora, se il numero delle prove tende all’infinito, il rapporto k/n tende ad avvicinarsi sufficientemente alla probabilità oggettiva di quell’evento. Pertanto la concezione frequentista non fa altro che modificare l’assunzione dell’esistenza di una probabilità oggettiva di un dato evento e procede a definire la probabilità come il risultato limite di tale esperimento. L’idea di kollektiv, tuttavia, fa riferimento alla possibilità di ripetizione infinita, che come tale non solo è una pura idealizzazione e «un’assunzione forte» 60 , ma presenta difficoltà quando ci si trova a dover rendere conto d’eventi unici (ad esempio le elezioni presidenziali in Italia in un dato anno). Il tentativo di superare questo limite della visione frequentista costituisce il punto di partenza della terza principale concezione di natura ontologica della probabilità: quella propensiva 61 . Essa nasce dalla questione se «sia possibile introdurre probabilità oggettive per singoli eventi» 62 , ed è una «variante dell’interpretazione frequentista, escogitata per 56
Cfr. p. es. Gillies 2000, 37-49, per una trattazione dettagliata della questione.
57
Cfr. Von Mises 1928.
58
Ibid.
59
Galavotti 2005, 84.
60
Ivi, 85.
61
Cfr. Peirce 1910 e Popper 1959.
62
Gillies 2000, 115.
26
Il vero e il plausibile assegnare probabilità a un caso singolo» 63 , fatto che costituisce un problema «che emerge con particolare enfasi nella meccanica quantistica» 64 . Infatti, «naturalmente è facile introdurre probabilità singolari nella teoria soggettiva», mentre ciò non vale per l’interpretazione ontologica. La teoria propensiva della probabilità sostiene che la probabilità rappresenta la disposizione, la propensione appunto, della Natura a produrre un particolare evento in una singola prova, senza che esso sia associato necessariamente a una frequenza di lungo corso. L’aspetto oggettivo di questa concezione, che la situa perciò sul versante ontologico, risiede nel fatto che essa assume che tali propensioni esistono oggettivamente, anche se solo in un regno metafisico. La concezione epistemologica della probabilità affonda le proprie radici nel lavoro di Bayes 65 e concepisce la nozione di probabilità partendo da un’ipotesi del tutto diversa da quella dell’interpretazione ontologica: nega che la casualità possa essere un fenomeno misurabile in modo oggettivo e la concepisce come un fenomeno meramente conoscitivo, considerando la probabilità come «concernente i gradi di credenza di particolari individui» 66 . Secondo tale approccio anche il semplice lancio di un dado, ad esempio, non è necessariamente di per sé casuale. Se fossimo in grado di conoscere tutti i valori delle variabili che concorrono alla determinazione del risultato di un lancio (come la forma esatta e il peso del dado, le condizioni atmosferiche dell’ambiente in cui il lancio viene eseguito, la distanza tra la mano del lanciatore e il terreno, etc.) saremmo in grado di predire con certezza, mediante applicazione delle leggi della fisica, il risultato del lancio: «se il reale ragionamento probabilistico è condotto fino alle sue estreme conclusioni, sembra che non ci sia realmente alcuna probabilità, ma solo certezza, se la conoscenza è completa» 67 . Poiché tale mole d’informazione non è comunemente accessibile, si preferisce assumere l’evento come casuale e assegnare valori probabilistici a ognuna delle sei facce del dado. Alla luce della concezione epistemologica la probabilità non attiene dunque alla sfera dell’essere ma a quella conoscitiva: essa esprime una mancanza di conoscenza rispetto alle condizioni che influenzano l’evento ed esprime le nostre personali, soggettive credenze e opinioni circa l’esito della prova. Ed è proprio su tale nozione di probabilità quale cre-
63
Galavotti 2005, 109.
64
Ibid.
65
Cfr. Bayes 1763.
66
Gillies 2000, 88.
67
Knight 1921, 219.
27
Capitolo 1. Plausibilità e verità: brevi cenni storici denza che è fondato l’approccio probabilistico alla plausibilità (cfr. cap. 3). Anche all’interno della concezione epistemologica è possibile individuare tre principali correnti teoriche: il relazionismo logico, il soggettivismo e l’intuizionismo. Il relazionismo logico 68 sostiene che esiste un’oggettiva relazione, anche se non sempre misurabile, tra la conoscenza e le probabilità che sono derivate da essa. Questa conoscenza è di natura personale, ma bisogna sottolineare che «in un senso importante per la logica, la probabilità non è soggettiva. Una proposizione non è probabile poiché noi pensiamo che lo sia. Una volta che i fatti che determinano la nostra conoscenza sono dati, cosa è probabile o improbabile in quelle circostanze viene fissato in modo oggettivo, e indipendentemente dalla nostra opinione» 69 . Quindi alla luce di questa concezione la probabilità «è un grado di credenza razionale, non semplicemente un grado di credenza» 70 , e in particolare «questo grado di credenza è considerato essere lo stesso per tutti gli individui razionali» 71 . La probabilità è dunque una forma di parziale implicazione, e quindi tutte le probabilità sono condizionate, poiché «non possiamo semplicemente parlare di probabilità di un’ipotesi, ma solo della sua probabilità relativa a una qualche evidenza che parzialmente la implica» 72 . Il rifiuto di questa asserzione rappresenta proprio il punto da cui muove la visione soggettivista della probabilità, elaborata in modo indipendente da Ramsey 73 e de Finetti 74 . Alla luce di questa posizione la probabilità non si lega alla conoscenza in sé e per sé, ma a quella posseduta da un particolare individuo: sono le conoscenze personali che determinano le probabilità, che è quindi di natura strettamente soggettiva. Infatti, data la probabilità di h alla luce dell’evidenza e, «l’interpretazione soggettivista della probabilità abbandona l’assunzione della razionalità che conduce al consenso. Alla luce della teoria soggettivista, differenti individui (diciamo la Signora A, il Signor B e il maestro C), sebbene tutti perfettamente ragionevoli e in possesso della stessa evidenza e, possono comunque avere gradi di credenza in h differenti» 75 . Questa 68
Cfr. Keynes 1921 e Carnap 1950.
69
Keynes 1921, 4.
70
Gillies 2000, 32.
71
Ivi, 53.
72
Ivi, 32.
73
Cfr. Ramsey 1926.
74
Cfr. de Finetti 1931 e 1937.
75
Gillies 2000, 53.
28
Il vero e il plausibile idea della probabilità rappresenta la base della concezione probabilistica della plausibilità che modella la teoria della plausibilità di Polya (cfr. cap. 4). Egli, infatti, interpreta la plausibilità come un ragionamento su credenze che soddisfano gli assiomi della teoria della probabilità e che è possibile aggiornare mediante il teorema di Bayes. Gli altri approcci di natura probabilistica (cfr. capp. 6 e 7) non fanno altro che modificare e potenziare le assunzioni all’interno di questa visione. La natura soggettiva della probabilità può essere esemplificata attraverso un semplice caso. Si consideri una gara di cavalli: sebbene la maggior parte degli spettatori condivida più o meno la stessa conoscenza (o meglio mancanza di conoscenza), essi fanno puntate diverse sul cavallo vincente. L’idea di base dietro la posizione di Ramsey e de Finetti è che osservando le scelte dei singoli individui si possono ricavare le loro personali credenze sul risultato della gara: perciò le probabilità soggettive possono essere derivate dalle azioni e dalle scelte. In altre parole le probabilità sono rivelate dalle scelte e dai comportamenti dei soggetti. Anche quest’asserzione, tuttavia, si rivela controversa, e proprio dalla sua messa in questione prende le mosse il terzo approccio di natura epistemologica alla probabilità: l’intuizionismo. Secondo questa posizione, che ha le sue radici nei lavori di Koopman 76 e Good 77 , l’approccio di de Finetti e Ramsey è troppo dogmatico nel suo empirismo. Esso, infatti, implica, come abbiamo sottolineato, che una credenza non è tale se non viene rivelata da una scelta comportamentale. L’assegnazione soggettiva della probabilità, secondo l’intuizionismo, non deve essere necessariamente rivelata mediante scelte o azioni, poiché esse non sempre rivelano probabilità. Se portate alle estreme conseguenze, infatti, le assunzioni della posizione soggettivista conducono alla conclusione che i comportamenti potrebbero rivelare assegnazioni di probabilità che il soggetto non ha neanche idea di possedere 78 .
76
Cfr. Koopman 1940a e 1940b.
77
Cfr. Good 1950 e 1962.
78
P. es. uno spettatore potrebbe puntare su un cavallo solo perché gli piace il nome, o
perché corre nella corsia che ha il suo numero fortunato, o per qualsiasi altro motivo che non corrisponda alla credenza che sia proprio quello il cavallo che ha maggiore probabilità soggettiva di vincere.
29
Capitolo 1. Plausibilità e verità: brevi cenni storici 6. Kant e la distinzione probabile-verosimile La teoria della probabilità sembra offrire uno strumento concettuale e formale particolarmente potente e raffinato per assolvere molti dei compiti attribuiti fin dall’antichità alla plausibilità. Allo stesso tempo, però, essa pone le basi per istituire una netta distinzione tra queste due nozioni. Il problema sotteso a questa distinzione viene sollevato e affrontato esplicitamente già da Kant, che nella sua riflessione sulla logica arriva a distinguere chiaramente tra probabilità (Wahrscheinlichkeit, probabilitas) e verosimiglianza (Scheinbarkeit, verisimilitudo) 79 , una nozione affine a quella di plausibilità. Le ragioni che motivano la distinzione kantiana tra probabile e verosimile sono particolarmente importanti in quanto fanno riferimento a limiti precisi della teoria della probabilità, che si ripresentano in tutta la loro rilevanza sia in seno alla teoria della probabilità stessa sia nell’approccio cognitivista alla plausibilità (cfr. cap. 10, parr. 3 e 4). La questione della differenza tra probabilità e verosimiglianza era già stata affrontata da Baumgarten nell’Aesthetica, dove egli «connette la verosimiglianza al suo concetto di ‘verità estetica’ e alla nozione greca di eikos» 80 . La distinzione kantiana, che pur tiene conto della riflessione di Baumgarten, ha il pregio di poggiare anche su una riflessione intorno all’emergente calcolo della probabilità. A partire da essa Kant sviluppa la nozione di verosimiglianza e dà conto delle ragioni per cui le nozioni di probabilità e di verosimiglianza non sono riducibili l’una all’altra. Per Kant, la probabilità è «un tener per vero in cui chi giudica dispone di insufficienti ragioni oggettive intorno a qualcosa, e però conosce anche il rapporto che tali insufficienti ragioni oggettive hanno con le ragioni che sarebbero sufficienti alla verità e alla certezza» 81 . Kant individua tre condizioni che le ragioni della probabilità devono soddisfare: a) oggettività: le ragioni non devono essere quelle proprie di quel particolare soggetto conoscente, bensì riguardano l’oggetto e sono valide per chiunque; b) completezza: se si rappresenta il rapporto tra le ragioni insufficienti oggettive a disposizione e quelle che sarebbero sufficienti alla 79
Cfr. Capozzi 1999, Capozzi 2002, Capp. 7 e 15, Capozzi 2006.
80
Capozzi 2006, 148, cfr. pure Capozzi 2002, 692-701, per un’analisi della relazione tra
la nozione di verosimiglianza di Baumgarten e quella kantiana. 81 Capozzi 2002, 648.
30
Il vero e il plausibile certezza come una frazione, allora il denominatore della frazione deve designare tutte le ragioni oggettive che sarebbero sufficienti alla certezza; c) omogeneità: le ragioni devono essere dello stesso tipo. Nella visione kantiana, insomma, la probabilità tratta fenomeni strettamente quantitativi poiché, se sono rispettate le condizioni (a), (b) e (c), si possono numerare le ragioni al numeratore e al denominatore della frazione. Ciò fa sì che la probabilità non sia da considerarsi a sé stante rispetto al certo e al vero, ma vada vista «in continuità con essi, come una parte della verità e come un grado misurabile di certezza» 82 . Dall’altra parte qualcosa per Kant è verosimile se «abbiamo basi per ritenere che esso sia vero, basi che, sebbene insufficienti e soggettive, sembrano essere maggiori delle basi per l’opposto» 83 . Essa è dunque basata sulla ponderazione, ossia sul peso (pondus) che un soggetto attribuisce alle ragioni che prende in esame: infatti, la verosimiglianza si fonda su ragioni eterogenee «che non possono essere poste in serie e numerate, ma vanno ponderate» 84 . Al pari della probabilità, anche la verosimiglianza soddisfa tre proprietà fondamentali: a) soggettività, per cui le ragioni dipendono dal particolare soggetto conoscente; b) insufficienza delle ragioni necessarie a fissare la certezza; c) eterogeneità delle ragioni che devono essere prese in considerazione. Essa ha dunque che fare con fenomeni qualitativi ed è soggettiva, nel senso che la valutazione del peso alla fine non può che essere soggettiva. Una sua esemplificazione è la testimonianza in un caso legale o la ponderazione di un giudice, il quale non può numerare le ragioni eterogenee di cui dispone, ma deve decidere in base al proprio giudizio soggettivo se, ad esempio, le ragioni a favore di un imputato siano più pesanti di quelle contro. Kant riconosce infatti alla verosimiglianza una natura ambivalente: da una parte, essa è parvenza della verità – e come tale è capace d’inganno mediante inferenze e argomenti che possono veicolare e far accettare contenuti falsi – dall’altra, è verità della parvenza, e pertanto è uno strumento euristico da utilizzare in modo critico e consapevole. In molti casi la verosimiglianza è addirittura la nostra unica risorsa in fase euristica: infatti, purché si sia consapevoli della possibilità di inganno
82
Ivi, 246, cfr. pure 648-649.
83
Capozzi 2006, 148.
84
Capozzi 2002, 242.
31
Capitolo 1. Plausibilità e verità: brevi cenni storici della verosimiglianza, si può usare quel che appare vero nella elaborazione di giudizi anticipatori, indispensabili nel fare ipotesi. L’aspetto centrale della concezione kantiana della verosimiglianza, almeno ai fini del presente lavoro, è che essa, proprio in quanto distinta dalla probabilità, delinea una concezione della verosimiglianza quale strumento di trattazione dell’incertezza in senso stretto. Le basi e le ragioni della distinzione kantiana tra probabilità e verosimiglianza, pertanto, rimandano a una questione centrale non solo per la teoria della plausibilità, ma per la stessa teoria della probabilità: la separazione tra rischio e incertezza in senso stretto 85 . Secondo tale distinzione la probabilità tratta il rischio, ossia situazioni in cui è possibile assegnare una probabilità matematica al fenomeno trattato, e in cui si può procedere a una quantificazione. Il rischio in questo senso, sia nella sua forma conoscibile sia in quella non-conoscibile (cfr. cap. 10, par. 3), è diverso dall’incertezza in senso stretto. Infatti per conoscenza incerta, lasciatemi spiegare, non intendo semplicemente distinguere ciò che è noto con certezza da ciò che è solo probabile. Il gioco della roulette, in questo senso, non è soggetto a incertezza […] Il senso nel quale userò questo termine è quello in cui la possibilità di una guerra in Europa è incerta, o il prezzo del rame e il tasso d’interesse tra vent’anni […]. Su questi argomenti non esiste alcuna base scientifica sulla quale formare una qualsiasi probabilità calcolabile. Semplicemente non sappiamo 86 .
Ed è proprio nel trattare questi casi che, alla luce della riflessione kantiana, bisogna ricorrere alla verosimiglianza: infatti, là dove non è possibile calcolare probabilità si deve far ricorso alla nozione di verosimiglianza. Candidandosi a trattare l’incertezza in senso stretto, la nozione di verosimiglianza kantiana fissa dunque in modo chiaro la differenza tra plausibile e probabile, indicando le ragioni e le direttrici dello sviluppo di un approccio non-probabilistico alla plausibilità sulla base di una precisa relazione, oltre che di una distinzione, con la teoria della probabilità.
85
Cfr. Kinght 1921.
86
Keynes 1937, 213-214.
32
Il vero e il plausibile
2 Plausibilità e credenza 1. Funzioni e caratteristiche della plausibilità La plausibilità è un concetto che può occorrere in molti contesti, servire molti scopi e assumere molte forme, tanto che il ricorso a questa nozione, come osservano Connell e Keane, sembra davvero un «fenomeno ineluttabile» 1 sia nell’attività scientifica sia nella vita quotidiana. In particolare questa nozione gioca un ruolo centrale nello studio dei processi di scoperta e nell’euristica: «infatti la scoperta non consiste nel formulare ipotesi a caso, bensì nel formulare ipotesi plausibili» 2 . La nozione di plausibilità è pertanto così importante per l’impresa scientifica che si può sostenere non solo che il compito di quest’ultima è quello di produrre ipotesi plausibili, ma che tutte le conoscenze in ultima analisi (cfr. cap. 12) sono caratterizzate dalla natura provvisoria e incerta della plausibilità, comprese quelle matematiche: infatti, in un senso preciso «nessuna delle nostre conoscenze matematiche è assolutamente certa, è soltanto plausibile, cioè compatibile con la conoscenza esistente, e tale compatibilità non ne assicura la certezza, poiché la conoscenza esistente non è assolutamente certa, è soltanto plausibile» 3 . Questo volume presenta dunque un’indagine sulla nozione di plausibilità alla luce di una prospettiva filosofica, ossia di una riflessione critica che risale e discute i principi, le assunzioni implicite e agli assiomi da cui prendono le mosse questa nozione e i sui principali modelli teorici. Sebbene sia diffusamente usata non solo nel linguaggio e nei ragionamenti quotidiani, ma anche nella ricerca scientifica e filosofica, la plausibilità denuncia una «mancanza di specificità nella sua definizione» 4 , o quantomeno di chiarezza concettuale. Infatti «nonostante l’autonomia del ragionamento plausibile dalla logica in tempi moderni, e nonostante il diffuso e crescente interesse per il ragionamento plausibile, l’argomento non ha mai acquisito una terminologia standard e un nucleo teorico condiviso come è per la logica deduttiva» 5 e, come avremo modo di discutere in dettaglio, «una ragione per questo è che il trattamento
1
Connell - Keane 2003b, 269.
2
Cellucci 2002, 146.
3
Ivi, xix.
4
Connel - Keane 2003b, 264.
5
Shafer - Pearl 1990, 651.
33
Capitolo2. Plausibilità e credenza formale del ragionamento plausibile ha sempre teso a essere assorbito dalla teoria della probabilità» 6 . La plausibilità emerge fin dall’antichità con una caratteristica precisa, ossia in risposta all’esigenza di trattare (gestire e limitare) l’incertezza. A tale fine essa cerca di esplicitare e formalizzare precisi modelli di comportamento e ragionamento razionale, ed è quindi connessa ad altri modelli concettuali che condividono almeno in parte questo fine, come la teoria della probabilità, la teoria dei giochi, la teoria delle decisioni e la teoria dell’inferenza statistica. La discussione di queste ultime va oltre gli scopi del presente testo, in quanto richiede di affrontare la questione di una logica dell’incerto in generale. Nel presente lavoro mi concentrerò dunque su quelle teorie che trattano espressamente la nozione di plausibilità. Poiché la trattazione dell’incertezza è il principale obiettivo della plausibilità, le sue riflessioni e modellizzazioni variano in relazione alle diverse possibili forme d’incertezza di cui vuole render conto (cfr. par. 2). La plausibilità può perciò essere concepita e modellata in modi vari ed eterogenei e tali si rivelano anche le caratteristiche, i domini di riferimento e le funzioni che le possono essere di volta in volta attribuite. Il risultato è che questa nozione gode di una sorta di ubiquità nell’indagine scientifica, che dà luogo a una conseguente frammentazione della sua trattazione teorica e a una sua intrinseca ambiguità e complessità. Infatti, sebbene esista un comune, per quanto minimale, accordo sul fatto che la plausibilità entri in gioco nella trattazione dell’incertezza, i modi di concepirla possono articolarsi a partire da tradizioni e assunzioni completamente differenti, producendo modelli dalle caratteristiche anche molto diverse. La plausibilità assolve due principali funzioni: - una funzione pratica, ossia può servire come guida all’azione fornendo argomenti per la valutazione e la costruzione di fatti e processi decisionali; - una funzione teoretica, ossia può servire come strumento conoscitivo, nel condurre il ragionamento durante il processo di candidatura e valutazione d’ipotesi esplicative o congetture. Alla luce della classica distinzione sia logica sia temporale dell’empirismo logico tra contesto della giustificazione e contesto della scoperta, la plausibilità gioca dunque un ruolo decisivo in entrambi i processi. Essa partecipa sia alla fase della scoperta, mediante forme d’inferenza (in particolare l’induzione e l’analogia) che permettono la candidatura delle ipotesi, sia alla fase della giustificazione fornendo argomenti e 6
Ibid.
34
Il vero e il plausibile schemi che permettono di valutare le ipotesi e di corroborarle o screditarle. Tuttavia la plausibilità mette in discussione l’idea dell’empirismo logico che questi due contesti siano temporalmente e logicamente distinti, in quanto la natura di alcune delle sue forme d’inferenza (cfr. cap. 5, par. 4) è tale da inficiare questa distinzione. 2. Incertezza dei metodi e incertezza delle premesse La plausibilità è espressione di incertezza e questa è il risultato della mancanza di una giustificazione definitiva e oltre ogni ragionevole dubbio della conoscenza ottenuta, sulla quale pertanto può sempre essere sollevato un qualche dubbio. Poiché l’incertezza può assumere varie forme è essenziale definire quale forma la plausibilità intende modellare. La distinzione classica individua due principali classi dell’incertezza: - aleatoria (anche nota come stocastica), che riguarda la casualità e l’imprevedibilità intrinseca del sistema oggetto di conoscenza; - epistemica (anche nota come soggettiva), che si riferisce allo stato di conoscenza del soggetto rispetto al sistema (p. es. una conoscenza incompleta del sistema). L’incertezza di cui si occupa la plausibilità, almeno nella maggior parte degli approcci, è di natura strettamente epistemica e quindi legata al soggetto conoscente. In quanto tale, essa è dunque strettamente legata alla nozione di credenza 7 , in quanto esprime il risultato – e in alcuni casi è misura – di una allocazione di credenza razionale (cfr. par. 3). E’ opportuno sottolineare molto brevemente che la concezione e la definizione dell’incertezza non è un fatto pacifico. Su di essa grava infatti la tradizionale e controversa distinzione tra incertezza e rischio 8 , che ha profonde implicazioni in ambiti che sono tipicamente oggetto d’applicazione del ragionamento plausibile, come l’economia 9 . Alla luce di questa distinzione, infatti, il rischio è una forma d’incertezza quantificabile, ossia per la quale è possibile una misurazione e un’assegna-zione probabilistica. Nella fattispecie, il rischio è uguale alla probabilità che un certo evento occorra moltiplicata per il valore delle conseguenze che derivano dalla sua occorrenza. L’incertezza in 7
Una credenza è qualcosa tenuto per vero, in particolare una proposizione o un insieme di
proposizioni accettate da un gruppo di persone. Essa si basa dunque su un supporto sia interno sia esterno al soggetto ed è distinta dalla conoscenza in quanto è una presunzione di verità. Cfr. Knight 1921.
8 9
Per una trattazione ulteriore dell’argomento cfr. Cap. 10, parr. 3 e 4.
35
Capitolo2. Plausibilità e credenza senso stretto caratterizza invece situazioni per le quali non solo una tale assegnazione non è possibile, ma che non è possibile gestire o limitare in modo significativo neanche attraverso l’acquisizione di maggior informazione sui fenomeni indagati e sulle loro cause. Ed è proprio in seno all’economia che la sostenibilità di tale distinzione è oggetto di un lungo dibattito, che oscilla tra due principali posizioni. Da una parte, infatti, l’ortodossia prevalente 10 ritiene che questa distinzione sia fittizia e che rischio e incertezza siano la stessa cosa. Secondo tale posizione l’incertezza in senso knightiano è caratterizzata semplicemente dal fatto che il soggetto non assegna probabilità, non dal fatto che non possa assegnarla: l’incertezza è un problema epistemologico, non ontologico. Essa riguarda la conoscenza (o mancanza di conoscenza) delle probabilità rilevanti, non della loro esistenza. L’altra principale posizione teorica 11 sostiene che questa distinzione non sia affatto fittizia e sia invece centrale: l’incertezza nel senso di Knight è l’unica forma d’incertezza che occorre in domini complessi (come l’economia appunto), originata da questioni di tempo e informazione. In situazioni davvero incerte, ossia di solito uniche, davvero nuove e tali che le alternative possibili non sono note, non si può procedere all’assegnazione di misure probabilistiche e si deve quindi ricorrere a metodi e regole al limite anche differenti da quelle probabilistiche. Il rischio, invece, interviene in scenari molto ristretti e idealizzati, dove le alternative sono chiare e le prove possono essere ragionevolmente ripetute. L’incertezza si può riferire principalmente a due aspetti del ragionamento: i metodi e le premesse. La plausibilità è quindi descrivibile come una forma di ragionamento «che conduce a conclusioni incerte poiché i suoi metodi sono fallibili oppure le sue premesse sono incerte» 12 . Da ciò segue una delle principali distinzioni nella letteratura dedicata all’argomento: quella tra il defeasible reasoning e il plausible reasoning 13 . Il primo è una forma di ragionamento nel quale «un argomento è considerato come un frammento fallibile di ragionamento fondato su premesse ferme» 14 , basato dunque su metodi incerti ma premesse certe. Con l’espressione metodi incerti s’intendono forme d’inferenza fallibili in generale – come l’analogia, l’induzione, l’abduzione, etc. – che per 10
Cfr. p. es. von Neumann - Morgenstern 1944.
11
Cfr. p. es. Shackle 1949 e 1961, Davidson 1982 e 1991.
12
Shafer - Pearl 1990, 652.
13
Cfr. p. es. Vreewsijk 1992.
14
Vreewsijk 1992, 1.
36
Il vero e il plausibile loro natura non sono ritenute in grado di trasmettere la verità dalle premesse alle conclusioni, e che possono dunque solo conferire un certo grado di attendibilità alle conclusioni candidate. Le premesse in sé non sono dunque oggetto di dubbio e rimangono certe. Il secondo, richiamandosi a una nozione di plausibilità già teorizzata da Aristotele e posta a fondamento della teoria della plausibilità nonprobabilistica di Rescher, è una forma di ragionamento nel quale «un argomento è una prova rigorosa su basi plausibili» 15 , e dunque basato su premesse incerte. In particolare sono incerte quelle premesse che possono essere incomplete, approssimate o conflittuali, che hanno l’effetto di trasmettere la propria incertezza alle conclusioni, ma che sono raggiunte per via strettamente rigorosa (ossia mediante deduzioni). In seguito al processo inferenziale, lo status di queste premesse può essere rivisto e aggiornato conformemente al resto della conoscenza di cui si dispone nel corso dell’argomento. Questa distinzione non è ovviamente categorica: il ragionamento da premesse incerte può essere di due tipi, ossia quello condotto sia mediante metodi ritenuti fallibili sia mediante metodi ritenuti certi. Non solo, infatti, esiste una chiara e formalizzabile relazione tra ragionamenti basati su premesse incerte e ragionamenti basati su metodi incerti 16 , ma una trattazione ampia della plausibilità deve poter abbracciare entrambe queste forme, concependo la plausibilità come un’inferenza che può essere condotta con metodi incerti a partire da premesse incerte. 3. Incertezza e allocazione della credenza globale Poiché la plausibilità, quale espressione di un’incertezza epistemica, è un fatto di credenza, in particolare il risultato di un’allocazione di credenza razionale, essa è caratterizzata da un insieme d’ipotesi e assunzioni sulle modalità di distribuzione di tale credenza. In particolare, ogni teoria della plausibilità riposa implicitamente o esplicitamente su alcune ipotesi circa la questione centrale dell’allocazione della credenza globale di un’agente, ossia la disposizione di un agente a credere a qualcosa in una certa misura e credere al suo contrario in una certa misura. Il modo in cui viene risolta tale questione contribuisce a determinare gran parte delle caratteristiche dei vari approcci all’inferenza plausibile (e dei loro modelli).
15
Ibid.
16
Cfr. Vreewsijk 1992.
37
Capitolo2. Plausibilità e credenza Una qualsiasi proposizione incerta – esprimente una previsione, un’ipotesi o una scelta – gode, infatti, solo di una certa forza, di un certo grado di credibilità, ed è costantemente sottoposta a dubbio e dunque rivedibile. Nella fattispecie, data una qualsiasi proposizione A e un agente a, questo può affidare – allocare – una certa porzione p della propria credenza globale cr ad A nei tre modi seguenti, che si ottengono facendo dipendere la credenza da due principali parametri (la dimensione e la distribuzione): 1) se a affida una porzione della propria credenza globale ad A, allora la rimanente porzione viene automaticamente accordata a ¬A, ovvero alla sua negazione, nella misura cr(¬A) = 1- cr(A). La negazione non esprime semplicemente la negazione della singola proposizione A, ma racchiude tutte le eventuali ipotesi alternative ad A, e dunque esprimere un insieme di proposizioni. Questa allocazione della credenza totale è inoltre a somma-uno, perché cr(¬A) + cr(A) = 1. 2) a può affidare una porzione della propria credenza totale ad A, senza che questo implichi che la restante porzione – che è comunque al massimo pari a 1- cr( A) – venga accordata alla sua negazione, ¬A. Pertanto quest’ultima allocazione va sempre espressa e può rimanere indeterminata. 3) a può affidare una porzione della propria credenza globale ad A e contemporaneamente affidare una porzione della credenza a ¬A, senza dover rispettare la condizione che la somma della credenza totale sia 1. Ovvero cr(¬A) + cr(A) può essere maggiore di 1. Il primo caso dà luogo alle cosiddette teorie o sistemi d’inferenza che rappresentano la credenza in modo mono-dimensionale, in quanto si articolano idealmente lungo una sola dimensione. Esse esprimono, infatti, la plausibilità di A, quale risultato di una allocazione di credenza, con un numero reale p e rappresentano l’incertezza, ossia il dubbio riguardo alla verità della proposizione A, semplicemente per differenza, come 1- p. Non sempre è possibile esprimere numericamente un’allocazione di credenza mediante numeri reali, ma nei sistemi in cui ciò è possibile vale la cosiddetta comparabilità universale, ossia la possibilità di poter confrontare la plausibilità di due proposizioni qualsiasi. In questo caso esse saranno o equi-plausibili, oppure una sarà più plausibile dell’altra. La mono-dimensionalità della rappresentazione dell’incertezza è una proprietà particolarmente rilevante delle teorie della plausibilità perché è basata sull’accettazione del principio del terzo escluso, che può essere espresso come Pl(A) ∨ Pl(¬A) – ossia asserente la validità della proposizione che stabilisce che o è plausibile A o è plausibile ¬A. Il ricorso a tale principio permette di utilizzare, durante il processo d’inferenza plausibile, specifiche proprietà che esso implica. Ad esempio, poiché 38
Il vero e il plausibile dal principio del terzo escluso segue che ¬¬A→A, è lecito tentare di dimostrare la plausibilità di A cercano di dimostrare l’implausibilità di ¬A – ossia ¬Pl(¬A) → Pl(A). Come abbiamo visto (cfr. cap. 1, par. 3) già Aristotele utilizza questa assunzione. Il secondo e terzo caso danno luogo a teorie o sistemi d’inferenza in cui la credenza è rappresentata in modo bi-dimensionale, in quanto si sviluppa lungo due dimensioni. In questo caso l’incertezza relativa a una proposizione non è implicitamente contenuta nella sua credenza, e va dunque sempre esplicitata attraverso una coppia di valori: cr(A, ¬A). Le teorie bi-dimensionali, dunque, non preservano la proprietà della comparabilità universale e possono a loro volta essere a somma-uno (caso 2) oppure non a somma-uno (caso 3). La tabella 1 offre un prospetto riepilogativo del problema dell’allocazione della credenza globale di un agente a alla proposizione A.
a
A
¬A
Sistema d’inferenza
p
1–p
mono-dimensionale
p p
Ind. o q
bi-dimensionale, a somma-uno
(q ≤ 1 - p) q, (q ≥ 1 – p)
bi-dimensionale, non a somma-uno
Tabella 1: allocazione della credenza globale Queste credenze e le loro rispettive allocazioni possono essere sviluppate secondo sistemi di calcolo di diverse teorie, p. es. quella probabilistica, quella logica, quella della teoria dell’evidenza. Di conseguenza esse danno luogo a sviluppi diversi della plausibilità, che fanno riferimento a diverse concezioni, e che in alcuni casi, come vedremo, propongono e teorizzano una vera e propria riduzione della nozione di plausibilità a quella di probabilità. Una trattazione della nozione di plausibilità e lo sviluppo di una teoria sull’inferenza plausibile richiede pertanto un esame del rapporto che esiste tra le nozioni di plausibilità, credenza, probabilità, e delle loro differenze concettuali e funzionali. La possibilità di distinguere chiaramente ciò che è plausibile da ciò che è probabile o credibile è uno dei presupposti per uno sviluppo di una chiara teoria sul ragionamento plausibile e non a caso è un tema che ricorre spesso nelle trattazioni dell’inferenze plausibili.
39
La concezione probabilistica
Il vero e il plausibile
3 La concezione probabilistica 1. Le ragioni della concezione probabilistica La probabilità, nel senso del calcolo della probabilità, è uno dei principali candidati al trattamento formale della plausibilità, tanto che Walton sottolinea che «è una questione controversa se la plausibilità sia differente dalla probabilità, ed è difficile escludere completamente la possibilità che la plausibilità possa risolversi in un qualche caso speciale di probabilità» 1 . La teoria della probabilità rappresenta infatti uno strumento potente per assolvere ai principali compiti tradizionalmente attribuiti alla teoria della plausibilità – costruire e valutare ipotesi, argomenti e processi decisionali. La concezione probabilistica della plausibilità è caratterizzata dall’idea che la plausibilità sia una forma di ragionamento sotto condizioni d’incertezza che esprime e tratta la credenza e i suoi gradi, e che la probabilità sia uno strumento in grado di fornirne, in tal senso, una trattazione adeguata ed esauriente. A sostegno di questa ipotesi depone la natura stessa della nozione di probabilità: essa permette di modellare le credenze e le loro allocazioni e può essere oggetto di diverse interpretazioni che le consentono di riferirsi a un dominio vasto di fenomeni e di gestire diverse forme d’inferenza incerta. Per questi motivi le articolazioni storico-concettuali che condividono questa idea possono essere comprese, nonostante la loro diversità, sotto l’unica denominazione di concezione probabilistica. In questa prima parte del libro affronto tre sue significative ed esemplari articolazioni storico-concettuali. La prima è quella formulata da Polya (cfr. cap. 4), che usa la versione bayesiana della probabilità (cfr. cap. 3) per costruire una teoria del ragionamento plausibile volta a trattare e interpretare con gli strumenti probabilistici l’euristica, ossia modelli di giustificazione di conoscenze incerte. Essa rimane il momento più significativo e potenzialmente più ricco dell’approccio probabilistico ma va incontro a limiti insormontabili, che emergono in particolare con il problema dell’analogia (cfr. cap. 5). La seconda (cfr. cap. 6) è rappresentata dalla teoria di Dempster-Shafer (DS), che modifica alcune delle assunzioni caratteristiche del bayesianesimo (come l’allocazione monodimensionale e a somma-uno della credenza globale e la regola di combinazione dell’evidenza), al fine di 1
Walton 2001b, 149.
43
Capitolo3. La concezione probabilistica superarne i limiti interni e di offrire una trattazione più flessibile e realistica del ragionamento plausibile. Pur riuscendo in questo suo obiettivo la teoria va incontro ad altre difficoltà e sostiene un approccio alla plausibilità limitato e parziale. La terza è quella fornita dalla teoria di Dezert-Smarandache (cfr. cap. 7) che a sua volta modifica alcune delle assunzioni della teoria DSm (l’allocazione a somma-uno della credenza globale e la regola di combinazione) per superarne gli aspetti problematici. Pur riuscendo in questo obiettivo, anche questa va incontro a problemi e propone un approccio alla plausibilità limitata e parziale, che finisce per non coglierne l’essenza. 2. Il teorema di Cox La concezione probabilistica della plausibilità ricorre alla visione epistemologica della teoria della probabilità per costruire una teoria dell’inferenza plausibile. In questo senso, il risultato noto come teorema di Cox 2 offre una giustificazione precisa, ma anche piuttosto dibattuta, del legame che può essere istituito tra probabilità e plausibilità. Esso stabilisce in effetti, sotto certe condizioni, l’esistenza di una precisa relazione tra la nozione di plausibilità, Pl, intesa come ragionamento su gradi di credenza, e il calcolo della probabilità, Pr. In particolare, esso dimostra che qualsiasi sistema d’inferenze plausibili che non sia isomorfo alla teoria della probabilità debba violare almeno una delle cinque seguenti ragionevoli e intuitive condizioni: i) Pl(A|X) = 0 ↔ A è falsa in X; ii) Pl(A|X) = 1 ↔ A è vera in X; iii) 0 ≤ Pl(A|X) ≤ 1; iv) Pl(A∧B|X) = Pl(A|X) · Pl(B|X); v) Pl(¬A|X) = 1 - Pl(A|X). Pl(A|X) esprime la plausibilità di A rispetto ad X, ossia di una qualsiasi proposizione A rispetto a uno stato d’informazione X. Per stato d’informazione s’intende un riassunto delle informazioni disponibili circa un insieme di proposizioni atomiche A e della classe delle loro relazioni. Nel caso in cui il sistema in questione non violi alcuna delle suddette condizioni, si può sostituire senza perdita d’informazione alla nozione di plausibilità, Pl, il concetto di probabilità, Pr, e fare ricorso al sistema di calcolo di quest’ultima per trattare la plausibilità 3 . Il teorema è dun2
Cfr. Cox 1946, Halpern 1999a-b.
3
Cfr. Friedman - Halpern 1995.
44
Il vero e il plausibile que uno degli argomenti più forti cui si ricorre per giustificare l’uso di una distribuzione probabilistica per trattare sistemi di inferenza su gradi di credenze: in base al teorema, ogni misura ragionevole di credenza è isomorfa a misure probabilistiche. Se quindi si intende la plausibilità come espressione di una credenza e il ragionamento plausibile come calcolo di gradi di credenza, il teorema di Cox giustifica l’uso della teoria della probabilità come mezzo per modellare l’incertezza epistemica. Per inciso è opportuno sottolineare che per gradi di credenza si intende che si ha che fare con «proposizioni che non possono essere dimostrate vere o false in modo definitivo» 4 . Essi vanno dunque distinti dai gradi di verità, trattati dalla logica fuzzy, onde evitare «controversie non necessarie» 5 . Mentre i primi, come osservano Dubois e Prade 6 , sono indotti da stati d’incompletezza dell’informazione, i secondi si riferiscono a proprietà la cui soddisfazione è questione di gradi, ossia sono verità parziali che tuttavia non costituiscono una forma d’incertezza. Il «fallimento nella distinzione di questi concetti diversi ha condotto in passato a controversie inutili» 7 . Il teorema di Cox viene chiamato in causa per sostenere una grande varietà di conclusioni filosofiche, che vanno dalla giustificazione dell’approccio bayesiano a una tesi più radicale, secondo cui «la probabilità è l’unica rappresentazione coerente dell’incertezza» 8 . Il teorema è perciò considerato un argomento a favore della concezione probabilistica della plausibilità, in quanto sembra fornire una giustificazione dell’idea che un qualsiasi sistema su gradi di credenza possa essere espresso da una qualche distribuzione probabilistica e, più in generale, fornisce «una base teorica per usare la probabilità quale logica generale dell’inferenza plausibile» 9 . Tuttavia, come sottolinea Benaceraff 10 , quando si traggono conclusioni filosofiche da risultati matematici formali, si dovrebbe porre molta attenzione alle loro assunzioni. Vista la mole di conclusioni tratte dal teorema di Cox, le sue assunzioni vanno dunque valutate con la massima attenzione. Il modo migliore per fare chiarezza sulla portata e sulla validità di questo teorema è perciò quello di analizzare e discutere le assunzioni, implicite ed esplicite, sulle quali riposa. Solo dopo questa 4
Van Horn 2003, 2.
5
Ivi, 3.
6
Cfr. Dubois - Prade 1994.
7
Ivi, 4.
8
Colyvan 2004, 72
9
Van Horn 2003, 3
10
Cfr. Benaceraff 1996.
45
Capitolo3. La concezione probabilistica analisi è possibile dire se e in che senso il teorema è rilevante per una discussione della plausibilità intesa quale nozione deputata al trattamento dell’incertezza, come modello di ragionamento su gradi di credenza, o credibilità, posseduti da un agente razionale. 2.1. Plausibilità e teorema di Cox: alcuni limiti Il teorema di Cox è fondato su alcune assunzioni che sono alquanto controverse e fa appello, nel corso della sua dimostrazione, a principi che ne limitano fortemente la portata filosofica e metodologica. Innanzitutto esso ricorre all’assunzione della comparabilità universale, ossia alla possibilità di rappresentare la plausibilità attraverso un numero reale, e dunque di rendere comparabile la plausibilità di due proposizioni qualsiasi. Questa è un’assunzione tutt’altro che pacifica, che è stata messa apertamente in discussione: «infatti si può sostenere che questa sia la distinzione più fondamentale tra il bayesianesimo e altri approcci al ragionamento plausibile» 11 . Le teorie bidimensionali della plausibilità non preservano questa proprietà, anzi la mettono apertamente in discussione ed elaborano modelli inferenziali basati sulla sua violazione. Inoltre il teorema si basa sul principio della massimizzazione del valore probabilistico della proposizione P ∨ ¬P = 1 , che da un punto di vista logico equivale all’assunzione del principio del terzo escluso. Anche quest’assunzione è tutt’altro che pacifica: essa si limita a considerare le sole teorie a somma-uno, quando in realtà esistono situazioni (come le dissonanze cognitive) in cui più ipotesi plausibili concorrenti possono godere di valori di plausibilità complessivamente superiori all’unità. Perciò non solo «in domini in cui il principio del terzo escluso fallisce, l’applicabilità della teoria della probabilità può decisamente essere messa in discussione» 12 , ma ricorrendo al principio del terzo escluso il teorema di Cox assume implicitamente la logica proposizionale classica quale strumento inferenziale. Ciò lo rende dipendente dal dominio (i domini in cui tale principio viene appunto soddisfatto) e non può dunque porsi come una logica universale del ragionamento plausibile. Queste assunzioni delineano una concezione dell’incertezza, e conseguentemente del ragionamento plausibile deputato a trattarla, che è in grado di rendere conto solo di una classe molto ristretta di fenomeni in qualche modo incerti. Quindi
11
van Horn 2003, 7.
12
Ibid.
46
Il vero e il plausibile ciò che viene proposto non è una logica del ragionamento plausibile, simpliciter, ma abbiamo una logica del ragionamento plausibile che è difendibile solo quando non c’è fallimento referenziale, vaghezza o cose simili. Ora forse tutto ciò che alcuni commentatori hanno in mente è una logica del ragionamento plausibile dallo scopo limitato. Se è questo il caso, allora tale limitazione va sottolineata. Ma è chiaro che non tutti i contributi della letteratura sul teorema di Cox hanno un così modesto progetto in mente 13 .
Come vedremo, questa visione dallo scopo limitato del ragionamento plausibile è condivisa da molte teorie. Anzi, si può sostenere che molte teorie della plausibilità nascono dal tentativo di definire uno scopo limitato dell’inferenza plausibile e un ambito ristretto della nozione d’incertezza sulla quale articolare i modelli plausibili. In conclusione si può affermare che la portata del teorema di Cox è stata pertanto ampiamente sopravvalutata. Infatti, esso è semplicemente un teorema di rappresentazione che dimostra che se la credenza possiede la struttura assunta per la prova del teorema, allora la teoria classica della probabilità è un calcolo adeguato per rappresentare gradi di credenza. Ma così come è, esso certamente non legittima solo la teoria classica della probabilità quale mezzo per rappresentare le credenze, e non dimostra che tale rappresentazione sia adeguata per tutti i domini 14 .
Infatti, le concezioni non-probabilistiche della plausibilità, come la teoria di Rescher (cfr. cap. 9), violano espressamente alcune delle condizioni (i) – (v), dando così luogo a visioni della plausibilità volte a trattare situazioni d’incertezza rispetto alle quali il calcolo probabilistico si rivela inefficace (p. es. le dissonanze cognitive). 3. L’inferenza bayesiana L’origine e il nucleo teorico della concezione epistemologica della probabilità è rappresentata dall’inferenza bayesiana, la cui assoluta rilevanza per lo sviluppo di forme di inferenza incerte e plausibili è tale che essa emerge esplicitamente già nel corso della sua prima formulazione. In effetti, il teorema di Bayes pone una questione che «dovrebbe essere necessariamente presa in considerazione da chiunque voglia dare una chiara descrizione della forza del ragionamento analogico o indutti-
13
Colyvan 2004, 81.
14
Ivi, 82.
47
Capitolo3. La concezione probabilistica vo». 15 . Quindi il teorema di Bayes fornisce un mezzo per trattare due forme di inferenza tipiche del ragionamento plausibile. Esse non a caso sono al centro, come avremo modo di vedere, dell’analisi di uno degli approcci probabilistici fondati sulla visione bayesiana della plausibilità, quale quello sviluppato da Polya. Da un punto di vista formale il teorema di Bayes è una semplice conseguenza logica della definizione della probabilità condizionata, che è definita nel modo seguente: (PC) Pr(A) ·Pr( B | A) = Pr( B ) ·Pr( A | B) = Pr( A ∧ B) ,
Una classica rappresentazione del teorema di Bayes si ottiene dividendo entrambi i membri di (PC) per Pr(B): Pr(A | B ) =
Pr( B | A) · Pr( A) . Pr( B )
Pr(A) è nota come la probabilità precedente, nel senso che è precedente a qualsiasi informazione circa B (talvolta viene anche definita come la probabilità marginale); Pr(A|B) è nota come la probabilità posteriore di A dato B, nel senso che deriva ed è implicata dal valore di B; Pr(B|A) è nota come la funzione di probabilità per A dato un valore specifico di B; Pr(B) è la probabilità precedente o marginale di B, che è anche definita la costante di normalizzazione che può essere calcolata come la somma di tutte le ipotesi mutuamente esclusive. Esistono formulazioni alternative del teorema che hanno avuto notevole diffusione in letteratura. Una delle più note, la quale deriva da Pr( B ) = Pr(A ∧ B ) + Pr(AC ∧ B ) = Pr(B | A) · Pr(A) + Pr(B | AC ) · Pr(AC ), è la seguente: Pr( A|B ) =
Pr(B | A) · P(A) , Pr(B | A) · Pr(A) + Pr(B | AC ) · Pr(AC )
dove AC è il complemento di A. Questo risultato è il cardine della concezione bayesiana della probabilità, secondo la quale l’incertezza e i gradi di credenza possono essere espressi e misurati mediante assegnazioni probabilistiche. Il teorema di Bayes è naturalmente valido sia che si assuma una posizione di tipo frequentista, sia che si assuma una posizione soggettivista. L’unica differenza, come abbiamo avuto modo di sottolineare, riguarda l’interpretazione delle variabili A e B del teorema. Nel caso dei frequentisti esse si 15
Bayes 1763, 373.
48
Il vero e il plausibile riferiscono solo a eventi casuali per i quali esiste una relativa frequenza di occorrenza; nel caso dei soggettivisti esse possono anche riferirsi a eventi che non sono associati ad alcuna frequenza relativa. Pertanto i due approcci concorderanno, ad esempio, sul fatto di assegnare una probabilità del 50% alla proposizione ‘otterrò testa al lancio di una moneta’, ma solo i soggettivisti saranno disposti ad assegnare una probabilità dell’1% alla personale credenza nella proposizione che, diciamo, ci possa essere stata vita su Titano un miliardo d’anni fa, senza che questo implichi alcuna intenzione di asserire alcunché su una qualsiasi frequenza relativa. Pertanto il teorema è centrale per lo sviluppo di una teoria della plausibilità intesa come ragionamento su gradi di credenza, poiché permette di calcolare l’aggiustamento, o l’aggiornamento, di gradi di credenza alla luce di nuova informazione. In questo senso, la sua tipica rappresentazione è: Pr( H 0 |E ) =
Pr( E|H 0 ) · Pr( H 0 ) Pr( E )
dove H0 è l’ipotesi inizialmente sviluppata a partire da qualche precedente insieme di osservazioni, ed E la nuova informazione (evidenza). Un esempio paradigmatico per illustrare l’importanza di questo teorema rispetto alla teoria classica della probabilità è quello dei casi di falsa positività nei test medici. Si supponga di sottoporsi a un test medico. Esso rivela che si è affetti da una malattia che ha incidenza pari al 3% sulla popolazione; inoltre il test ha un’affidabilità pari all’82%, ma produce falsi positivi (ossia test con esito positivo anche quando la malattia non è presente) nel 5% dei casi. Qual è la probabilità che chi si è sottoposto a un test con esito positivo sia davvero affetto dal male? Una risposta che viene comunemente data è l’82%. Il teorema di Bayes mostra come tale risposta sia scorretta. Infatti, la probabilità di essere colpiti dal male viene calcolata nel modo seguente. Sia A la probabilità che la malattia sia presente nella persona, e sia B la probabilità che il test sia positivo, allora abbiamo che (in neretto vengono indicate le probabilità note dall’inizio): - Pr(A) = 0.03. Tale valore esprime la probabilità che la malattia sia presente in una persona; - Pr(¬A) = 0.97. Tale valore esprime la probabilità che la malattia non sia presente in nessuna particolare persona e segue dalle condizioni di mono-dimensionalità e di somma-uno; - Pr(B|A) = 0.82. 49
Capitolo3. La concezione probabilistica Tale valore esprime la probabilità che il test produca un risultato positivo, B, se la malattia è presente, A; - Pr(¬B|A) = 1 - 0.82 = 0.18. Tale valore esprime la probabilità che il test produca un risultato negativo, ¬B, se la malattia è presente, A, e segue dalla condizione di monodimensionalità e di somma-uno; - Pr(B|¬A) = 0.05. Tale valore esprime un ‘falso positivo’, ossia la probabilità che il test produca un risultato positivo, B, se la malattia non è presente, ¬A; - Pr(¬B|¬A) = 1 - 0.05 = 0.95. Tale valore esprime la probabilità che il test produca un risultato negativo, ¬B, se la malattia non è presente, ¬A. Da questi valori è quindi possibile procedere al computo delle seguenti probabilità: - Pr(B) = Pr(B|A) · Pr(A) + Pr(B|¬A) · Pr(¬A) = ((0.82 · 0.03) + (0.05 · 0.97)) = 0.0731. Tale valore esprime la probabilità che un test dia un risultato positivo, indipendentemente dal fatto che la malattia sia presente o meno. - Pr(¬B) = (Pr(¬B|A) · Pr(A)) + (Pr(¬B|¬A) · Pr(¬A)) = ((0.18 · 0.03) + (0.95 · 0.97)) = 0.9269 Tale valore esprime la probabilità che un test dia un risultato negativo, indipendentemente dal fatto che la malattia sia presente o meno. A partire da questi valori, mediante l’applicazione del teorema di Bayes, otteniamo i valori delle rimanenti probabilità condizionali: Pr( B | A) · Pr( A) 0.82 · 0.03 = = 0.336 . Pr( B) 0.0731 Tale valore esprime la probabilità che un test con un responso positivo sia davvero tale. Pr( B | ¬A) · Pr(¬A) 0.05 · 0.97 = = 0.663 . - Pr(¬A | B ) = Pr( B ) 0.0731 Tale valore esprime la probabilità che la malattia non sia presente se il risultato è positivo, ossia che un test sia un falso positivo. Pr(¬B | ¬A) · Pr(¬A) 0.05 · 0.97 = = 0.0523 . - Pr(¬A | ¬B ) = Pr(¬B ) 0.9269 Tale valore esprime la probabilità che la malattia sia assente se il risultato del test è negativo. Pr(¬B | A) · Pr( A) 0.18 · 0.03 = = 0.0058 . - Pr( A | ¬B ) = Pr(¬B ) 0.9269
- Pr( A | B ) =
50
Il vero e il plausibile Tale valore esprime la probabilità che la malattia sia presente se il risultato del test è negativo, ossia la probabilità che un test negativo si riveli un falso negativo. 4. Alcuni limiti della concezione bayesiana Il bayesianesimo è oggetto di così tante ricezioni che si può sostenere che «esistono tante forme di Bayesianesimo quanto sono i bayesiani» ma «l’idea base dietro la teoria della conferma è abbastanza semplice» 16 . Dato un insieme di proposizioni chiuso rispetto alle costanti logiche ∨, ∧, ¬, essa richiede semplicemente che: 1) un agente razionale possa allocare un unico grado di credenza a ogni proposizione; 2) i gradi di credenza siano modellati dagli assiomi della teoria della probabilità. Qualora sia possibile assegnare una quantità alle funzioni di probabilità si può definire la nozione di conferma e quella di grado di conferma mediante l’applicazione del teorema di Bayes. Un’evidenza e, ad esempio la verifica di una conseguenza, conferma un’ipotesi i, se e solo se Pr(i | e) > Pr(i ) , ossia se e solo se la probabilità di i dopo la prova di e è superiore a quella prima della prova: «in altre parole, la conferma è solo una dipendenza statistica positiva rispetto ai gradi di credenza precedenti la loro modifica alla luce di e» 17 . Il grado di conferma, quando una trattazione quantitativa è possibile, sarà semplicemente il risultato della differenza Pr(i | e) - Pr(i ). A partire dalla nozione bayesiana di conferma, si può quindi costruire la nozione di plausibilità: un’ipotesi i è plausibile quando gode di un certo grado di conferma bayesiano, ossia è rappresentabile come una credenza che soddisfa gli assiomi del calcolo probabilistico, ed è tanto più plausibile quanto più alto è il suo grado di conferma, la sua compatibilità (ossia l’accordo delle sue conseguenze) con la conoscenza esistente. Il bayesianesimo, tuttavia, è affetto da precisi limiti strutturali che limitano la sua applicabilità alla trattazione dell’inferenza plausibile 18 . Innanzitutto esso è in grado di trattare solo proposizioni singolari, e non ipotesi universali. Si consideri, infatti, un’ipotesi h e una assegnazione probabilistica su di essa Pr(h). L’approccio bayesiano è in grado 16
Kelly - Glymour 2003, 94.
17
Ibid. 18 Ringrazio il prof. Donald Gillies per alcune sue indicazioni su questo punto.
51
Capitolo3. La concezione probabilistica di trattare tale proposizione solo quando h ha una forma singolare. Esso è cioè in grado di assegnare un valore probabilistico solo quando, ad esempio, h ha la forma singolare ‘il prossimo corvo è nero’, ma non quando ha la forma universale ‘tutti i corvi sono neri’. In secondo luogo, tale concezione non è in grado di render conto in modo adeguato proprio del problema della conferma: le probabilità condizionate possono, infatti, presentare delle fluttuazioni tra valori alti e bassi ogni volta che l’evidenza si accumula e quindi un grado di conferma arbitrariamente alto non dice nulla circa quante fluttuazioni possano ancora esserci in futuro, o non è escluso che un metodo alternativo ne possa richiedere di meno. Esso è perciò semplicemente uno dei possibili metodi per aggiornare gradi di credenza sulla base di nuova evidenza. La teoria bayesiana è dunque uno dei possibili strumenti con cui si può tentare di giustificare un’ipotesi. Inoltre il bayesiano può sostenere solo la costruzione di una teoria della plausibilità quale studio della giustificazione della conoscenza, accogliendo tacitamente la distinzione temporale e logica tra contesto della scoperta e contesto della giustificazione. Il problema della scoperta di nuova conoscenza non la riguarda perché i suoi strumenti servono solo a valutare razionalmente quale grado di conferma possa avere una data ipotesi e non a indagare quali processi razionali sono messi in atto al momento della costruzione dell’ipotesi. Infine il bayesianesimo è un tipico esempio di sistema monodimensionale a somma-uno. Come tale esso permette di gestire sistemi e stati d’informazione dalle caratteristiche piuttosto precise e limitate, che possono sostenere solo una visione parziale della probabilità e, di conseguenza in questo caso, della plausibilità.
52
Il vero e il plausibile
4 La concezione di Polya 1. Premessa La concezione probabilistica della plausibilità trova una sua modellizzazione esemplare, sia nella formulazione del suo programma sia nelle sue criticità, nella teoria dell’inferenza plausibile sviluppata da Polya1 . L’analisi di Polya della nozione di plausibilità prende le mosse da una necessità di chiarezza che può essere considerata ancora legittima: infatti «il linguaggio ordinario usa le parole probabile, plausibile, possibile e credibile con significati che non sono chiaramente distinti. Ora, analizzeremo la parola probabile e impareremo a usare questa parola con un significato specifico, come un termine tecnico di una branca di una scienza che è chiamata Teoria della probabilità» 2 . A tal fine, Polya sviluppa un approccio alla nozione di plausibilità e all’inferenza plausibile direttamente ispirata alla concezione epistemologica della probabilità, fondata sul teorema di Bayes. Pertanto, come osserva già de Finetti, egli può essere legittimamente considerato come uno dei principali teorici dell’approccio probabilistico alla plausibilità, secondo cui «la logica del plausibile dovrebbe condursi a coincidere con la logica del probabile (calcolo delle probabilità) sia pure limitandosi – ove del caso – a considerare certe conclusioni qualitative ottenibili prescindendo dall’esatta determinazione numerica delle probabilità, pur di supporre note alcune disuguaglianze fra i loro valori» 3 . Polya concepisce la plausibilità come la nozione deputata a trattare l’incertezza che caratterizza situazioni nelle quali si è chiamati a formulare o valutare congetture o ipotesi: essa serve per affrontare i problemi propri dell’euristica e non della dimostrazione. Non solo dunque alla luce della sua teoria la nozione di plausibilità è esplicitabile e caratterizzata da una precisa relazione con la nozione di probabilità (cfr. par. 4), ma è dotata di una logica e di regole che possono essere espresse mediante modelli precisi (cfr. par. 2). Questi modelli, inoltre, trovano giustificazione proprio attraverso il calcolo probabilistico (cfr. 3).
1
Cfr. Polya 1954.
2
Polya 1954, II, 55.
3
De Finetti 1949, 235.
53
Capitolo 4. La concezione di Polya 2. I modelli d’inferenza plausibile Il ragionamento plausibile, secondo Polya, ha lo scopo di conferire alle congetture che si stanno indagando un maggiore o minore grado di credibilità e fiducia, di orientarsi razionalmente in situazioni d’incertezza mediante un confronto razionale con la conoscenza esistente. Inoltre l’inferenza plausibile si articola secondo modelli precisi e che possono essere esplicitati. L’esplicitazione di questi modelli rappresenta uno dei contributi più rilevanti di Polya allo sviluppo della teoria della plausibilità. A fondamento dell’approccio probabilistico egli pone innanzitutto il «modello induttivo fondamentale o, in qualche modo più brevemente, il modello induttivo» 4 . Esso asserisce la validità del seguente modello d’inferenza (1): A→B B è vera —————— A è più credibile Questo modello, pur «non dicendo nulla di sorprendente» 5 , formalizza una «credenza che nessuna persona ragionevole metterebbe in dubbio: la verifica di una conseguenza rende una congettura più credibile» 6 . L’argomentazione plausibile è caratterizzata da una serie di modelli che dipendono da un insieme di parametri. Infatti «la conclusione plausibile è comparabile a una forza che ha direzione e grandezza» 7 . In particolare questa conclusione ci spinge in una certa direzione: A diventa più credibile. Questa conclusione ha anche una certa grandezza: A diventa molto credibile oppure solo un poco più credibile. Tuttavia la conclusione non è pienamente espressa e non è pienamente supportata dalle premesse. La direzione è espressa ed è implicata dalle premesse, la forza no. […] La direzione è impersonale, la grandezza può essere personale 8 .
La teoria dell’inferenza plausibile viene definita e sviluppata in modo speculare e antitetico rispetto a quello propriamente dimostrativo. Ad esempio il modello induttivo fondamentale è l’analogo del modus tollens (A→B; B è falso; allora A è falso). La differenza è che «queste conclusioni sono su livelli logici differenti. La conclusione del modello 4
Polya 1954, II, 3.
5
Ivi, 5.
6
Ibid.
7
Ivi, 113.
8
Ivi, 114.
54
Il vero e il plausibile dimostrativo è sullo stesso livello delle premesse, ma la conclusione del modello plausibile è di natura diversa, meno chiara, meno compiutamente espressa» 9 . L’argomento dimostrativo, come ad esempio il sillogismo aristotelico, è contraddistinto da quattro proprietà: l’impersonalità, l’universalità, l’auto-sufficienza e la definitività. Esso, infatti: - non dipende dalla personalità di colui che compie il ragionamento; - non dipende da alcun dominio di conoscenza specifico; - non c’è «bisogno di nulla oltre le premesse per rendere valida la conclusione e nulla può invalidarla se le premesse rimangono solide» 10 ; - se le premesse sono certe la conclusione è definitiva. Tuttavia l’argomento plausibile soddisfa le prime tre proprietà, ma non la quarta – non è definitivo: esso produce dunque conclusioni che sono provvisorie e rivedibili. Il ragionamento plausibile non è dunque, in questo senso, soggettivo e psicologico: i modelli di ragionamenti sono impersonali, mentre la forza delle conclusioni è di natura soggettiva e non rappresentabile per mezzo di quantità. Oltre al modello fondamentale induttivo Polya individua altri principi del ragionamento plausibile, che in alcuni casi lo perfezionano e che hanno un corrispondente nella logica dimostrativa: (1.1)(a) A→Bn+1 B n+1 è molto diversa dalle conseguenze di A precedentemente verificate B1 , B2 , …, Bn Bn+1 è vera ————————————————— A è molto più credibile (1.1)(b) A→Bn+1 B n+1 è molto simile alle conseguenze di A precedentemente verificate B1 , B2 , …, Bn Bn+1 è vera ————————————————— A è molto più credibile B
B
B
B
B
B
B
B
Queste due forme complementari di inferenza plausibile, che concernono la successiva verifica di diverse conseguenze, formalizzano un altro principio di natura induttiva, secondo cui «la verifica di una nuova conseguenza conta di più o di meno a seconda se la nuova conse-
9
Ivi, 113.
10
Ivi, 112.
55
Capitolo 4. La concezione di Polya guenza differisce di più o di meno dalle conseguenze precedentemente verificate» 11 . (1.2)(a) A→B B è altamente improbabile —————————— A è molto più credibile (1.2) (b) A→B B è altamente probabile ——————————— A è solo un poco più credibile Queste due forme complementari di inferenza plausibile, che concernono la verifica di conseguenze più o meno probabili, formalizzano un altro principio induttivo, secondo cui «la verifica di una conseguenza conta di più o di meno a seconda se la conseguenza è più o meno probabile di per sé» 12 . (2) A è analogo a B B è vera —————— A è più credibile Questo modello, che formalizza l’inferenza per analogia, esprime il principio di inferenza plausibile per il quale «una congettura diventa più credibile quando una congettura analoga si rivela essere vera» 13 . L’inferenza analogica può inoltre assumere forme che Polya definisce deboli o nascoste. In particolare si ha: (2.1) A è analogo a B B è più credibile —————— A è più credibile Questo modello esprime il principio di inferenza plausibile per il quale «una congettura diventa in qualche modo più credibile quando una congettura analoga diventa più credibile» 14 . 11
Ivi, 7.
12
Ivi, 9.
13
Ivi, 10.
14
Ivi, 12.
56
Il vero e il plausibile (3) A→B B è falso ——————— A è meno credibile Questo modello, che valuta una possibile base – ossia una proposizione che implica la congettura in questione, – esprime il principio di inferenza plausibile per il quale «la nostra confidenza in una congettura può solo diminuire quando una possibile base della congettura viene refutata» 15 . (4) A è incompatibile con B B è falso —————————— A è più credibile Questo modello, che tratta il caso di congetture incompatibili o in conflitto – ossia in cui la verità dell’una implica la falsità dell’altra, – esprime il principio di inferenza plausibile per il quale «la nostra confidenza in una congettura può solo aumentare quando una congettura rivale incompatibile viene inficiata» 16 . (5)(a) A→B B è meno credibile ———————— A è meno credibile (5)(b) A→B B è più credibile ————————————— A è in qualche modo più credibile Questa coppia di modelli, che rappresenta una forma debole del principio fondamentale, esprime il principio di inferenza plausibile per il quale «la nostra confidenza in una congettura è influenzata dalla nostra confidenza in una delle sue conseguenze e varia nella stessa direzione» 17 . Esso è un altro esempio, insieme al principio 2.1, di modelli di ragionamento plausibile costruiti a partire dai modelli base che permet15
Ivi, 20.
16
Ibid.
17
Ivi, 25.
57
Capitolo 4. La concezione di Polya tono di produrre modelli più articolati, in particolare quelli che Polya definisce nascosti (shaded) in virtù «dell’indebolimento della seconda premessa: meno credibile al posto di falso; più credibile invece di vero» 18 . Polya osserva inoltre come sia possibile formalizzare forme deboli di ragionamento plausibile per tutti i modelli base. Ad esempio, il modello (4) – la valutazione di congetture conflittuali – ha la seguente forma debole: A è incompatibile con B B è meno credibile ——————————— A è in qualche modo più credibile Facendo ricorso a un’analogia giuridica, Polya assimila tutti questi modelli di ragionamento plausibile a «regole di ammissibilità nella discussione scientifica» 19 : non si è tenuti ad allocare alcun grado di credenza a una congettura quando, ad esempio, alcune delle sue conseguenze sono verificate, tuttavia se questa congettura viene discussa e valutata, allora è del tutto legittimo e ragionevole prendere in considerazione queste conseguenze. Tali modelli hanno così l’obiettivo di esplicitare come queste verifiche influenzano il peso dell’evidenza a favore o contro una congettura. Sono regole che sono dunque chiamate a stabilire quale tipo di evidenza merita di essere presa in considerazione e sono di natura impersonale, mentre è personale e soggettivo stabilire «se una particolare prova appena sottoposta abbia un peso sufficiente o meno» 20 . 3. Probabilità e modelli d’inferenza plausibile La probabilità si rivela il cuore, il nucleo teorico dell’approccio di Polya alla nozione di plausibilità: infatti, egli muove dichiaratamente dall’idea «di usare il calcolo della probabilità per rendere più precisa la nostra visione del ragionamento plausibile» 21 . I modelli di ragionamento plausibile esplicitati da Polya trovano giustificazione grazie alla teoria della probabilità, applicando «le regole del calcolo delle probabilità alle credibilità Pr(A), Pr(B), Pr(C)… interpretate come: frazioni positive che misurano gradi di confidenza di un 18
Ibid.
19
Ivi, 140.
20
Ivi, 141.
21
Ivi, 116.
58
Il vero e il plausibile individuo mitico o idealizzato» 22 . Il teorema di Bayes è il cardine di questa giustificazione, che è il fondamento della concezione di Polya della plausibilità 23 . Si prenda innanzitutto in considerazione il modello induttivo fondamentale. Esso si riferisce a una situazione in cui inizialmente una congettura A è chiaramente formulata ma della quale non si è in grado di dire se sia vera o falsa. Nel tentativo di stabilire se A sia vera o meno, viene osservata una certa conseguenza B (viene quindi soddisfatta la condizione A→B), di cui a sua volta non si sa se sia vera o falsa. Il calcolo delle probabilità permette di giustificare il modello induttivo fondamentale nel modo seguente. Si consideri Pr(A), Pr(B), Pr(A|B), ossia rispettivamente la credibilità di A, la credibilità di B e il grado di confidenza di A se B è vera. Per il teorema di Bayes abbiamo che la seguente relazione è valida: (1) Pr(A) · Pr(B|A) = Pr(B) · Pr(A|B). Poiché per ipotesi A→B è una condizione soddisfatta, si ha che Pr(B|A) = 1 e dunque sostituendo questo valore in (1) si ha: (2) Pr(A) = Pr(B) · Pr(A|B). Questa equazione formalizza il legame tra A e B, in quanto mostra come Pr(A) varia nella stessa direzione di Pr(B). Si supponga ora, al fine di trattare propriamente il modello induttivo, che si riesca a dimostrare che B, conseguenza di A, sia vera. Prima della prova di B, l’agente ideale ha un qualche grado di credibilità sia in B, espresso da Pr(B), sia in A, espresso da Pr(A), e può anche considerare di allocare un certo grado di confidenza in Pr(A|B), la credibilità di A dopo l’eventuale prova di B. Dopo la prova di B il valore Pr(B) assume ovviamente il valore massimo pari a uno. Dunque da (2) otteniamo il nuovo valore di credibilità di A dopo la prova di B, che è pari a: (3) Pr(A) = Pr(A|B). Assumendo che il valore di Pr(A|B) rimanga ovviamente inalterato, e osservando che 0 < Pr{B} < 1, da (2) segue che: (4) Pr(A) < Pr(A|B). Poiché Pr(A) e Pr(A|B) rappresentano rispettivamente il grado di credibilità di A prima e dopo la prova di B, la disuguaglianza (4) esprime formalmente in termini probabilistici il principio secondo cui la verifica 22
Ivi, 118.
23
Per un’interessante discussione del bayesianesimo di Polya cfr. Corfield 2003, cap. 5.
59
Capitolo 4. La concezione di Polya di una conseguenza rende una congettura più credibile. Essa fornisce dunque una giustificazione probabilistica del modello induttivo fondamentale. Ciò è ovviamente del tutto in linea con quanto asserito dall’inferenza bayesiana: proprio come implicato dal teorema di Bayes, si dimostra semplicemente come l’evidenza B conferma un’ipotesi A se solo se Pr(A | B) > Pr(A) . Similmente, avvalendosi di opportune rappresentazioni in termini probabilistici, si possono giustificare gli altri modelli d’inferenza plausibile descritti da Polya. Si consideri, ad esempio, il modello (4) – ossia l’esame di una congettura in conflitto. Il modello descrive la situazione in cui s’indagano due congetture conflittuali A e B, ossia due proposizioni incompatibili. Si supponga che nel corso dello studio della congettura A si passi, per motivi vari che non analizzerò in questa sede, a esaminare B, che viene ritenuta interessante poiché la sua verità implicherebbe la falsità di A. Si supponga inoltre che nel corso della ricerca si riesca a dimostrare la falsità di B. Come cambia la confidenza in A, ossia la sua plausibilità? Analizzando la situazione in termini probabilistici, poiché A e B non possono essere entrambe vere, abbiamo che Pr(AB) = 0. Attraverso l’applicazione di semplici proprietà della teoria della probabilità, otteniamo che: Pr(A) = Pr(AB) + Pr(A B ) = Pr(A B ) = Pr( B ) · Pr(A| B ) = (1 - Pr(B)) · Pr(A| B ), da cui si ottiene: Pr( A) Pr( A / B ) = , 1 − Pr( B ) che a sua volta implica la disuguaglianza: Pr (A| B ) > Pr(A). Ora, poiché Pr(A) e Pr(A| B ) rappresentano rispettivamente il grado di credibilità di A prima e dopo la confutazione di B (rappresentata probabilisticamente da B ), questa disuguaglianza asserisce semplicemente che la nostra confidenza in una congettura può solo aumentare quando una congettura rivale incompatibile viene confutata. Polya mostra in modo del tutto analogo come sia possibile fornire per tutti i modelli di ragionamento plausibile da lui rinvenuti una corrispondente giustificazione probabilistica, e, di conseguenza, come la teoria della probabilità possa essere legittimamente concepita come la logica del ragionamento plausibile. Tuttavia ciò non è possibile con i modelli 2 e 2.1, ossia quelli 60
Il vero e il plausibile relativi all’analogia. L’assenza di un’articolata trattazione e modellazione in termini probabilistici dell’analogia non è un caso (cfr. cap. 5). 4. Credibilità e plausibilità Mediante il teorema di Bayes Polya chiarisce un’altra relazione fondamentale all’interno della sua trattazione della plausibilità: quella tra la nozione di credibilità e di probabilità. In particolare tale distinzione riceve un trattamento del tutto simile a quello riservato alla plausibilità, in quanto essa può essere in ultima analisi interamente trattata in termini probabilistici. Infatti, sebbene «credibilità e probabilità siano definite in modo del tutto differente» 24 , la credibilità può essere concepita come una probabilità condizionata Pr(E|H) e quindi «avere un valore numerico, uguale alla probabilità che un evento del tipo predetto da E accadrà, computata sulla base dell’ipotesi statistica H» 25 . La probabilità, nella sua interpretazione epistemologica, funge così da fondamento sia per la nozione di credibilità sia per quella di plausibilità, conducendo a una sostanziale sovrapposizione dei due concetti: quando abbiamo a che fare con la plausibilità di una congettura A, abbiamo infatti a che fare con «l’attendibilità di questa congettura A, la forza dell’evidenza a favore di A, la nostra fiducia in A, il grado di credenza che dovremmo avere in A, in breve la credibilità della congettura A» 26 . E’ così ovviamente possibile procedere alla rappresentazione della credibilità in termini probabilistici, semplicemente riadattando il teorema di Bayes mediante la sostituzione della notazione della probabilità (Pr) con quella della credibilità (Cre). 5. I limiti dell’approccio di Polya L’approccio probabilistico di Polya delinea una teoria della plausibilità secondo cui: 1) la plausibilità è nozione deputata a trattare le forme di ragionamento euristico, per sua natura incerto, empirico, sperimentale, provvisorio; 2) un’ipotesi è plausibile quando è credibile, ossia quando le sue 24
Ivi, 129.
25
Ivi, 132.
26
Ivi, 116.
61
Capitolo 4. La concezione di Polya conseguenze si accordano con la conoscenza esistente o con altra conoscenza plausibile; 3) il suo ambito d’applicazione non si limita affatto a quello del discorso quotidiano, ma concerne la scienza in generale, spaziando dalla fisica sperimentale alla matematica. Infatti «matematici e fisici pensano in modo simile; essi sono guidati, e talvolta sviati, dagli stessi modelli di ragionamento plausibile» 27 ; 4) il ragionamento plausibile ha regole proprie e diverse – anche se simmetriche – da quella del ragionamento deduttivo, e una sua logica; 5) la logica del ragionamento plausibile può essere espressa e fondata probabilisticamente: la plausibilità si riduce in ultima analisi a un’opportuna versione e interpretazione (quella qualitativa ed epistemologica) del calcolo probabilistico. Di fatto, plausibilità e probabilità sono indistinguibili, in quanto la prima può essere ridotta alla seconda; 6) il ragionamento plausibile non è vincolato al rispetto della condizione metrica, ossia non è sempre possibile e necessario esprimere e confrontare numericamente la plausibilità di due diverse congetture. La questione se il concetto di probabilità, e i suoi modelli, siano in grado di rendere conto e cogliere la natura della logica del ragionamento plausibile è una questione dibattuta ancora oggi. La soluzione adottata da Polya, quella di fare ricorso alla teoria della conferma bayesiana per giustificare la sua concezione del ragionamento plausibile, è altrettanto opinabile e controversa. La concezione probabilistica elaborata da Polya risente infatti di tutte le assunzioni e le limitazioni proprie della concezione bayesiana. Innanzitutto la teoria della plausibilità di Polya concepisce la plausibilità come ragionamento su gradi di credenza che soddisfano gli assiomi del calcolo probabilistico, e si attiene al quadro classico trattando l’allocazione della credenza globale all’interno di una teoria mono-dimensionale e a somma-uno, escludendo così tutta una classe di fenomeni che pur contribuiscono a definire in modo essenziale l’ambito del ragionamento plausibile. Essa è dunque di natura riduzionista e arriva a trattare il ragionamento plausibile come una forma d’inferenza probabilistica. Inoltre esiste una frattura tra gli obiettivi programmatici e i risultati ottenuti dall’indagine di Polya. Se egli coglie infatti un nodo critico della teoria della plausibilità quando dichiara la necessità di distinguere plausibile da probabile e credibile e mettere ordine all’interno di una costellazione di concetti e termini tra loro affini e molto ambigui, non è possibile non rilevare, in ultima analisi, che 27
Polya 1959, 384.
62
Il vero e il plausibile filosofi come Russell hanno rimarcato come la probabilità matematica si applichi solo ad alcune istanze del ragionamento plausibile, ma le loro descrizioni dei ragionamenti plausibili non-probabilistici tendono a essere verbali e impressionistici, non formali. Anche George Polya si rivolge alla probabilità matematica quando ha tentato una descrizione formale piuttosto che impressionistica del ragionamento plausibile in matematica 28 .
Tuttavia, pur nei suoi limiti, l’approccio di Polya rimane non solo un esempio paradigmatico della concezione probabilistica della plausibilità, ma un momento saliente della costruzione di una teoria generale della plausibilità. Come vedremo in dettaglio, gli altri approcci probabilistici possono essere guardati come semplici varianti del nucleo della teoria di Polya della plausibilità (l’uso della teoria della probabilità): esse si sviluppano modificando e potenziando alcune delle assunzioni della teoria, come ad esempio la mono-dimensionalità o la regola di composizione, ma non arrivano a sovvertire l’orizzonte concettuale fissato dalla trattazione di Polya. Anzi, per molti versi la sua descrizione rimane la più ricca e feconda, come testimonia l’attenzione rivolta al ragionamento analogico e che è assente, e non a caso visto i problemi che comporta (cfr. cap. 5), nelle altre trattazioni della plausibilità (e non solo di carattere probabilistico). Tuttavia il limite principale della concezione di Polya rimane quello di aver colto l’importanza del ruolo della plausibilità nel processo di scoperta ma non aver esteso la propria indagine in questa direzione. Ovviamente ciò non è possibile da un’ottica essenzialmente probabilistica. Inoltre Polya si muove all’interno di una concezione del processo euristico che è quello fissato dall’impianto dell’empirismo logico per cui scoperta e giustificazione sono contesti ben distinti da un punto di vista logico e temporale e per il quale l’euristica, al massimo, può indagare razionalmente la teoria della conferma di una data ipotesi e non certo i processi che conducono alla sua scoperta. Tuttavia tale impianto, come avremo modo di vedere (cfr. cap. 5, par. 4) poggia su basi tutt’altro che solide. L’approccio di Polya può dunque essere considerato un’occasione mancata sia per superare una concezione probabilistica della plausibilità sia per estendere lo studio della plausibilità ai processi di scoperta scientifica (e quindi tentare di elaborare strumenti per trattarla razionalmente). L’occasione non sfruttata dallo stesso Polya è offerta da una tipica forma d’inferenza plausibile da lui indagata, quale l’analogia, non solo perché la sua interpretazione in termini probabilistici rappresenta un problema, ma soprattutto, come vedremo nel prossimo capito28
Shafer - Pearl 1990, 652.
63
Capitolo 4. La concezione di Polya lo, perché la sua natura è tale da aprire profondi problemi sia in seno alla teoria della plausibilità sia rispetto ad alcune questioni fondamentali della filosofia della scienza.
64
Il vero e il plausibile
5 Il problema dell’analogia 1. La natura duplice dell’analogia L’analogia è una forma d’inferenza dalle caratteristiche tali da porre un problema rilevante sia per la teoria della plausibilità sia per la filosofia della scienza e che ha profonde implicazioni metodologiche ed epistemologiche. Questo capitolo è dedicato all’analisi di questo problema e del suo ruolo all’interno della trattazione della plausibilità. Esso esamina le due principali concezioni dell’analogia (cfr. par. 2) e la relazione che esse istituiscono tra questa e la nozione di probabilità, mostrando come una sua interpretazione in termini probabilistici sia insostenibile (cfr. par. 3) e come una sua adeguata trattazione richieda lo sviluppo di una diversa nozione di plausibilità. A tale fine il capitolo analizza mediante alcuni esempi le principali caratteristiche dell’analogia e il suo ruolo nei processi sia di scoperta (cfr. par. 4) sia di giustificazione (cfr. par. 5), mostrando come la sua versione parallela motivi una refutazione della distinzione tra contesto della scoperta e della giustificazione (cfr. par. 6). Esso argomenta a favore di una concezione alternativa dell’analogia (cfr. par. 7), che rende giustizia della sua intrinseca complessità e ampiezza senza tralasciare i suoi limiti (cfr. par. 8). La rilevanza dell’analogia per lo studio della plausibilità è sottolineata da più parti. Ad esempio Polya attribuisce all’analogia un ruolo di particolare rilevanza, se non di preminenza, tra i modelli d’inferenza plausibile. Infatti «l’analogia e i casi particolari sono le fonti più abbondanti d’argomenti plausibili» 1 , e in particolare «l’inferenza per analogia sembra la forma d’inferenza plausibile più comune, e possibilmente è la più essenziale. Essa produce congetture più o meno plausibili che possono o non possono essere confermate dall’esperienza o da un ragionamento più rigoroso» 2 . In particolare l’analogia è concepita come una forma di similarità, nella fattispecie una «similarità a un livello più profondo e concettuale» 3 . Polya ne analizza molti esempi tratti dalla matematica, che è dunque considerata esplicitamente come uno dei grandi ambiti d’applicazione del ragionamento plausibile, al pari della fisica e delle scienze sperimentali.
1
Polya 1954, II, 168.
2
Polya 1957, 42.
3
Polya 1954, I, 13.
65
Capitolo 5. Il problema dell’analogia In tali domini l’analogia non solo è ovviamente un prezioso strumento didattico, ma anche un potente mezzo euristico: essa infatti «sembra aver un ruolo in tutte le scoperte, ma in alcune fa la parte del leone» 4 . Al contempo l’analogia funge da strumento di valutazione e giustificazione della conoscenza, in quanto permette di corroborare una conoscenza o un’ipotesi esplicativa. Essa ha pertanto una natura duplice 5 : può essere sia uno strumento per provare e giustificare ipotesi e conoscenze (p. es. nella dimostrazione automatica di teoremi o mediante modelli di conferma d’ipotesi come quelli esplicitati da Polya) sia un mezzo per ottenere nuova conoscenza (p. es. nei processi di generazione di ipotesi e congetture). Queste due caratteristiche sono tradizionalmente ascritte a due contesti considerati logicamente e temporalmente separati e indipendenti: il contesto della scoperta e il contesto della giustificazione. La natura duplice dell’analogia rappresenta la caratteristica più controversa e allo stesso tempo più feconda di questa tipica forma d’inferenza plausibile, che deriva da due sue proprietà fondamentali, quali l’ampliatività e la non-monotonicità. La prima riguarda la capacità di ampliare davvero la conoscenza mediante conclusioni che non sono incluse nelle premesse (cosa che non avviene nel caso dell’inferenza deduttiva 6 ). La seconda riguarda la sensibilità all’ingresso di nuova informazione, sulla base della quale conclusioni precedentemente ottenute possono essere modificate e anche invalidate. L’analogia è dunque una forma d’inferenza che dipende in modo essenziale dal contesto, ossia dall’insieme delle conoscenze esistenti e dei dati disponibili a partire dai quali viene costruita. Il problema fondamentale dell’analogia è quello sollevato da ogni forma di ragionamento volta a trattare l’incertezza: l’individuazione di criteri che consentano di specificare una base logica, ossia un insieme di ragioni, per ritenere fondate le conclusioni che candida. Nella fattispecie l’analogia pone il cosiddetto problema logico dell’analogia, in breve LPA, che consiste nel «trovare un criterio che, se soddisfatto da una particolare inferenza analogica, stabilisca in modo sufficiente la verità della conclusione proiettata sull’obiettivo» 7 : ossia individuare un criterio formale che sia in grado di giustificare l’inferenza candidata per analogia. 4
Ivi, 17.
5
Cfr. Ippoliti 2006.
6
Per un’analisi dettagliata dell’ampliatività dell’inferenza e delle sue implicazioni filoso-
fiche e metodologiche cfr. cap. 12 e cfr. Cellucci 2002, 166-169, e Cellucci 2006. 7 Davies 1988, 229.
66
Il vero e il plausibile 2. Le due principali concezioni dell’analogia La definizione dell’analogia rappresenta di per sé un problema. L’ortodossia prevalente 8 concorda nel ritenere l’analogia una forma di comparazione che permette di trasferire (transfer) una proprietà o informazione nota da un dominio d’origine sufficientemente conosciuto – la fonte – a un dominio di destinazione – l’obiettivo – almeno parzialmente non conosciuto, mediante una relazione d’associazione d’oggetti, di relazioni e proprietà tra fonte e obiettivo. L’ortodossia prevalente è caratterizzata da due principali concezioni dell’inferenza analogica: la concezione induttivista e la concezione strutturalista. Secondo la concezione induttivista, sostenuta ad esempio da Keynes 9 e dallo stesso Polya, l’analogia è una forma d’induzione, nella fattispecie un’induzione su attributi o proprietà. Essa è una forma di generalizzazione, al limite una generalizzazione a partire da un singolo caso, ottenuta dalla congiunzione di somiglianze materiali tra domini. Secondo la concezione strutturalista, sostenuta ad esempio da Weitzenfeld 10 , l’analogia è un processo d’associazione, o d’allineamento, tra relazioni causali di alto livello, ossia comprendenti anche relazioni tra relazioni, tra il dominio d’origine e quello di destinazione. Essa è idealmente una forma d’isomorfismo, che consente di estendere strutture e relazioni dalla fonte all’obiettivo. Pertanto pur concordando sulla rilevanza della similarità generale tra i domini ai fini del transfer analogico, le due concezioni si distinguono poiché la seconda è basata sulla corrispondenza tra relazioni (e non tra semplici attributi come la concezione induttivista), in particolare sul principio di sistematicità. Esso asserisce che un’analogia è buona, ossia è giustificata, se istituisce un’associazione tra relazioni d’alto grado molto strutturate, che di norma sono quelle causali. Inoltre entrambe le concezioni ritengono, anche se mediante strumenti diversi (come il grado di similarità o le strutture determinanti), di poter offrire una soluzione di LPA.
8
Cfr. Black 1962, e cfr. anche Hesse 1966, Melis - Veloso 1998.
9
Cfr. Kaynes 1921.
10
Cfr. Weitzenfeld 1984.
67
Capitolo 5. Il problema dell’analogia 3. Probabilità e analogia Il principale tentativo di risolvere LPA è quello che fa uso della teoria della probabilità, ossia quello che vuole dimostrare che le conclusioni candidate per via analogica ricevono un supporto probabilistico dalle loro premesse. La descrizione dell’analogia come una forma d’inferenza «ampliativa e probabile» 11 è infatti largamente condivisa, in quanto «gli argomenti analogici non devono essere classificati come validi o invalidi, in questi casi tutto ciò che si può richiedere è la probabilità» 12 . Questo tentativo di giustificazione dell’analogia è ovviamente centrale per la concezione probabilistica della plausibilità, perché l’analogia è una delle forme più rappresentative d’inferenza plausibile e fornirne una giustificazione in termini probabilistici significa dotare tale concezione di una base solida. Dunque proprio come mostra lo stesso approccio di Polya l’inferenza analogica pone una questione fondamentale per la concezione probabilistica della plausibilità e costituisce la chiave di volta della sua intera architettura. Tuttavia tale questione non solo non trova risposta, ma apre una vera e propria falla teorica. Già per i suoi modelli d’inferenza plausibile basati sull’analogia Polya non fornisce un’interpretazione in termini probabilistici e questa mancanza non è affatto casuale. A rigore non è affatto una mancanza: l’analogia richiede l’analisi di considerazioni materiali e dipendenti dal dominio e sfugge a un processo d’analisi e di riduzione alla teoria della probabilità. Infatti «né la teoria classica della probabilità né quella moderna sono state in grado di dare una descrizione soddisfacente e una giustificazione dell’inferenza per analogia» 13 . Ciò è dovuto a più di una ragione. In primo luogo l’analogia è un concetto qualitativo, perché, come sottolinea già Aristotele, è una forma di comparazione, mentre la probabilità è un concetto quantitativo, perché è basata sulla quantificazione e sull’enumerazione. Le ragioni che motivano un’inferenza analogica non sono e non possono essere di natura probabilistica. A rigore essa può avere una probabilità molto bassa, anche prossima allo zero, eppur essere giustificata e, viceversa, presentare una probabilità molto alta ed essere ingiustificata. L’affermazione che la natura del legame tra le premesse e la conclusione di un’analogia non può essere spiegata mediante la teoria della probabilità ha almeno due sensi. In primo luogo molte ipotesi formate per via analogica si basano su un numero limitato di osservazioni e si riferiscono a un numero molto 11
Weitzenfeld 1984, 1.
12
Copi 1961, 466.
13
Carnap 1950, 569-570.
68
Il vero e il plausibile vasto di casi, per cui il rapporto tra casi favorevoli e casi possibili è tale da conferire all’ipotesi una probabilità molto bassa o prossima allo zero. In secondo luogo molte inferenze analogiche si basano su un numero di dissimilarità (o analogie negative) tra i domini oggetti di transfer che supera di gran lunga quello delle similarità (o analogie positive) e quindi, di nuovo, il loro rapporto conferisce una probabilità molto bassa alla conclusione, anche se essa è motivata (ad esempio perché avviene su proprietà rilevanti). Al contrario, inferenze basate sul conforto di un numero molto alto di similarità tra i domini oggetti di comparazione (e quindi su un’alta probabilità) possono rivelarsi non solo non motivate, ma palesemente banali. Ma la logica e la teoria della probabilità non sono in grado di rendere conto della complessità e dell’essenza del processo d’inferenza analogica per un motivo preciso e profondo: una soluzione di LPA non può essere data poiché l’analogia, in quanto inferenza ampliativa, è soggetta al paradosso dell’inferenza 14 . Pertanto non è possibile avere un’analogia genuina che sia al contempo corretta e ampliativa 15 , ossia tale che le sue premesse conferiscano un qualche grado di certezza alla conclusione candidata e al contempo estenda davvero le nostre conoscenze. Il legame istituito tra premesse e conclusione da un’inferenza analogica non è dunque di natura probabilistica, ma è semplicemente plausibile in un senso che non è riconducibile alla probabilità. In particolare, l’analogia è plausibile nel senso che deve essere compatibile con i dati e la conoscenza esistente (cfr. cap. 12). Che l’inferenza candidata per via analogica non riceva affatto un sostegno probabilistico dalle sue premesse è avvalorato dal fatto che i criteri utilizzati per giustificare l’inferenza analogica non riescono ad assolvere questo compito se non banalizzandola e rendendo «la relazione analogica ridondante» 16 : a meno di concepire l’analogia come un vero e proprio isomorfismo tra strutture (e quindi ridurre il trasferimento analogico a una forma di deduzione) non esiste una giustificazione del salto analogico 17 . Il maggiore o minore grado di similarità (è in questo il senso in cui Polya intende l’analogia), la maggiore o minore rilevanza delle 14
Cfr. Cellucci 2002, 167-168.
15
Per una discussione approfondita della relazione tra correttezza ed ampliatività cfr. Cel-
lucci 2002, 165-169. 16 Juthe 2005, 1. 17
Almeno non in termini internalisti, ossia senza far riferimento alla realtà. Per maggiori
dettagli sull’impossibilità di una giustificazione di natura internalista dell’inferenza deduttiva e non deduttiva cfr. Cellucci 2006; per maggior dettagli sull’impossibilità di giustificare l’analogia mediante criteri di similarità, tipicità e determinazione cfr. Ippoliti 2006.
69
Capitolo 5. Il problema dell’analogia proprietà coinvolte nel transfer analogico, la presenza di strutture determinanti, in ultima analisi non rendono più o meno probabile un’analogia. Dunque non è possibile pensare di fondare probabilisticamente la plausibilità dell’inferenza analogica, sia intesa come mezzo per generare ipotesi, sia intesa come mezzo per giustificare un’ipotesi o una congettura. L’analogia è senza dubbio utile, fertile e feconda (anche se a lungo andare, come vedremo nel par. 8, può risultare un vero e proprio non senso e alimentare stalli teorici), ma non fornisce alle conclusioni che candida alcun sostegno probabilistico. Il tentativo di esprimere la plausibilità in termini di confidenza, e quindi di interpretare quest’ultima sulla base della teoria della probabilità, come fa Polya, non è dunque fondato. Da ciò segue che o si abbandona un approccio di natura probabilistica alla plausibilità o si rinuncia a considerare l’analogia una forma d’inferenza appartenente al dominio del ragionamento plausibile. La seconda opzione, che implica una opportuna ridefinizione della plausibilità e del suo dominio di applicazione, ha avuto un seguito tutt’altro che limitato. Essa risponde infatti a un tentativo teorico che caratterizza molte riflessioni sulla nozione di plausibile. Esso rinuncia a una prospettiva unitaria sulla teoria della plausibilità, circoscrivendo la propria trattazione a una visione molto precisa e ristretta di plausibilità, che è in ultima analisi indotta dagli strumenti concettuali e modellistici di cui si dispone piuttosto che rispondere all’esigenza di render conto dell’inferenza plausibile in tutta la sua estensione e complessità. 4. Analogia e scoperta L’analogia gioca un ruolo essenziale nei processi di scoperta scientifica in quanto strumento per generare ipotesi esplicative e congetture. Ciò vale anche per la matematica. Esiste in particolare un esempio di scoperta matematica mediante analogia che ha ricevuto grande attenzione 18 e «che non è del tutto elementare, ma è d’interesse storico e di gran lunga più bello di qualsiasi esempio molto elementare al quale si possa pensare » 19 . Questo esempio è la soluzione del matematico svizzero Eulero al problema di Mengoli 20 , che in termini moderni altro non è che la stima di ζ(2). Tale soluzione, ottenuta facendo ricorso a una doppia ana18
Cfr. Polya 1954, van Bendegem 2000, Bartha 2002, Corfield 2003, cap. 4.
19
Polya 1954, I, 17.
20
Esso è originariamente formulato dal matematico italiano Pietro Mengoli nella sua ope-
ra Novae quadraturae arithmeticae (1650).
70
Il vero e il plausibile logia, è fondata su un passaggio «audace e scorretto da un punto di vista logico» 21 . Essa, per ammissione dello stesso Eulero, si avvale di un procedimento che non era mai stato praticato prima e la cui attendibilità andava quindi verificata attraverso il confronto con la conoscenza esistente. La soluzione data da Eulero a questo vero e proprio rompicapo è particolarmente istruttiva. Il problema riguarda la determinazione del valore della sommatoria dell’inverso dei quadrati: (MP) 1 +
∞ 1 1 1 1 1 + + + ... + 2 = ∑ 2 = ? . 4 9 16 n n =1 n
Polya fornisce una ricostruzione piuttosto accurata dei passaggi che hanno portato Eulero a formulare la sua congettura, la quale viene riproposta grosso modo tale e quale nella letteratura sull’analogia 22 . Tuttavia tale ricostruzione trascura alcuni aspetti fondamentali dell’inferenza per analogia, i quali s’iscrivono in una concezione euristica dell’analogia (cfr. par. 7). Invece «per Polya, il metodo analitico è una tecnica euristica per trovare dimostrazioni all’interno di un sistema assiomatico dato» 23 e quindi la sua concezione dell’analogia è affetta da una visione assiomatica della matematica: «in effetti per Polya il vero metodo della matematica è il metodo assiomatico» 24 . Di seguito fornisco pertanto un’analisi del processo di soluzione di Eulero che si discosta da quelle proposte dalla letteratura sull’argomento e che non solo evidenzia il ruolo e la natura euristica dell’analogia, ma nella quale l’analogia è uno strumento d’ibridazione e non solo di trasferimento di proprietà. Questa soluzione consta di sei passi fondamentali. Passo 1 Al fine di risolvere il problema, Eulero cerca di ridurlo a un risultato noto analogo, ossia tale da soddisfare alcune delle condizioni di risolvibilità del problema ricavate dalla sua preliminare analisi. Quindi la domanda se il problema di Mengoli sia risolvibile o meno, è ridotta alla ricerca di tale risultato noto, o a una combinazione di risultati noti, tali da soddisfare le seguenti condizioni: (a) sia esprimibile come una serie infinita; 21
Polya 1954, I, 21.
22
Cfr. p es. Van Bendegem 2000, Bartha 2002, Corfield 2003.
23
Cellucci 2002, 181.
24
Ibid.
71
Capitolo 5. Il problema dell’analogia (b) sia rappresentabile come la somma: 1 1 1 1 + 2 + 2 + ... + 2 ; 2 x1 x2 x1 xn
(c) le variabili in (b) siano tali che x1=1, x2=2 , … , xn = 2n L’obiettivo del processo di soluzione del problema diventa la ricerca di una serie dal valore noto che sia in grado di soddisfare le condizioni (a) - (b) - (c). Pertanto (MP) è risolvibile se esiste una serie infinita (a) della forma (b) - (c) il cui valore sia noto. Passo 2 A questo punto l’interazione con il corpo di conoscenze esistente al tempo di Eulero (nella fattispecie l’algebra) permette di trovare un’equazione algebrica che soddisfa la proprietà (b) – istituendo un’analogia positiva, – ma non la proprietà (a) (non è una serie infinita) – fornendo un’analogia negativa. Tale equazione è: ⎛ 1 1 1 1 ⎞ (d) b1 = b0 ⎜ 2 + 2 + 2 + ... + 2 ⎟ x x x x n ⎠ 2 1 ⎝ 1
che deriva da: ⎛ x 2 ⎞⎛ x2 ⎞ ⎛ x2 ⎞ (e) b0 ⎜ 1 − 2 ⎟⎜ 1 − 2 ⎟ ... ⎜ 1 − 2 ⎟ ⎝ β1 ⎠⎝ β 2 ⎠ ⎝ β n ⎠
la quale, per b0≠0, esprime la relazione tra i coefficienti e le radici di un’equazione algebrica generica: (f) b0 – b1x2 + b2x4 - …+ (-1)n bnx2n+1, che ha la proprietà (g) di avere 2n radici β1, -β1, β2 , -β2 , … , βn , -βn. Passo 3 A questo punto Eulero compie il primo salto inferenziale: formula per analogia l’ipotesi (I) che una proprietà, ossia (d), che è valida per casi finiti valga anche per casi infiniti. Quindi il problema iniziale è ora ridotto alla ricerca di una funzione di tipo (d) che sia in grado di soddisfare le condizioni (f) - (g) - (c). Passo 4 Una nuova interazione con il corpo delle conoscenze esistente (in questo caso la trigonometria) permette a Eulero di individuare l’esistenza di una serie infinita di tipo (d) che può essere rappresentata come una 72
Il vero e il plausibile funzione di tipo (f) e dal valore noto. Essa è lo sviluppo in serie di potenze di sin(x) = 0, che è uguale a:
x x3 x3 x 7 − + − + ... = 0, 1 3! 5! 7! che possiede 2n+1 radici: 0, π , -π , 2π , -2π , … , nπ , - nπ. Passo 5 A questo punto è possibile trasformare lo sviluppo in serie di potenze di sin(x) in un’equazione algebrica infinita analoga a (b) semplicemente dividendo i due membri dell’equazione per x, ovvero per il fattore lineare – ossia 1 – che corrisponde alla radice 0:
sin x x2 x4 x6 = 1 − + − + ... . x 3! 5! 7! Otteniamo così un’equazione di tipo (f) con 2n radici π, -π, 2π, -2π, …, nπ, -nπ, che si accorda con la condizione (c). Passo 6 Infine, di nuovo per analogia, (ossia sulla base delle similarità riscontrate), Eulero compie un secondo salto inferenziale: ipotizza (II) che proprietà – quali (e) e (d) – che sono valide per equazioni algebriche, siano valide anche per equazioni non algebriche (nella fattispecie trigonometriche). Ciò gli permette di compiere il passaggio decisivo per la sin x soluzione del problema, rappresentando = 0 , in accordo con (e), x come il prodotto infinito: ⎛ x 2 ⎞⎛ x2 ⎞ ⎛ x2 (III) ⎜ 1 − 2 ⎟⎜ 1 − 2 ⎟ ⎜ 1 − 2 ⎝ π ⎠⎝ 4π ⎠ ⎝ 9π
⎞ ⎟ ... ⎠
ossia, in accordo con (d), 1 1 1 1 1 ... . = 2+ 2+ 2+ 3! π 4π 9π 16π 2
Da qui, semplicemente moltiplicando per π 2 entrambi i membri dell’uguaglianza, otteniamo il valore che risolve il problema iniziale (MP):
1 1 1 1 π2 π2 = 1 + + + + ... + 2 = . 4 9 16 3! 6 n
73
Capitolo 5. Il problema dell’analogia Ovviamente questa non può rappresentare tout court e in senso stretto la soluzione del problema di Mengoli, ed «Eulero lo sapeva bene» 25 . Il vaπ2 lore candidato è un valore plausibile supportato da una doppia infe6
renza analogica. Questa inferenza semplicemente mostra come dalle ipotesi (I) e (II) ricavate per via analogica segue la validità dell’asserzione:
1+
1 1 1 1 π2 + + + ... + 2 = . 4 9 16 6 n
La questione relativa alla validità delle ipotesi (I) e (II), e della loro estensione, costituisce a sua volta un altro problema da risolvere. Le due ipotesi analogiche candidano una soluzione del problema mediante inferenze che sono basate su passaggi audaci e scorretti. Infatti, «da un punto di vista strettamente logico, essa era apertamente una fallacia: egli (Eulero, NdA) aveva applicato una regola a un caso per il quale la regola non era stata fatta, una regola per equazioni algebriche a una equazione che algebrica non era. Da un punto di vista strettamente logico, il passaggio di Eulero non era giustificato» 26 . Per dimostrare la correttezza di tali ipotesi, è prima necessario dimostrare la correttezza del passaggio dal finito all’infinito nel caso delle somme (I), e quindi la correttezza del passaggio dall’algebra alla trigonometria (II). Tuttavia una tale dimostrazione non può ovviamente essere data in generale: le ipotesi (I) e (II) rappresentano salti inferenziali pericolosi, che possono facilmente condurre a contraddizioni. La loro validità può essere solo locale, circoscritta a casi particolari e sotto precise condizioni 27 . Inoltre l’analogia è qui usata non semplicemente come un mezzo di comparazione, ma come mezzo d’ibridazione 28 : ossia un processo che permette di trattare un oggetto in modo multivalente (cfr. par. 7). Per questo motivo già lo stesso Eulero cercò di fornire alla sua conclusione il maggior grado di plausibilità possibile con una sua valutazione condotta mediante alcuni dei modelli d’inferenza plausibile esplicitati da Polya. Il problema fondamentale dell’inferenza analogica, come abbiamo visto, è che sebbene essa sia un potente strumento per ampliare le conoscenze, in quanto «ragionamento che conduce a conoscenza circa l’obi25
Ivi, I, 20.
26
Ivi, 21.
27
Cfr. p. es. Hardy 1906 per un’analisi dei limiti della validità dell’ipotesi (I).
28
Cfr. Grosholz 2000, 81-91, e Cellucci 2002, 285-291.
74
Il vero e il plausibile ettivo che non è contenuta nelle premesse» 29 , tuttavia «nulla, neanche un incremento della probabilità, segue dalla mera similarità» 30 . Poiché il limite dell’analogia risiede nel fatto che essa non è in grado di offrire alcun supporto di natura probabilistica alle sue conclusioni, essa necessita di un sostegno di natura diversa, che può essere dato attraverso le regole del ragionamento plausibile esplicitate da Polya. Lo stesso Eulero, infatti, non «riesaminò le basi della sua congettura per il suo audace passaggio dal finito all’infinito; egli esaminò solo le sue conseguenze» 31 . In altre parole ne valutò la compatibilità con la conoscenza esistente. 5. Analogia e giustificazione Polya indica come Eulero possa aver tentato di stabilire la plausibilità dell’inferenza candidata attraverso la doppia analogia mediante un confronto delle conseguenze dell’ipotesi cruciale (III) con la conoscenza esistente. Tale ipotesi, come abbiamo visto, è la rappresentazione di sinx come: ⎛ x2 ⎞ ⎛ x2 ⎞ ⎛ x2 ⎞ sin x = x ⎜1 − 2 ⎟ ⎜1 − 2 ⎟ ⎜1 − 2 ⎟ ... ⎝ π ⎠ ⎝ 4π ⎠ ⎝ 9π ⎠
Polya offre alcuni possibili esempi che già lo steso Eulero avrebbe potuto utilizzare. Ad esempio: - La congettura si accorda con il risultato noto sin(-x) = - sinx? - La congettura si accorda con il risultato noto sin (x+π) = - sinx? ⎛ x⎞ ⎛ x⎞ - La congettura si accorda con il risultato sin x = 2sin ⎜ ⎟ cos ⎜ ⎟ ? ⎝2⎠ ⎝2⎠ È possibile mostrare non solo come la congettura di Eulero si accordi con i casi menzionati sopra, ma anche con molti altri risultati noti al tempo di Eulero 32 . Questo ovviamente non dimostra la validità della congettura, ma la rende plausibile, ne aumenta il grado di compatibilità con la conoscenza esistente. Un caso particolarmente rilevante d’indagine della congettura in questione è rappresentato da un’applicazione di un principio d’inferenza plausibile debole, nella fattispecie il modello 29
Weitzenfeld 1984, 137-138.
30
Ibid.
31
Polya 1954, I, 22.
32
Cfr. Polya 1954, I, 30-34.
75
Capitolo 5. Il problema dell’analogia 2.1. di Polya (quello relativo all’analogia), che porta Eulero a risolvere un altro rilevante problema matematico analogo, quale la serie di Leibniz: ∞ 1 1 1 1 1 1 = ∑ (−1) n (L) 1 − + − + − ... + (−1)n . 3 5 7 9 2n + 1 n = 0 2n + 1
Questa serie è simile a quella di Mengoli, in quanto entrambe sono sommatorie con addendi frazionari; quindi riuscire a rendere in qualche modo più credibile questa serie aumenta il grado di credibilità dell’ipotesi risolutrice della serie di Mengoli. In particolare, se l’ipotesi risolutrice del problema di Mengoli permette di candidare un valore per la serie di Leibniz e questo supera i test di confronto con la conoscenza esistente, ne segue un aumento del grado di credibilità dell’ipotesi stessa e della soluzione proposta. Per risolvere questo problema Eulero ricorre a un’inferenza del tutto simile a quella impiegata per risolvere il problema di Mengoli. Essa può essere scomposta in 5 passi fondamentali. Passo 1 Per risolvere il problema (L), Eulero cerca di ridurlo a un risultato analogo dal valore noto, che sia in grado di soddisfare alcune delle condizioni di risolvibilità del problema ricavate dalla sua preliminare analisi. Quindi la questione se la serie di Leibniz sia risolvibile o meno, viene ridotta alla ricerca di tale risultato noto, o di una combinazione di risultati noti, che condividano queste proprietà. Tali condizioni sono le seguenti: (a) sia esprimibile come una serie infinita; (b) tale serie sia rappresentabile nel modo seguente: 1 1 1 1 1 ; − + − + ... + ( − 1) n x 0 x1 x 2 x3 xn
(c) sia x0 = 1, x1 = 3, x2 = 5 , … , xn = 2n+1. Quindi l’obiettivo della ricerca è l’identificazione di una serie dal valore noto che sia in grado di soddisfare le condizioni (a) - (b) - (c). Passo 2 L’interazione con il corpo delle conoscenze esistenti al tempo di Eulero (nella fattispecie l’Algebra) consente di trovare l’esistenza di una equazione algebrica che soddisfa la proprietà (b) – analogia positiva, – ma non la proprietà (a) (non è una serie infinita) – analogia negativa. Tale equazione è: 76
Il vero e il plausibile (d)
b1 1 1 1 =− + − ... − 2b0 β1 β 2 βn
che si ricava da: 2
2
⎛ x⎞ ⎛ x ⎞ ⎛ x ⎞ (e) b0 ⎜1 − ⎟ ⎜ 1 − ⎟ ... ⎜1 − ⎟ ⎝ β1 ⎠ ⎝ β 2 ⎠ ⎝ β n ⎠
2
che, per b0≠0, rappresenta la relazione che intercorre tra i coefficienti e le radici di una generica equazione algebrica: (f) b0 – b1x + b2x3 - …+ (-1)n bnx2n+1 che ha la proprietà (g) di avere 2n radici β1, -β1, β2 , -β2 , … , βn , -βn. Passo 3 A questo punto è possibile compiere un primo salto inferenziale. Infatti, Eulero formula per analogia la congettura (I): una proprietà, (d), che vale per casi finiti vale anche per casi infiniti. Quindi il problema iniziale (L) è ridotto alla ricerca di una serie di tipo (d) che sia in grado di soddisfare le condizioni (f) - (g) - (c). Passo 4 Una nuova interazione con il corpo della conoscenza esistente (la trigonometria) permette di individuare l’esistenza di una serie infinita, (d), che può essere espressa nella forma (f):
1 − sin x = 0 = 1 −
x x3 x5 x 2 n +1 + − + ... + (−1)n , 1! 3! 5! (2n + 1)!
che ha 2n radici (g):
π π
3 3 5 5 2n + 1 2n + 1 , , − π , − π , π , π ,..., π, π. 2 2 2 2 2 2 2 2
Passo 5 A questo punto Eulero può compiere un secondo salto e formulare sulla base delle similarità riscontrate la congettura (II) che proprietà – nella fattispecie (e) e (d) – che valgono per equazioni algebriche, valgano anche per equazioni non algebriche (trigonometriche). Quindi è possibile ora rappresentare 1 - sin x = 0, in base a (e), come un prodotto infinito: 2
2
2
2x ⎞ ⎛ 2x ⎞ ⎛ 2x ⎞ ⎛ ⎜ 1 − π ⎟ ⎜ 1 + 3π ⎟ ⎜ 1 − 5π ⎟ ... ⎝ ⎠ ⎝ ⎠ ⎝ ⎠
77
Capitolo 5. Il problema dell’analogia dal quale, comparando i coefficienti di x in entrambe le parti, segue che: −1 = −
4
π
+
4 4 4 ... − + 3π 5π 7π
e dunque, semplificando, otteniamo la soluzione di (L):
π
1 1 1 1 1 = 1 − + − + − ... . 4 3 5 7 9 11
La congettura prodotta da questa linea di ragionamento rivela dunque che il ponte analogico istituito tra algebra e geometria non è affatto occasionale e che può essere fecondo per affrontare una classe di problemi analoghi. Quindi uno degli aspetti più interessanti dell’analisi di Polya dell’analogia è che essa svolge un ruolo essenziale sia nel processo di scoperta sia nel processo di giustificazione di un’ipotesi. Nel processo di giustificazione, in particolare, essa serve a incrementare la fiducia e la credibilità dell’ipotesi che può a sua volta essere stata generata per via analogica. 6. Analogia e ragionamento parallelo L’inferenza analogica presenta un’ulteriore caratteristica particolarmente interessante che ha ripercussioni profonde sulla metodologia scientifica e su alcuni cardini della filosofia della scienza tradizionale. Essa è infatti essenzialmente una forma di ragionamento parallelo: il processo inferenziale cui dà luogo si può articolare sulla base di una molteplicità di fonti, ossia mediante «analogie in cui più di una fonte analoga è usata per ragionare su un obiettivo analogo» 33 , in virtù del fatto che «una conclusione analogica da molti casi paralleli è più forte di una da pochi casi» 34 , o da uno solo. Infatti l’analogia singola è «il più semplice o almeno più comune caso di ragionamento analogico» 35 , che rappresenta «il principale soggetto delle attuali teorie cognitive e modelli computazionali del ragionamento analogico» 36 . La versione classica dell’analogia è pertanto solo un caso particolare dell’analogia per ragionamento
33
Shelley 2003, 3.
34
Polya 1957, 43.
35
Shelley 1999, 144.
36
Ibid.
78
Il vero e il plausibile parallelo, quella in cui una sola fonte è utilizzata nel processo inferenziale. Il ragionamento parallelo è una forma di ragionamento in cui più entità o processi inferenziali concorrono alla produzione di conclusioni o risultati su un dato problema o task, i quali sono poi unificati in un'unica conclusione o risultato. Nel caso dell’analogia per ragionamento parallelo, più fonti possono essere utilizzate sia sincronicamente sia asincronicamente nel processo inferenziale e i loro risultati sono unificati in un'unica conclusione. Il processo d’unificazione è un processo di composizione delle varie conclusioni candidate, e quindi non è affatto automatico e aproblematico. Le conclusioni candidate dalle singole fonti analoghe possono infatti essere parzialmente o anche totalmente in disaccordo: ciò richiede l’avvio di un processo di cooperazione e negoziazione sia tra le fonti sia tra le varie conclusioni candidate. Questo procedimento può implicare la revisione o lo scarto di una conclusione candidata a partire da una data fonte, o un indebolimento dalla conclusione finale. Ad esempio una conclusione per analogia da più fonti può assumere una forma disgiuntiva, in cui i vari disgiunti sono le conclusioni candidate da più o anche tutte le fonti impiegate 37 . Una forma esemplare d’analogia per ragionamento parallelo è l’analogia multipla 38 . Essa non è una semplice concatenazione d’analogie singole «nel senso che solo una fonte analogica è usata nella comparazione» 39 , ma è una comparazione in cui più fonti, contemporaneamente, interagiscono in modo strutturato a candidare la conclusione per l’obiettivo analogo. Ciò significa che la quantità di fonti disponibili non è tutto per l’analogia multipla: anzi «la qualità è ancora più importante, qui, della quantità. Analogie dal taglio chiaro hanno un peso maggiore di vaghe similarità, istanze assemblate sistematicamente contano di più di collezioni casuali di casi» 40 . L’analogia multipla mostra in modo esemplare come questa forma d’inferenza plausibile possa essere contemporaneamente sia uno strumento di scoperta sia uno strumento di giustificazione. In alcuni processi d’inferenza per analogia multipla infatti «la stessa analogia può servire entrambi gli scopi» 41 . Come osserva Shelley 42 , esistono esempi di 37
Cfr. p. es. Talaly 1987.
38
Cfr. Shelley 1999, 2002a, 2002b, 2003.
39
Shelley 2003, 4
40
Polya 1957, 43.
41
Shelley 2003, 86
42
Cfr. Shelley 2003, par. 4.3.
79
Capitolo 5. Il problema dell’analogia scoperte scientifiche in cui l’analogia multipla interviene sia nel processo di generazione dell’ipotesi, sia nel processo di conferma dell’ipotesi generata. In particolare in questi casi la stessa analogia è sia strumento di generazione dell’ipotesi sia strumento di conferma della stessa. Pertanto se il compito dell’analogia è quella di fornire credibilità all’ipotesi candidata, nel senso che essa «misura quanto probabile è che qualsiasi successiva fonte analoga che aderisce al target sosterrà la stessa conclusione sostenuta dalle precedenti fonti» 43 , e si accetta questa pratica come legittima, segue che la distinzione dell’empirismo logico «di scoperta e giustificazione quali fasi indipendenti della ricerca deve essere abbandonata» 44 . Quindi non solo l'inferenza analogica, soprattutto nella sua versione multipla, non fornisce alcun sostegno probabilistico alla conclusione che candida, sia che essa intervenga nella fase della scoperta sia nella fase della giustificazione, ma inficia questa stessa distinzione. L’analogia per ragionamento parallelo fa così giustizia di questa «rappresentazione distorta» 45 e mostra come «la scoperta non si colloca in una prima fase della ricerca matematica a cui poi ne fa seguito un’altra, quella della giustificazione, ma copre l’intero suo arco» 46 . La scoperta non è infatti un processo casuale, ma è la generazione di ipotesi plausibili cioè compatibili con la conoscenza esistente, e «per vedere se le ipotesi sono compatibili con la conoscenza esistente si devono esaminare le ragioni pro e contro di esse» 47 . Ora «questo esame viene condotto basandosi su fatti che avvalorano le ipotesi o le screditano. Di conseguenza i processi attinenti alla scoperta sono inseparabili da quelli attinenti alla giustificazione» 48 . Pertanto una teoria che aspira a elaborare una prospettiva unitaria sull’inferenza plausibile non solo deve rinunciare al tentativo di renderne conto solo in termini probabilistici, ma deve poter trattare tanto il processo di giustificazione quanto quello di scoperta guardano loro non come a due momenti distinti e separati, ma inscindibili e facenti parte dello stesso processo conoscitivo.
43
Ivi, 29.
44
Ivi, 134.
45
Cellucci 2002, 147.
46
Ivi, 146.
47
Ibid.
48
Ibid.
80
Il vero e il plausibile 7. La concezione euristica dell’analogia La soluzione di Eulero del problema di Mengoli e quella della serie di Leibniz sono ottenute facendo un uso dell’analogia che si accorda con una concezione alternativa a quella induttivista e strutturalista, nella fattispecie la concezione euristica. La concezione induttivista e la concezione strutturalista non sono infatti in grado di render conto dell’ampiezza e complessità del processo d’inferenza analogica. La concezione euristica invece tratta l’analogia da un punto di vista completamente nuovo e diverso, che abbandona istanze fondazionaliste, ossia volte a rintracciare le basi della certezza del processo analogico, e riconosce il paradosso dell’inferenza come costituivo della teoria dell’analogia. Essa non risolve pertanto la tensione tra correttezza e ampliatività, base della fertilità e fecondità dell’analogia, ma la pone a fondamento di una trattazione che renda giustizia del processo d’inferenza analogica. Da ciò segue che il compito di una riflessione sull’analogia non è la soluzione di LPA (che per altro non può essere data), ma lo sviluppo e il raffinamento di metodi per la soluzione di problemi, ossia di strumenti per generare ipotesi esplicative e congetture. Secondo la concezione euristica l’analogia opera all’interno del metodo analitico, in particolare nella versione (revisione) data da Cellucci 49 , e secondo le dinamiche proprie dei sistemi concettuali aperti 50 , che le conferiscono «superiori capacità inferenziali» 51 . Innanzitutto il metodo analitico è lo strumento mediante cui analizzare il problema dato, individuandone le condizioni della sua risolubilità. Esse hanno l’effetto di ridurlo a un nuovo problema. Una volta che la riduzione è stata operata, si apre il processo di ricerca di ipotesi e congetture per risolverlo: il metodo analitico infatti non offre di per sé un metodo per trovare le ipotesi. Tale processo, che procede dal basso verso l’alto (dal problema alle ipotesi), si articola secondo i caratteri propri dei sistemi concettuali aperti 52 e si avvale di inferenze non-deduttive e di un procedimento per tentativi ed errori. L’analogia risponde a questa esigenza, in quanto è un’inferenza ampliativa che fornisce un metodo (non algoritmico) per generare ipotesi che si accordano con le condizioni di risolubilità e la conoscenza esistente in un sistema concettuale aperto.
49
Cfr. Cellucci 1998 e 2002.
50
Cfr. Cellucci 1998, 309-346.
51
Cellucci 1998, 340.
52
Cfr. Cellucci 1998, 299-304 e 339-346.
81
Capitolo 5. Il problema dell’analogia La soluzione di Eulero al problema di Mengoli presenta caratteri che sono in accordo con questo processo. In particolare, nonostante non sia possibile ricostruire l’intero processo per tentativi ed errori che ha condotto il matematico svizzero alla formulazione delle ipotesi (I) e (II), la struttura della sua soluzione è tale da rispondere a pieno alla concezione euristica dell’analogia. Infatti: - «all’inizio è dato solo il problema da risolvere» 53 , ossia il problema di Mengoli, e il processo di soluzione si svolge dal basso verso l’alto, dal problema alle ipotesi; - il metodo analitico individua le condizioni di risolubilità del problema iniziale. In particolare esso lo riduce a un altro problema, nel senso che «non mira a stabilire definitivamente la risolubilità di un problema, ma solo di ridurlo a un’ipotesi» 54 . Nella fattispecie il problema di Mengoli viene ridotto all’ipotesi (III) – ossia la rappresentazione di sin x come un prodotto infinito, – mediante la ricerca di un risultato noto che soddisfi le condizioni (a) - (b) - (c); - le ipotesi vengono trovate mediante inferenze non-deduttive, come l’analogia e l’induzione, e per tentativi ed errori. Esse ovviamente non sono necessariamente corrette, ma «una volta assunte, si vede se conducono a una soluzione del problema» 55 . Infatti l’analogia, mediante una multipla interazione con il corpo di conoscenze esistenti (i.e. l’algebra e la trigonometria), consente di produrre ipotesi, (I) - (II) - (III), che soddisfano alcune delle condizioni di risolubilità e conducono a una soluzione, ma che non sono corrette come riconosce già lo stesso Eulero; - «le ipotesi sono introdotte tramite l’interazione con altri sistemi, che quindi è essenziale per la soluzione di problemi» 56 . Il sistema iniziale fa appello ad altri sistemi presenti nell’ambiente (nella fattispecie l’algebra e la trigonometria) per aumentare la propria informazione. L’informazione aggiuntiva può consistere in risultati (lemmi) o ipotesi. Ciò conferisce al metodo analitico superiori capacità inferenziali perché non deve far appello nel corso della soluzione solo alle informazioni del sistema cui appartiene il problema iniziale. - la rappresentazione anche formale del problema è essenziale per la sua soluzione perché l’analogia, quale strumento d’interazione tra i vari sistemi presenti nell’ambiente, è sensibile alla rappresentazione. Anche se due enunciati sono matematicamente o logicamente equivalenti, il semplice fatto di scegliere una rappresentazione piuttosto che un’altra 53
Cellucci 2002, 204.
54
Cellucci 1998, 299.
55
Ivi, 301.
56
Cellucci 2002, 204.
82
Il vero e il plausibile può rivelarsi decisivo nei processi di problem-solving o di scoperta: essa può infatti consentire, attraverso analogie, interazioni con sistemi di conoscenze che altrimenti rimarrebbero inibite. Ad esempio Feynman sottolinea che rappresentazioni distinte della stessa legge fisica, benché identiche da un punto di vista logico, possono innescare immagini mentali diverse e permettere nuove scoperte 57 . Nel caso della soluzione di Eulero le analogie, innescando una serie di equivalenze altrimenti non istituibili, consentono quel cambio di rappresentazione di sinx come un prodotto infinito il quale permette di candidare una soluzione che altrimenti sarebbe rimasta inaccessibile. - le ipotesi formulate sono «condizioni per risolvere problemi specifici, non tutti i problemi» 58 . Infatti le ipotesi (I) e (II) sono adeguate a trattare e risolvere solo problemi specifici, della forma 59 di quello di Mengoli e della serie di Leibniz; - l’ordine d’introduzione delle ipotesi è utile e in alcuni casi decisivo per la soluzione del problema perché «due soluzioni possono essere differenti anche quando usano le stesse ipotesi ma in ordine differente» 60 . Infatti l’ordine delle ipotesi (I) e (II) è utile ed essenziale per la soluzione del problema di Mengoli. E’ utile poiché l’ipotesi (I) estende la ricerca di risultati noti alle somme infinite, l’ipotesi (II) concentra tale ricerca all’interno delle somme trigonometriche. E’ decisivo perché l’ordine inverso non produce lo stesso risultato: non è possibile iniziare la ricerca all’interno delle somme trigonometriche se prima non si è ipotizzato che le somme infinite godano di (alcune) proprietà delle somme finite; - l’analogia non è semplicemente una comparazione, ma uno strumento d’ibridazione. Infatti mediante essa Eulero riesce a trattare a ogni passo del processo di ricerca della soluzione la serie di Mengoli, ossia un oggetto aritmetico, allo stesso tempo come un oggetto sia algebrico sia trigonometrico. Sebbene l’analogia sia esplicitamente imperfetta, essa non fuorvia Eulero poiché tenendo ben presenti le differenze tra oggetto trigonometrico e oggetto algebrico, egli può arrivare alla formulazione della sua ipotesi risolutrice. Inoltre l’ibrido generato dalle due analogie, l’ipotesi (III), assume un ruolo cruciale per la crescita della conoscenza: infatti esso permette di risolvere altri problemi, come la serie di Leibniz; - le ipotesi devono accordarsi con la conoscenza esistente e «il processo attraverso cui si vagliano le ipotesi comporta uno scambio interat57
Cfr. Feynman 1967.
58
Cellucci 1998, 300.
59
ossia che rispetta le condizioni (a) – (b) – (c).
60
Cellucci 1998, 301.
83
Capitolo 5. Il problema dell’analogia tivo con la conoscenza esistente» 61 . Infatti innanzitutto l’ipotesi (III) è adeguata, ossia permette di risolvere il problema di Mengoli. Tuttavia ciò non è sufficiente: infatti «un’ipotesi può permettere di risolvere un problema pur essendo falsa, anzi proprio perché è falsa. Per evitare che ciò accada, si deve confrontare l’ipotesi con la conoscenza esistente e verificare che si accordi con essa» 62 . In particolare l’ipotesi (III) si accorda sia con la conoscenza esistente al tempo di Eulero sia con quella successiva (cfr. par. 7). Inoltre l’analogia interviene nuovamente nel processo di valutazione, ossia nel confronto con la conoscenza esistente, quando la plausibilità della stessa viene valutata tentando di utilizzarla per risolvere, con successo, un problema analogo (la serie di Leibniz); - ogni ipotesi è fondata su altre ipotesi e non esistono ipotesi ultime, e dunque il processo di soluzione di un problema è perpetuo e potenzialmente infinito. Infatti l’ipotesi (III) dipende dalle ipotesi (I) e (II), che a loro volta dipendono da altre ipotesi e così via potenzialmente all’infinito; di conseguenza «il processo attraverso cui le ipotesi vengono fondate su altre ipotesi può essere interrotto temporaneamente, prendendo le ipotesi esistenti in un dato istante come base per la soluzione del problema» 63 . La concezione euristica fornisce pertanto una trattazione dell’analogia che rende giustizia della sua intrinseca complessità e ampiezza. Tale concezione, riconoscendo come costitutivo dell’analogia il paradosso dell’inferenza, rinuncia alla ricerca della soluzione di LPA e si concentra sullo studio del ruolo euristico dell’analogia. Inoltre essa riconosce come la separazione tra contesto della scoperta e contesto della giustificazione sia insostenibile e in ultima analisi inutile, e analizza come l’analogia (intesa non solo come ricerca di ulteriori fonti analoghe, ma come soluzione di problemi analoghi) intervenga, soprattutto nella sua versione parallela, sia nella costruzione sia nella valutazione di argomenti e ipotesi. 8. I limiti dell’analogia Se da una parte l’analogia è così utile, feconda e fertile, che «l’ubiquità e la fruttuosità dell’analogia nella formazione d’ipotesi è così ovvia che difficilmente necessita di essere sottolineata» 64 , dall’altra esse è perico61
Ivi, 302.
62
Ivi, 301.
63
Ivi, 303.
64
Bunge 1967, 265.
84
Il vero e il plausibile losa 65 e soffre di chiari limiti strutturali 66 , che devono spingerci ogni volta a «maneggiarla con attenzione» 67 . Essi sono sia di carattere esterno (ossia legati ai domini comparati nel transfer analogico), sia, soprattutto, di carattere interno (ossia legati al processo stesso d’inferenza analogica). Innanzitutto l’analogia dipende dal contesto (la conoscenza esistente), e quindi non è possibile sapere in modo conclusivo se sia buona o cattiva, ossia se possano sopraggiungere condizioni che inibiscano o favoriscano la costruzione di argomenti analogici. L’evoluzione del contesto, ad esempio della conoscenza e dei risultati noti su due sistemi di conoscenza a un dato istante, potrebbe autorizzare inferenze analogiche che precedentemente non erano possibili, o viceversa. Ciò rappresenta una ricchezza, ma anche un preciso limite esterno del processo d’inferenza basato sull’analogia. In secondo luogo l’analogia, proprio per questo motivo, può avere solo una validità strettamente locale, come dimostra con particolare evidenza il caso dell’analogia finito-infinito per le somme nella soluzione di Eulero del problema di Mengoli. Inoltre l’analogia è una forma di inferenza ampliativa di natura conservativa: essa amplia la conoscenza in un modo molto ristretto, ossia semplicemente suggerendo che ciò che non è noto si comporta come ciò che è noto. Come sottolinea Bunge 68 , essa conviene sempre (anche in termini di utilità attesa), poiché è comunque istruttiva in quanto permette in ogni caso di conoscere qualcosa di nuovo sul dominio indagato. Infatti se l’ipotesi analogica supera i test di confronto con la conoscenza esistente, arriveremo a conoscere che i due domini sono simili (o formalmente o materialmente). Se invece l’ipotesi analogica non supera i test, allora sapremo che è necessario ricorrere a qualcosa di davvero nuovo per trattare i fenomeni indagati. Parafrasando Polya 69 si può dunque sostenere che nessuna analogia è davvero cattiva, se non si è acritici. Anche quando supera i test di confronto, l’analogia può naturalmente andare incontro a limiti 70 : essi possono ancora essere istruttivi e fruttuosi, poiché permettono di comprendere fino a che punto la conoscenza proiettata dall’analogia su un dominio parzialmente ignoto è ulterior65
Cfr. Poya 1954, I, 34 e 221-222.
66
Cfr. p. es. Bunge 1967, Vogt - Aras - Balzer 2004, Marchildon 2006.
67
Parker 2003, 200.
68
Bunge 1967.
69
Polya 1957, 207.
70
Cfr. p. es. Moore 2005.
85
Capitolo 5. Il problema dell’analogia mente estendibile o quali siano le dissimilarità tra i due sistemi di conoscenze comparati. Tuttavia è proprio ciò che è davvero nuovo (sui generis), nel senso che amplia in modo radicale la nostra conoscenza (e quindi che è differente da ogni proprietà o struttura nota), che non può essere scoperto e trattato anche solo in linea di principio mediante l’analogia. Inoltre a questo limite interno se ne aggiunge un altro di natura diacronica: l’analogia può infatti inizialmente avere successo ed essere fruttuosa, per poi rivelarsi un vero e proprio non-senso, e configurarsi come uno stallo teorico. Un caso particolarmente interessante è quello dell’analogia tra sistemi quantistici e le particelle e le onde classiche, che «è diventata una vera e propria barriera che impedisce un’interpretazione coerente della teoria» 71 . Pertanto «se si vuole costruire o imparare una nuova teoria allora probabilmente si può ricorrere all’uso dell’analogia quale ponte tra il noto e l’ignoto. Ma non appena la nuova teoria è disponibile bisognerebbe sottoporla a un esame critico al fine di spogliarla della sua impalcatura euristica e ricostruire il sistema in modo letterale» 72 . Un’analogia fruttuosa può quindi diventare un non-senso, che finisce per ostacolare il processo di crescita e ampliamento della conoscenza, ossia può disattendere proprio il principale compito che è chiamata ad assolvere. Dunque «le analogie sono destinate a collassare anche se inizialmente fertili» 73 . Tuttavia l’esistenza di tali limiti non deve spaventare, e far pensare che la costruzione di una teoria della plausibilità che voglia render conto dell’inferenza analogica non sia praticabile. Semmai essi sottolineano come l’incertezza sia costitutiva di ogni conoscenza che sia davvero ampliativa e come non esista un processo inferenziale e conoscitivo giustificato in modo conclusivo e oltre ogni ragionevole dubbio. Come vedremo nell’ultimo capitolo, è proprio la separazione tra plausibilità e verità, ossia tra una conoscenza certa e una incerta, a essere illusoria e in ultima analisi ingiustificata in quanto basata su argomentazioni circolari e affetta, questa sì, da limiti insuperabili. 71
Ivi, 265.
72
Ivi, 282.
73
Ibid.
86
Il vero e il plausibile
6 La teoria di Dempster-Shafer 1. La concezione della plausibilità di Dempster-Shafer La teoria dell’evidenza di Dempster-Shafer (DS) offre un significativo contributo alla concezione probabilistica della plausibilità. Essa ha come obiettivo esplicito il superamento dei limiti propri della concezione legata all’impianto bayesiano e della relativa visione dell’inferenza plausibile. Tali limiti derivano da alcune sue assunzioni e caratteristiche controverse. La teoria DS modifica tali assunzioni e caratteristiche alla luce di quella che ritiene un’immagine più realistica e flessibile del ragionamento plausibile. A tal fine essa muove da una diversa risposta al problema dell’allocazione della credenza razionale, che rompe il vincolo della mono-dimensionalità (cfr. par. 2). Ciò le consente, a differenza del bayesianesimo, di distinguere esplicitamente tra credenza e plausibilità e di far uso di una regola di combinazione simmetrica (cfr. par. 3). Tuttavia nonostante il suo intento programmatico migliorativo essa soffre di limiti interni ed esterni, che limitano pesantemente la portata del suo contributo (cfr. par. 4). La teoria DS è considerata da alcuni come «probabilmente la più popolare (e concettualmente chiara)» 1 trattazione del ragionamento sotto condizioni d’incertezza e vanta numerose applicazioni in vari ambiti disciplinari. In effetti, la teoria ha il merito di proporre un modello concettuale piuttosto chiaro di cosa si debba intendere per plausibilità e come sia possibile modellarne le forme d’inferenza all’interno di un impianto probabilistico. La concezione bayesiana rappresenta il punto di partenza della trattazione della nozione di plausibilità della teoria DS: con essa condivide non solo l’impianto probabilistico, e quindi l’idea che la plausibilità sia espressione di una forma di credenza razionale, ma anche che il ragionamento plausibile sia una forma di ragionamento incerto in quanto condotto a partire da fonti che forniscono informazioni dotate di attendibilità, ma non di certezza. In particolare essa «include la teoria bayesiana come un caso speciale e quindi conserva almeno alcune delle attrattive di quella teoria» 2 . Tuttavia essa si discosta sotto molto aspetti, in particolare nell’allocazione e nella combinazione della credenza, dalla teoria bayesiana al fine di fornire una trattazione migliorativa del ra1
Castelfranchi e al. 1993, 3.
2
Shafer 1976, 4.
87
Capitolo 6. La teoria di Dempster-Shafer gionamento plausibile, ossia della gestione e della limitazione dell’incer-tezza. 2. Allocazioni razionali di credenza La concezione bayesiana, base della teoria della plausibilità di Polya, muove da una precisa risposta al problema dell’allocazione della credenza globale: essa è infatti una teoria mono-dimensionale a sommauno. Essa distribuisce la credenza in modo tale che: - «avere un grado di credenza in una proposizione è affidare una porzione della propria credenza ad essa» 3 ; - «quand’anche qualcuno affida solo una porzione della credenza a una proposizione, deve affidarne la rimanente alla sua negazione» 4 ; - la credenza globale non può superare l’unità. Una delle principali e più note conseguenze di queste assunzioni è che la visione bayesiana non è in grado di «distinguere tra mancanza di credenza e ignoranza. Essa non consente di accordare una certa credenza a una proposizione senza accordare la rimanente credenza alla negazione della proposizione» 5 . Se è vero che dovrebbe essere sottolineato che «non c’è alcuna novità nel criticare la teoria bayesiana per la sua incapacità di rappresentare l’ignoranza» 6 , ciò nonostante la teoria DS riesce e trarre proprio da ciò e da una visione nuova del problema dell’allocazione della credenza globale una direzione nuova nell’indagine sull’inferenza plausibile. La teoria DS, infatti, mira esplicitamente a svilupparsi secondo quella che ritiene «un’immagine più flessibile e realistica» 7 dell’allocazione della credenza, che le consente di dare vita a un contributo fecondo e migliorativo per la costruzione di un modello probabilistico dell’inferenza plausibile. Pertanto, in primo luogo, la teoria DS rinuncia alla rappresentazione mono-dimensionale della credenza, per effetto della quale viene meno il vincolo che stabilisce che una volta che una certa porzione di credenza sia stata allocata a una proposizione, la rimanente porzione di credenza venga automaticamente e interamente allocata alla sua negazione. Quindi, differentemente dalla concezione bayesiana, credere in una certa mi3
Ivi, 35.
4
Ibid.
5
Ivi, 23.
6
Ivi, 25.
7
Ivi, 35.
88
Il vero e il plausibile sura nella proposizione A non implica credere automaticamente nella sua negazione nella misura della credenza rimanente. Infatti «una porzione di credenza può essere affidata a una proposizione, ma non è necessario che sia affidata o a essa o alla sua negazione» 8 . La teoria DS ammette dunque la possibilità teorica di fare ricorso a due distinti valori per esprimere sia la credenza in una certa proposizione sia la credenza nella sua negazione. Al fine illustrare e chiarire questa differenza tra teoria bayesiana e teoria DS, si supponga di avere una probabilità soggettiva (ossia una credenza) riguardo l’attendibilità di una certa fonte f e poniamo che tale credenza sia pari allo 0.75. Nella visione classica bayesiana, la credenza che f non sia attendibile è, in virtù della validità della condizione di mono-dimensionalità e di somma-uno, pari a 0.25 (ossia il risultato della differenza 1 - 0.75). Si supponga ora che la fonte f asserisca che ‘un certo evento e si sia verificato’. Secondo la visione di Dempster e Shafer questa proposizione deve essere vera se la fonte è affidabile, ma non è necessariamente falsa se essa è non affidabile. Essa testimonia semplicemente con un grado di credenza pari a 0.75 che l’evento e sia accaduto, ma con un grado di credenza nullo, e non pari a 0.25 come vorrebbe la visione standard bayesiana, che e non sia accaduto: essa non fa dunque alcuna ipotesi sulla distribuzione della rimanente porzione di credenza. La teoria DS offre così una diversa interpretazione funzionale dello zero probabilistico: esso non sta a significare che si è sicuri che l’evento e non sia accaduto, come avviene nell’interpretazione standard della teoria della probabilità, ma semplicemente che la fonte f non fornisce alcuna ragione per credere che l’evento e non si sia verificato. Una funzione di credenza della teoria DS veicola perciò sempre due valori, relativi a una proposizione e alla sua negazione, che vanno espressamente indicati e che sono distinti. Perciò «un adeguato resoconto dell’impatto dell’evidenza su una particolare proposizione A deve includere almeno due elementi informativi: un rapporto su quanto A è ben sostenuta, e un rapporto su quanto la sua negazione ¬A è ben sostenuta» 9 . A ogni modo i due valori restano connessi in quanto vincolati al rispetto della condizione di somma-uno: la credenza totale non può superare l’unità e dunque la credenza che può essere allocata alla negazione di una proposizione può al massimo essere pari alla differenza tra l’unità e quella affidata alla proposizione stessa.
8
Ivi, 37.
9
Shafer 1976, 144.
89
Capitolo 6. La teoria di Dempster-Shafer 3. Credenza e plausibilità La teoria DS è caratterizzata da una concezione precisa della struttura di discernimento o universo del discorso u, ossia un insieme d’alternative mutuamente esclusive. Essa associa ai sottoinsiemi di u, che rappresentano proposizioni, nell’ordine un’assegnazione probabilistica di base, una funzione di credenza e una funzione di plausibilità. Un’assegnazione probabilistica di base, m: 2u → [0,1], associa a elementi di u numeri reali ed è tale che: - m(∅) = 0; - ∑ m( A) = 1 . A⊆
u
Essa rappresenta ed esprime numericamente la forza di una qualche evidenza, ossia l’esatta credenza che un agente a ha in una proposizione A. Mediante l’assegnazione di base di probabilità, la teoria DS permette di distinguere chiaramente tra la nozione di credenza e la nozione di plausibilità e ne offre una rappresentazione esplicita in termini di funzioni probabilistiche. Una funzione m: 2u → [0,1] è infatti detta funzione di credenza, Cre, quando soddisfa le seguenti tre condizioni: - Cre(∅) = 0; - Cre(u) = 1; - per qualsiasi collezione A1,…,An di sottoinsiemi di u, si ha che: ⎛ ⎞ Cre( A1 ,..., An ) ≥ ∑ I ≠∅ , I ⊆ {1, ..., n} (−1)| I |+1 Cre ⎜ ∩ Ai ⎟ . ⎝ i∈I ⎠
La funzione di credenza permette dunque di allocare a ogni sottoinsieme di u, ossia a una proposizione, una certa porzione della credenza totale. Assegnazione probabilistica di base e funzione di credenza sono legate in modo biunivoco: a una funzione di credenza è associata una e una sola assegnazione probabilistica di base e viceversa a un’assegnazione di base di probabilità corrisponde una e una sola funzione di credenza. Questo legame è espresso formalmente dalle seguenti relazioni: - Cre( A) =
∑ m( B) , per ogni A⊆B;
B⊆ A
- m( A) =
(−1)| A− B| Cre( B ) . ∑ B⊆ A
Tali relazioni stabiliscono che sia l’assegnazione di base sia la funzione di credenza veicolano la stessa informazione. In particolare la no90
Il vero e il plausibile zione di credenza ha il compito di riassumere tutte le ragioni esplicite per credere in una proposizione A. A questo punto è possibile definire la nozione di plausibilità. Innanzitutto bisogna osservare che la teoria DS muove da una precisa concezione informale di plausibilità: infatti «una proposizione è plausibile alla luce dell’evidenza fino al punto in cui l’evidenza non sostiene il suo contrario» 10 . Al fine di definire formalmente la plausibilità si introduce la funzione dubbio, Dub, ponendola come uguale a Cre(¬A) dove ¬A è il complemento di A in u e si definisce la funzione di plausibilità, Pl, come Pl(A) = 1 - Dub(A) = 1 - Cre(¬A). La funzione di plausibilità esprime dunque quanto si dovrebbe credere nella proposizione A se tutti i fatti non conosciuti allo stato attuale sostenessero A. Essa è dunque un valore probabilistico limite: esprime il valore massimo di credenza che si può allocare a una proposizione A. In particolare «misura la massa totale di credenza che può essere mossa verso A» 11 . Il limite inferiore corrisponde invece alla funzione di credenza, e quindi vale la relazione Cre(A) ≤ Pl(A), ossia la credenza in una proposizione può al massimo essere pari alla sua plausibilità. La probabilità di un evento in senso classico sarà un valore che giace tra la credenza e la plausibilità, ossia Cre(A) ≤ Pr(A) ≤ Pl(A). Nel caso limite in cui Cre(A) = Pl(A) allora la probabilità sarà univocamente determinata. La differenza tra credenza e plausibilità ha delle conseguenze a livello funzionale: infatti, la funzione di credenza «è spesso zero per tutte o quasi le proposizioni atomiche in domini complessi, a meno che un largo numero di prove siano disponibili. Invece la plausibilità, Pl, generalmente fornisce qualche discriminazione anche quando l’evidenza è sparsa. Quindi Pl è una guida più robusta per prendere decisioni rispetto a Cre» 12 . La plausibilità è dunque uno strumento efficace per determinare e massimizzare le decisioni in situazioni in cui l’informazione è particolarmente incompleta e frammentaria. L’altra sostanziale differenza tra teoria bayesiana e teoria DS viene sancita dalla modalità di combinazione dell’evidenza, ossia dalla regola d’aggiornamento della credenza alla luce di nuova evidenza. Alla regola bayesiana corrisponde infatti nella teoria DS la regola di combinazione, anche detta somma ortogonale, la quale «fornisce un metodo per cambiare precedenti opinioni alla luce di nuove evidenze: costruiamo una funzione di credenza per rappresentare la nuova evidenza e combinarla 10
Shafer 1976, 37.
11
Dezert 2002, 16.
12
Barnett 1991, 599.
91
Capitolo 6. La teoria di Dempster-Shafer con la nostra ‘precedente’ funzione di credenza – ovvero con la funzione di credenza che rappresenta la nostra precedente opinione» 13 . Essa asserisce che date due assegnazioni di base di probabilità m1 e m2 sullo stesso universo u, la loro somma ortogonale m = m1⊗ m2 sarà tale da soddisfare le seguenti proprietà: - m(∅) = 0; - m( A) = K
∑ m ( X ) ⊗ m2 (Y ) , dove, per A ≠ 0,
X ∩Y
K -1 = 1 −
1
∑ m1 ( X ) ⊗ m (Y ) = ∑
X ∩Y
2
X ∩Y ≠∅
m1 ( X ) ⊗ m2 (Y ) .
Se K-1 = 0, allora ovviamente la somma ortogonale non esiste, ossia le fonti sono in totale contraddizione e non è possibile alcuna combinazione. Questa operazione, come è facile dimostrare, soddisfa sia la proprietà associativa sia quella commutativa. La regola di combinazione di DS fornisce dunque un «metodo per cambiare precedenti opinioni alla luce di nuova evidenza» 14 , ma differisce da quella bayesiana perché «la principale caratteristica di questa regola è la simmetria con cui essa tratta sia la nuova sia la precedente evidenza sulla quale si basa l’opinione prima della prova, la quale invece ha un peso maggiore nella regola bayesiana» 15 . Infatti la somma ortogonale di DS combina le evidenze, la regola di Bayes le pone in un rapporto di condizione. In particolare, nell’inferenza bayesiana il cambiamento d’opinione avviene mediante la combinazione della nuova evidenza, espressa sotto forma di una proposizione, e la precedente credenza bayesiana su quella proposizione; nel caso della somma ortogonale, entrambe le evidenze sono rappresentate mediante funzioni di credenza e «il risultato non dipende da quale prova è nuova e quale è vecchia» 16 . Supponiamo ora di avere il seguente universo u e la seguente assegnazione di base di probabilità: - u = {A, B, C}; - m({A}) = 0.3; - m({A, B}) = 0.2; - m({A, B, C}) = 0.5. 13
Shafer 1976, 25.
14
Ibid.
15
Ibid.
16
Ibid.
92
Il vero e il plausibile Da queste si può possono determinare i valori della funzione di credenza: - Cre({A}) = 0.3; - Cre({A, B}) = 0.3 + 0.2 = 0.5; - Cre({A, C}) = 0.3; - Cre({A, B, C}) = 0.3 + 0.2 + 0.5 = 1; da cui otteniamo: - Dub({A}) = Cre({¬A}) = Cre({B, C}) = 0; - Dub({A, B}) = Cre({C}) = 0; - Dub({A, C}) = Cre({B}) = 0; - Dub({A, B, C}) = Cre({∅}) = 0; da cui seguono i seguenti valori di plausibilità: - Pl({A}) = 1 - Cre({B, C}) = 1; - Pl({A, B }) = 1 - Cre({C}) = 1; - Pl({A, C }) = 1 - Cre({B}) = 1; - Pl({A, B, C}) = 1 - Cre({∅}) = 1. Al fine di illustrare il funzionamento della regola di combinazione dell’evidenza si consideri il seguente esempio. Si abbia un universo binario u = {(C)rescita, (D)iminuzione}, relativo al comportamento di una borsa valori B per il giorno s, e si supponga di avere due distinte e indipendenti fonti d’informazione f1 e f2 che offrono due previsioni diverse, espresse mediante le due assegnazioni di probabilità di base seguenti: - m1(C) = 0.80; - m1(D) = 0.12; - m1(C∪D) = 0.08; - m2(C) = 0.90; - m2(D) = 0.02; - m2(C∪D) = 0.08. Entrambe le fonti depongono dunque fortemente a favore di un rialzo della borsa per il giorno s (f1 con un grado pari a 0.8 e f2 con un grado pari 0.9). Dalla combinazione di tali premesse otteniamo che: K = 1 - (m1(C) · m2(D)) + (m2(C) · m1(D)) = 1 - 0.108 - 0.016 = 0.876, e quindi, dalla loro combinazione otteniamo la nuova evidenza rispettivamente per C, D e C∪D: - m(C) = m1⊗m2(C)/K = (m1(C) · m2(C) + m1(C) · m2(C∪D) + m2(C) · m1(C∪D))/K = (0.72 + 0.072 + 0.064)/K ≈ 0.977; 93
Capitolo 6. La teoria di Dempster-Shafer - m(D) = (m1⊗m2(D))/K = (m1(D) · m2(D) + m1(D) · m2(C∪D) +m2(D) · m1(C∪D))/K = (0.024 + 0.096 + 0.016)/K ≈ 0.016; - m(C∪D) = (m1⊗m2(C∪D))/K = (m1(C∪D) · m2(C∪D))/K = 0.0064/K ≈ 0.007. La combinazione delle fonti, come è lecito attendersi, produce una previsione che rinforza la convinzione, d’altronde già espressa da entrambe singolarmente, che il giorno s la borsa B chiuderà in rialzo (C), attribuendole un valore (≈0.977) superiore a quello attribuito da entrambe le singole fonti, ovviamente supponendo che esse siano ugualmente attendibili. 4. Alcuni limiti della teoria di Dempster-Shafer La regola di combinazione DS produce una fusione dell’evidenza che «consente di costruire descrizioni del ragionamento probabile più modeste delle descrizioni bayesiane ma più fedeli al modo in cui gli esseri umani di fatto pensano» 17 . Infatti la regola è costruita in modo tale da esaltare l’accordo tra diverse fonti e minimizzare mediante un fattore di normalizzazione tutte le evidenze in conflitto. Tuttavia proprio per questo motivo essa va incontro a limiti strutturali precisi: anche in situazioni piuttosto semplici essa può infatti generare risultati completamente inaspettati e contro-intuitivi, tali da limitarne fortemente l’efficacia. Si prenda infatti in esame il seguente caso dallo schema piuttosto semplice 18 . Due società di rating finanziario esaminano la stessa impresa e sulla base degli esami condotti concordano sul fatto che essa o avrà un incremento degli utili del 25% (M) o un incremento degli utili dell’8% (C) o una perdita del 3% (T). Esse tuttavia elaborano due previsioni molto diverse: pur essendo d’accordo su una scarsa probabilità della perdita del 3%, essi divergono sulle altre due. In particolare la prima società, m1, ritiene che quasi sicuramente l’impresa avrà un incremento di utili del 25%, mentre la seconda, m2, ritiene che quasi sicuramente avrà un incremento di utili dell’8%. Si rappresenti la situazione nel modo seguente: - m1(M) = 0.99; 17
Ivi, 26.
18
Cfr. p. es. Zadeh 1979 e 1986 per esempi equivalenti.
94
Il vero e il plausibile - m1(T) = 0.01; - m2(C) = 0.99; - m2(T) = 0.01. Mediante l’applicazione della somma ortogonale ricaviamo il seguente valore per T: m(T) = m1⊗m2 (T) =
0.0001 = 1, 1 − 0.0099 − 0.0099 − 0.9801
che significa che la società avrà con certezza una perdita del 3%! Questa previsione del tutto inaspettata e quanto meno contro-intuitiva deriva del fatto che le due evidenze (ossia le società di rating) concordano sul fatto che l’impresa non avrà perdite, ma sono quasi in totale contraddizione circa le altre due previsioni. Quindi questo semplice ma istruttivo esempio «mostra le limitazioni dell’uso pratico della teoria DS nel ragionamento» 19 e suggerisce con forza che «alcune estreme precauzioni sul grado di conflitto delle fonti devono sempre essere prese prima di effettuare una decisione definitiva basata sulla regola di combinazione di Dempster» 20 . Tali precauzioni altro non sono che l’introduzione di ipotesi ad hoc che consentono di sanare mediante il rispetto di opportune condizioni i casi per i quali si presentano le conclusioni di cui sopra. Tuttavia l’elenco delle limitazioni della teoria DS non si esaurisce con questo esempio 21 , con la conseguenza che la validità e l’efficacia di questa teoria ne risentono in modo essenziale, nonostante goda d’applicazioni in molti settori scientifici. La teoria DS fornisce pertanto un quadro preciso della nozione di plausibilità: 1) la plausibilità è deputata a trattare situazioni d’incertezza, in cui fonti indipendenti forniscono informazioni attendibili ma non certe; 2) l’incertezza è relativa alle premesse del ragionamento e non ai metodi; 3) la plausibilità è esplicitamente definita come una funzione probabilistica su gradi di credenza; 4) in particolare un’ipotesi i è plausibile fino al punto in cui non esistono evidenze che depongono contro i; 5) plausibilità e credibilità sono chiaramente distinte e svolgono due funzioni differenti: la prima rappresenta un valore probabilistico limite, 19
Ibid.
20
Ibid.
21
Cfr. p. es. Blackman 2000.
95
Capitolo 6. La teoria di Dempster-Shafer che esprime quanto si dovrebbe credere nella proposizione A se tutti i fatti non conosciuti allo stato attuale sostenessero A; la seconda esprime tutte le ragioni esplicite per credere nella proposizione A; 6) il ragionamento plausibile ha regole proprie, diverse da quelle della logica deduttiva, e una sua logica, che può essere esplicitata; 7) la logica del ragionamento plausibile può essere rappresentata da un’opportuna variante del calcolo probabilistico. La trattazione della plausibilità e dell’inferenza plausibile sviluppata dalla teoria DS permette dunque di superare alcuni dei limiti propri della visione bayesiana mediante il potenziamento di alcune delle assunzioni del sistema probabilistico, come la mono-dimensionalità o la regola di fusione dell’evidenza. Tuttavia essa denuncia altrettanti limiti di natura sia interna sia esterna. Nel primo caso, infatti, anche in situazioni piuttosto semplici essa dà luogo a conclusioni del tutto paradossali, o comunque inaspettate e devianti proprio rispetto «al modo in cui gli esseri umani di fatto pensano» 22 , ossia rispetto a uno degli aspetti programmatici più forti del suo modello e che vuole essere migliorativo della visione bayesiana. L’introduzione di strumenti e ipotesi ad hoc in questo senso non rappresentano un rafforzamento della teoria, ma l’esplicitazione dei suoi limiti. Nel secondo caso, invece, essa non solo confina il ragionamento plausibile nello steccato dell’impianto probabilistico, ma si concentra solo sul problema dell’incertezza delle premesse, e non prende in esame il problema dell’incertezza dei metodi cercando di render conto di processi inferenziali ampliativi come aveva invece tentato di fare Polya nel caso dell’analogia. Essa esclude così di fatto l’euristica e una sua trattazione razionale dall’ambito di applicazione del ragionamento plausibile in modo arbitrario e infondato.
22
Shafer 1979, 26.
96
Il vero e il plausibile
7 La teoria Dezert-Smarandache 1. La teoria di Dezert-Smarandache La teoria del ragionamento plausibile di Dezert e Smarandache (DSm) 1 fornisce un contributo significativo alla concezione probabilistica della plausibilità perché rappresenta un ulteriore, paradigmatico esempio della linea storico-concettuale lungo la quale si articola tale approccio. Questa teoria viene pertanto discussa quale esponente di una precisa tendenza all’interno dell’approccio probabilistico. La teoria DSm nasce e si sviluppa come un tentativo esplicito di superare alcune difficoltà della teoria DS attraverso il raffinamento e il potenziamento delle sue assunzioni e dei suoi strumenti, al fine di permettere all’approccio probabilistico di trattare in modo appropriato e naturale forme d’incertezza radicali ed estese. Essa rifiuta il principio del terzo escluso, estendendo l’universo del discorso mediante l’insieme iper-potenza (cfr. par. 2), e modella forme di credenza che violano la condizione di somma-uno e quindi capaci di gestire informazioni paradossali e risolvere i problemi della teoria DS (cfr. par. 3). Tuttavia anche questa caratterizzazione della plausibilità si rivela restrittiva e inadeguata rispetto ai suoi scopi sia interni sia esterni (cfr. par. 4). Per illustrare come la teoria DSm permetta di superare alcuni limiti interni della teoria DS si consideri la seguente semplice situazione 2 . Sia dato un universo del discorso con due soli tipi d’attributi Θ ={θ1, θ2} e le seguenti assegnazioni probabilistiche mediante due distinte e discordanti osservazioni T1 e T2: - mT1(θ1) = 0.5; - mT1(θ2) = 0.5; - mT1(θ1∪θ2) = 0; - mT2(θ1) = 0.1; - mT2(θ2) = 0.1; - mT2(θ1∪θ2) = 0.8. Inoltre supponiamo che una successiva osservazione delle proprietà del sistema, diciamo Z, concordi perfettamente con la prima osservazione,
1
Cfr. Dezert 2002.
2
Cfr. Blackman 2000.
97
Capitolo 7. La teoria di Dezert-Smarandache T1, e di conseguenza differisca dalla seconda T2. Dunque sia Z caratterizzata dalla seguente assegnazione probabilistica: - mZ(θ1) = 0.5; - mZ(θ2) = 0.5; - mZ(θ1∪θ2) = 0. Se si ricorre alla teoria DS per risolvere questa situazione, ossia per stabilire quale sia l’assegnazione più plausibile alla luce della nuova evidenza, si entra in una situazione di stallo. Infatti, applicando la regola della somma ortogonale della teoria DS si ottengono le seguenti composizioni: 0.250 + 0 + 0 = 0.5 ; 1 − 0.250 − 0.250 − 0 − 0 - mZ T1(θ2) = 0.5; - mZ T1(θ1∪θ2) = 0; 0.05 + 0.4 = 0.5 ; - mZ T2(θ1) = 1 − 0.05 − 0.05 - mZ T2(θ2) = 0.5; - mZ T2(θ1∪θ2) = 0.
- mZ T1(θ1) =
I valori assegnati ai due attributi ottenuti mediante composizione conducono allo stesso risultato, e dunque non è possibile stabilire quale ipotesi sia più plausibile dell’altra. Questa situazione non può dunque essere trattata con l’apparato proprio della teoria DS, neanche ricorrendo alla ricerca del minimo peso nel conflitto tra le fonti, cosa che può essere fatta nel caso del controesempio delle società finanziarie (cfr. cap. 6, par. 4) 3 . Essa può essere trattata solo mediante l’introduzione di specifiche regole ad hoc, che non fanno altro che aggravare le difficoltà e i limiti della teoria DS. Per risolvere tali difficoltà, la teoria di Dezert segue una strategia simile a quella perseguita dalla teoria DS rispetto al bayesianesimo: esamina alcune assunzioni che stanno alla base di queste difficoltà e le modifica in modo da ottenere un sistema d’inferenza plausibile che permette di trattarle adeguatamente all’interno di un quadro probabilistico. Infatti, l’approccio della teoria di Dezert muove dall’osservazione che la teoria DS è troppo limitata poiché è fondata sui due seguenti vincoli restrittivi: C1) la teoria DS considera un universo del discorso discreto e finito basato su un insieme d’elementi basici esaustivi ed esclusivi; 3
Cfr. Dezert 2002.
98
Il vero e il plausibile C2) le evidenze sono assunte come indipendenti (ogni fonte d’informazione non prende in considerazione la conoscenza dell’altra fonte) e fornisce una funzione di credenza sull’insieme potenza 4 .
La teoria di Dezert mette in discussione questi due principi al fine di arrivare a una generalizzazione in grado di comprendere sia la teoria bayesiana sia la teoria DS e di superarne le difficoltà. Pertanto essa si propone «come una generale e diretta estensione della teoria della probabilità e della teoria DS» 5 . 2. Allocazioni estese di credenza Al fine di raggiungere l’obiettivo di costruire un miglioramento e una estensione delle teorie probabilistiche che la precedono, la teoria DSm fornisce innanzitutto una risposta diversa al problema dell’allocazione razionale della credenza. Per illustrare e chiarire la natura di tale estensione, supponiamo di avere un semplice universo del discorso Θ={h1, h2}, che include dunque solo due ipotesi sulle quali non grava alcuna condizione. Allora la teoria DSm muove dall’osservazione che: - la teoria bayesiana tratta assegnazioni probabilistiche m(.) ∈ [0,1] tali che m(h1) + m(h2) = 1; - la teoria DS estende la teoria della probabilità considerando assegnazioni di credenza m(.) ∈ [0,1] tali che m(h1) + m(h2) + m(h1∪h2) = 1; - la teoria DSm «estende le precedenti teorie ammettendo la possibilità d’informazioni paradossali» 6 , ossia trattando assegnazioni base di credenza m(.) ∈ [0,1] tali che m(h1) + m(h2) + m(h1∪h2) + m(h1∩h2) = 1. In particolare alla base della teoria viene posto il rifiuto del principio del terzo escluso A ∨ ¬A , necessario per trattare stati d’informazione paradossali. Ciò permette di estendere l’universo del discorso Θ in modo che non agisca più semplicemente sull’insieme potenza 2Θ, ma su insieme più ampio detto iper-potenza IΘ. In particolare nella teoria della probabilità e nella teoria DS l’universo del discorso viene definito a partire dall’insieme potenza P(Θ) = 2Θ, ossia l’insieme di tutti i sottoinsiemi propri di Θ i cui elementi sono disgiunti, nella teoria di Dezert l’insieme iper-potenza comprende come sottoinsiemi propri tutte le possibili combinazioni degli elementi mediante gli operatori ∩ e ∪. Ossia vale che se A∈ IΘ e B∈ IΘ allora 4
Dezert 2002, 23.
5
Ibid.
6
Ivi, 26.
99
Capitolo 7. La teoria di Dezert-Smarandache (A∪B) ∈ IΘ e (A∩B) ∈ IΘ. In questo modo, in effetti, la teoria DSm può trattare situazioni d’incertezza più complesse e sfumate delle teorie che intende raffinare. Ammettere la possibilità di violare i principi C1C2 significa assumere che non è sempre possibile definire precisamente e distinguere senza ambiguità e difficoltà i fatti elementari che compongo l’universo del discorso. Infatti, si può osservare che è difficile rispettare C1 anche «per alcuni problemi molto semplici dove ogni ipotesi elementare corrisponde a un concetto o attributo vago o fuzzy» 7 e per questi semplici problemi sia la teoria della probabilità sia la teoria dell’evidenza di DS si rivelano inefficaci. La possibilità teorica di violare C1 non è motivata da un’esigenza astratta e ad hoc di estensione dei modelli concettuali della teoria DS, ma ha espressamente origine da problemi legati a domini concreti. Ad esempio la sua legittimità e necessità trova un sostegno particolarmente forte nella trattazione dei fenomeni della fisica quantistica, dove la questione della natura dei fotoni «ci porta ad accettare l’idea di trattare direttamente informazioni paradossali» 8 . Infatti, sia l’interpretazione dei fotoni come particelle sia la loro interpretazione come onde sono plausibili: non esiste una rappresentazione unica della natura del fotone, e dunque ogni volta il comportamento di un fotone veicola informazioni paradossali. La possibilità teorica di violare C2 comporta invece che fonti indipendenti che si riferiscono a diversi universi del discorso possano essere tra loro incompatibili, ossia non «corrispondere alla stessa visione universale delle possibilità di risposta alla domanda in questione» 9 . L’ammissibilità di tale violazione è motivata dalla necessità di fondare una teoria dell’inferenza plausibile che sia generale: infatti «una teoria generale dovrebbe includere la possibilità di trattare informazioni che provengono da fonti diverse che non hanno accesso a una interpretazione assoluta degli elementi dell’universo del discorso Θ in questione» 10 . 3. Credenza e plausibilità Proprio come la teoria DS, l’approccio di Dezert incorpora esplicitamente la nozione di plausibilità, dandone una definizione precisa in termini probabilistici, ossia in termini di ragionamento su credenze e 7
Ivi, 24.
8
Ivi, 25.
9
Ibid.
10
Ibid.
100
Il vero e il plausibile gradi di credenza. Essa definisce innanzitutto la funzione di credibilità, Cre, di una proposizione A come:
∑
m( B ) ,
∑
m( B ) .
Cre( A) =
B⊆ I Θ , B⊆ A
e la plausibilità come la funzione: Pl( A) =
B ⊆ I , B ∩ A≠ 0 Θ
In modo del tutto analogo alla teoria DS, la credenza esprime dunque la massa probabilistica che può essere assegnata ad A, l’insieme delle ragioni che depongono espressamente a favore di A. La plausibilità, d’altra parte, non può più essere definita ricorrendo al complemento di A, come avviene nella teoria DS, poiché m(¬A) non può essere valutata in modo preciso dagli operatori ∩ e ∪: agendo sull’insieme iperpotenza e trattando fonti d’informazioni potenzialmente paradossali, essi non permettono di distinguere chiaramente A e B (e quindi A e ¬A), poiché si può avere che m(A∩B) > 0 e quindi m(A∩¬A) > 0. Pertanto la plausibilità esprime tutti i fatti connessi a A, che in qualche hanno a che fare con A e che quindi possono sostenere A. La trattazione e la definizione di queste due nozioni nella teoria DS può dunque essere considerato come un caso limite di quello della teoria DSm, ossia quello in cui le fonti d’informazioni non ammettono informazioni paradossali. La teoria DSm conserva non a caso alcune proprietà rilevanti della teoria DS. In particolare dalle definizioni di cui sopra segue che rimane valida la relazione tra plausibilità e credenza della teoria DS, ossia Cre(A) ≤ Pl(A): la plausibilità è dunque il valore limite superiore dell’assegnazione probabilistica che una proposizione qualsiasi può assumere. Poiché la teoria della plausibilità DSm concepisce la plausibilità come uno strumento per condurre il ragionamento e guidare le decisioni in condizioni di incertezza, essa procede a rivisitare ed estendere la nozione di incertezza. L’incertezza viene definita, come abbiamo visto, in modo più esteso rispetto alla teoria DS. In particolare essa estende quella adottata dalla teoria della probabilità e della teoria DS. Per chiarire la natura di tale estensione Dezert fa ricorso alla seguente distinzione. Una situazione, o uno stato d’informazione, può essere: - razionale, quando l’assegnazione di base m è a somma-uno e la chiusura degli operatori ∩ e ∪ sugli elementi dell’universo del discorso è pari a 0; - incerta, quando è a somma-uno e la chiusura dell’operatore ∪ può essere diversa da zero; 101
Capitolo 7. La teoria di Dezert-Smarandache - paradossale quando è a somma-uno e la chiusura dell’operatore ∩ può essere diversa da zero; - incerta e paradossale quando la chiusura di entrambi gli operatori ∩ e ∪ può essere diversa da zero. Dunque la concezione DSm rompe l’unico vincolo comune a questi stati d’informazione: la condizione della somma-uno. Infatti, essa contempla la possibilità di assegnazioni probabilistiche la cui aggregazione può essere diversa dall’unità, sia in eccesso (ossia ∑ m ( A) > 1 ) sia in difetto (ossia ∑ m ( A) < 1 ). Dezert concepisce la nozione d’incertezza proprio in questo senso esteso, e la sua teoria della plausibilità ne offre una trattazione concettuale e formale. Anche la regola di combinazione dell’evidenza viene modificata alla luce di queste modifiche ed è tale che «può anche essere usata con la logica intuizionista dove la somma delle assegnazioni di base può essere minore di uno e con le logiche paraconsistenti, nelle quali la somma delle assegnazioni di base può essere maggiore di uno» 11 . La regola per combinare le diverse credenze della teoria DSm ha una forma piuttosto semplice. Essa stabilisce che:
∀C ∈ I Θ , m(C ) = [m1 ⊗ m2 ](C ) =
∑
A, B∈I Θ , B∩ A=C
m1 ( A)m2 ( B) .
Si supponga di avere le seguenti assegnazioni di base m1 e m2 su un universo del discorso composto da due opzioni b1 e b2. - m1(b1) = 0.80; - m1(b2) = 0.1; - m1(b1∪b2) = 0.05; - m1(b1∩b2) = 0.05; - m2(b1) = 0.90; - m2(b2) = 0.05; - m2(b1∪b2) = 0.03; - m2(b1∩b2) = 0.02. Da queste assegnazioni, per composizione, si ricava il seguente valore:
m(b1 ) = (m1 (b1 ) · m2 (b1 )) + (m1 (b1 ) · m2 (b1 ∪ b2)) + (m2 (b1 ) · m1 (b1 ∪ b2)) = 0.720 + 0.024 + 0.045 = 0.789.
11
Ivi, 33.
102
Il vero e il plausibile Nello stesso modo si possono ottenere i valori probabilistici per gli altri elementi dell’insieme iper-potenza: - m(b2) = 0.0105; - m(b1∪b2) = 0.0015; - m(b1∩b2) = 0.0199. Ora «è importante notare che qualsiasi processo di fusione di fonti d’informazione produce incertezza, paradossi o più generalmente entrambi» 12 . In particolare, poiché agisce sull’insieme iper-potenza e modella una nozione di incertezza estesa, questa regola, che soddisfa la proprietà associativa e commutativa, produce combinazioni i cui risultati non soddisfano la condizione di somma-uno: è dunque del tutto possibile che anche dopo il processo di combinazione si abbia che ∑ m( A) > 1 oppure che ∑ m( A) < 1 . Questa seconda possibilità si verifica proprio nell’esempio di cui sopra, per il quale si può facilmente verificare che la somma dell’allocazione globale è inferiore all’unità.
4. Il superamento dei limiti della teoria DS L’introduzione di queste modifiche – la violazione della condizione di somma-uno, l’estensione dell’universo del discorso e la conseguente diversa regola di combinazione – permette in effetti alla teoria DSm di fornire una trattazione del ragionamento plausibile che risolve alcune delle difficoltà interne alla teoria DS. Al fine di chiarire questo punto, si consideri nuovamente il contro-esempio delle società finanziarie e si proceda al calcolo della combinazione delle assegnazioni probabilistiche sulla base dell’insieme iper-potenza e della regola di combinazione DSm: - m(T) = m1(T) · m2(T) = 0.01 · 0.01 = 0.0001; - m(M∩C) = m1(M) · m2(C) = 0.9801; - m(M∩T) = m1(M) · m2(T) = 0.0099; - m(C∩T) = m1(T) · m2(C) = 0.0099; da cui segue che: - Cre(M) = m(M∩C) + m(M∩T) = 0.99; - Cre(C) = m(M∩C) + m(T∩C) = 0.99; - Cre(T) = m(T) + m(M∩T) + m(T∩C) = 0.199.
12
Ibid.
103
Capitolo 7. La teoria di Dezert-Smarandache Questa conclusione – la quale asserisce che se le due società di rating sono ugualmente affidabili allora l’impresa quasi sicuramente non soffrirà una perdita – è dunque ora del tutto «coerente con il senso comune» 13 . 5. Limiti dell’approccio della teoria DSm Anche se l’approccio DSm alla plausibilità mette in discussione e rivisita apertamente alcune delle assunzioni che caratterizzano i modelli probabilistici del ragionamento plausibile al fine di superarne i limiti ed estenderne il campo d’applicazione, tuttavia esso mantiene alcune delle condizioni più forti delle teorie che intende estendere, che le impediscono di modellare alcuni aspetti fondamentali del ragionamento plausibile. L’approccio DSm alla teoria dell’inferenza plausibile, in quanto derivato dalla teoria DS, presenta molti punti in comune con questa. In particolare si ha che: 1) il ragionamento plausibile è rivolto a trattare situazioni e stati d’informazione incerti, dove la nozione d’incertezza comprende anche situazioni paradossali. 2) La teoria DSm concepisce la plausibilità come una forma di ragionamento su gradi di credenze. Questa non è altro che una forma di credenza probabilistica ed esprime il massimo valore di credenza che può essere allocata nei confronti di una certa congettura o proposizione A. Il suo valore viene determinato all’interno di un quadro in cui la rappresentazione dell’incertezza è tale da non rispettare più il vincolo della condizione di somma-uno. 3) Un’ipotesi A è plausibile fino al punto in cui esistono fatti connessi ad A che la contraddicono o contrastano. 4) Plausibilità e credibilità sono due nozioni ben distinte, sebbene connesse. La seconda esprime la minima allocazione di probabilità che può essere attribuita ad A, la prima il massimo valore che può essere attribuito ad A. 5) Il ragionamento plausibile così definito gode di regole specifiche, diverse dall’inferenza deduttiva, e di una sua logica. 6) La logica dell’inferenza plausibile può essere espressa e fondata probabilisticamente: la plausibilità è definibile come una funzione che veicola valori di probabilità ed è in ultima analisi espressione di una opportuna variante del calcolo probabilistico.
13
Ivi, 43.
104
Il vero e il plausibile La trattazione della nozione di plausibilità sviluppata dalla teoria di Dezert è tuttavia restrittiva e dagli scopi limitati, ed è tutta rivolta al raffinamento e al potenziamento d’alcune assunzioni interne alla teoria DS che finiscono per impedire una visione articolata e profonda dell’inferenza plausibile. Tralasciando in questa sede il dibattito ancora aperto sulla sua effettiva utilità reale (la teoria più che un’estensione sembra infatti essere un caso particolare della teoria DS), si può sottolineare come questa teoria soffra di molte delle difficoltà già proprie della teoria DS. La modifica delle assunzioni produce ovviamente degli effetti sul modello concettuale sviluppato in quanto permette di trattare efficacemente quei casi in cui la teoria DS va in stallo, ma non permette un superamento dei suoi orizzonti esterni. Sebbene il suo intento programmatico sia una trattazione più estesa del ragionamento plausibile, l’approccio di Dezert non fa altro che contribuire a lasciarlo ancorato a una visione riduzionista e basata sul calcolo probabilistico. 6. Osservazioni sui limiti dell’approccio probabilistico In conclusione possiamo affermare che l’approccio probabilistico soffre di due principali limiti, che vertono intorno all’euristica e all’incertezza. Tali limiti sono il risultato del suo impianto volto ad assimilare la plausibilità a una forma di ragionamento in condizioni d’incertezza su gradi credenza che soddisfano gli assiomi di una opportuna versione del calcolo probabilistico. In particolare si ha che: 1) anche se un esponente significativo dell’approccio probabilistico come Polya muove dall’osservazione che la plausibilità è una nozione deputata a trattare l’euristica, l’approccio probabilistico si sviluppa in una direzione diversa, che finisce per escludere l’euristica. Ciò è dovuto al fatto che la probabilità non è in grado di rendere conto di processi euristici (p. es. le inferenze ampliative), come mostra in modo esemplare il problema dell’analogia. Polya non si rende conto di ciò e tenta, fallendo, di fondare probabilisticamente i propri modelli d’inferenza plausibile. Gli altri approcci, come la teoria DS e DSm, di fatto risolvono questo problema restringendo la definizione e il campo d’applicazione della plausibilità. Essi, infatti, non trattano più l’euristica, ma semplicemente il ragionamento incerto su gradi di credenza: modificano e potenziano le assunzioni che modellano l’allocazione e la combinazione di questi gradi, ma così facendo forniscono una trattazione dagli scopi davvero limitati della plausibilità. Inoltre Polya sviluppa la plausibilità in relazione a una forma ristretta d’euristica, ossia quella che attiene alla giustificazione e corrobora105
Capitolo 7. La teoria di Dezert-Smarandache zione di ipotesi e conclusioni razionali ma incerte, e non ai processi con cui le ipotesi vengono formate. Essa dunque accetta e sostiene i capisaldi della filosofia della scienza tradizionale, come la separazione logica e temporale tra scoperta e giustificazione o l’asimmetria tra ragionamento deduttivo e ragionamento induttivo. 2) L’approccio probabilistico non tratta una forma radicale d’incertezza, come quella delineata ad esempio da Kant (cfr. cap. 1), ma al massimo consente di gestire e limitare forme di rischio, ossia situazioni nelle quali sono possibili assegnazioni probabilistiche. È proprio su questa nozione, e non su quella d’incertezza, che vengono modellate le principali teorie probabilistiche. Infatti, al fine di applicare i loro sistemi di calcolo la teoria bayesiana, la teoria DS e la teoria DSm necessitano di alcune ipotesi sull’universo del discorso che escludono incertezze radicali, ossia situazioni nelle quali non si può fare affidamento su assegnazioni probabilistiche. Quindi all’approccio probabilistico sfuggono due aspetti essenziali della plausibilità e proprio da queste sostanziali inadeguatezze emergono, come vedremo nei prossimi capitoli, trattazioni alternative della plausibilità.
106
La concezione non-probabilistica
Il vero e il plausibile
8 La concezione non-probabilistica 1. Le ragioni della concezione non-probabilistica La concezione probabilistica della plausibilità, richiamandosi alla tradizione scientifica che ha portato all’emergenza del calcolo probabilistico, finisce per ridurre il problema della costruzione di una teoria della plausibilità a quello della ricerca di una sua adeguata rappresentazione in termini probabilistici. Questo impianto, per i motivi che abbiamo illustrato, si rivela inadeguato. Esiste tuttavia un insieme di teorie che richiamandosi a tradizioni differenti e partendo da assunzioni diverse, sviluppa un modello concettuale della plausibilità essenzialmente diverso dalla probabilità. Per questo motivo, anche se le sue articolazioni storico-concettuali arrivano a essere molto diverse tra loro, possono essere comprese sotto la denominazione di concezione non-probabilistica. Gli approcci di natura non-probabilistica emergono dalla sostanziale inadeguatezza della probabilità nel trattare alcune forme caratteristiche del ragionamento plausibile e dell’incertezza. Pertanto essi mettono in discussione, talvolta anche in modo del tutto esplicito e radicale, alcune delle assunzioni fondamentali dell’approccio probabilistico e producono modelli dell’inferenza plausibile che riescono a trattare aspetti e situazioni che non possono essere affrontate non solo in modo efficace o soddisfacente, ma anche in linea di principio dalla teoria della probabilità o da una sua opportuna variante teorica. La concezione non-probabilistica della plausibilità è caratterizzata da assunzioni e dall’utilizzo di strumenti, come ad esempio la logica (cfr. l’approccio deduttivista) o protocolli d’indagine della psicologia cognitiva (cfr. l’approccio cognitivista), che fanno emergere e indagano nuovi aspetti dell’inferenza plausibile. Essa tratta di conseguenza una classe di fenomeni anche molto diversi da quelli della concezione probabilistica.
109
Capitolo 8. La concezione non-probabilistica 2. L’approccio deduttivista di Rescher La teoria deduttivista di Rescher 1 riveste un ruolo d’assoluta preminenza tra gli approcci non-probabilistici alla plausibilità. Questa teoria concepisce la plausibilità come uno strumento mediante cui trattare le dissonanze cognitive. In particolare essa elabora un programma per sistematizzare il ragionamento deduttivo a partire da premesse incerte che possono violare la condizione di somma-uno (cfr. par. 2.1). Anche se la plausibilità in questo senso e la probabilità hanno un’origine comune (cfr. par. 4) esse si differenziamo in modo essenziale (cfr. par. 3), in particolare rispetto al comportamento della negazione (cfr. par. 3.1), della congiunzione (cfr. par. 3.2), l’orientazione sistematica (cfr. par. 3.3) e l’incoerenza (cfr. par. 3.4). La teoria deduttivista si ricollega alla trattazione di Polya mediante l’istituzione del ragionamento plausibile entimematico (cfr. par. 5), ma non supera affatto i limiti di quest’ultima e non ne offre, come vorrebbe, una trattazione che la comprende. Infatti, essa presenta alcuni limiti interni, derivanti dalla natura della sua regola di inferenza (cfr. par. 6), ed esterni (cfr. par. 7). La teoria deduttivista di Rescher della plausibilità «ha lo scopo di fornire uno strumento razionale per trattare le dissonanze cognitive» 2 e «ci porta oltre la logica e la probabilità: essa si muove dal regno del formale verso quello delle considerazioni materiali» 3 . Per strumento razionale si intende «un meccanismo esatto per ragionare su uno specifico aspetto delle affermazioni che noi accettiamo – o siamo inclini ad accettare – per mezzo di conoscenza o credenza»4 . La teoria deduttivista si sviluppa a partire da una precisa ed esplicita relazione tra plausibilità e verità. La plausibilità, infatti, è strettamente legata alla verità, nel senso che è assimilabile a una presunzione cognitiva, ossia a «un’affermazione che, in circostanze adeguatamente favorevoli, è accettata come vera in mancanza di una qualsiasi controindicazione» 5 per ragioni «di economia razionale» 6 . Infatti «una presunzione rappresenta un’affermazione a vero che, sebbene plausibile, può alla fine non essere buona visto che le presunzioni sono fallibili e in ultima analisi può essere abbandonata» 7 . 1
Cfr. Rescher 1976 e 2006.
2
Rescher 1976, 1.
3
Ivi, 2.
4
Ivi, 6.
5
Rescher 2006, 39.
6
Ivi, 37.
7
Ivi, 40.
110
Il vero e il plausibile Il legame tra plausibilità e presunzione cognitiva, ossia un’affermazione a vero che deve essere accettata come tale in quanto nihil obstat, è tale che la prima è la base della seconda perché non solo permette di costruire credenze giustificate, ma soprattutto perché «la plausibilità può servire come determinante cruciale per individuare dove la presunzione risiede» 8 . Poiché una presunzione è qualcosa che viene accettata come vera fino a quando non è espressamente refutata, essa è qualcosa di più di una semplice assunzione. Una presunzione è anche un’assunzione, ma il viceversa non vale. Un’assunzione, infatti, è una mera ipotesi: essa viene ammessa fino a quando non viene provata o no, è non impegnativa e sperimentale. Una presunzione è qualcosa che accettiamo «fino al tempo in cui sorge qualche ostacolo che lo impedisce» 9 , e quindi è tale da richiedere un nostro impegno, anche se provvisorio. Nella fattispecie una presunzione può essere di due tipi: - cognitiva, quando ha «lo scopo di rispondere alle nostre domande e colmare i vuoti nella nostra informazione (come, per esempio, presunzioni che riguardano l’attendibilità delle fonti)»10 ; - pratica, quando ha «lo scopo di guidare le nostre decisioni circa le azioni (come le presunzioni legali che facilitano la risoluzione dei casi; per esempio, che persone scomparse da lungo tempo sono morte, in modo che il loro patrimonio possa essere distribuito)» 11 . In particolare una presunzione cognitiva è una regola della forma ∀x(C ( x) ⇒ (¬D( x) ⇒ P( x))). Essa autorizza dunque a mantenere P ogni qual volta la condizione C si verifica, a meno che e fino a quando non si verifica D. Ad esempio: mantenere l’innocenza di una persona quando viene accusata di un crimine a meno che e fino a quando la colpevolezza di questa persona è adeguatamente provata. Il punto di partenza della trattazione di Rescher è dunque la questione «dell’attendibilità o solidità probativa delle fonti che rilasciano o autorizzano queste affermazioni» 12 . Una volta accettata anche in via provvisoria e sulla base delle fonti disponibili una certa tesi, la plausibilità sistematizza «il ragionamento sulle affermazioni in base all’attendibilità o solidità probativa delle fonti o dei principi di supporto che stanno dietro» 13 . 8
Ivi, 57.
9
Ivi, 43.
10
Ivi, 39.
11
Ibid.
12
Rescher 1976, 6.
13
Ibid.
111
Capitolo 8. La concezione non-probabilistica La dissonanza cognitiva che la teoria della plausibilità è chiamata a trattare altro non è che una qualsiasi situazione d’incoerenza derivante da fonti di informazioni conflittuali, di sovra-determinazione informazionale (informational over-determination). Ad esempio, si consideri l’insieme di proposizioni ¬p, ¬q, p ∨ q . Esistono solo tre vie alternative, sulla base del significato della disgiunzione, per ripristinare la coerenza in questo caso: eliminare ¬p , eliminare ¬q , eliminare p ∨ q . Poiché « ¬p ∨ ¬q segue da ciò che rimane in ogni caso, questo, a ogni modo, deve essere accettata come un’inferenza plausibile dal corpo di informazione incoerente. Una tale linea di pensiero illustra il tipo generale di ‘ragionevole uscita’ da situazioni di dissonanza cognitiva con le quali la teoria della plausibilità ha a che fare» 14 . In questi casi sia la probabilità sia la logica formale sono inefficaci e pertanto la nozione di plausibilità si distingue sia da quella di deduzione logica sia da quella di probabilità. Da una parte, infatti «la logica ci dice semplicemente che la situazione così com’è non è fattibile» perché «essa ci informa del fatto che qualcosa deve essere tolto, ma non ci è di aiuto riguardo al cosa» 15 ; dall’altra la teoria della probabilità non è in grado di risolvere problemi d’incertezza derivante da incoerenze poiché «le probabilità non possono essere modellate secondo tesi auto-contraddittorie» 16 . Pertanto la plausibilità «classifica le proposizioni secondo lo status delle fonti probatorie o dei principi validanti che garantiscono a loro favore», mentre «la probabilità pesa varie alternative e le valuta attraverso il relativo peso contenutistico delle considerazioni che le sostengono» 17 . Dunque «con la probabilità ci domandiamo ‘quante alternative la tesi assorbe nel suo contenuto?’; con la plausibilità ‘con quanta reputazione le fonti o i principi parlano a suo favore?’. Nel primo caso ci orientiamo verso il contenuto della tesi, nell’altro verso le sue credenziali probative» 18 . Il nucleo della teoria non-probabilistica della plausibilità di Rescher, il suo motore d’inferenza, è una variante di una regola della logica modale nota come regola di Teofrasto, cosiddetta perché formulata in antichità dallo studente di Aristotele. La regola originale asserisce che «la modalità della conclusione (di un argomento corretto la cui premesse siano tutte essenziali al raggiungimento della conclusione) deve seguire quella della conclusione più 14
Ivi, 5.
15
Ivi, 2.
16
Ibid.
17
Ivi, 28.
18
Ibid.
112
Il vero e il plausibile debole (sequitur conclusio peiorem partem)» 19 . La variante di Rescher è piuttosto semplice. Essa estende la regola leggendola come asserente che non può essere più debole di quella della premessa più debole (ma può eventualmente essere più forte) e ottiene il cosiddetto principio di conseguenza, cardine del calcolo della sua teoria deduttivista della plausibilità. Dunque il concetto di plausibilità trattata da Rescher è piuttosto chiaro: «il cuore della presente concezione della plausibilità è la nozione di estensione della nostra inclinazione cognitiva nei confronti di una proposizione – dell’estensione della sua presa epistemica su di noi alla luce delle credenziali rappresentate dalle fonti dalle quali deriva» 20 . Per cui «in generale, più un’ipotesi è plausibile, più essa è strettamente coerente e consonante con il resto della nostra conoscenza della materia in questione» 21 : di conseguenza il crollo di una tesi fortemente plausibile può compromettere la nostra intera struttura conoscitiva, mentre il crollo di una tesi poco plausibile può anche non avere alcuna conseguenza sull’assetto della nostra struttura conoscitiva. La plausibilità, quale espressione di uno stato d’incertezza, non attiene in questo senso al ragionamento, che è supposto essere del tutto corretto, ma alle informazioni a partire dalle quali le conclusioni vengono ottenute. Quindi la teoria deduttivista modella il ragionamento plausibile come una forma di deduzione, appunto, a partire da basi incerte: in altre parole, questo è semplicemente un modo deduttivo di trattare e comporre premesse con informazioni e dati che possono essere incompleti, incerti e incoerenti. La teoria deduttivista è caratterizzata da un programma che consta di tre passi fondamentali: 1) l’introduzione di un indice di plausibilità, ossia un’assegnazione numerica sui numeri reali L → [0,1] , dove L è il linguaggio della logica proposizionale e il valore 1 indicizza l’insieme di tutte le tautologie (che in quanto tale è quindi coerente). Questo, come riconosce lo stesso Rescher, è un punto critico della sua teoria della plausibilità perché solleva la questione delle fonti probative: come viene fatta questa assegnazione? Non è forse arbitraria? È a sua volta plausibile? 2) L’istituzione dell’insieme-p (p-set), ossia un insieme di proposizioni plausibili, ovvero «di proposizioni che sono state garantite da fonti con un qualche grado di positiva attendibilità» 22 . Quindi, se «S = 19
Ivi, 24.
20
Ivi, 14.
21
Ibid.
22
Ivi, 8.
113
Capitolo 8. La concezione non-probabilistica
{P1 , P2 ,..., Pk }
è un insieme-p, allora per ogni Pi ∈ S esiste almeno una
fonte Xj che garantisce per Pi , e inoltre l’attendibilità di Xj è almeno 1 1 , (dove rappresenta l’attendibilità positiva minimale)» 23 . n n
3) La costruzione del sistema di Rescher d’inferenze plausibili o ragionevoli: un sistema deduttivo della logica proposizionale P dotato di un indice di plausibilità sulle formule di P. 2.1. Il sistema d’inferenze plausibili di Rescher Un sistema S d’inferenze plausibili di Rescher soddisfa sei assiomi: (P1) condizione metrica: dato un insieme-p, ogni proposizione p∈ S riceve un valore di plausibilità k, tale che 0 ≤ k ≤ 1. (P2) condizione di massimizzazione delle verità logiche: tutte le verità logiche hanno un valore di plausibilità massimo (ossia pari a 1). (P3) condizione di compatibilità: tutte le proposizioni indicizzate con il valore di plausibilità 1 sono mutuamente compatibili. (P4) condizione di conseguenza: se un gruppo di proposizioni di S implica un’altra proposizione di S, allora questa non può essere meno plausibile di quella meno plausibile tra quelle del gruppo. Tale condizione è dunque una riformulazione del principio di Teofrasto e formalmente asserisce che: Se P1 ,..., Pj A Q e P1 ,..., Pj sono elementi di S mutuamente coerenti e Q∈S, allora min / Pi / ≤ / Q / . 1≤i ≤ j
(P5) stipulazione d’incoerenza: sia P sia ¬P possono essere contemporaneamente altamente plausibili (per esempio avere entrambe un valore di plausibilità di 0.9). Ciò viola esplicitamente la condizione di somma-uno. (P6) condizione di preferibilità: in caso di conflitto tra proposizioni di plausibilità differente, bisogna dare preferenza alla tesi con più alta plausibilità. Un sistema d’inferenze plausibili di Rescher non è necessariamente chiuso rispetto alla conseguenza logica (per esempio una fonte può garantire per p, un’altra per q, ma nessuna per p ∧ q), ma ciò non toglie che da un’iniziale indicizzazione si possa procedere a calcolare, per mezzo dell’apparato della logica classica, la plausibilità delle conseguenze che ne derivano. Anzi, questo rappresenta proprio il procedimento mediante cui ottenere ciò che Rescher definisce le inferenze ragionevoli da un insieme-p. In questo caso, ovviamente, l’insieme ini23
Ibid.
114
Il vero e il plausibile ziale S di proposizioni plausibili viene esteso attraverso l’aggiunta dell’insieme S′ di proposizioni ricavate per via deduttiva, ottenendo l’ingrandimento di S, S+ = S ∪ S′. L’ingrandimento S+ di un insieme-p è un procedimento tutt’altro che a-problematico, e dipende dalle proprietà di S. Infatti: - se l’insieme iniziale di proposizioni plausibili indicizzate S è coerente, allora l’ingrandimento è sempre possibile; - se S non è coerente, tale operazione diventa critica perché il suo ingrandimento può generare una situazione tale da poter richiedere una revisione dell’iniziale indicizzazione delle proposizioni plausibili: questa, infatti, potrebbe non essere più sostenibile alla luce delle conseguenze ricavate tramite l’estensione S+. Al fine di chiarire questo punto si supponga di aver il seguente insieme-p S, che è banalmente incoerente:
S = {r , s, ¬r} , a cui sia associato il seguente indice [S]: - /r/ = 0.6; - /s/ = 0.2; - / ¬r / = 0.4. Questa assegnazione, che viola la condizione di somma-uno, è legittima perché soddisfa gli assiomi P1-P6. Si supponga ora di calcolare il suo ingrandimento S+, cioè di aggiungere all’insieme delle proposizioni plausibili certe tesi che altro non sono che le conseguenze logiche dell’insieme iniziale S. Per esempio si abbia il seguente ingrandimento S+ = {r , s, ¬r , r ∨ s} . L’assegnazione iniziale di valori non è ora più sostenibile. Infatti da un parte abbiamo che r A r ∨ s, ovvero, per il principio di conseguenza (P4), abbiamo che, sostituendo a s il corrispondente valore assegnato nell’indice [S], 0.6 ≤ /r ∨ s/; d’altra parte abbiamo che ¬r , r ∨ s A s, ovvero che min[0.4, /r ∨ s/] ≤ 0.2, da cui otteniamo /r ∨ s/ ≤ 0.2. Contraddizione. Ovviamente è possibile ovviare a questa dissonanza cognitiva solo rivedendo l’assegnazione iniziale e attribuendo a s un valore in eccesso dello 0.4.
3. Plausibilità vs. probabilità La distinzione e l’irriducibilità tra plausibilità e probabilità è il punto d’origine della teoria di Rescher, poiché «uno dei cardini dell’epistemologia moderna è che considerazioni probabilistiche non possono 115
Capitolo 8. La concezione non-probabilistica fornire in modo diretto una base validante per affermazioni a vero» 24 , come suggerito da possibili comportamenti paradossali della probabilità (p. es. il paradosso della lotteria). Infatti la plausibilità di una tesi non sarà necessariamente una misura della sua probabilità – o di quanto probabilmente noi le crediamo, o di quanto saremmo sorpresi nel trovarla falsificata. Piuttosto, essa riflette le sue prospettive di essere in accordo con i nostri schemi cognitivi sulle cose in vista dell’affidabilità delle fonti o dei principi che garantiscono per la sua inclusione qui. Il cuore della plausibilità è la nozione di grado della nostra inclinazione cognitiva verso una proposizione – del grado della sua presa epistemica su noi alla luce delle credenziali rappresentate dalle basi della sua credibilità. Il problema chiave è quello di quanto puntualmente la tesi in oggetto si accordi all’interno della struttura generale dei nostri impegni cognitivi 25 .
Essa affronta e sistematizza dunque un modo di ragionare più rudimentale di quello probabilistico, ma non per questo meno importante: non sviluppa mai calcoli che uniscono quantità in nuovi risultati, ma procede solo a comparazioni tra gradi. «Poiché il suo apparato è in fondo qualitativo e comparativo piuttosto che completamente matematico e quantitativo, la teoria della plausibilità riflette un livello d’analisi più basilare (o primitivo) di quello della probabilità» 26 . La teoria della plausibilità di Rescher presenta differenze funzionali rilevanti tra le nozioni di plausibilità e probabilità. In particolare esse vertono intorno al comportamento di quattro proprietà fondamentali: 1) la negazione; 2) la congiunzione; 3) l’orientazione sistematica; 4) l’incoerenza. 3.1. La negazione Nell’approccio non-probabilistico di Rescher «il calcolo della plausibilità non contiene una legge di negazione» 27 . Invece nel calcolo della probabilità, in virtù della condizione di somma-uno, dato il valore probabilistico di una proposizione P – Pr(P) – è automaticamente possibile determinare quello della sua negazione, ¬P, nella misura Pr(¬P) = 1 24
Rescher 2006, 62.
25
Ibid.
26
Rescher 1976, 38.
27
Ivi, 31.
116
Il vero e il plausibile Pr(P). Quindi più alto è il valore di Pr(P), più basso sarà quello di Pr(¬P) e viceversa. Per la teoria della plausibilità di Rescher «è perfettamente possibile che una tesi e la sua negazione siano altamente plausibili (o il contrario)» 28 . Questa è una differenza cruciale tra le due nozioni. Per esempio, in termini plausibilistici è del tutto lecito che l’affermazione che ‘Garry Kasparov vincerà la prossima edizione dei campionati mondiali di scacchi’ sia altamente plausibile, così come la sua negazione. Il loro contemporaneo alto valore può essere determinato da diverse fonti, che possono fornire informazioni diverse ma attendibili. Al contrario, in termini probabilistici, asserire che è altamente probabile che ‘Garry Kasparov vinca la prossima edizione dei campionati mondiali di scacchi’ implica che la sua negazione non solo, a sua volta, non sia altamente probabile, ma che abbia una probabilità bassa e inversamente connessa a quella dell’affermazione. La teoria di Rescher viola dunque la condizione di somma-uno, tipica della teoria classica della probabilità. 3.2. La congiunzione La plausibilità si comporta rispetto alla congiunzione (∧) in un modo che Rescher definisce omogeneo: dati input iniziali di un certo status, il conseguente output sarà, per la regola di Teofrasto, almeno dello stesso status. La probabilità si comporta invece in un modo che Rescher definisce degradante: essa produce di norma un valore probabilistico più basso per la congiunzione rispetto a quello dei suoi congiunti. Si supponga, per esempio, di essere impegnati nell’attività di estrarre delle carte da un mazzo di carte napoletane e si abbia che: - e1 = la carta sia un numero pari; - e2 = la carta sia ≤ 5; - e3 = la carta sia un 2 o un 4. Da un punto di vista probabilistico, abbiamo che: Pr(e1) =
20 1 = , 40 2
Pr(e2) =
20 1 = , 40 2
che è uguale a:
28
Ibid.
117
Capitolo 8. La concezione non-probabilistica mentre: 1 Pr(e1∧e2) = Pr(e3) = . 5
Rescher osserva che in questi casi «la probabilità della conclusione differisce radicalmente dallo status probabilistico delle sue premesse. Tuttavia per ciò che concerne la plausibilità tutte e tre le proposizioni possono essere sullo stesso livello» 29 . Infatti, la congiunzione probabilistica è tale che con l’allungarsi del calcolo il valore della proposizione è destinato a diminuire. Ciò non vale per la congiunzione plausibilistica perché, per la regola di Teofrasto, essa assume un valore che deve essere almeno pari a quello di una delle due premesse, per l’esattezza quello della premessa meno plausibile. 3.3. L’orientazione sistematica La terza differenza funzionale è connessa alla seconda (in particolare al significato della congiunzione probabilistica) e concerne quella che è la sistematica orientazione della plausibilità. Una conclusione plausibile preserva infatti l’orientamento e la forza delle sue premesse, mentre altrettanto non può essere detto della probabilità. Si supponga, infatti, di avere un insieme composto da tre elementi a, b, c considerati altamente probabili: riguardo l’insieme composto dalla loro congiunzione a∧b∧c non è possibile dire nulla di preciso (ad esempio sia a sua volta altamente probabile o meno). Nel caso della plausibilità invece dal fatto che le premesse a, b, c siano tutti altamente plausibili segue che lo stesso vale per la loro congiunzione a∧b∧c. 3.4. L’incoerenza La differenza più forte tra la nozione di plausibilità di Rescher e quella classica di probabilità emerge tuttavia nel quarto caso, ossia nella trattazione di situazioni d’incoerenza. L’impossibilità di affrontare situazioni di conflittualità o incoerenza deriva dalla natura stessa della probabilità: infatti, già la semplice definizione della probabilità condizionata implica l’impossibilità di avere a che fare con dissonanze cognitiPr( p ∧ q ) , da cui segue che se q è ve. Infatti abbiamo che Pr( p | q) = Pr(q ) incoerente, ovvero Pr(q) = 0, allora l’espressione è insensata. 29
Ivi, 32.
118
Il vero e il plausibile L’altro aspetto cruciale che, nell’interpretazione rescheriana, rende la probabilità inadeguata alla trattazione della nozione di plausibilità, è il fatto che quest’ultima ha a che fare con l’accettabilità delle tesi, un compito di fronte al quale la probabilità può produrre delle vere e proprie aberrazioni. Una di esse è rappresentato dal celebre paradosso della lotteria, anche noto come paradosso della accettabilità razionale, formulato per la prima volta da Kyburg 30 . Esso asserisce che in una lotteria non truccata con 100 biglietti bi, ogni biglietto i = 1, 2, ..., 100 ha una probabilità di vincere molto bassa, per esattezza Pr(bi) = 0.01. Allora si può ragionevolmente ritenere che b1 non vinca, che b2 non vinca, che b3 non vinca e così via fino a i = 100. Ognuna di queste cento proposizioni, presa singolarmente, deve essere accettata come vera, e con un preciso valore probabilistico; da ciò segue che si debba accettare come vera anche la loro congiunzione. Ma ciò produce una chiara assurdità (cioè che la lotteria non darà alcun biglietto vincente, quando sappiamo che ve ne sarà almeno uno). Ciò è dovuto al fatto che, come abbiamo visto occupandoci della congiunzione, la probabilità, diversamente dalla plausibilità, non è congiuntiva. Questo le impedisce di modellare la nozione di accettabilità di una tesi. 4. Plausibilità e probabilità: una comune origine. Sebbene rilevi che siano caratterizzate da profonde differenze, Rescher osserva anche che la sua nozione di plausibilità e quella di probabilità condividono una comune radice storica, che può essere fatta risalire al pensiero scettico dell’antica Grecia. A suo avviso esse partono dalla stessa idea di base, ossia quella di «valutare quanto solidamente possa essere fatta un’affermazione a vero in nome di una tesi che non è categoricamente stabilita» 31 , e questa idea di base di probabile/plausibile/ragionevole-da-accettare era imprecisa ed equivoca, tale da essere suscettibile di sviluppi in direzioni piuttosto differenti. Una di queste direzioni è quella praticata dalla teoria delle probabilità, che concepisce tale nozione come assorbimento delle alternative: nel calcolo delle probabilità, infatti, una tesi è un orizzonte che «delimita certi elementi all’interno di uno spettro di alternative possibili – così che una tesi può assorbirne di più o di meno – e le valuta su questa
30
Cfr. Kyburg 1961.
31
Rescher 1976, 36.
119
Capitolo 8. La concezione non-probabilistica base» 32 . Ovviamente questa è solo l’alternativa storicamente dominante dell’iniziale e ibrida nozione greca. Un’altra possibile variante teorica è, come abbiamo visto (cfr. cap. 1), quella della verosimiglianza greca, ossia «l’approssimazione a ciò che deve allo stato attuale deve essere così» 33 . Un’altra ancora, quella praticata da Rescher, è quella di concepire tale nozione come mirante a fissare l’attendibilità della base o della fonte che depone a favore della tesi in questione. Dunque Rescher intravede nell’antica discussione sulla nozione di ‘probabile’ un antesignano della sua teoria, piuttosto che della moderna teoria della probabilità, fermo restando la loro comune origine nell’idea mirante «a valutare le affermazioni a vero che sono fatte per conto di varie asserzioni» 34 , anche conflittuali. 5. Il legame tra probabile e plausibile L’approccio deduttivista propone di istituire un legame tra plausibilità e probabilità mediante l’argomento entimematico. Sebbene l’entimema venga descritto come un argomento con premesse mancanti, questa definizione può risultare fuorviante. Esso è più precisamente definibile come un argomento che necessita l’esplicitazione di alcune proposizioni non espressamente contenute nella linea argomentativa affinché abbia una forma logicamente compiuta. Quindi tra le proposizioni da aggiungere possono esserci non solo premesse, ma anche delle conclusioni: si preferisce per questo usare l’espressione assunzioni non esplicite, in luogo di premesse mancanti e caratterizzare l’entimema come argomento con assunzioni non esplicite. Il legame istituibile tra plausibilità ed entimema esprime dunque un tipo di ragionamento plausibile, nella fattispecie quello basato su script, che può assumere particolare importanza in domini scientifici come l’intelligenza artificiale. Infatti «gli entimemi si basano non solo su criteri formali (strutturali), ma anche su criteri informali. Uno di questi criteri informali è qualcosa spesso chiamato come conoscenza comune» 35 . La conoscenza comune permette di integrare i passi mancanti, ossia le assunzioni non esplicite, all’interno di una o più inferenze. Essa può produrre sia ragionamenti corretti sia presunzioni che, in
32
Ibid.
33
Ivi, 38.
34
Ivi, 39.
35
Walton 2001a, 94.
120
Il vero e il plausibile quanto incerte, possono essere accettate solo in via provvisoria ed essere messe in discussione e, eventualmente, rigettate. La conoscenza comune è un corpo di conoscenze condiviso da agenti razionali e utilizzato nel corso di ragionamenti al fine di produrre inferenze compatibili con le assunzioni e le conoscenze disponibili. È in questo senso che esso è una forma script: un insieme di istruzioni per un’applicazione che vengono eseguite direttamente allorquando si verificano certe condizioni. Lo script è dunque pensabile all’interno di una teoria dell’inferenza plausibile come «un’articolazione di sequenze di eventi e attese che si ritengono normalmente garantite» 36 . Ogni agente razionale è equipaggiato con un insieme di script che utilizza per coprire buchi di conoscenza o produrre anticipazioni e presunzioni nel corso delle sue inferenze. Lo script come veicolo di conoscenza comune può essere così concepito come una forma di entimema. La trattazione del ragionamento entimematico assume un ruolo decisivo all’interno dell’approccio deduttivista perché è la base a partire dalla quale costruire una relazione con l’approccio probabilistico, in particolare quello di Polya. Poiché l’obiettivo di Rescher è quello di sviluppare una teoria della plausibilità volta a trattare deduttivamente la plausibilità di tesi, ossia di candidati alla verità, che permetta di stabilire meccanicamente se queste tesi abbiano o no le sufficienti credenziali per poter aspirare a diventare vere, il suo approccio si discosta profondamente da quello di Polya, che è rivolto a indagare la plausibilità di argomenti o modelli d’inferenza. Inoltre Polya è giustamente riconosciuto da Rescher come un significativo esponente della concezione probabilistica, ovvero di quella tradizione che dall’iniziale e ibrida nozione greca di probabile/ plausibile/ragionevole-da-accettare arriva a concepire tale nozione come assorbimento delle alternative. Il fatto che nell’approccio di Polya si tenti esplicitamente di trattare l’intuitiva e più primitiva nozione di plausibilità sulla base del calcolo probabilistico «introduce certe tensioni nella sua discussione» 37 . Ciononostante Rescher cerca di mostrare come sia possibile adattare l’approccio deduttivista in modo da comprendere l’analisi di Polya del ragionamento plausibile mediante la nozione di plausibilità entimematica, ossia di una analisi entimematica degli argomenti plausibili. Tale adattamento è basato sull’idea di «valutare la plausibilità di un segmento meramente plausibile di ragionamento nei termini della plau-
36
Ivi, 110.
37
Rescher 1976, 38.
121
Capitolo 8. La concezione non-probabilistica sibilità delle premesse entimematiche aggiuntive che sono necessarie a convertirlo in un argomento deduttivo valido» 38 . La plausibilità di un argomento è definibile come il massimo valore tra i minimi valori plausibilistici delle integrazioni entimematiche che consentono una derivazione deduttiva della conclusione dalle premesse in questione. Sia dunque l’argomento in questione P1 , P2 ,..., Pn ∴ C e valga che Pi ∈ S (i = 1, 2, ..., n) e tutte le premesse Pi siano mutuamente compatibili tra di loro e rispetto alla conclusione C. Siano dunque E j1 , E j 2 ,..., E j m le premesse (appartenenti a S) che, integrate con P1 , P2 ,..., Pn , rendono l’argomento deduttivamente valido: P1, P2 ,..., Pn , E j1, E j 2 ,..., E j m ∴ C. Sia inoltre e j = min i / E j i / , ossia il minino valore plausibilistico tra le premesse entimematiche. Allora è possibile «determinare la plausibilità dell’argomento in questione in termini di plausibilità proposizionale attraverso la seguente regola» 39 :
/ P1 , P2 ,..., Pn ∴ C /[ S ] = max j e j . Ad esempio si consideri il seguente semplice insieme-p, diciamo S, {a, b, c, d , a → b, b → c, a → d , d → c} a cui sia associato il seguente indice di plausibilità [S] : - /a/ = 0.4; - /a→b/ = 0.9; - /b/ = 0.9; - /b→c/ = 0.6; - /c/ = 0.6; - /a→d/ = 0.8; - /d/ = 0.6; - /d→c/ = 0.7. Si proceda dunque alla valutazione della plausibilità dell’argomento a∴ c. Esistono due deduzioni che, attraverso l’integrazione di premesse entimematiche, conducono da a a c: 1) a , < a→b, b→c > ∴ c; 2) a , < a→d, d→c > ∴ c. Nel primo caso la plausibilità minima delle premesse aggiuntive è 0.6 (quella di b→c), mentre nel secondo caso è 0.7 (quella di d→c). Quest’ultimo è dunque il massimo tra i valori minimi, e di conseguenza
38
Ivi, 60-61.
39
Ibid.
122
Il vero e il plausibile è anche il valore della plausibilità dell’argomento in questione: pertanto /a∴ c/ [S] = 0.7. È opportuno sottolineare che
e sono premesse entimematiche nel senso che nessuna fonte le sostiene esplicitamente benché i suoi elementi appartengano a S. Dunque «è possibile lungo queste linee accomodare come inferenze plausibili (nel nostro senso non-probabilistico) certi argomenti più comunemente trattati per mezzo della probabilità» 40 , come quelli di cui si occupa Polya, il quale «dà una giustificazione probabilistica di tale ragionamento» 41 . È dunque possibile render conto, sulla base della nozione rescheriana di plausibilità, dei modelli d’inferenza plausibile di Polya, ossia trasformarli in deduzioni entimematiche. Al fine di illustrare questo punto prendiamo nuovamente in esame uno dei cardini della trattazione di Polya, ossia il modello induttivo fondamentale che asserisce semplicemente che la verifica di una conseguenza rende una congettura più credibile: A→B B è vera ———— A è più credibile. In quanto basata sulla comparazione, l’analisi per mezzo della plausibilità entimematica richiede innanzitutto che tale modello venga scisso in due distinte inferenze, le quali siano integrate delle premesse mancanti necessarie a renderlo una deduzione, e quindi siano comparate. Dunque sia ha: (I) A→B B è vera ——— A vera (II) A→B ——— A è vera Si procede dunque alla loro separata integrazione entimematica nel modo seguente: 40
Ivi, 68.
41
Ibid.
123
Capitolo 8. La concezione non-probabilistica (I’) B è vera A→B (≅ B è una conseguenza di A) ————————— A è vera (II’) A→B ————————— A è vera. Poiché la premessa aggiuntiva in (II’) banalmente implica la premessa aggiuntiva in (I’), possiamo concludere che (I) gode di un valore plausibilistico più alto di quello di (II). Il modello fondamentale di Polya è così soddisfatto alla luce dell’approccio di Rescher e più in generale secondo Rescher «tutti gli altri modi di ragionamento plausibile considerati da Polya possono essere resi validi da procedimenti simili» 42 . 6. Limiti della teoria di Rescher Walton osserva che «il sistema di Rescher del ragionamento plausibile segue un modo conservativo per valutare un argomento» 43 : la variante della regola di Teofrasto (il principio di conseguenza), cardine del suo approccio non-probabilistico, è basata sull’idea della conservazione lungo le catene inferenziali del massimo tra i valori di plausibilità minima delle premesse. Tuttavia esistono semplici forme d’inferenza per le quali la condizione di conseguenza può essere violata. Ad esempio esistono semplici argomenti plausibili che comportano la violazione di questa condizione 44 . Si prendano infatti in esame due forme di argomenti ben noti, la cui distinzione «non è modellata nella logica classica» 45 : l’argomento legato e l’argomento convergente. Un loro confronto rende immediatamente perspicua la debolezza della condizione di conseguenza nel trattare alcune forme di inferenza plausibile. Infatti, la regola di Teofrasto è adeguata per gli argomenti legati, ma non per gli argomenti convergenti. 42
Ivi, 69.
43
Walton 1992, 33.
44
Cfr. p. es. Walton 1992.
45
Walton 1992, 39.
124
Il vero e il plausibile In particolare date due (o più) premesse A e B che sostengono una conclusione C, si definisce un argomento: - legato quando «entrambe le premesse A e B sono necessarie per dimostrare C» 46 , ossia in cui il venir meno di una delle premesse rende insostenibile l’argomento; - convergente quando «A e B sono indipendenti l’una dall’altra» 47 , in cui dunque la conclusione C può essere ottenuta indifferentemente da A e da B, e quindi il venir meno di una delle premesse non compromette la sostenibilità dell’intero argomento. L’argomento legato e convergente possono essere rispettivamente rappresentati dai due seguenti grafi: 1) A B 1
1 C
2) A
B 1
2 C
Nel primo grafo, che rappresenta l’argomento legato, a ogni arco è associato lo stesso numero in quanto le due premesse, congiuntamente, conducono alla conclusione. Nel secondo grafo, che rappresenta l’argomento convergente, due linee indipendenti di ragionamento, indicate quindi da due diversi numeri (1 e 2), conducono alla stessa conclusione. Al fine di illustrare il loro comportamento si considerino i seguenti esempi. Caso 1 P1: Un uragano devasterà le piantagioni di pomodoro del sud degli Stati Uniti.
46
Ibid.
47
Ibid.
125
Capitolo 8. La concezione non-probabilistica P2: Il governo degli Stati Uniti sta per concludere un accordo con il governo italiano per importare le quantità di pomodoro eccedenti i limiti imposti dalla CEE. C: Il prezzo del ketch-up negli stati Uniti rimarrà stabile. Questo è un semplice esempio di argomento legato perché entrambe le premesse sono necessarie per ottenere la conclusione e rimuovendone una l’argomento non è più sostenibile. Si supponga, infatti, che P1 abbia un alto valore di plausibilità (ad esempio perché avallata da tutti gli istituti di previsione meteorologica) e che anche P2 abbia un alto valore di plausibilità (ad esempio quale notizia riportata dal Financial Times, il New York Times e il Time). Allora, per la regola di Teofrasto, anche la conclusione C sarà altamente plausibile. Si supponga ora di rimuovere una delle due premesse: se viene meno P1, la conclusione C non è più altamente plausibile (poiché il prezzo del ketchup dovrebbe aumentare), e lo stesso vale se viene meno P2 (poiché il prezzo del ketchup dovrebbe diminuire). Caso 2 P1: L’Italia sta acquistando grandi quantitativi di uva sul mercato mondiale. P2: Il prezzo del vino italiano sta salendo. P3: L’Europa del sud sarà attraversata da un stagione di siccità. C: I raccolti dei vigneti italiani sono in diminuzione. Questo è un esempio d’argomento convergente a tre premesse. Ognuna di esse, indipendentemente ed eventualmente con una forza diversa, conducono alla stessa conclusione. Si può rimuovere indifferentemente P1 o P2 o P3 senza che la sostenibilità dell’argomento venga meno. Si consideri ora la questione della determinazione della plausibilità della conclusione C. La strategia da seguire è piuttosto semplice: la plausibilità sarà pari a quella della premessa più plausibile, sulla base del principio che la credenza sarà determinata dell’evidenza più forte disponibile a favore di una conclusione. Se si accetta, come è del tutto ragionevole fare, la validità di questo principio, allora «segue che la regola della premessa meno plausibile non è un universale per il ragionamento plausibile. Essa fallisce negli argomenti convergenti» 48 . Infatti la condizione di conseguenza per un
48
Ivi, 39.
126
Il vero e il plausibile argomento convergente è che «la conclusione è plausibile almeno quanto la premessa più plausibile» 49 . Tuttavia bisogna osservare che, formulata in questo modo, la regola può andare incontro ad alcuni problemi che ne impongono un raffinamento. Gli argomenti convergenti possono infatti assumere forme tali che la nuova condizione di conseguenza può indurre in errore. A tal fine si consideri il seguente esempio. Caso 3 1) Il portavoce del partito repubblicano dichiara che Bush vincerà le elezioni. 2) Se il portavoce del partito repubblicano dichiara che Bush vincerà le elezioni, allora Bush vincerà le elezioni. 3) I sondaggi di tre istituti di ricerca riportano che Bush vincerà le elezioni. 4) Se i sondaggi di tre istituti di ricerca riportano che Bush vincerà le elezioni, allora Bush vincerà le elezioni. C: Bush vincerà le elezioni. Si associa alle proposizioni che compongono l’argomento plausibile il seguente indice di plausibilità: 1) = 0.8; 2) = 0.3; 3) = 0.6; 4) = 0.7. Questo argomento è il risultato della combinazione di due argomenti legati all’interno di uno convergente: infatti (1) e (2) da una parte, e (3) e (4) dall’altra conducono infatti a C. Se applichiamo ingenuamente la regola di plausibilità per gli argomenti convergenti a questo esempio, otteniamo per C il valore massimale tra le premesse, quello di (1), pari a 0.8. Ma ciò è chiaramente un errore poiché (1) è legato a (2), che ha un valore di plausibilità basso. Per superare questa difficoltà è necessario valutare separatamente ogni argomento legato (con la regola di Teofrasto) e scegliere poi quello più plausibile. Il primo argomento legato ha due premesse con valore 0.8 e 0.3, che conducono a C; per la regola di Teofrasto la plausibilità di C è pari al valore della premessa meno plausibile (dunque 0.3). Il secondo argomento legato ha due premesse con valore 0.6 e 0.7, dunque C ha valore 0.6. Di conseguenza C avrà
49
Ivi, 42.
127
Capitolo 8. La concezione non-probabilistica un valore di plausibilità dello 0.6, ossia pari alla più plausibile tra le due evidenze che separatamente (in modo convergente) sostengono C. La regola necessita pertanto di essere raffinata nel modo seguente (regola del maxmin): «si riuniscano tutti i valori delle premesse minime di tutti gli argomenti legati, e quindi si scelga il massimo tra tutti i valori minimi, per un argomento convergente» 50 . Tale formulazione rappresenta solo un primo possibile raffinamento. Si può infatti fornire una formulazione ancora più generale di questa regola, che comprende anche argomenti seriali (inferenze della forma A→B→C). Si supponga, infatti, di avere una sequenza che compone argomenti legati e argomenti convergenti, della forma rappresentata dal seguente grafo: A (0.7)
B (0.5)
1
1
C (0.4) 2
D (0.3) 3
E (0.4) Per determinare correttamente il valore della conclusione E, è necessario procedere a una progressiva correzione dei valori di plausibilità che la determinano. In primo luogo la conclusione C, quale risultato di un argomento legato che richiede l’applicazione della regola di Teofrasto, deve essere aggiornata a un valore di 0.5; quindi E a sua volta deve essere aggiornata a un valore di 0.5, perché è il risultato di un argomento convergente che richiede l’applicazione della regola del massimo valore tra D e il valore aggiornato di C. Gli argomenti seriali impongono dunque un’ulteriore generalizzazione della regola del maxmin. Essa può essere formulata nel modo seguente: si passa in rassegna l’intero grafo dell’inferenza partendo dalle premesse iniziali (ossia anche quelle premesse che non hanno alcuna linea argomentativa sopra di loro) e si procede a successivi aggiornamenti dei loro valori ai valori dei nodi precedenti secondo le regole appropriate (la regola di Teofrasto per gli
50
Ivi, 43.
128
Il vero e il plausibile argomenti legati, la regola del massimo valore tra i minimi per gli argomenti convergenti). 7. Limiti dell’approccio deduttivista L’approccio deduttivista di Rescher delinea una concezione della plausibilità secondo cui: 1) la plausibilità è una nozione deputata a trattare l’incertezza delle premesse e non l’incertezza dei metodi; 2) un’ipotesi è plausibile quando è avvalorata da fonti che depongono a suo favore, ed è tanto più plausibile quanto è più coerente e in accordo con la conoscenza esistente in materia. Essa non soddisfa la condizione di somma-uno e quindi modella anche tesi contraddittorie; 3) il suo ambito d’applicazione è vasto e si estende dalla trattazione dell’informazione con dati incoerenti, al ragionamento controfattuale, all’inferenza induttiva fino al ragionamento entimematico; 4) il ragionamento plausibile è caratterizzato da regole proprie e ben distinte sia da quelle probabilistiche sia da quelle della logica formale, e possiede una sua logica; 5) la logica del ragionamento plausibile è una opportuna versione della logica deduttiva, e sistematizza la plausibilità attraverso l’operazione di chiusura rispetto all’inferenza logica (mediante l’ingrandimento); 6) il ragionamento plausibile rispetta la condizione metrica ed è quindi possibile produrre ordini parziali sull’insieme delle proposizioni plausibili considerate e delle loro conseguenze; 7) l’approccio deduttivista comprende quello probabilistico, in particolare quello di Polya, mediante l’introduzione della plausibilità entimematica. Anche se l’approccio deduttivista di Rescher è particolarmente efficace nella trattazione di fenomeni che non possono essere modellati in modo appropriato dalla probabilità, come le dissonanze cognitive, esso è esposto a limiti e criticità. Bisogna infatti osservare che alcuni dei suoi principali punti programmatici o non possono essere soddisfatti o non tengono conto degli sviluppi degli approcci di natura probabilistica dai quali intende differenziarsi. Innanzitutto non è vero, come mostra il tentativo praticato dalla teoria DSm, che la probabilità non può modellare tesi contraddittorie. Anzi la teoria DSm, come abbiamo visto (cfr. cap. 7), offre uno strumento concettuale e formale per superare questa difficoltà della teoria classica della probabilità, permettendo di modellare all’interno di un quadro probabilistico proposizioni che violano la condizione di somma-uno. 129
Capitolo 8. La concezione non-probabilistica In secondo luogo il tentativo di comprendere mediante il ragionamento entimematico la teoria di Polya all’interno della concezione deduttivista non trova affatto una dimostrazione, e rimane più che altro una pretesa. Il principale problema della teoria di Polya è, come abbiamo visto, l’analogia (cfr. cap. 5) perché essa non riceve affatto una interpretazione probabilistica. Ma tale problema non solo non è risolvibile, ma non è neanche aggredibile adottando l’approccio deduttivista perché l’analogia non è affatto una forma di ragionamento descrivibile come un metodo certo a partire da premesse incerte e richiede lo sviluppo di strumenti diversi sia da quelli probabilistici sia da quelli deduttivisti. Dunque è proprio la concezione sottostante la teoria deduttivista, ossia l’idea della plausibilità come una forma di deduzione da premesse incerte, a rivelarsi limitante e parziale. Questa comporta infatti l’esclusione di un’intera classe di fenomeni e di forme d’inferenza caratteristici del ragionamento plausibile che non solo non possono essere ridotti a una forma di deduzione, ma richiedono lo sviluppo di nuovi strumenti e lo studio di domini diversi. Pertanto anche la trattazione di Rescher si rivela parziale e dagli scopi limitati: essa sistematizza, per quanto in modo esaustivo, solo un frammento del ragionamento plausibile e anche quando si confronta con trattazioni diverse della plausibilità, come ad esempio quella di Polya, tuttavia non sfocia nell’apertura di nuove direzioni sull’indagine della plausibilità, come l’euristica (che è invece il principale soggetto della trattazione di Polya) o la trattazione razionale dei processi mediante cui si scoprono ipotesi, ma si risolve in un tentativo riduzionistico.
130
Il vero e il plausibile
9 Plausibilità e non-monotonicità 1. Plausibilità e logiche non-monotoniche Un altro approccio di natura non-probabilistica espressamente rivolto a trattare l’inferenza plausibile è quello delle logiche non-monotoniche, «le logiche, cioè, dedicate a catturare formalmente il ragionamento plausibile» 1 . L’approccio non-monotonico coglie e sistematizza mediante un apparato di natura non-probabilistica un aspetto centrale della plausibilità, ossia il suo carattere provvisorio e rivedibile espresso con la violazione della condizione di monotonicità. Esso muove da un preciso legame tra plausibilità e verità, e si avvale di un insieme di regole, in particolare la regola del taglio, che le permettono di fissare la differenza tra plausibile e probabile (cfr. par. 2). Tuttavia anche esso è affetto da precisi limiti, che derivano soprattutto dal concentrarsi su un’idea di plausibilità quale forma di belief revision (cfr. par. 3). L’approccio sviluppato dalle logiche non-monotoniche è fondato su un preciso legame tra verità e plausibilità, ossia sulla tesi che la plausibilità esprime gradi di verità di proposizioni attribuendo loro un certo range d’incertezza. In particolare «quando la verità non è disponibile, è naturale usare un’alta plausibilità al suo posto e renderla vera in seguito» 2 . La plausibilità rappresenta dunque un mezzo per accedere alla conoscenza di qualcosa di vero, anche se una verità di natura provvisoria in quanto sensibile al tempo e all’informazione disponibile. Dunque l’obiettivo dell’approccio non-monotonico è quello di «stabilire sotto quali condizioni un’alta plausibilità possa essere sostituita dalla verità» 3 . Tali condizioni mirano innanzitutto a tradurre nella logica del primo ordine le proposizioni che hanno un certo grado di verità, e quindi a rispettare vincoli di coerenza tra insiemi di proposizioni in modo che, dato un insieme di proposizioni, «per ogni suo sottoinsieme, la sostituzione di un’alta plausibilità con la verità dia luogo a un insieme coerente di formule del primo ordine» 4 . Le logiche non-monotoniche, pur nella loro diversità, condividono il tentativo di fornire modelli concettuali e formali per trattare domini 1
Antonelli 2004, 232.
2
Badaloni - Zanardo 2004, 3.
3
Ibid.
4
Ivi, 4.
131
Capitolo 9. Plausibilità e non-monotonicità caratterizzati dalla violazione di una delle condizioni più forti della logica classica, nota appunto come la monotonicità, che asserisce la validità della seguente relazione: se Γ A ϕ e Γ ⊆ Δ, allora Δ A ϕ. Essa stabilisce che se la conclusione ϕ è conseguenza di un insieme di premesse Γ, allora è una conseguenza di qualsiasi insieme di premesse Δ che contenga Γ come suo sottoinsieme. Secondo questa condizione, dunque, una conclusione non può essere invalidata dall’ingresso di nuova informazione: una volta che si è giunti a una conclusione ϕ per via deduttiva partendo da Γ, questa rimane vera una volta per tutte, indifferentemente dalle proposizioni che possiamo aggiungere all’insieme delle premesse Γ. Da ciò segue che il numero delle proposizioni valide aumenta appunto monotonicamente rispetto all’incremento delle premesse aggiunte a Γ, nel senso che all’aumentare delle premesse aumentano anche le conseguenze. La violazione della condizione di monotonicità all’interno di ragionamenti permette invece di trattare situazioni in cui una conclusione può essere rivista alla luce dell’aggiunta o (ingresso) di nuove premesse o informazioni. Pertanto se le conclusioni possono essere invalidate dall’aggiunta di nuove premesse il numero delle asserzioni valide non solo potrebbe non aumentare, ma potrebbe anche diminuire (e comunque presentare delle fluttuazioni). Quindi l’insieme delle credenze accettate non cresce monotonicamente perché «inizialmente la conoscenza di sfondo più un insieme di credenze accettate può implicare una conclusione s. Poco dopo aver appreso che la proposizione r è vera, la conoscenza di sfondo e le credenze accettate combinate con r potrebbero non implicare più s» 5 . In tal caso si può anche arrivare a rimuovere s dall’insieme delle credenze accettate. L’approccio della logica non-monotonica si basa su una concezione precisa e piuttosto restrittiva, per quanto centrale, dell’ambito della plausibilità ed è caratterizzato dall’idea che esistono delle regole formalizzabili per questa forma d’inferenza, e che sia quindi possibile produrre una logica della plausibilità. Il ragionamento plausibile, «più tipico della vita quotidiana (ma non solo)» 6 , viene innanzitutto pensato come legato a situazioni «in cui le conclusioni sono raggiunte solo provvisoriamente, riservandosi il diritto di ritrarle alla luce di ulteriori informazioni» 7 , perché «il soggetto salta 5
Elio 2002, 4.
6
Antonelli 2004, 229.
7
Ibid.
132
Il vero e il plausibile alle conclusioni in base a informazioni parziali, riservandosi il diritto di rivisitare tali conclusioni quando nuove informazioni siano disponibili» 8 . L’approccio non-monotonico non mette dunque in discussione la certezza dei metodi attraverso i quali si giunge alla conclusione, né tanto meno le premesse. Esso intende rendere conto di un’idea della plausibilità quale forma debole d’incertezza dei metodi, che deriva semplicemente dalla possibile presenza o emergenza d’eccezioni e controesempi, che possono invalidare una conclusione precedentemente ottenuta. Nel tentativo di modellare e formalizzare il ragionamento plausibile così definito, le logiche non-monotoniche da una parte rifiutano la condizione di monotonicità, dall’altra condividono l’idea di porre tre condizioni desiderabili che la nozione d’inferenza plausibile deve soddisfare 9 . Esse sono: 1) la sopra-classicità: se la proposizione φ è una conseguenza logica dell’insieme di premesse Γ nella logica del primo ordine, allora è anche un’inferenza plausibile; 2) la riflessività: se la proposizione φ fa parte dell’insieme delle premesse Γ, allora è una conseguenza plausibile di Γ; 3) il taglio: se φ è una conseguenza plausibile di Γ, e ψ una conseguenza plausibile di Γ e φ, allora ψ è già una conseguenza plausibile di Γ. 2. Probabilità e non-monotonicità La regola del taglio (3) è particolarmente rilevante poiché permette di distinguere in modo chiaro, all’interno delle logiche non-monotoniche, la nozione di plausibilità da quella di probabilità. La regola del taglio stabilisce infatti che la lunghezza di una dimostrazione non influenza il grado di supporto che le premesse conferiscono alla conclusione. Nella teoria classica delle probabilità, invece, la lunghezza della dimostrazione che conduce a una conclusione gioca un ruolo decisivo nel sostegno conferito alle conclusioni: il grado di sostegno è inversamente proporzionale alla lunghezza della dimostrazione. All’aumentare dei passi inferenziali, la probabilità di un evento tende infatti a diminuire. Al fine di chiarire la differenza tra plausibilità e probabilità mi avvalgo di un esempio dallo schema piuttosto semplice. Si considerino le tre seguenti proposizioni: 8
Ibid.
9
Cfr. Antonelli 2004, 233.
133
Capitolo 9. Plausibilità e non-monotonicità - R(x) = ‘x è ricco’; - C(x) = ‘x è dotato di carisma’; - S(x) = ‘x ha successo politico-elettorale’. Inoltre sia Φ l’insieme delle seguenti proposizioni: - R(x); - ‘la maggior parte degli R sono C’; - ‘la maggior parte dei C sono S’. Il tipo di proposizioni contenute in Φ, come ‘la maggior parte degli R sono C’ (ossia la maggior parte degli uomini ricchi è dotata di carisma), possono essere interpretate ed espresse probabilisticamente mediante la probabilità condizionata. Ad esempio esse possono asserire che la probabilità di C dato R è uguale o superiore al 50%. In modo del tutto analogo Φ fornisce un sostegno probabilistico a un enunciato ψ se gli assegna una probabilità uguale o superiore al 50%. Osserviamo ora il diverso comportamento della plausibilità e della probabilità. Nell’esempio in questione Φ fornisce un sostegno probabilistico a C(x), perché questa segue da R(x) e Pr(C|R)≥ 0.5; tuttavia Φ non fornisce un sostegno probabilistico a S(x), poiché Φ sostiene che se x è ricco, la probabilità (condizionata) che abbia un successo politicoelettorale è bassa: quindi S(x) non è una conseguenza probabile di Φ. Per ottenere questa conclusione abbiamo infatti bisogno dell’assunzione C(x), non contenuta in Φ, la quale è asseribile mediante l’applicazione della regola del taglio. Infatti in un modello non-monotonico l’inferenza S(x) è già una conseguenza plausibile di Φ. Infatti si ha che: - Φ→R(x), in virtù della riflessività; - Φ∧R(x)→C(x), per la regola del taglio; - C(x)→S(x), per la riflessività e il taglio. Pertanto è plausibile, ma non probabile, che S(x) segua da Φ. In altre parole è plausibile che la ricchezza implichi un successo politicoelettorale, ma non è probabile (come dimostrano i numerosi insuccessi elettorali di molti uomini ricci ai quali si ascriveva scarso carisma, tra cui basti ricordare Howard Dean, Michael Huffington, Steve Forbes e in modo paradigmatico Thomas Golisano 10 ). Questo esempio chiarisce la natura non-probabilistica dell’approccio basato sulle logiche non-mono-
10
Il quale nei tre tentativi di farsi eleggere governatore dello stato di New York ha speso
93 milioni di dollari ottenendo rispettivamente il 4%, l’8% e il 14% dei voti.
134
Il vero e il plausibile toniche, mostrando come e in che senso esso distingue la nozione di plausibilità da quella di probabilità. 3. Limiti dell’approccio non-monotonico Le logiche non-monotoniche sviluppano un approccio alla nozione di plausibilità in base al quale: 1) il ragionamento plausibile è deputato a trattare situazioni d’incertezza, ossia nelle quali la candidatura di un’ipotesi o di una conclusione non sono certe perché possono essere modificate, e al limite inficiate, dall’ingresso di nuova informazione (la conoscenza è dunque time-sensitive, può cambiare nel corso del tempo); 2) un’ipotesi o una conclusione è plausibile in quanto, e fino a quando, l’ingresso di nuova informazione non la inficia o ne richiede un aggiornamento; 3) il suo ambito d’applicazione è quello del ragionamento esperto, la tassonomia, le basi di dati, etc.; 4) il ragionamento plausibile ha le proprie sue regole e una logica; 5) la logica del ragionamento plausibile è un’opportuna versione della logica classica; 6) esiste una relazione oggettiva tra plausibilità e verità: la plausibilità non è altro che un’approssimazione alla verità, in quanto esprime il grado con cui presumibilmente una proposizione si avvicina al vero. Essa non dipende dal soggetto conoscente, perché esprime la misura in cui un’affermazione a vero può essere ritenuta attendibile, ossia riproduce l’articolazione della realtà, sulla base dell’informazione disponibile a un certo istante t. In particolare essa esprime una possibilità 11 : ad esempio la proposizione ‘è altamente plausibile che esista vita su Marte’ può essere interpretata non monotonicamente come ‘può esserci vita su Marte’. Tuttavia le logiche non-monotoniche nelle loro molteplici articolazioni (la logica di default, le reti semantiche non-monotoniche, etc.) modellano una concezione limitata, per quanto centrale, del ragionamento plausibile. Un primo limite risiede nel fatto che in un dominio in continua espansione come quello del ragionamento plausibile il tentativo di render conto di «un numero sempre maggiore di esempi può portare a varianti del formalismo che non soddisfano le proprietà formali desiderate, e viceversa il desiderio di mantenere un formalismo matematicamente ele11
Cfr. Badaloni - Zanardo 2004, 3.
135
Capitolo 9. Plausibilità e non-monotonicità gante può portare a volte a perdere i fenomeni che se vogliono rappresentare» 12 . Tuttavia questa difficoltà, legata al problema del soddisfacimento dell’adeguatezza materiale e dell’adeguatezza formale della teoria, rappresenta solo la punta dell’iceberg delle difficoltà che le logiche non-monotoniche incontrano nella trattazione della plausibilità. Infatti, questo approccio si basa su una visione ridotta dell’incertezza, mirante a trattare semplicemente inferenze con possibili eccezioni o controesempi. Esso cattura perciò solo un frammento del ragionamento plausibile, quale il suo carattere provvisorio e presuntivo. Le forme d’inferenza modellate dalle logiche non-monotoniche, infatti, sono incerte in quanto producono conclusioni provvisorie che possono essere invalidate o riviste in virtù della parzialità e, più in generale, dall’incompletezza dell’informazione disponibile. Non a caso il suo principale dominio d’applicazione – che viene a sua volta definito un «tipico esempio di ragionamento plausibile» 13 – sono le tassonomie o i database. In questi casi la non completa conoscenza dell’ordine tassonomico può generare salti inferenziali che possono essere rivisti quando si presenta un nuovo caso che non concorda con essi. In secondo luogo anche se ammettono l’ingresso di nuova informazione, le logiche non-monotoniche ricorrono a una delle assunzioni più forti della logica classica, ossia l’assunzione del mondo chiuso 14 . L’uso di tale terminologia si basa su un’analogia con la fisica, nella quale essa sta a significare che i processi avvengono all’interno di sistemi chiusi, ossia non aventi scambio di materia, di energia e informazioni con altri sistemi. Tale assunzione ha diverse formulazioni, ma in questa sede è sufficiente dire che essa è caratterizzata dall’ipotesi che l’informazione di cui si dispone al momento della candidatura dell’inferenza plausibile deve essere ritenuta completa, anche se rivedibile. Pertanto l’inferenza non-monotonica non fa altro che esplicitare l’informazione già contenuta nel sistema (la tassonomia, la base di dati, etc.), e non porta alla luce nulla di veramente nuovo (ossia di non contenuto nel sistema). Essa stabilisce solo che sulla base delle informazioni disponibili a un dato momento si può ritenere la conclusione candidata come legittima (ovvero che non esiste allo stato attuale della conoscenza alcuna ragione che ne inibisce la candidatura). All’aumentare dell’informazione o della conoscenza disponibile, l’inferenza potrebbe non essere più valida, e potrebbe quindi essere abbandonata o revisionata.
12
Antonelli 2004, 248.
13
Ivi, 230.
14
Cfr. p. es. Gelfond - Watson 2003.
136
Il vero e il plausibile La debolezza di una tale concezione appare evidente non appena si considera una classe di inferenze plausibili quali quelle ampliative, come l’analogia, che sono caratterizzate dall’assunzione del mondo aperto, ossia che operano in un ambiente in cui i vari sistemi possono e di fatto scambiano, energia, materia e informazioni con altri sistemi. In tali circostanze la conclusione può essere candidata nonostante la presenza di ragioni che depongono contro la candidatura di una conclusione; anzi in alcuni casi, come l’analogia per concordanza o discordanza 15 , i motivi a sfavore possono essere quantitativamente superiori di quelli a favore, ma il salto inferenziale viene candidato ugualmente poiché ciò che conta non è il mantenimento della correttezza formale dell’inferenza, ma la sua ampliatività. Quindi anche l’approccio nonmonotonico in qualche modo si trova di fronte, e non risolve, il problema dell’analogia. L’unico caso di ragionamento plausibile che le logiche non-monotoniche riescono a trattare in modo appropriato è quello in cui se si conosce a e non vi è motivo di pensare che b sia falso (o, alternativamente, che ¬b sia vero), allora si può inferire c. Nel caso in cui b si rivela falso (ossia che ¬b sia vero), l’inferenza viene invalidata o, meno drasticamente, si può procedere a un suo raffinamento: la conclusione rimane valida, fatta eccezione per le istanze note di b che la falsificano. In altre parole si procede all’esplicita redazione di una lista di eccezioni. Ma in questo modo essa non cattura una delle principali caratteristiche dell’inferenza plausibile, quale la sua ampliatività. Di conseguenza essa esclude l’analisi dei processi euristici, che richiedono l’assunzione del mondo aperto. Secondo la visione non-monotonica, dunque, esiste ed è possibile esplicitare una logica del ragionamento plausibile, e questa coincide con una opportuna variante della logica deduttiva. Pur violando una delle condizioni caratteristiche dell’inferenza deduttiva, quale appunto la monotonicità, l’approccio non-monotonico continua a usare le ipotesi, gli strumenti concettuali e formali della logica classica: «i modelli di ragionamento non-monotonici sono possibili, mentre la logica di per sé rimane monotona» 16 . Per questo motivo essa soffre di tutti i limiti dell’approccio deduttivista alla nozione di plausibilità e si rivela essere semplicemente uno dei possibili strumenti per trattare il problema dell’aggiornamento della credenza (belief revision) e non può fornire una descrizione ampia e generale della plausibilità e delle sue varie e articolate forme d’infe15
Cfr. Cellucci 2002, 249-250.
16
Badaloni - Zanardo 2004, 4.
137
Capitolo 9. Plausibilità e non-monotonicità renza. Ciò trova conferma nel fatto che tale approccio trova facilmente applicazione nella modellizzazione d’inferenze caratteristiche dell’esperienza quotidiana, ma è di scarsa utilità nell’affrontare inferenze plausibili complesse e articolate.
138
Il vero e il plausibile
10 L’approccio cognitivista 1. Le ragioni dell’approccio cognitivista L’approccio cognitivista alla plausibilità 1 è caratterizzato da due istanze fondamentali: la necessità di rendere conto e incorporare forme ampie di ragionamento plausibile, che non possono essere trattate efficacemente per via probabilistica o per via logica, e la trattazione degli aspetti cognitivi della plausibilità in un modo tale da fornire modelli che siano implementabili computazionalmente. Questo approccio, nel tentativo di sviluppare una teoria unitaria della plausibilità, muove dall’osservazione che la logica e la probabilità offrono una descrizione parziale e inadeguata dei reali processi d’inferenza plausibile, perché non tengono conto dell’influenza di fattori emotivi e cognitivi. Essi sono una delle principali fonti dell’incertezza di cui la plausibilità è espressione, ed è dunque al loro studio che bisogna affidarsi per comprenderne le modalità d’articolazione. Una modellizzazione originaria e per certi versi esemplare di questo approccio è fornita dalla teoria di Collins-Michalski (cfr. par. 2), che è caratterizzata da un programma che incorpora questi fattori mediante una precisa rappresentazione della conoscenza (cfr. par. 2.1), l’individuazione di parametri che esprimono l’incertezza (cfr. par. 2.2) e di un insieme di modelli d’inferenza plausibile (cfr. par. 2.3). L’approccio cognitivista, per la sua natura interdisciplinare, trova applicazione in molti domini, nei quali logica e probabilità si rivelano inefficaci. Un esempio è rappresentato dall’analisi delle decisioni (cfr. par. 3) nella quale l’influenza di fattori d’origine emotiva e cognitiva, che producono vere e proprie illusioni cognitive, è essenziale, in particolare nel caso dell’avversione al rischio (cfr. par. 3.1) e del rischio non conoscibile (cfr. par. 3.2). È proprio in questi casi che la probabilità e la logica si rivelano inadeguati e la plausibilità, cognitivamente connotata, fornisce invece una soluzione ragionevole ed efficace (cfr. par. 4). La teoria di Collins-Michalski presenta tuttavia dei limiti precisi, derivanti da alcune assunzioni restrittive (cfr. par. 5), e l’approccio cognitivista in generale accanto alle sue incoraggianti prospettive presenta alcune criticità derivanti principalmente dall’attenzione eccessiva all’errore e dalla forma d’incertezza che intende modellare (cfr par. 6). 1
Cfr. Spohn 1987, Collins - Michalski 1989, Lemaire - Fayol 1995, Connell - Keane
2003a-b e 2006.
139
Capitolo 10. L’approccio cognitivista Negli approcci fin qui esaminati sia di natura probabilistica sia di natura non-probabilistica non v’è nulla di psicologico nel concetto di plausibilità: il processo di candidatura delle ipotesi, la valutazione di argomenti, la guida all’azione non fanno riferimento ad alcuna influenza della sfera soggettiva (anche emotiva) dell’agente impegnato in tali processi. Anzi, in molti casi ciò viene esplicitamente posto come uno dei desiderata della teoria. L’approccio cognitivista contesta proprio questo impianto e muove dall’osservazione che la logica e la probabilità rendono conto di una piccola parte della teoria della plausibilità, perché de facto esse intervengono, quando lo fanno, solo in modo frammentario e circoscritto nei reali processi d’inferenza plausibile. Questi processi infatti risentono profondamente dell’influenza di fattori di natura emotiva e cognitiva ed è al loro studio, secondo questo approccio, che bisogna affidarsi per comprendere la plausibilità e le sue modalità d’articolazione. Per questo motivo la trattazione cognitivista della plausibilità viene inserita, pur con alcune precisazioni che saranno chiare, all’interno della concezione non-probabilistica. È opportuno precisare che a rigore non è possibile parlare di un approccio cognitivista in modo sistematico, ossia codificato all’interno di un modello standard come quello probabilistico o deduttivista. Non solo infatti tale approccio è in continua espansione sia nella mole di risultati sperimentali sia nei domini indagati, ma, come osserva McFadden, «non è possibile né utile costruire tale modello» 2 , anche se è chiaramente possibile delinearne alcuni tratti principali. L’approccio cognitivista vuole colmare le lacune degli approcci basati sulla probabilità e la logica e render conto degli aspetti psicologici e soggettivi che caratterizzano tali processi sviluppando una teoria della plausibilità umana: in quanto prodotto dell’attività, degli interessi e della concettualizzazione dell’essere umano, la plausibilità dipende in modo essenziale dal cervello dell’essere umano e dalle sue capacità mentali. Pertanto questo approccio ritiene che la scienza cognitiva (intesa quale studio interdisciplinare di mente, cervello e delle loro relazioni), e non la matematica, la logica o la filosofia, possa condurre alla costruzione di un’efficace e unitaria teoria della plausibilità. Con ciò esso non vuole ovviamente sostenere che la logica e la probabilità non partecipino al processo di costruzione e valutazione delle ipotesi, di valutazione d’argomenti e nei processi decisionali, ma semplicemente che tali processi non sono a esse riducibili. Fattori di natura logica e probabilistica intervengono e influenzano tali processi, ma dipendono e 2
McFadden 1999, 38.
140
Il vero e il plausibile in ultima analisi possono essere subordinati a quelli cognitivi. Pertanto la teoria cognitivista della plausibilità studia e analizza come, quando e quali fattori legati allo stato epistemico 3 dell’agente impegnato in processi d’inferenza plausibile intervengano in essi e ne influenzino l’esito finale. Al fine di perseguire tale obiettivo, la teoria cognitivista fa uso di una serie di protocolli sperimentali e di una definizione piuttosto ampia di plausibilità. Innanzitutto plausibile è ciò che è concettualmente sostenuto dalla precedente conoscenza. In particolare, Connell e Keane 4 hanno raffinato questa definizione mediante l’elaborazione della knowlegde-fitting theory, secondo la quale plausibile è ciò che ben si accorda da un punto di vista concettuale con la conoscenza di cui già disponiamo, dove con accorda si intende che soddisfa i seguenti requisiti 5 : 1) ha molte fonti diverse di corroborazione; 2) non richiede una spiegazione complessa; 3) fa un uso minimo, quando lo fa, di congetture. Ad esempio, nel caso della valutazione di scenari è possibile constatare che «la plausibilità umana è basata sia sulla coerenza concettuale (ossia sulla connessione concettuale della situazione descritta), sia sulla coerenza delle parole (ossia l’informazione condivisa dalle parole usate)» 6 . In secondo luogo i protocolli sperimentali utilizzati per raggiungere tali fini possono essere forme di dialoghi in cui si risponde a domande ordinarie in condizioni d’incertezza 7 o coppie di scelte binarie (sì/no, opzioni in una scommessa, etc.). Poiché ambisce a fornire una teoria unitaria della plausibilità, l’approccio cognitivista tratta una nozione d’incertezza potenzialmente ben più estesa e ricca di quella affrontata dall’approccio probabilistico e dall’approccio deduttivista: quella che per cause di ordine cognitivo può riguardare sia le premesse sia i metodi del ragionamento. A tale fine esso arriva a ridefinire concetti che concorrono in modo essenziale 3
Lo stato epistemico esprime e formalizza un insieme di credenze circa il mondo sulla
base dell’informazione disponibile. Generalmente può essere interpretato come un ordine tra possibili stati della realtà, o come una relazione di preferenza tra fonti informative dalle quali un agente può derivare le sue credenze. Tali credenze possono avere motivazioni varie e quindi anche di carattere emotivo o istintivo, non solo logico o razionale. Cfr. Connell - Keane 2003a.
4 5
Connell - Keane 2003a, 40.
6
Connell - Keane 2003b, 264.
7
Cfr. Collins - Michalsky 1989.
141
Capitolo 10. L’approccio cognitivista a determinare la plausibilità, come quello di razionalità 8 , d’aspettativa ragionevole e di senso comune. In particolare tale approccio non ritiene, differentemente da quello probabilistico o deduttivista, che nozioni come quelle di credenza o preferenza siano proprietà primitive della teoria della plausibilità, ma piuttosto che siano risultati di processi che sono influenzati da fattori come l’atteggiamento, gli affetti o la percezione, e che quindi vanno analizzati perché in grado di determinare la plausibilità. L’obiettivo è quello di studiare come aspetti intuitivi siano incorporati nei processi razionali, e di arrivare a una concezione della plausibilità più articolata e aderente ai processi inferenziali messi in atto dai soggetti reali, in conformità a un’immagine che concepisce tali processi quali prodotti di esseri umani caratterizzati da uno stato epistemico che risente di una razionalità limitata, di emozioni e della loro relazione. In particolare l’influenza di questi aspetti produce anomalie o illusioni cognitive, ossia «discrepanze sistematiche tra le regolarità del giudizio intuitivo e i principi della teoria della probabilità, l’inferenza bayesiana e l’analisi di regressione» 9 . L’approccio cognitivista alla plausibilità riesce in effetti a mostrare come tali fattori di natura soggettiva e psicologica giochino un ruolo decisivo nel processo che conduce a una scelta comportamentale, alla valutazione di uno scenario o alla candidatura di una congettura. Lo studio di questi aspetti è tutt’altro che secondario per un’indagine approfondita e articolata dell’inferenza plausibile e trova applicazione in molti domini. Ad esempio (cfr. par. 3) lo studio dell’economia e della finanza sono casi particolarmente significativi di domini in cui sono prodotte inferenze plausibili sulla base dell’influenza di fattori cognitivi e psicologici. 2. Le basi della teoria di Collins-Michalski L’approccio cognitivista alla plausibilità trova una sua modellazione originaria e almeno per certi versi esemplare nella teoria della plausibilità di Collins-Michalski (CM). Essa intende «formalizzare le inferenze plausibili che ricorrono frequentemente nelle risposte delle persone a domande per le quali non hanno una risposta immediata» 10 ed è caratterizzata da due obiettivi principali: «la scoperta di modelli inferenziali 8
Cfr. p. es. MacFadden 1999 e Maital 2004.
9
Kahneman 2005, 103.
10
Collins - Michalski 1989, 1.
142
Il vero e il plausibile generali del ragionamento plausibile umano e la determinazione dei parametri che minano la certezza di queste conclusioni» 11 . Essa muove da un approccio sperimentale, che le permette di individuare una collezione di strutture inferenziali ricavate dalle risposte di soggetti posti di fronte a problemi specifici, al fine di giungere alla costruzione di una forma di «tassonomia dei modelli d’inferenza plausibile» 12 . La teoria adotta dunque un approccio non normativo ma descrittivo: essa «cerca di specificare come le persone di fatto ragionano, e non come dovrebbero ragionare» 13 . Ciò le consente di includere «una serie di modelli inferenziali che non occorrono nelle teorie base della logica formale» 14 e di elaborare, almeno sotto certi aspetti, una trattazione del ragionamento plausibile più ampia e flessibile di quella proposta sia dagli approcci probabilistici sia da quelli non-probabilistici. In particolare la teoria CM mira a fornire una descrizione basilare della plausibilità individuando un nucleo teorico del ragionamento plausibile umano e costruendo un modello in grado di rappresentarlo ed emularlo. Il ragionamento plausibile e la plausibilità sono concepiti come deputati a trattare l’incertezza, dove per incertezza s’intende la mancanza di conoscenza soggettiva che può nascere dallo stato epistemico di un soggetto che arriva a una conclusione (o a più conclusioni) usando metodi di ragionamento incerti, disponendo di dati e premesse incompleti o insufficienti e il quale risente dell’effetto delle proprie emozioni e di specifici processi cognitivi. L’incertezza trattata dalla teoria CM è dunque di natura epistemica, relativa allo stato interno del soggetto e non solo alla natura delle informazioni e dei modelli di ragionamento. Per esprimere queste diverse forme d’incertezza, la teoria CM individua e formalizza «alcuni parametri che minano la certezza di queste conclusioni» 15 ed è caratterizzata da un programma che «diversamente da altre teorie del ragionamento plausibile, combina aspetti semantici con aspetti parametrici catturati da stime di certezza numeriche o simboliche» 16 . Tale programma consta di tre obiettivi principali: 1) l’elaborazione di «una rappresentazione formale dei modelli d’inferenza plausibile» 17 ;
11
Ivi, 2.
12
Ibid.
13
Ivi, 7.
14
Ivi, 2.
15
Ivi, 7.
16
Ibid.
17
Ivi, 1.
143
Capitolo 10. L’approccio cognitivista 2) l’individuazione d’alcuni parametri (i parametri di certezza) «che minano la certezza delle risposte delle persone» 18 ; 3) lo sviluppo «di un sistema che metta in relazione i differenti modelli d’inferenza plausibile con i diversi parametri di certezza» 19 . 2.1. La rappresentazione della conoscenza Il primo punto del programma, ossia il problema della rappresentazione della conoscenza, viene risolto in due passaggi: - adottando la rappresentazione della conoscenza proprio della logica a valori multipli variabili di Michalski 20 ; - assumendo che la conoscenza umana sia in gran parte rappresentabile attraverso gerarchie dinamiche che sono costantemente aggiornate, modificate, revisionate. Le gerarchie dinamiche rappresentano ordini di natura parziale e sono composte da nodi e link discendenti. I nodi possono rappresentare classi, individui o manifestazioni di individui (p. es. un atomo a un certo istante di tempo t) e possono ricorrere contemporaneamente in più gerarchie. Inoltre le gerarchie possono essere gerarchie-tipo oppure gerarchie-parte. Le prime mettono in relazione i nodi secondo tipi (p. es. ordinando varie aree geografiche secondo i tipi di terreno); le seconde si articolano mediante rapporti di appartenenza e inclusione (p. es. ordinando un insieme di regioni in base all’appartenenza a una zona). Le gerarchie possono essere espresse mediante proposizioni. A tal fine si introduce innanzitutto la nozione di descrittore. È descrittore di B, il quale è a sua volta detto argomento, un nodo A di una gerarchia X che caratterizza un nodo B di un’altra gerarchia Y; si definisce termine l’espressione A(B) e referente del termine il valore c che esso può assumere. Termine e referente, legati mediante il segno dell’uguaglianza, formano dunque una proposizione (cfr. fig. 1). tipo − numero ( dispari ) = ( primi ,...) descrittore
argomento
termine
proposizione
Figura 1
18
Ibid.
19
Ibid.
20
Cfr. Michalski - Winston 1972 e Michalski 1986.
144
referenti
Il vero e il plausibile Una proposizione è dunque una registrazione delle informazioni contenute all’interno della gerarchia, che rappresentano credenze circa il mondo. A questo punto è possibile definire sia la dipendenza tra termini sia l’implicazione tra proposizioni. La prima, rappresentata dall’espressione d1(a1) ↔ d2(f(a1)): α, β, γ, esprime l’esistenza di una mutua dipendenza tra i termini d1(a1) e d2(f(a1)) secondo i gradi espressi con valori numerici e verbali dai parametri α, β, γ. Ad esempio: classifica(giocatore_di_scacchi) ↔ numero_partite(vinte): alto, alto, certo (ossia: sono certo che la classifica di un giocatore di scacchi indica il numero di partite vinte con alta affidabilità, e viceversa che il numero di partite vinte indichi con alta affidabilità la sua classifica). L’implicazione tra proposizioni, rappresentata dall’espressione d1(a1) = r1↔ d2(f(a1)) = r2: α, β, γ, esprime l’esistenza di una relazione di mutua implicazione tra le proposizioni d1(a1) = r1 e d2(f(a1)) = r2 secondo i gradi espressi con valori numerici e verbali dai parametri di certezza α, β, γ. Ad esempio: classifica(giocatore_di_scacchi) = {uno…} ↔ numero_partite(vinte) = 90%: alto, moderato, certo (ossia: sono certo che se la classifica di un giocatore di scacchi è il primo posto, allora con alta affidabilità il numero di partite vinte è pari almeno al novanta per cento, e viceversa che se il numero di partite vinte è superiore al novanta per cento, allora con moderata affidabilità la sua posizione in classifica è la prima). 2.2. I parametri di certezza Il secondo punto del programma si risolve nell’individuazione ed elencazione dei parametri che esprimono il grado di certezza relativo a una certa espressione, il quale può essere espresso sia numericamente sia simbolicamente. Collins individua nove parametri 21 ricavati dai protocolli d’indagine sperimentali somministrati a gruppi omogenei di persone, indicati da lettere greche minuscole (cfr. tab. 2), che possono essere associati in vari modi alle proposizioni, come previsto dalla logica a valori multipli variabili di Michalski. 21
Collins - Michalski 1989, 18.
145
Capitolo 10. L’approccio cognitivista
Parametro
Descrizione Esprime la probabilità condizionata che il termine alla destra di un’im-
α
plicazione o di una dipendenza abbia un particolare valore (referente) posto che il termine sinistro abbia un particolare valore. Il parametro si applica a dipendenze e implicazioni. Esprime la probabilità condizionata che il termine alla sinistra di un’im-
β
plicazione o di una dipendenza abbia un particolare valore (referente) posto che il termine destro abbia un particolare valore. Il parametro si applica a dipendenze e implicazioni.
γ
Esprime il grado di credenza circa la verità di un’espressione. Si applica a qualsiasi espressione. Esprime il grado di tipicità di un sottoinsieme all’interno di un insieme.
τ
P. es.: ‘la rondine è un tipico uccello e il pinguino è un uccello atipico’. Si applica ai modelli d’inferenza GEN e SPEC (cfr. par. 2.3).
σ
Esprime il grado di similarità di un insieme rispetto a un altro insieme e si applica alle inferenze SIM e DIS (cfr. par. 2.3). Esprime la frequenza del referente nel dominio del descrittore. P. es.:
φ
‘una larga percentuale di uccelli volano’. Si applica a qualsiasi espressione non relazionale. Esprime la dominanza di un sottoinsieme in un insieme. P. es.: ‘le galli-
δ
ne non rappresentano una larga percentuale degli uccelli, ma rappresentano una larga percentuale dei volatili da granaio’. Si applica alle inferenze GEN e SPEC. Esprime la molteplicità dell’argomento. P. es.: ‘molti minerali sono pro-
μa
dotti da una nazione come gli USA’. Si applica a qualsiasi proposizione non relazionale. Esprime la molteplicità del referente. P. es.: ‘molte nazioni producono
μr
un minerale come il rame’. Si applica a qualsiasi proposizione non relazionale.
Tabella 2: i parametri di certezza 2.3. I modelli d’inferenza plausibile I principali modelli d’inferenza plausibile trattati dalla teoria CM sono le ‘deduzioni plausibili’ (equiparabili al principio induttivo di Polya), le analogie e le induzioni, anche se la teoria mira a incorporare altre forme di ragionamento plausibile come le inferenze meta-conoscitive, le inferenze spaziali e temporali. In particolare la teoria individua e tratta quattro principali regole del ragionamento plausibile: la generalizzazione (GEN), la specializzazione (SPEC), la similarità (SIM), la dissimilarità (DIS). Esse operano all’interno di certi contesti (CX) e rispetto a certe 146
Il vero e il plausibile caratteristiche. Ad esempio una generalizzazione avviene sempre rispetto a certi aspetti e in un dato contesto. Ciò vale ovviamente anche per le altre forme d’inferenza. La generalizzazione e la specializzazione operano verticalmente lungo i nodi della gerarchia dinamica, la similarità e la dissimilarità tra due qualsiasi nodi comparabili della gerarchia. I quattro modelli sono formalizzati nel seguente modo: - GEN: a’ GEN a in CX(a’, d(a’)): γ, τ, δ P. es.: uccello GEN pollo in CX(uccelli, caratteristiche_fisiche(uccelli)): certo, atipico, bassa dominanza. Ossia: sono certo che i polli sono uccelli, ma sono uccelli atipici nelle loro caratteristiche fisiche, e sono una bassa percentuale degli uccelli. - SPEC: a’ SPEC a in CX(a, d(a)): γ, τ, δ P. es.: pollo SPEC pollame in CX(pollame, costo_mangime(pollame)): certo, tipico, moderata dominanza. Ossia: sono certo che i polli fanno parte del pollame e che sono tipici del pollame nel costo del mangime, e che sono una moderata percentuale dei volatili del granaio. - SIM: a’ SIM a in CX(A, d(A)): γ, σ P. es.: gatto SIM pantera in CX(felini, caratteristiche fisiche(felini)): certo, altamente simili. Ossia: sono certo che i gatti sono altamente simili alle pantere rispetto alle caratteristiche fisiche. - DIS: a’ DIS a in CX(A, d(A)): γ, σ P. es.: gatto DIS pantera in CX(felini, velocità(felini)): certo, abbastanza dissimili. Ossia: sono certo che i gatti sono abbastanza dissimili dalle pantere rispetto alla loro velocità. L’ipotesi che caratterizza la teoria CM è che i soggetti reali, in quanto dotati di una razionalità limitata, tendono ad avvalersi di tali forme d’inferenza plausibile fino a quando «essi non hanno informazioni contrarie o fanno inferenze contrarie per annullare tali conclusioni» 22 . Dunque un’inferenza è plausibile fino al punto in cui non esistono espliciti motivi (evidenze dirette o inferenze che produono a loro volta conclusioni) che contrastano con la conclusione da essa candidata. Ciò ovviamente espone questa assunzione a una prima e alquanto ovvia critica: infatti «un argomento che può essere addotto contro la generalità di questi modelli d’inferenza è che le persone potrebbero trarre qualsiasi tipo di conclusione assurda se seguissero, nella maggior parte
22
Ivi, 24.
147
Capitolo 10. L’approccio cognitivista dei casi, questi modelli» 23 . È possibile infatti fornire facili esempi di fallacie basate su tali modelli. Ad esempio dall’osservazione che gli uccelli volano, per generalizzazione si potrebbe concludere che gli animali o gli esseri viventi in genere volano; oppure, mediante la specializzazione, che i pinguini o le ostriche volano; oppure, ancora per dissimilarità, che la mosca o gli insetti non volano. Tuttavia già lo stesso Collins osserva che ciò non rappresenta propriamente una difficoltà, o un limite, ma una peculiarità del ragionamento plausibile. Infatti egli osserva che «inseriti in contesti di ragionamento su aspetti del mondo sui quali si ha poca conoscenza, questi tipi di conclusioni scorrette sono usuali. Ma questo non è criticare tale ragionamento plausibile: è più facile che questo conduca a conclusioni corrette, quando si hanno sufficienti informazioni per andare avanti» 24 . La possibilità di disporre d’informazioni strutturate sul contesto è dunque essenziale per la costruzione di inferenze plausibili efficaci. Inoltre bisogna osservare che alcune di queste inferenze sono di natura ampliativa e dunque per il paradosso dell’inferenza possono condurre a fallacie perché non sono intrinsecamente in grado di rispettare il vincolo della correttezza. Anche il terzo punto del programma – lo sviluppo di un sistema che mette in relazione i modelli d’inferenza plausibile con i parametri di certezza – viene risolto adottando il sistema di calcolo logico a valori multipli variabili di Michalski. I protocolli utilizzati da Collins nel corso degli esperimenti evidenziano alcune caratteristiche ricorrenti del ragionamento plausibile. In particolare: 1) esistono diversi tipi d’inferenza che possono essere utilizzati per rispondere a una questione; 2) lo stesso tipo d’inferenza può ricorrere in molte risposte diverse; 3) le prove che sostengono una questione vengono tutte pesate; 4) il grado di certezza della conclusione dipende dalla certezza dell’informazione, dalla certezza dell’inferenza, e dal fatto se inferenze diverse conducono alla stessa conclusione oppure a conclusioni opposte; 5) nel corso dei ragionamenti vengono impiegati sia argomenti legati – «dove la premessa di una conclusione dipende dalla conclusione di un’altra inferenza» 25 , sia argomenti convergenti – dove «le inferenze sono fonti indipendenti di evidenza» 26 .
23
Ivi, 23.
24
Ivi, 24.
25
Collins 1978, 195.
26
Ibid.
148
Il vero e il plausibile Questo insieme di modelli d’inferenza opera all’interno di uno spazio che Collins definisce a cinque dimensioni (dim) 27 : dim 1) inferenze sulla conoscenza, inferenze per meta-conoscenza. È possibile distinguere inferenze condotte basandosi sulla propria conoscenza e inferenze condotte basandosi sulla conoscenza della propria o altrui conoscenza (meta-conoscenza). dim 2) inferenze funzionali – inferenze insiemistiche. Per ogni tipo di inferenza è possibile distinguere una variante funzionale e una variante insiemistica. La seconda permette di trasferire la proprietà di un insieme a un altro insieme. La prima permette lo stesso trasferimento, sotto la condizione aggiuntiva che la proprietà in questione (la variabile dipendente) dipende appunto a sua volta da un’altra proprietà (la variabile indipendente): essa è dunque una sorta di «correlazione direzionale» 28 . dim 3) inferenze semantiche, spaziali, temporali. Per ogni tipo d’inferenza Collins delinea tre possibili varianti: semantica (ossia il «trasferimento di proprietà lungo uno spazio semantico» 29 ), spaziale (ossia il trasferimento di proprietà lungo uno spazio euclideo), temporale (ossia il trasferimento di proprietà lungo il tempo). Questa distinzione acquista senso in vista dell’elaborazione di una teoria computazionale della plausibilità, dal momento che l’implementazione di queste tre forme di inferenza richiede procedure e una gestione delle risorse anche molto differenti. dim 4) insiemi simili, superordinati – insiemi subordinati. Le inferenze sono la deduzione, l’induzione, la generalizzazione, l’analogia e l’abduzione, che implicano il trasferimento di proprietà su insiemi superordinati, simili o subordinati. dim 5) inferenze negative – inferenze positive. Ogni inferenza ha una versione negativa e una positiva, a seconda del fatto che la conclusione candidata predica rispettivamente l’assenza o la presenza di una certa proprietà.
La ricerca o la valutazione di un’ipotesi plausibile è un processo ben definito all’interno della teoria CM. Innanzitutto tale processo non è molto esteso perché «non ci sono lunghe catene inferenziali nel ragionamento plausibile delle persone, diversamente dalle dimostrazioni logiche e matematiche» 30 . Nel corso del processo «il soggetto comincia la ricerca d’informazioni partendo dalle parole contenute nella domanda. Quando vengono trovate informazioni, egli dà avvio a inferen27
Cfr. Collins 1978.
28
Collins 1978, 195.
29
Ibid.
30
Ivi, 8.
149
Capitolo 10. L’approccio cognitivista ze specifiche. Quale sia il modello d’inferenza applicato dipende dalla relazione tra le informazioni trovate e la domanda posta» 31 . Inoltre, come abbiamo già sottolineato, il soggetto chiamato a rispondere a una domanda ricorre a informazioni diverse per candidare le proprie conclusioni e queste informazioni possono condurre alla medesima conclusione oppure a conclusioni diverse. La candidatura delle conclusioni e delle ipotesi plausibili avviene secondo modalità rappresentabili mediante modelli formali precisi. Al fine di illustrare questo punto si consideri il seguente esempio d’inferenza plausibile tratto da un protocollo sottoposto da Collins a vari soggetti: Allievo:
E’ il Chaco la nazione dei bovini? Io so che la nazione dei bovini è qui sotto (puntando all’Argentina).
Insegnante:
Penso che sia di più la nazione delle pecore. Essa è un po’ come il Texas occidentale, quindi in qualche modo penso che sia una nazione di bovini. I bovini si trovano originariamente nella Pampas, ma non così tanto a ogni modo.
In questo particolare protocollo intervengono inferenze analogiche (ossia basate su similarità e dissimilarità), inferenze per meta-conoscenza, e le conclusioni candidate sulla base di questi modelli sono discordanti. Nell’esempio in questione viene innanzitutto tracciata una plausibile dissimilarità tra nazioni di pecore e nazioni di bestiame, in base al clima o alla vegetazione, alla luce della quale si presume che se il Chaco è una nazione di pecore non può esserlo anche di bovini. Quindi si procede a un’inferenza plausibile per meta-conoscenza (in particolare per mancanza di conoscenza 32 ) che conduce a una conclusione negativa: il Chaco non gode della proprietà indagata. Tuttavia esiste una parte indipendente del ragionamento che candida una conclusione opposta, ossia asserisce l’esistenza della proprietà in questione. Infatti l’insegnante, sulla base di una somiglianza tra il Chaco e il Texas occidentale rispetto a parametri funzionali alla crescita dei bovini come la vegetazione, il clima, il terreno, etc., e della conoscenza che il Texas occidentale è una nazione di bovini, conclude che anche il Chaco è una nazione di bovini. La trasposizione di una parte di questo protocollo, quella relativa all’analogia basata sulla similarità, nella logica di Michalski assume la forma seguente:
31
Ivi, 4.
32
Essa ha la forma seguente: se il Chaco fosse una nazione di bovini lo saprei; non lo so,
dunque non è una nazione di bovini.
150
Il vero e il plausibile d(a) = r : γ1, φ, μa a’ SIM a in CX (A; D(A)): σ, γ2 D(A) ↔ d(A): α, γ3 a, a’ SPEC A: γ4 ,γ5 —————————— d(a’) = r : γ = f (γ1, φ, μa, σ, γ2, α, γ3, γ4, γ5). Ossia: Bestiame(Texas Occidentale) ={bovini}: γ1 = alto, φ = alto, μa = alto Chaco SIM Texas in CX (regione; vegetazione(regione)): φ = moderato, γ2 = moderato Vegetazione (regione) ↔ Bestiame(regione): α = alto, γ3 = alto Texas occidentale, Chaco SPEC regione: γ4 = alto, γ5 = alto ———————————————— Bestiame(Chaco) = {bovini,…} : γ = moderato L’approccio della teoria CM riesce in questo modo a formalizzare il ruolo esercitato da fattori di natura psicologica e cognitiva sulle conclusioni candidate in situazioni d’incertezza. 3. Prospettive e illusioni plausibili La scienza cognitiva mostra come lo stato epistemico del soggetto sia essenziale nella determinazione dei processi di ragionamento plausibile (produrre e valutare ipotesi e argomenti, guidare l’azione, prendere decisioni): questi dipendono in ultima analisi da fattori come le sue emozioni, le sue priorità, la distribuzione e la accessibilità dell’informazione, etc., e non solo o comunque non prevalentemente dalla logica e dalla probabilità. Ciò porta l’approccio cognitivista alla plausibilità ad avere una natura interdisciplinare e ricadute rilevanti in vari domini. In particolare esso gode di una crescente influenza sull’analisi delle decisioni, disciplina che ha implicazioni sull’economia e sulla finanza, dove ha contribuito a creare nuovi filoni di ricerca come l’economia sperimentale e l’economia comportamentale che nonostante la loro difformità rispetto all’ortodossia prevalente trovano sempre più credito. In questi domini infatti l’uso della logica e della probabilità (in particolare il bayesianesimo) è largamente diffuso. E largamente disatteso. Per mostrare la sua maggior efficacia, la teoria cognitivista della plausibilità ricorre alla discussione di due casi esemplari in cui la teoria della probabilità e la logica si rilevano inefficaci e che invece questa riesce a trattare: il rischio avverso e il rischio non conoscibile.
151
Capitolo 10. L’approccio cognitivista In questi casi specifici, la sperimentazione (ossia la somministrazione di test a campioni di gruppi omogenei di individui) ha infatti evidenziato in modo netto che fattori cognitivi influenzano il processo di decisione, la costruzione di ipotesi e la valutazione degli argomenti almeno tanto quanto la logica o la probabilità. Ad esempio il processo decisionale tra coppie di opzioni risente del cosiddetto effetto certezza e dell’effetto isolante 33 . Il primo spinge i soggetti a «sottostimare risultati che sono meramente probabili rispetto a risultati che sono ottenuti con certezza» 34 : dunque da una parte «contribuisce all’avversione al rischio nelle scelte che implicano ricavi sicuri» 35 e dall’altra «alla ricerca del rischio nelle scelte che implicano perdite sicure» 36 ; il secondo, che si accompagna al primo, «conduce a preferenze incoerenti quando la stessa scelta è presentata in forme diverse» 37 , proprio come confortato, ad esempio, dagli studi di Connell e Keane sul ruolo delle parole nella valutazione di scenari plausibili 38 . Nei prossimi due paragrafi discuterò questi due casi ricorrendo a esempi semplici, che tuttavia non tolgono generalità alla trattazione. 3.1. L’avversione al rischio Contrariamente a quanto prescritto dalle modelizzazioni offerte dalla logica e dal calcolo probabilistico, la gestione del rischio è un fenomeno che può ricevere un trattamento profondamente asimmetrico da un punto di vista cognitivo: a parità di condizione, l’avversione al rischio è infatti molto più forte dell’assunzione del rischio. Al fine di illustrare questo punto, supponiamo che ci venga offerto di prendere parte alle due seguenti scommesse. - Scommessa 1 Ricevo 100.000 € se esce testa (50%) e pago 50.000 € altrimenti (50%); oppure ricevo 10 € euro se esce croce (50%), e pago 5 € altrimenti (50%). Dal punto di vista astrattamente probabilistico le due scommesse sono identiche (ossia in entrambe ho la stessa probabilità di vincere il doppio di quanto rischio di perdere), ma ovviamente tali non sono da un punto di vista cognitivo. I protocolli sperimentali hanno ac33
Cfr. Kahneman - Tversky 1979.
34
Kahneman - Tversky 1979, 263.
35
Ibid.
36
Ibid.
37
Ibid.
38
Cfr. Connell - Keane 2004b.
152
Il vero e il plausibile certato che la seconda opzione viene praticata dalla maggior parte dei soggetti rispetto alla prima, che presenta un rischio avverso troppo alto (la perdita di 50.000 €). Questa asimmetria è così forte, che la semplice riformulazione (o meglio diversa formulazione) di una stessa opzione produce scelte differenti (effetto isolante). Ciò si verifica nella seguente scommessa. - Scommessa 2 Essa propone due scelte 39 : 1) mi viene offerto un bonus di 1000 € e in più mi viene chiesto di scegliere se accettare (a) una scommessa di vincere altri 1000 € con probabilità del 50% (ad esempio lanciando una moneta), oppure (b) di ricevere subito altri 500 €; 2) mi viene offerto un bonus di 2000 € e inoltre mi viene chiesto di scegliere se accettare (c) una scommessa nella quale ho il 50% di perdere 1000 € oppure (d) di restituire subito 500 €. Sebbene la scelta 2 da un punto di vista probabilistico sia identica alla scelta 1, in quanto ottenuta da questa «aggiungendo 1000 al bonus iniziale e sottraendo 1000 da tutti i risultati» 40 , e quindi si abbia che a = c e b = d, solo il 16% dei soggetti sceglie a, mentre il 69% sceglie c: l’avversione al rischio (la possibilità di perdere) determina una asimmetria nella valutazione dello scenario. L’avversione al rischio, un fenomeno prevalentemente cognitivo, riesce così a spiegare e predire processi decisionali non catturati dalle analisi probabilistiche, in particolare dall’analisi bayesiana basata sul valore atteso. Questo strumento cruciale della teoria della probabilità è un mezzo largamente usato e condiviso per prendere decisioni e valutare ipotesi. Esso si ottiene sommando il valore d’ogni possibile risultato pesato con la sua rispettiva probabilità 41 : se il suo valore è positivo, il relativo risultato (o scenario) è accettato, altrimenti esso viene scartato. Si consideri ora di partecipare a una nuova scommessa. - Scommessa 3 Mi viene chiesto di scegliere se partecipare a una scommessa in cui ricevo 100.000 € se esce testa (50%), e pago 50.000 € altrimenti (50%), 39
Kahneman - Tversky 1979, 273.
40
Ibid.
41
Per l’esattezza il valore atteso di una variabile discreta xi è
n
∑ x Pr( x ) , ossia la i
i
i =1
somma dei possibili valori della variabile moltiplicati per la probabilità di verificarsi.
153
Capitolo 10. L’approccio cognitivista oppure a una in cui mi viene offerta la stessa cosa con un portafoglio di 100 lanci della stessa moneta. Per la teoria della probabilità, nella fattispecie il calcolo bayesiano del valore atteso va , le due situazioni sono identiche. Nel primo caso, infatti, abbiamo che il valore atteso è va = (100.000 €*50%) − (50.000 €*50 %) = 25.000 € , e quindi la teoria probabilistica suggerisce di assumere il rischio perché il valore è positivo. Nel secondo caso, il valore atteso è identico poiché per ogni singolo lancio il valore atteso è ancora 25.000 €, e dunque banalmente il valore atteso dell’intero portafoglio è 25.000 €. Tuttavia da un punto di vista cognitivista, ossia dei processi mentali messi in atto da un soggetto reale posto di fronte a tali situazioni, le cose non stanno così, poiché nel secondo caso la probabilità di una grande perdita è molto minore: infatti «anche coloro con poco allenamento matematico riconoscono che 100 lanci indipendenti della moneta diminuiscono il rischio» 42 . Ad esempio nel corso di 100 lanci indipendenti sarebbe necessario per produrre una perdita di 50.000 € che uscisse 33 volte croce e 67 volte croce e ciò, per la legge dei grandi numeri (che ci autorizza a credere che le occorrenze di testa e croce tendano a essere uguali), è altamente improbabile. Non a caso la maggior parte dei soggetti sceglie di prender parte alla seconda scommessa, mentre rifiuta la prima. La teoria bayesiana ritiene questa scelta un errore, derivante da quella che definisce la fallacia dei grandi numeri, poiché ogni singolo lancio ha un valore atteso di 25.000 €. Sebbene tale preferenza sembra intuitivamente fondata, tuttavia non lo è da un punto di vista logico: non a caso «Paul Samuelson, premio Nobel per l’economia nel 1970, ha mostrato che anche se l’intuizione ci suggerisce di rifiutare la scommessa singola e di accettare il portafoglio di scommesse, ciò è logicamente incoerente» 43 . 3.2. Il rischio non conoscibile La scienza cognitiva ha rilevato che le persone tendono a preferire rischi conoscibili rispetto a rischi non conoscibili anche quando sono identici da un punto di vista probabilistico. Un rischio è detto non conoscibile quando il suo esito non può essere definito mediante risultati predicibili, quando non può essergli associato un preciso valore probabilistico. Per mostrare questa ulteriore asimmetria, supponiamo nuovamente di prendere parte a una scommessa. 42
Laseter - Hild 2004, 33.
43
Ibid.
154
Il vero e il plausibile - Scommessa 4 Si supponga di partecipare a una lotteria nella quale si sa che in un’urna è contenuta una biglia bianca (B) e altre due biglie. Tutto ciò che si sa delle altre due biglie è che esse sono o nere (N) o verdi (V). Pertanto abbiamo tre scenari possibili: l’urna può contenere una biglia bianca e due biglie nere (BNN), oppure una biglia bianca e due biglie verdi (BVV), oppure una biglia bianca, una nera, una verde (BNV). La biglia bianca è un esempio di rischio conoscibile (ha infatti una probabilità di 1/3 di essere estratta), mentre la combinazione di biglie nere e verdi rappresenta un rischio non conoscibile. Ora ci viene offerto un premio di 3.000 € in base al colore della biglia estratta e a condizione di scegliere solo biglie bianche o nere (non verdi). Da un punto di vista strettamente probabilistico, le due scelte (il bianco o il nero) sono uguali visto che non si hanno informazioni sulle biglie nere 44 . Ciononostante la scienza cognitiva ha rilevato che le persone scelgono il colore bianco, che assicura la possibilità di un terzo di vincere, dal momento che l’urna potrebbe non contenere biglie nere. Le due scelte non sono dunque equivalenti agli occhi di un agente reale: «nel mondo reale, quando cuore e mente si danno battaglia, il cuore – le paure e le speranze – spesso prevale» 45 . L’approccio probabilistico non permette di spiegare un altro caso ancor più rappresentativo e radicale di scelta tra un rischio noto e un rischio non noto, come mostra il seguente esempio. - Scommessa 5 Si supponga di prendere parte a una scommessa con le stesse condizioni iniziali della scommessa 4, solo che vengono offerti 1.500 € se una tra due coppie di colori (nero-verde o bianco-verde) viene estratta. Pur non conoscendo la combinazione di biglie nere e verdi, sappiamo con certezza che nell’urna c’è una biglia bianca. Da ciò segue che se scegliamo la coppia nero-verde, qualunque sia la loro combinazione, abbiamo una probabilità di due terzi di vincere nel corso dell’estrazione. La seconda opzione (bianco-nero) è un rischio non noto poiché non sappiamo quante biglie nere sono contenute nell’urna e quindi non possiamo attribuirle un valore probabilistico. La maggior parte delle persone non a caso sceglie la prima opzione, che offre un rischio perfettamente quantificabile, rispetto alla seconda. 44
Infatti il valore atteso delle due scommesse è identico. Il valore atteso della scommessa
per la biglia bianca è: va ( B ) = (3.000 €*1 3) + (3.000 €*1 3) + (3.000 €*1 3) = 3.000 € . Per la biglia nera è: va ( N ) = (3.000 €*2 3) + (3.000 €*1 3) + (3.000 €*0) = 3.000 € . 45
Laseter - Hild 2004, 33.
155
Capitolo 10. L’approccio cognitivista Inoltre, come abbiamo sottolineato (cfr. cap. 1, par.5 e cap. 3, par. 2) la teoria della probabilità, nella versione bayesiana, è caratterizzata dall’assunzione delle probabilità rivelate, ossia dall’ipotesi che di fronte a rischi non noti sia possibile ricavare la loro probabilità in base al comportamento dell’agente: le sue scelte rivelano dunque quali sono le sue credenze, ossia le probabilità che assegna agli eventi. Il comportamento mostrato sperimentalmente dai soggetti nelle due scommesse (4 e 5) è dunque problematico per un agente bayesiano: infatti se si sceglie la biglia bianca nella scommessa (4), allora ciò significa che l’agente crede che nell’urna è più probabile che siano contenute due biglie verdi piuttosto che due biglie nere, e quindi nel corso della scommessa (5) dovrebbe preferire la combinazione bianco-verde. Egli si comporta pertanto in modo contraddittorio alla luce dell’assunzione delle probabilità rivelate. 4. Cognizione, plausibilità e probabilità La teoria cognitiva della plausibilità risolve tali difficoltà mediante la distinzione tra plausibilità e probabilità e riconoscendo che esse, benché connesse, non sono riducibili l’una all’altra. In particolare essa rinuncia ad affidarsi unicamente al calcolo del valore atteso e introduce le soglie di rischio, ricavate dall’osservazione sperimentale del comportamento di agenti reali coinvolti in processi decisionali o di formazione di ipotesi. Esse permettono di trattare in modo naturale ed efficace le situazioni illustrate sopra. Le soglie di rischio esprimono e introducono limiti oltre i quali il soggetto non è disposto ad assumere rischi ed esprimono, nel caso specifico della gestione del rischio, esigenze e priorità reali come quella di sapere quanto si può perdere o quale sia la probabilità che occorra un risultato o uno scenario negativo. Le soglie sono dunque di origine cognitiva e rappresentano la base a partire dalla quale modellare comportamenti e scelte che possono poi anche seguire un iter probabilistico o logico. L’approccio cognitivista ridefinisce così il problema della gestione del rischio mediante la determinazione di soglie che hanno una motivazione di carattere cognitivo: pertanto esso «esamina ancora l’insieme dei possibili risultati» 46 , come fa l’approccio probabilistico di matrice bayesiana, ma «è rivolto alla probabilità di toccare un punto di soglia – come una perdita netta – relativo a un rischio accettabile» 47 . Quando e 46
Ibid.
47
Ibid.
156
Il vero e il plausibile quale rischio possa esser ritenuto accettabile ovviamente dipende da fattori legati allo stato epistemico del soggetto. Si supponga ad esempio di trovarci di fronte a un agente (un individuo, un’impresa, etc.) dall’atteggiamento fortemente conservativo, ossia che non è disposto ad assumere rischi (il verificarsi di eventi negativi) che superino la soglia del 2% di probabilità di occorrere. In tale caso un soggetto siffatto rifiuterebbe la scommessa 1, che ha una probabilità del 50% di occorrere, mentre accetterebbe la scommessa 3, che ha un portafoglio con una probabilità ben inferiore di occorrere. Inoltre il comportamento del soggetto che sceglie il rischio conoscibile rispetto a quello non conoscibile nelle scommesse 4 e 5 non è contraddittorio ed è anzi del tutto plausibile in quanto egli vaglia le decisioni a fronte di una soglia di rischio che non è disposto a superare. In questo modo le soglie di rischio introducono un meccanismo inferenziale nel quale la probabilità e la logica intervengono e giocano un ruolo, ma sempre in dipendenza, o in relazione, con processi cognitivi. La guida all’azione che ne deriva non disattende la probabilità o la logica, ma le segue all’interno di un orizzonte plausibilistico in cui vigono priorità e asimmetrie determinate da fattori che non hanno una natura e un’origine logica o probabilistica. L’analisi rigorosa del rischio avverso e delle soglie di rischio rispetto alla semplice determinazione del valore atteso sono dunque uno strumento destinato a offrire importanti contributi in molti domini, poiché permettono di integrare e correggere le distorsioni prodotte da approcci meramente probabilistici. Ad esempio, nella valutazione di una serie di scenari, tipica del risk management, molti di essi potrebbero presentare un valore atteso molto alto, e quindi, mediamente, avallare una certa decisione. Tuttavia il peggior scenario possibile (worse case) potrebbe presentare un valore ben al di sotto della soglia di rischio desiderata e quindi modellare una decisione orientata in una direzione ben diversa da quella suggerita dalle considerazioni di natura probabilistica. In altre parole le soglie di rischio sono uno strumento con cui viene disegnato un nuovo assetto tra probabilità e plausibilità mediante la cognizione. 5. Alcuni limiti della teoria di Collins-Michalski L’approccio della teoria cognitiva CM delinea una concezione della plausibilità secondo cui: 1) il ragionamento plausibile è deputato a trattare situazioni d’incertezza, nelle quali lo stato epistemico del soggetto chiamato a fare valutazioni o generare ipotesi gioca un ruolo decisivo nel corso del ragio157
Capitolo 10. L’approccio cognitivista namento. In particolare nella teoria CM il soggetto non dispone d’informazioni sufficienti e metodi di ragionamento per produrre riposte certe a problemi dati. L’incertezza deriva dunque dalla mancanza o incompletezza di conoscenza soggettiva, e viene espressa mediante opportuni parametri associati all’ipotesi o conclusione candidata. 2) La teoria dell’inferenza plausibile è di natura descrittiva e non normativa. 3) Un’ipotesi è plausibile: - se è il risultato dell’applicazione di uno dei modelli d’inferenza plausibile nello spazio delimitato dalle cinque dimensioni; - fino al punto in cui non esistono espliciti motivi, ossia evidenze dirette o altre linee di ragionamento, che producono a loro volta conclusioni che contrastano con la conclusione candidata. Si può dunque generalmente sostenere che nella concezione di Collins «qualcosa è plausibile se è concettualmente sostenuta dalla conoscenza precedente» 48 . 4) Il suo ambito d’applicazione è quello del ragionamento quotidiano, condotto prevalentemente per via verbale, ma tale approccio si presta a essere esteso ad altri domini. 5) Il ragionamento plausibile ha regole proprie (i modelli d’inferenza plausibile), che non possono essere ridotti al ragionamento deduttivo o a quello probabilistico (al massimo incorporano le inferenze logiche e quelle probabilistiche all’interno di un quadro più vasto di modelli inferenziali). 6) Il ragionamento plausibile ha una logica che si articola attraverso la candidatura di conclusioni secondo i modelli d’inferenza plausibile (deduzioni plausibili, analogie e induzioni), fatto salvo che non esistano evidenze o conclusioni contrarie alla conclusione candidata. 7) Il ragionamento plausibile non soddisfa la condizione metrica e quindi non è sempre possibile stabilire quale ipotesi sia più plausibile, anche quando esistono conclusioni opposte, e determinare anche solo un ordine parziale tra diverse ipotesi plausibili. Tuttavia la teoria della plausibilità cognitiva CM presenta alcuni limiti. In particolare: 1) il fine esplicito della teoria CM, in quanto di natura descrittiva, è l’elaborazione di una tassonomia dei modelli del ragionamento plausibile in grado di descrivere il modo in cui si articola de facto il ragionamento umano quotidiano in condizioni d’incertezza (derivante da una conoscenza di base incompleta e dall’influenza di alcuni parametri cognitivi), sulla base della quale sviluppare un modello computazionale. Il perseguimento di tale obiettivo avviene tuttavia attraverso un for48
Connell - Keane 2003b, 264.
158
Il vero e il plausibile te schematismo e un’eccessiva semplificazione dei modelli d’inferenza plausibile trattati e codificati. Ciò è particolarmente evidente nel caso dell’inferenza analogica, che non viene affatto distinta dall’induzione e dalla deduzione, dal momento che semplicemente «Michalski considera l’analogia come un processo in due passaggi, con il primo passo che è un’induzione e il secondo una deduzione» 49 : pertanto la teoria CM, pur avendo il merito di incorporarla, ne fa un uso acritico, che non tiene conto dei diversi modi in cui può essere formulata e delle limitazioni di cui la nozione di similarità, come abbiamo visto (cfr. cap. 5), soffre. 2) Basandosi sulla logica di Michalski, la teoria CM è un sistema a somma-uno: l’agente che produce inferenze plausibili distribuisce la credenza in modo da rispettare un limite superiore pari al convenzionale 1 probabilistico. Infatti i parametri di certezza sono definitivi come «punti di probabilità» 50 che distribuiscono la credenza in modo classico. Quindi la logica a valori variabili serve solo a permettere di associare alle proposizioni che compongono l’universo del discorso più valori di verità, la cui somma deve essere comunque pari all’unità. Tuttavia il rispetto di tale condizione permette di trattare solo alcuni casi di ragionamento plausibile. Ad esempio non permette di trattare le dissonanze cognitive, che violano questa condizione e sono tipici processi messi in atto da soggetti reali. In questo modo essa tradisce proprio uno dei suoi principali punti programmatici, perché la teoria non studia davvero i soggetti reali, ma una forma idealizzata di agente razionale mutuato dagli strumenti concettuali e formali di cui si avvale. 3) Pur motivata dall’esigenza di trattare gli aspetti cognitivi e psicologici della plausibilità, la teoria non estende la ricerca e l’analisi della plausibilità a casi più complessi e a contesti più articolati, come il ragionamento esperto. Ciò le permetterebbe di offrire un contributo in domini in cui la teoria della plausibilità cognitiva è sempre più rilevante, come l’economia e la finanza. Inoltre questi domini mostrano la necessità di approfondire i processi inferenziali messi in atto in condizioni di conoscenza comune. Un’informazione viene definita una «conoscenza comune a un gruppo di persone se tutti i componenti di quel gruppo la conoscono, sanno che altri la conoscono, sanno che altri sanno che loro la conoscono, e così via» 51 . Essa è diversa dalla semplice informazione reciproca, «che implica solo il possesso di quella determinata in-
49
Kokinov 1994, 250.
50
Michalski - Winston 1986, 133.
51
Paulos 2004, 15.
159
Capitolo 10. L’approccio cognitivista formazione e non anche la consapevolezza della conoscenza altrui» 52 . Affinché sia possibile che una conoscenza reciproca divenga una conoscenza comune, infatti, è necessaria la presenza di un arbitro indipendente rispetto ai vari agenti che effettuano inferenze e condividono informazioni. In questi casi si possono generare fenomeni come le credenze che si auto-avverano, ossia casi in cui «le attese possono in alcuni casi predire il risultato correttamente poiché esse influenzano il risultato» 53 . In queste circostanze non sono le attese presenti ad adeguarsi agli eventi futuri, ma gli eventi futuri che sono modellati dalle attese presenti. Ad esempio, nel caso del mercato azionario, se un numero sufficiente di investitori, a un certo punto, crede per qualsiasi ragione nel potenziale di una data azione, ossia nel fatto che il suo prezzo stia per aumentare, allora il prezzo dell’azione salirà solo per questa unica ragione, giustificando questa credenza. Infatti, gli investitori inizieranno a comprare quelle azioni, credendo che stia per aumentare e quindi spinti dalla speranza di poterle poi rivendere quando il prezzo sarà più alto al fine di ottenerne degli utili; ciò farà lievitare il prezzo delle azioni, proprio come la loro credenza supponeva. Chiaramente non sempre questa credenza si auto-avvererà, poiché esiste una soglia che deve essere varcata affinché tale processo venga innescato (in questo caso la soglia è un certo numero di investitori). Tuttavia fenomeni del genere non sono affatto rari, e anzi sono alla base di alcune delle più note bolle speculative e dei crolli improvvisi del mercato azionario, oltreché di alcune delle tecniche più comuni di frode azionaria come il pump and dump. 6. Prospettive e criticità dell’approccio cognitivista Il merito principale ascrivibile al cognitivismo è che esso mostra la necessità di superare i limiti degli approcci basati sulla probabilità e la logica e, parafrasando Hacking, fissa alcune delle ragioni di un processo in pieno svolgimento quale l’emergenza della plausibilità, di cui questo libro tenta di dar conto. Inoltre l’approccio cognitivista alla plausibilità ha il pregio di trattare forme di ragionamento ampie d’inferenza plausibile in fenomeni e domini articolati. Ciò gli consente di fornire una trattazione in grado di alimentare la prospettiva della costruzione d’una teoria unitaria della plausibilità, che incorpori elementi e modelli sia di matrice logico-mate52
Ibid.
53
Gillies 2000, 196.
160
Il vero e il plausibile matica sia d’origine mentale ed emotiva, anche se va osservato che esso non fornisce e non vuole fornire «un sostituto di concetti e teorie specifiche di vari campi disciplinari» 54 . L’approccio cognitivista è esplicitamente fondato e guidato «dall’analogia tra intuizione e percezione» 55 , la quale è «particolarmente fruttuosa nell’identificare i modi in cui il pensiero intuitivo differisce dal ragionamento deliberato» 56 . Una delle sue espressioni più note, la teoria prospettica di Kahneman e Tversky, è simile alla teoria della Gestalt perché mira a rilevare e descrivere errori prospettici. Mentre la seconda è rivolta alla percezione e mostra come essa possa dar luogo a illusioni ottiche, la prima si rivolge al pensiero intuitivo e mostra come esso si avvalga di euristiche che differiscono dai principi del pensiero razionale e che sono tali da produrre illusioni cognitive. Le illusioni cognitive, pertanto, rappresentano per il pensiero intuitivo ciò che le illusioni ottiche rappresentano per la percezione. Mentre nel secondo caso lo stesso oggetto fisico può essere percepito in due modi del tutto diversi per effetto di specifici principi d’organizzazione dell’informazione spaziale, nel primo caso lo stesso oggetto logico può essere percepito in modi difformi per effetto dell’influenza di fattori emotivi e cognitivi. Non a caso un esempio molto indagato nella teoria cognitivista, la cosiddetta euristica del giudizio, viene «illustrato in analogia al ruolo che l’indistinzione dei contorni gioca come potente determinante della distanza percepita delle montagne» 57 . Tuttavia «diversamente dai principi della Gestalt, che sono stati catalogati molto tempo fa» 58 , un elenco dei fattori che influenzano la costruzione di giudizi razionali «non è stato ancora redatto» 59 . Alcuni di essi – come l’accessibilità, l’affetto, l’ancoraggio, il framing – sono ben studiati nei processi decisionali e possono essere utili per evitare errori. Infatti un «individuo diventa consapevole di un fattore che non era parte del giudizio intuitivo e compie uno sforzo per adeguarsi conseguentemente» 60 . In questo modo un soggetto costruisce ipotesi o prende decisioni sulla base di congetture plausibili che tengono conto di regole logiche o statistiche altrimenti non considerate.
54
Kahneman 2002, 130.
55
Ibid.
56
Ibid.
57
Ivi, 103.
58
Ivi, 127.
59
Ibid.
60
Ivi, 112-113.
161
Capitolo 10. L’approccio cognitivista Accanto a queste prospettive di grande interesse, l’approccio cognitivista è caratterizzato da alcune criticità di rilievo. Esse, se adeguatamente trattate, possono contribuire a un suo sviluppo e potenziamento. In questa sede ne indico due, che sono strettamente connesse tra loro e che possono essere considerate come proposte per «un’agenda per la ricerca» 61 dell’approccio cognitivista. 1) L’attenzione dell’approccio cognitivista alle distorsioni cognitive e agli errori prospettici – ossia le discrepanze sistematiche tra giudizio intuitivo e i principi della teoria della probabilità, dell’inferenza bayesiana e l’analisi regressiva – è importante perché permette di scoprire e chiarire gli errori connessi alla plausibilità e più in generale ai processi razionali. Per inciso, vale la pena ricordare che Gigerenzer 62 argomenta contro il fatto che le illusioni cognitive possano essere considerate come errori. Egli mostra infatti come sia possibile costruire rappresentazioni che fanno dissolvere un’illusione cognitiva, ad esempio rappresentando un problema in termini di frequenze naturali piuttosto che in termini strettamente probabilistici 63 . Tuttavia va osservato che tale argomento non rappresenta una confutazione o un indebolimento dell’approccio cognitivista, ma piuttosto una conferma. Il fatto che diverse rappresentazioni di uno stesso oggetto logico generino percezioni diverse, alcune delle quali possono anche far scomparire le illusioni cognitive, è del tutto in accordo con i principi e i risultati dell’approccio cognitivista, secondo il quale i processi euristici sono sensibili alla rappresentazione e al riferimento e dunque nulla vieta che una certa rappresentazione dia facilmente accesso alla soluzione corretta. Semmai, si può osservare come tale approccio corra il rischio di rimanere confinato nel processo di studio e rilevazione degli errori. Una volta che l’errore è stato rilevato, il cognitivismo dovrebbe infatti poter dire quali sono le caratteristiche proprie del ragionamento – e della plausibilità – non semplicemente in difformità rispetto ai modelli analitici standard. Inoltre concentrandosi sull’errore prospettico, esso rischia di relegare la razionalità e la plausibilità a una forma d’illusione epistemologica. L’idea che la plausibilità – o il processo razionale da cui essa deriva – oscilli tra un errore prospettico e la conformità ai principi delle suddette teorie è restrittiva e pone un serio limite. In primo luogo, perché nei principali settori disciplinari in cui l’approccio cognitivista trova applicazione – quali quelli socio-economici 61
Ivi, 126.
62
Cfr. Gigerenzer 1991a, 1991b, 1994, 1996.
63
Per una chiara e riepilogativa trattazione di questo punto cfr. Gigerenzer 2002.
162
Il vero e il plausibile caratterizzati da un’intrinseca complessità e apertura – non è affatto pacifico che esista qualcosa come una distinzione tra errore del giudizio soggettivo e comportamento del sistema. Nei sistemi che veicolano credenze, come ad esempio i mercati finanziari, il comportamento del sistema è strettamente connesso al giudizio di uno o più soggetti e viceversa. Esso è caratterizzato da partecipanti pensanti «i quali analizzano le loro situazioni sociali e formano credenze e teorie su esse» 64 le quali possono anche essere «piene di errori e fraintendimenti» 65 . Tuttavia, pur nella loro imperfezione, esse «influenzano le azioni dei partecipanti, e quindi contribuiscono a plasmare il modo in cui il sistema sociale si evolve» 66 . A sua volta, lo sviluppo del sistema sociale «influenza le credenze e le teorie dei partecipanti su esso, e cosi via» 67 mediante un «continuo processo d’interazione che Soros chiama riflessività» 68 . L’esistenza di una realtà che si comporta secondo determinati principi, da cui il processo di razionalità limitata si discosta per effetto di distorsioni percettive, è dunque un’ipotesi controversa, che vale solo per una classe molto ristretta di fenomeni e in situazioni idealizzate e semplificate in cui si può ragionevolmente supporre che i due ambiti (quello delle credenze e quello sistemico) siano separati. In secondo luogo, non è affatto pacifico che in condizioni di reale incertezza tali strumenti analitici siano davvero efficaci. E’ alquanto controverso e opinabile, come mostrano le argomentazioni dell’economia eterodossa e alcune delle sue metodologie più feconde – come la triangolazione 69 (o pluralismo metodologico) – che la teoria della probabilità, l’analisi regressiva o l’inferenza bayesiana siano strumenti adeguati a rendere conto in profondità di tali circostanze. Anzi, è lecito asserire che anche in questo caso ciò vale per una classe molto ristretta di fenomeni e nei quali, per giunta, l’incertezza in senso stretto non interviene. 2) I protocolli fin qui utilizzati, per quanto detto sopra, sono rivolti all’indagine di una forma debole d’incertezza. Anzi, per l’esattezza essi trattano quello che in senso stretto è il rischio, ossia situazioni in cui ci si trova di fronte o a esiti probabilisticamente determinati (rischio conoscibile) o a un insieme noto d’opzioni alle quali non è sempre possibile assegnare un preciso valore probabilistico (rischio non conoscibile) o a 64
Gillies 2005, 197.
65
Ibid.
66
Ibid.
67
Ibid.
68
Ibid.
69
Cfr. p. es. Olsen 2004a e 2004b.
163
Capitolo 10. L’approccio cognitivista una loro combinazione. La costruzione di una teoria unitaria della plausibilità, cui mira l’approccio cognitivista, richiede invece lo studio dei processi inferenziali messi in atto sotto forme radicali d’incertezza, in cui non solo non sono note le possibili opzioni, ma nelle quali semplicemente non si sa. Questa analisi è centrale per rispondere a problemi interessanti negli ambiti socio-economici. Ad esempio un problema di grande attualità che affronta l’incertezza in senso stretto è la scelta delle politiche monetarie. Tale processo 70 è complesso e aperto ed è caratterizzato dalla costruzione di scenari che integrano dati sia quantitativi sia qualitativi, e mettono in gioco credenze, attese e modelli costruiti mediante i classici strumenti analitici. In questo caso non è possibile non solo eliminare l’incertezza, ma anche solo distinguere chiaramente, per effetto della riflessività, tra incertezza epistemica e quella sistemica. Per questi fenomeni è dunque necessaria un’integrazione tra trattazione dell’incertezza epistemica e trattazione dell’incertezza sistemica – e della loro reciproca influenza, – che rappresenta la base sulla quale costruire una analisi più profonda della plausibilità e, più in generale, della razionalità, che può essere estesa con successo ai vari ambiti disciplinari con i quali l’approccio cognitivista si interfaccia.
70
Cfr. p. es. Downward - Mearman 2005.
164
Il vero e il plausibile
11 Plausibilità e oggettività 1. Verisimiglianza e oggettività La teoria della verisimiglianza si propone di trattare e fornire una risposta a due principali questioni che occupano un ruolo cruciale nella riflessione sulla plausibilità: - una questione teorica, quale «la preferenza teorica» 1 , ossia la corroborazione, o attendibilità, di una teoria, volta a stabilire se «esistano argomenti puramente razionali, inclusi argomenti empirici, per preferire alcune congetture o ipotesi ad altre» 2 ; - una questione pratica, quale la costruzione di un metodo di preferenza razionale per l’azione che consenta di stabilire «a quale teoria dovremmo affidarci per l’azione pratica, da un punto di vista razionale» 3 , e se «esista qualcosa come una scelta razionale» 4 . Essa, diversamente dagli approcci fin qui trattati, muove da un visione di tipo oggettivo, motivata da una precisa relazione tra verità e plausibilità e dalla trattazione di una forma d’incertezza ontologica e non epistemologica. Infatti essa è caratterizzata dall’ipotesi che esista una verità ultima oggettiva (indipendente dal soggetto conoscente) cui la scienza si approssima mediante la formulazione di una serie di teorie. La verisimiglianza è uno strumento per preferire tra queste teorie, anche quando sono false. Questa nozione è di tipo contenutistico (cfr. par. 2) e viene definita in termini strettamente proposizionali (cfr. par. 3) mediante una precisa relazione con la nozione di probabilità – nella fattispecie l’improbabilità (cfr. par. 4). Tuttavia essa soffre di limiti insormontabili in quanto si rivela essere contraddittoria o, in un suo raffinamento basato sulla semantica dei mondi possibili, inservibile (cfr. par. 5). La nozione di verisimiglianza deve la sua formulazione originaria a Popper 5 e rappresenta il nucleo della sua teoria della conoscenza oggettiva, la quale ha come obiettivo la trattazione del problema della ricerca della verità e del progresso della scienza. Tale nozione vuole offrire una soluzione al problema humeano della giustificazione della conoscenza 1
Popper 1979, 13.
2
Ibid.
3
Ivi, 21.
4
Ibid.
5
Per la cui versione definitiva cfr. Popper 1979, 44-68 e 319-340.
165
Capitolo 11. Plausibilità e oggettività derivante da inferenze non-deduttive. Essa affronta pertanto il problema dell’induzione nelle sue due forme: quella logica (ossia se sia giustificato passare da ripetute istanze di cui abbiamo esperienza ad altre istanze di cui non abbiamo esperienza) e quella psicologica (ossia perché le persone si aspettano e credono che istanze di cui non hanno esperienza si conformeranno a quelle di cui hanno esperienza). Anche se verisimiglianza e plausibilità, come avremo modo di vedere, differiscono sotto molti aspetti e in più di un senso, tuttavia esse affrontano un insieme comune di problemi che giustifica la scelta di trattare questa teoria, per motivi che saranno chiari, tra gli approcci nonprobabilistici alla plausibilità. Innanzitutto la teoria popperiana muove da una prospettiva essenzialmente diversa da quella delle teorie della plausibilità fin qui illustrate: essa ricorre infatti a un approccio oggettivo e realista, nella fattispecie all’idea che sia possibile misurare in termini del tutto oggettivi, ossia senza far riferimento al soggetto conoscente, qualcosa come l’approssimazione al vero. In particolare essa risiede su tre ipotesi fondamentali: - esiste una verità ultima (la Verità, in senso tarskiano), - cui la scienza si approssima, - che è oggettiva, ossia indipendente dal soggetto conoscente. Sulla base di tali ipotesi «il compito della scienza è, metaforicamente parlando, colpire il più possibile l’obiettivo (T) delle proposizioni vere, mediante il metodo di proporre teorie o congetture che ci sembrano promettenti, e il meno possibile l’area falsa» 6 . Il punto di partenza della teoria della verisimiglianza è la constatazione che il problema logico dell’induzione, come mostra Hume, non può essere risolto, in quanto non esiste un criterio di verità e di conseguenza «tutte le nostre teorie rimangono tentativi, congetture, ipotesi» 7 . Ciononostante è possibile fare progressi utilizzando un criterio di falsità, in virtù «dell’asimmetria tra verificazione e falsificazione mediante l’esperienza» 8 : infatti mentre è sufficiente che una sola conseguenza di una teoria sia falsa per stabilirne la falsità, nessun insieme di conseguenze vere, per quanto grande, garantisce che una teoria sia vera. La ricerca della falsità è legata al processo di ricerca della verità, perché «chi è interessato alla verità deve anche essere interessato alla falsità, poiché scoprire che una proposizione è falsa è lo stesso che scoprire che la sua negazione è vera» 9 . In particolare, anche se il problema logico 6
Cfr. Popper 1979, 54.
7
Popper 1979, 13.
8
Ivi, 12.
9
Ivi, 13.
166
Il vero e il plausibile dell’induzione non può essere risolto, è possibile fornire un metodo per scegliere e preferire tra teorie in competizione (ossia teorie che tentano di risolvere lo stesso problema o un insieme comune di problemi): dunque «sebbene non esiste alcuna garanzia che saremo in grado di fare progressi verso teorie migliori» 10 , si può comunque operare una scelta tra varie teorie. Tale scelta è possibile mediante la verisimiglianza, che fornisce un metodo per preferire teorie in competizione valutandone il loro grado di corroborazione. Per grado di corroborazione «si intende un resoconto coinciso che valuti lo stato (a un certo tempo t) della discussione critica di una teoria, in relazione al modo in cui risolve i suoi problemi; il suo grado di testabilità; la severità dei test cui è stata sottoposta» 11 e dunque è «un rapporto di valutazione della performance passate» 12 . In breve esso è «uno strumento per esprimere la preferenza in relazione alla verità» 13 . La teoria della verisimiglianza si distingue pertanto non solo dagli approcci probabilistici, ma anche dagli altri approcci non-probabilistici. Essa non ha a che fare con il consenso (il plausus), la soggettività e l’incertezza epistemica, ma con la verità e l’oggettività dei fatti e quindi risponde per molti versi a un tentativo diametralmente opposto a quello finora considerato in questo volume: la possibilità di valutare e misurare in termini oggettivi la verità e, come vedremo, la falsità attraverso la verisimiglianza. Popper ipotizza che data T – la verità, – sia possibile approssimarsi a essa mediante la formulazione di una serie di teorie in competizione T1, T2, T3 ,…, Tn, che possono essere valutate in termini contenutistici mediante la «nozione logica di verisimiglianza» 14 , ossia considerando la loro forza logica. Inoltre egli ipotizza che la nozione di contenuto, da cui quella di forza logica discende, sia misurabile tramite la probabilità e che anche qui la falsità giochi un ruolo decisivo.
10
Ivi, 17.
11
Ivi, 18.
12
Ibid.
13
Ivi, 20.
14
Ivi, 47.
167
Capitolo 11. Plausibilità e oggettività 2. Contenuto e verisimiglianza La teoria della verisimiglianza è il risultato di un approccio contenutistico: la nozione di verisimiglianza è definita a partire da quella di contenuto informativo, il quale ha una natura logica (proposizionale). In particolare la verisimiglianza è sviluppata mediante una relativizzazione della nozione di contenuto tarskiano. Innanzitutto per contenuto di una proposizione (o di una teoria) ct Popper intende «la classe di tutte quelle proposizioni che discendono da essa» 15 , ossia l’insieme delle proposizioni chiuso rispetto alla nozione di conseguenza logica. Esso è pertanto una misura definita in termini strettamente proposizionali: maggiore sarà il contenuto di una proposizione, ossia l’estensione dell’insieme delle proposizioni che seguono da essa – la sua forza logica, – maggiore sarà il suo potere informativo. La nozione di contenuto di una proposizione contiene come suoi sottoinsiemi il contenuto di verità e il contenuto di falsità, ossia rispettivamente «la classe di tutte le proposizione vere che discendono da essa e che non sono tautologiche» 16 e la classe di tutte le proposizione false che discendono da essa. La clausola che esclude le proposizioni tautologiche è essenziale per motivi che saranno chiari in seguito (cfr. par. 4). La nozione di contenuto di falsità, tuttavia, è alquanto problematica perché, come osserva Popper, «non ha le proprietà caratteristiche di un ‘contenuto’» 17 dato che da qualsiasi proposizione falsa è possibile dedurre logicamente proposizioni vere. Per questo motivo Popper ricorre a una sua relativizzazione. Il contenuto relativo di una proposizione a dato il contenuto Y – denotato a|Y – è la classe di tutte le proposizioni deducibili da a in presenza di Y, ma non deducibili da Y soltanto. Quindi il contenuto relativo di una proposizione a|Y è l’informazione con cui a in presenza di Y trascende Y. La relativizzazione consente dunque di render conto della relazione tra una congettura interessante e la conoscenza di sfondo al tempo t. Infatti ciò che è interessante in una nuova congettura è proprio il suo contenuto relativo, ossia quella parte di contenuto che va oltre la conoscenza di sfondo: se la congettura non contiene nulla che va oltre essa, allora il suo contenuto relativo è pari a zero. A questo punto è possibile definire il contenuto di falsità di a – cf – come il contenuto di a dato il contenuto di verità di a – cv –: ossia cf(a) = a| cv(a). 15
Ivi, 48.
16
Ibid.
17
Ibid.
168
Il vero e il plausibile La necessità di sviluppare una nozione come quella di contenuto di falsità deriva dall’ipotesi caratteristica della teoria popperiana, ossia che l’approssimazione al vero sia possibile anche nel caso di teorie e ipotesi false: infatti «una proposizione falsa può apparire come più vicina alla verità di un'altra proposizione falsa» 18 e pertanto si possono utilizzare gradi di falsità quale mezzo per approssimare la verità. Per chiarire il senso di tale affermazione, si pensi al seguente esempio: quando si asserisce che il numero dei pianeti del sistema solare è tredici, e quando si asserisce che il numero dei pianeti del sistema solare è centoventi, in entrambi i casi si sta asserendo qualcosa di falso, ma la prima, secondo Popper, è in qualche modo più vicina al vero della seconda, ha una distanza minore dalla Verità. 3. La definizione della verisimiglianza La verisimiglianza, dato che per ipotesi l’approssimazione alla verità e il progresso scientifico possono essere perseguiti sia mediante la verità sia mediante la falsità, è una nozione logica che formalizza e «identifica l’idea intuitiva di approssimazione alla verità con quella di alto contenuto di verità, e basso ‘contenuto di falsità’» 19 . Essa misura dunque la forza logica sia di una teoria vera sia di una teoria falsa. Nel caso di una teoria vera, che può implicare solo proposizioni vere, la verisimiglianza varierà unicamente in ragione del suo contenuto di verità. Maggiore è il numero di proposizioni vere che implica, ossia maggiore è il suo contenuto informativo, e più vicina sarà alla Verità, e quindi maggiore sarà il suo grado di verisimiglianza. Dunque, date due teorie vere A e B, A è più verisimile di B se il contenuto di verità B è incluso in quello di A, e quindi se B è un sottoinsieme di A, è contenuta in A. Dato che dal falso segue qualsiasi cosa (ex falso quodlibet), da una qualsiasi teoria falsa A seguono sia proposizioni vere sia proposizioni false. Tale teoria avrà dunque un contento composto da un contenuto di verità (l’intersezione di A con la Verità) e un contenuto di falsità (l’intersezione di A con l’insieme di tutte le proposizioni false). Pertanto A può essere rappresentata, da un punto di vista insiemistico, come l’unione del suo contenuto di verità e del suo contenuto di falsità. Per valutare il suo grado di verisimiglianza è dunque necessario procedere a esaminare e pesare la relazione tra il suo contenuto di verità e il suo con18
Ivi, 55.
19
Ivi, 57.
169
Capitolo 11. Plausibilità e oggettività tenuto di falsità. La nozione di verisimiglianza per teorie false viene pertanto definita nel modo seguente 20 . Se A e B sono due teorie confrontabili e indichiamo con cv e cf rispettivamente il loro contenuto di verità ed il loro contenuto di falsità, allora A è più verisimile ( ) di B se e solo se vale quanto segue:
(V) A
B ↔ ((cv( B) ⊂ cv( A)) ∧ (cf ( A) ⊆ cf ( B))) ∨ ((cv( B) ⊆ cv( A)) ∧ (cf ( A) ⊂ cf ( B)))
Ossia o A ha un contenuto di verità strettamente maggiore di quello di B, e un contenuto di falsità non superiore a quello di B (minore o uguale), oppure quand’anche B ha un contenuto di verità pari a quello di A, allora il contenuto di falsità di A è strettamente minore di quello di B. Le verità logiche, l’insieme delle tautologie (TAUT), fanno ovviamene parte del contenuto di qualsiasi teoria o ipotesi perché esse seguono da qualsiasi teoria, sia essa vera sia essa falsa. Quindi per una qualsiasi ipotesi o teoria T vale la proprietà ∀T (TAUT ⊆ ct (T )).
4. Verisimiglianza e probabilità La teoria della verisimiglianza è dunque basata sull’idea che la vicinanza alla verità sia una misura che aumenta con il suo contenuto di verità e decresce con il suo contenuto di falsità: maggiore sarà il contenuto di verità di una teoria rispetto al suo contenuto di falsità, più essa sarà verisimile. La verisimiglianza è pertanto uno strumento per valutare ipotesi nel quale non v’è nulla di soggettivo o di legato al consenso dell’individuo. L’intento della teoria della verisimiglianza che ne discende (nei suoi due principali approcci: quello contenutistico e quello basato sulla similitudine), è quello di fornire criteri oggettivi per valutare la distanza dalla verità. Anche se Popper «non pensa che il grado di verisimilitudine, o la misura del contenuto di verità, o il contenuto di falsità (o, diciamo, il grado di corroborazione, o anche la probabilità logica) possa sempre essere determinato numericamente, eccezion fatta per certi casi limite (come lo 0 e lo 1)» 21 , la teoria della verosimiglianza muove dall’ipotesi che sia possibile costruire una sorta di metrica, di misurazione del grado di essere vicino al vero. A questo specifico compito è deputata la teoria
20
Cfr. Popper 1979, 52.
21
Ivi, 59.
170
Il vero e il plausibile della probabilità, che è distinta ma ha una precisa relazione con la verisimiglianza. Secondo Popper la probabilità misura il grado con cui qualcosa sembra essere vero, e quindi ha a che fare con le apparenze. La verisimiglianza invece misura il grado con cui qualcosa è come la verità, e quindi riguarda fatti oggettivi. Queste due nozioni sono legate da una precisa relazione logica: la probabilità varia inversamente rispetto al grado di verisimiglianza. In altre parole, le teorie scientifiche saranno tanto più verisimili (e informative) quanto più altamente improbabili saranno le loro previsioni. Tale relazione inversa deriva dalla nozione di contenuto informativo e stabilisce che il contenuto ct di una proposizione a dato B, è tale che ct (a | B ) = 1 − Pr(a | B ) 22 . Ossia la teoria della verisimiglianza si basa sull’assioma che il contenuto informativo di una teoria sia dato dall’improbabilità delle sue predizioni. Ciò dà ragione dell’affermazione di Popper secondo cui «ogni teoria probabilistica della preferenza (e quindi ogni teoria probabilistica dell’induzione) è assurda» 23 . Da ciò segue che le verità logiche hanno una verisimiglianza nulla, poiché godono del valore probabilistico massimo: esse non dicono nulla di davvero informativo e le loro predizioni sono vuote, perché seguono da qualsiasi teoria e quindi non aggiungono nulla al loro contenuto. Il criterio fornito dalla verisimiglianza per rispondere alla questione sia teorica sia pratica dell’induzione è pertanto l’improbabilità: la verosimiglianza di una teoria «aumenta e diminuisce con il suo contenuto informativo e dunque con la sua improbabilità (nel senso del calcolo della probabilità). Dunque la ‘migliore’ o ‘preferibile’ ipotesi sarà, più spesso, la più improbabile» 24 . Tale conclusione si basa su un’assunzione piuttosto semplice: «contenuto = improbabilità» 25 . Pertanto la teoria della verisimiglianza tratta una forma precisa d’incertezza: un’ipotesi o una teoria è incerta nella misura in cui si pone a una certa distanza da una Verità che, benché irraggiungibile, esiste oggettivamente e indipendentemente dallo stato di conoscenza del soggetto. Essa intende modellare pertanto una forma d’incertezza ontologica e non epistemologica.
22
Cfr. Popper 1979, 51.
23
Ivi, 18.
24
Ibid.
25
Ivi, 17.
171
Capitolo 11. Plausibilità e oggettività 5. I limiti della verisimiglianza La teoria della verisimiglianza propone un approccio e alcune soluzioni a questioni centrali della plausibilità. In particolare alla luce di questa teoria: 1) l’obiettivo della scienza è la ricerca della Verità. Ciò comporta la trattazione del problema humeano della giustificazione della conoscenza, in particolare del problema dell’induzione nella sua forma logica e psicologica. Questo apre due questioni: una teorica – la corroborazione delle teorie – e una pratica – la scelta razionale. 2) Il problema logico dell’induzione, come mostra Hume, non può essere risolto, in quanto non esiste un criterio di verità. La Verità, anche se esiste, è irraggiungibile e tutte le nostre conoscenze sono di natura congetturale e ipotetica. Esse sono dunque incerte, in quanto «l’idea di verità è assolutista, ma nessuna affermazione può essere fatta con assoluta certezza: siamo cercatori della verità ma non suoi possessori» 26 . 3) Ciononostante il progresso della scienza può essere perseguito mediante un criterio di falsità, in virtù dell’asimmetria tra verificazione e falsificazione. 4) È dunque possibile fornire un metodo per affrontare sia la questione teorica, ossia scegliere e preferire tra teorie in competizione (teorie che tentano di risolvere lo stesso problema o un insieme comune di problemi), sia la questione pratica, ossia avere una base razionale per l’azione. In particolare «sebbene non esista alcuna garanzia che saremo in grado di fare progressi verso teorie migliori» 27 , si può comunque scegliere tra varie teorie e avere come base per l’azione la teoria o l’ipotesi meglio testata. Tale scelta è consentita dalla verisimiglianza. 5) La verisimiglianza è una nozione logica che formalizza e identifica l’idea di approssimazione alla verità con quella di alto contenuto di verità e basso contenuto di falsità. Essa si basa su una relativizzazione della nozione di contenuto tarskiano, e viene quindi definita in termini strettamente proposizionali. 6) La verisimiglianza tratta una forma d’incertezza ontologica e non epistemologica, ossia esprime la distanza dalla Verità, la quale, sebbene irraggiungibile, può comunque essere approssimata. 7) La verisimiglianza permette di effettuare la valutazione di teorie e la scelta razionale mediante un criterio non-probabilistico, nel senso del calcolo della probabilità, perché essa aumenta e diminuisce in relazione al suo contenuto informativo e dunque con la sua improbabilità. La mi26
Popper 1979, 47.
27
Ibid.
172
Il vero e il plausibile gliore o preferibile ipotesi sarà, in linea generale, la più improbabile. Tale conclusione si basa su un’assunzione piuttosto semplice: contenuto = improbabilità. 8) La falsità riveste un duplice ruolo all’interno della teoria della verisimiglianza e nel processo d’approssimazione alla verità: da una parte la falsificabilità è il cardine del metodo critico in quanto la verità è «una idea regolativa. Testiamo la verità, eliminando la falsità» 28 ; dall’altra la verisimiglianza, come abbiamo visto, è «applicabile sia a proposizioni false sia a proposizioni vere» 29 . Tuttavia il concetto di verisimiglianza è inadeguato ai suoi scopi, perché non permette affatto di stabilire quale tra due teorie false sia la più verisimile, ossia quale sia più vicina alla verità, ed è in ultima analisi inservibile in quanto si rivela contraddittoria. Per mostrarne la contraddittorietà, si esprima (V), per brevità, nel modo seguente: A B ↔ C1 ∨ C2 . E’ possibile dimostrare come entrambi i disgiunti della definizione popperiana siano contraddittori, ossia dimostrare (a) come assumendo C1 si giunga a una contraddizione e (b) come assumendo C2 si arrivi ancora a una contraddizione, stabilendo la falsità della disgiunzione. (a) Siano A e B due teorie false. Assumiamo C1 – ossia che il contenuto di verità di A ecceda quello di B e che il contenuto di falsità di B sia maggiore o uguale a quello di A – e mostriamo come la verità della prima condizione implica la falsità della seconda. Innanzitutto da C1 segue che per ogni proposizione vera v, se B→v, allora A→v. Sia a una proposizione vera – che esiste per ipotesi – implicata da A ma non da B. Sia f una qualsiasi proposizione falsa implicata da A. Da A→a e A→f segue A→a∧f, la quale appartiene dunque al contenuto di falsità A, ma non a quello di B (se così non fosse, infatti, allora B implicherebbe sia a sia f, contrariamente all’ipotesi). Dunque il contenuto di verità di A non può eccedere quello di B, senza che il contenuto di falsità di A ecceda quello di B. Contraddizione. (b) Siano A e B due teorie false. Assumiamo C2 – ossia che quand’anche il contenuto di verità B sia pari a quello di A, il contenuto di falsità di B eccede comunque quello di A – e mostriamo come la verità della prima condizione implichi la falsità della seconda. Allora sia s una proposizione falsa implicata da B ma non da A e sia f una qualsiasi proposizione falsa che segue da A. Allora f→s è una proposizione vera 28
Ivi, 30.
29
Ivi, 56-57.
173
Capitolo 11. Plausibilità e oggettività e, poiché segue da s, appartiene al contenuto di verità di B. Se essa appartenesse anche al contenuto di verità di A, allora sia f sia f→s farebbero parte del contenuto di verità di A, e dunque anche s apparterrebbe al contenuto di verità di A, contrariamente all’ipotesi. Quindi la proposizione f→s appartiene al contenuto di verità di B, ma non a quello di A e di conseguenza il contenuto di falsità di B non può eccedere quello di A senza che lo stesso avvenga per il loro contenuto di verità. Contraddizione. Poiché da C1 segue una contraddizione e da C2 segue una contraddizione, da C1 ∨ C2 segue il falso. Dunque la nozione di verisimiglianza è contraddittoria. Per inciso, è opportuno osservare che il tentativo di superare queste difficoltà ha dato corso a un altro approccio alla verisimiglianza, quello basato sulla similarità 30 , il quale mette in discussione le principali ipotesi a fondamento dell’approccio contenutistico sviluppato da Popper, in particolare l’idea che la verisimiglianza sia una funzione di due sole variabili, quali la forza logica e il valore di verità. Esso fa ricorso alla semantica dei mondi possibili per fornire una definizione della distanza tra insiemi di proposizioni. Tuttavia anche questo approccio va incontro a difficoltà insormontabili: pur non essendo più soggetto alle conseguenze negative dell’approccio contenutistico, si rivela dipendente dal linguaggio. Per l’esattezza, se due linguaggi sono inter-traducibili, la verisimiglianza non viene conservata, ossia è possibile costruire esempi di traduzioni in cui la verisimiglianza nei due linguaggi è diversa. In altre parole questa nozione di verisimiglianza non è invariante rispetto al processo di traduzione tra differenti linguaggi 31 . Ciò rappresenta una nuova contraddizione poiché va contro l’ipotesi costitutiva della teoria della verisimiglianza che esista una realtà oggettiva e ultima, la cui descrizione e approssimazione ovviamente non può dipendere dal linguaggio usato 32 . Alla luce di questo risultato per comparare due teorie è quindi necessaria una descrizione particolare che non assicura la conservazione della verisimiglianza nel passaggio da un linguaggio all’altro.
30
Cfr. p. es. Hilpinen1976.
31
Cfr. Miller 1974, 1975 e 1976.
32
Tale risultato limitativo, che fissa l’impossibilità di associare la verità tra traduzioni, è
analogo a un risultato limitativo per la metrica in topologia. La metrica infatti non viene sempre conservata mediante omeomorfismi o funzioni iniettive sullo spazio. Similmente la verisimiglianza viene conservata solo per una classe propria di omeomorfismi.
174
Il vero e il plausibile Ciò che più preme sottolineare in questa sede è che il fallimento del tentativo di Popper e dei suoi successori di fornire un modello teorico in termini non solo oggettivi, ma metrici, del processo di valutazione d’ipotesi e della scelta razionale nasce da un problema profondo, che dipende dall’accettazione implicita di una condizione ancor più primitiva e radicale: la separazione tra plausibilità e verità. È proprio questa separazione, come argomenterò nel prossimo capitolo, che è all’origine del fallimento della teoria della verisimiglianza e più in generale delle difficoltà delle teorie della plausibilità trattate in questo volume.
175
Il vero e il plausibile
12 Plausibilità senza verità 1. Il plausibile e il vero In questo capitolo conclusivo presento alcuni argomenti che giustificano non tanto un sovvertimento, quanto un superamento del punto di vista standard sulla plausibilità e dei suoi principali limiti. Questo superamento è motivato dal fatto che gli approcci finora costruiti per trattare la plausibilità si rivelano inadeguati perché non ne colgono, per motivi diversi, l’essenza. Essi si basano infatti sull’assioma che esista una separazione tra verità e plausibilità e che la seconda sia in qualche modo un correlato e un surrogato della prima, uno strumento cui si deve ricorrere quando e fintanto che non sia possibile determinare la verità. L’obiettivo di questo capitolo è quello di mettere in discussione tale assioma, mostrando come questo si basa su ipotesi e argomenti inadeguati al loro scopo. A tal fine argomento a favore di una concezione della plausibilità (cfr. par. 2.1) che rigetta le basi della separazione tra vero e plausibile e che mediante una caratterizzazione più primitiva della nozione di inferenza (cfr. par. 2.2) dissolve l’idea della verità quale strumento adeguato a render conto della conoscenza e della ricerca scientifica. In conclusione (cfr. cap. 3) sostengo la tesi che l’utilizzo della plausibilità in luogo della verità non fa venir meno la possibilità della conoscenza, e quindi non comporta lo scetticismo. Il punto di vista standard sulla plausibilità è caratterizzato dall’ipotesi, condivisa dalle moderne teorie dell’inferenza plausibile esaminate, che esiste una conoscenza certa e indubitabile cui si contrappone una solo incerta e provvisoria, che la plausibilità è appunto deputata a trattare. Polya è un esponente significativo di questo punto di vista. Egli muove in modo esplicito dall’ipotesi che esista una discontinuità – esibita in modo esemplare dalla matematica – tra il ragionamento dimostrativo e il ragionamento plausibile rispetto alla verità. Il primo è in grado di giustificare in modo certo e conclusivo le nostre conoscenze tramite processi inferenziali che preservano la verità e che sono quelli dimostrativi basati sul metodo assiomatico-deduttivo (ossia su deduzioni da premesse vere). Esso «è definitivo, conclusivo, meccanico» mentre «il ragionamento plausibile è vago, provvisorio, specificamente umano» 1 e fornisce uno strumento per valutare e corroborare le nostre conoscenze, ma non è in grado di giustificare in modo definitivo le con1
Polya 1968, II, 115.
177
Capitolo 12. Plausibilità senza verità clusioni ottenute perché non preserva la verità nel corso del processo inferenziale. Queste due forme di conoscenza, di conseguenza, sono contraddistinte da una profonda asimmetria: le loro conclusioni infatti «sono su livelli logici differenti» 2 in quanto quelle «del modello dimostrativo sono sullo stesso livello delle premesse» 3 , mentre quelle del ragionamento plausibile «sono di natura differente» perché «lasciano indeterminato un punto molto rilevante: la forza e il peso della conclusione» 4 . Questa asimmetria è una delle principali ragioni su cui risiede la classica separazione logica e temporale tra scoperta e giustificazione, tesi che, sotto altri aspetti, abbiamo già avuto modo di mettere in discussione (cfr. cap. 5, par. 4). Anche la tesi della distinzione tra verità e plausibilità è già stata messa apertamente in discussione nel corso della storia del pensiero filosofico e scientifico. Carneade ad esempio (cfr. cap. 1, par. 4) ritiene infondata la separazione tra vero e plausibile e arriva a sostenere che non esiste una conoscenza certa oltre ogni ragionevole dubbio e fissata una volta per sempre, in quanto è possibile «dimostrare la non-esistenza del criterio» 5 di verità 6 . La possibilità di una fonte della conoscenza infallibile e indubitabile, a suo avviso, è un’ipotesi che a un’attenta analisi non può essere sostenuta già solo per la conoscenza derivante dalla percezione sensibile. Perciò Carneade, mediante argomentazioni «a favore dell’indistinguibilità delle rappresentazioni, avendo eliminato la verità» 7 , lascia sussistere solo il plausibile quale criterio cui deve attenersi nella ricerca e nell’azione il saggio stoico «ormai privato della verità» 8 . Nei paragrafi che seguono arrivo a sostenere una conclusione simile. 2. Plausibilità e ampliatività La tesi dell’asimmetria tra verità e plausibilità risiede sull’assunzione che la prima deriva la sua certezza da una fonte della conoscenza indubitabile e infallibile e che è garantita da un metodo, quello assiomatico2
Ivi, 113.
3
Ivi, 115.
4
Ibid.
5
Sex. Emp., Adv. Log., I, 166.
6
Sulla questione se Carneade argomenti contro la possibilità di un criterio di verità tout
court o contro la possibilità di un criterio di verità senza limitazioni Cfr. Ioppolo 2005. 7 Ioppolo 1986, 208. 8
Ibid.
178
Il vero e il plausibile deduttivo, che la preserva nel corso del ragionamento, mentre la seconda è incerta in quanto caratterizzata da premesse o metodi incerti, ossia tali da non preservare la verità, ma capaci di conferire solo un qualche grado di sostegno alle sue conclusioni. Tuttavia questa assunzione è insostenibile al vaglio di un rigoroso esame filosofico e tali si rivelano essere anche le ragioni della separazione tra verità e plausibilità. L’inadeguatezza di questa separazione appare evidente non appena si affronta uno degli aspetti essenziali della plausibilità ossia la sua natura ampliativa. Per refutare questa tesi mi avvarrò dunque di un’argomentazione che combina una concezione ampia della plausibilità e una caratterizzazione della nozione di inferenza più primitiva di quella standard, che dipende appunto dalla nozione di ampliatività. 2.1. Plausibilità come compatibilità La plausibilità è una nozione che può essere definita senza perdita di generalità come una forma di compatibilità con la conoscenza esistente, nel senso che un’ipotesi è plausibile quando «comparando le ragioni pro e contro l’ipotesi sulla base della conoscenza esistente, le ragioni a favore prevalgono su quelle contro di essa» 9 . Questa nozione si basa dunque su un procedimento che non ha carattere né soggettivo né psicologico e che dipende in modo essenziale dalla conoscenza esistente. Poiché l’insieme delle conoscenze esistenti è in continua evoluzione, il processo di confronto dell’ipotesi con la conoscenza può avere esiti diversi a seconda del contesto cui fa riferimento a un dato tempo t: un’ipotesi plausibile in un certo contesto c a un dato tempo t può risultare non più tale a un tempo successivo t+k. E viceversa. Tale concezione della plausibilità è non-probabilistica, perché la plausibilità in generale non concorda con la probabilità. Infatti «la conclusione di un’inferenza non-deduttiva può non essere probabile, e tuttavia può essere plausibile, anzi, può persino essere più plausibile delle sue premesse» 10 mentre non solo le conclusioni di un’inferenza probabilistica non banale sono o equi-probabili o meno probabili delle loro premesse, ma soprattutto, come abbiamo visto occupandoci dell’analogia (cfr. cap. 5, par. 3) un’ipotesi può risultare plausibile anche quando la sua probabilità è molto bassa o virtualmente nulla. Infatti la formulazione di molte ipotesi plausibili avviene sulla base di un numero anche molto limitato di osservazioni e si riferisce a un nu9
Cellucci 2005, 147.
10
Ibid.
179
Capitolo 12. Plausibilità senza verità mero molto vasto di casi (potenzialmente anche infinito), per cui il rapporto tra casi favorevoli e casi possibili è tale da conferire all’ipotesi una probabilità molto bassa o prossima allo zero. Inoltre in molte inferenze plausibili il numero delle ragioni che depongono contro la candidatura della conclusione può anche superare di gran lunga quelle a favore, e quindi il loro rapporto attribuirle una probabilità molto bassa, e questa essere comunque motivata. Viceversa, inferenze plausibili basate sul conforto di un numero molto alto di ragioni a favore (e quindi su un’alta probabilità) possono rivelarsi non solo non motivate, ma palesemente banali o scorrette. Pertanto probabilità e plausibilità non concordano in almeno due sensi: non solo la probabilità non fornisce un criterio per formare ipotesi plausibili, ma non può neanche essere una guida affidabile nella scelta tra diverse ipotesi plausibili. 2.2. Inferenza e contenuto La nuova caratterizzazione dell’inferenza si basa su una concezione contenutistica, in particolare di natura esternalista. Essa è motivata dall’esigenza di fornire una risposta ai limiti della caratterizzazione standard dell’inferenza, i quali nascono principalmente dal fatto che questa «non offre alcuna spiegazione del ruolo che l’inferenza deduttiva gioca nella conoscenza» 11 . Invece «per fornire un’adeguata giustificazione delle inferenze deduttive e non-deduttive bisogna fornire una spiegazione del ruolo che esse ricoprono nella conoscenza» 12 e questo compito è tutt’altro che banale perché necessita un ripensamento degli scopi della logica deduttiva e non-deduttiva. Innanzitutto la definizione, propria della caratterizzazione standard, dell’inferenza semplicemente come il passaggio da un insieme di proposizioni a un’altra proposizione, è quantomeno limitata. Piuttosto l’inferenza deve essere definita come il passaggio da un numero di dati a un altro dato, a meno che non si voglia escludere forme d’inferenza, ad esempio quelle compiute dai neonati o dagli animali o quella basate sulla visione, che non sono di natura strettamente proposizionale. In secondo luogo la distinzione delle inferenze in deduttive e nondeduttive basata sulla proprietà della preservazione della verità è inadeguata perché fa ricorso a una proprietà derivata. La preservazione della verità, infatti, non è una caratteristica primitiva dell’inferenza, ma segue (è implicata) da un’altra proprietà, quale l’ampliatività. 11
Cellucci 2006, 222.
12
Ivi, 223.
180
Il vero e il plausibile Un’inferenza è non-ampliativa semplicemente quando la sua conclusione non contiene nulla che non sia già contenuto nelle premesse, nel senso che rende esplicito nella conclusione ciò che è già implicito nelle premesse, dove per contenuto di una proposizione si intende l’informazione contenuta in essa. Un’inferenza è invece ampliativa quando il contenuto delle premesse non è già implicito nelle premesse e quindi esse introducono informazione che è davvero nuova rispetto a esse, ossia nuova rispetto ai dati. Questa distinzione si basa su una nozione di contenuto diversa da quella standard (cfr. p. es. cap. 11, par. 2), in quanto esso non viene più espresso semplicemente e unicamente in termini proposizionali, ma sulla base della nozione di informazione non-proposizionale, e quindi su un concetto tutt’altro che banale d’informazione. Alla luce di questa nuova e più primitiva distinzione, le inferenze deduttive sono semplicemente non-ampliative, e «la preservazione della verità è una semplice conseguenza della non-ampliatività» 13 , mentre quelle non-deduttive sono ampliative. Da ciò segue che è appropriato descrivere da una parte le inferenze deduttive non come preservanti la verità, ma come non-ampliative, e dall’altra le inferenze non-deduttive non come quelle le cui premesse forniscono solo qualche grado di conferma alle conclusioni, ma come ampliative. Questa caratterizzazione dell’inferenza permette di render conto del ruolo svolto dalle inferenze nella nostra conoscenza, offrendo un ripensamento degli stessi scopi della logica sia nella sua forma deduttiva sia nella sua forma nondedutiva. Il ruolo delle inferenze deduttive, in quanto non-ampliative, è quello «di preservare la plausibilità, rendendo esplicita informazione implicita nelle premesse» 14 , mentre il ruolo delle inferenze non-deduttive, in quanto ampliative, è di trovare ipotesi adeguate alla soluzione dei problemi partendo dai dati. Da ciò segue che lo scopo della logica deduttiva è di ottenere conclusioni plausibili da premesse plausibili, mentre lo scopo della logica non-deduttiva è quello di fornire strumenti per trovare ipotesi adeguate alla soluzione di problemi partendo dai dati disponibili e dalla conoscenza esistente.
13
Ivi, 227.
14
Ibid.
181
Capitolo 12. Plausibilità senza verità 3. Plausibilità senza verità Riconsideriamo ora l’ipotesi della separazione tra verità e plausibilità e mostriamo come essa si riveli illusoria e, in un senso preciso, insostenibile. Poiché ogni conoscenza dipende da un insieme di premesse, per poterne asserire la verità bisogna fornire una dimostrazione del fatto che tali premesse sono vere e che esistono metodi che preservano questa proprietà nel corso dei processi inferenziali. In particolare ciò richiede che si possa poter individuare: 1) una fonte conoscitiva certa e non ingannevole in grado di garantire la verità delle premesse della nostra conoscenza; 2) una forma di ragionamento in grado di preservare tale verità nel corso del processo inferenziale. Tuttavia questi due obiettivi non sono soddisfacibili. Infatti non è possibile soddisfare il primo punto e, di conseguenza, viene meno la possibilità di soddisfare anche il secondo. In primo luogo non esistono proposizioni prime immediatamente vere in grado di garantire la verità della nostra conoscenza. Infatti non si dà qualcosa come una fonte della conoscenza in grado di sottrarre all’incertezza gli oggetti della conoscenza, ma tali fonti sono ingannevoli e fallibili, o richiedono procedure non fattibili. Per poter dimostrare che esiste una tale fonte bisognerebbe infatti poter dimostrare o che esiste una facoltà (p. es. l’intuizione intellettuale o sensibile) da cui scaturisce la verità di queste proposizioni prime oppure che esiste e sia fattibile una procedura atta a fissare la verità di tali proposizioni. Tuttavia nessuno di questi due obiettivi è realizzabile. Nel primo caso non esiste alcuna facoltà certa e indubitabile in grado di cogliere la verità di un oggetto conoscitivo in modo infallibile e oltre ogni ragionevole dubbio. Anzi non solo come dimostrano i ripetuti errori dell’intuizione sensibile e intellettuale in vari ambiti scientifici tali fonti sono fallibili e ingannevoli, ma la loro giustificazione si basa su argomentazioni circolari 15 . Nel secondo caso si può osservare che esiste una procedura in grado di fissare la verità di una proposizione o un insieme di proposizioni: la verifica di tutte le sue conseguenze. Tuttavia anche se in linea di principio questo è un compito possibile, non è umanamente fattibile. A conforto di questa asserzione basta ricordare un risultato – una semplice conseguenza del teorema d’incompletezza di Gödel – che stabilisce che 15
Cfr. Cellucci 2006, par. 2.
182
Il vero e il plausibile il numero di Gödel delle conseguenze logiche dell’aritmetica di Peano del secondo ordine non è ricorsivamente enumerabile. Dunque, poiché questo non è un compito fattibile mediante una procedura algoritmica, a maggior ragione non è fattibile in questo universo fisico. Dobbiamo quindi concludere che le premesse da cui dipende la nostra conoscenza non sono vere. Esse sono plausibili, nel senso di compatibili con i dati esistenti, e tale risulta dunque essere la conoscenza che segue da esse. Ciò vale per tutte le forme di conoscenza, compresa la matematica, in quanto le premesse da cui dipendono i suoi risultati non sono affatto certe e vere, ma sono ipotetiche e plausibili nel senso appena specificato. Pertanto, differentemente da quanto sostenuto dal punto di vista standard, la matematica non è in discontinuità con le altre nostre forme di conoscenza, ma ha esattamente lo stesso statuto epistemologico. Per quanto riguarda il secondo punto del programma, ossia l’individuazione di forme di ragionamento in grado di preservare la verità, come abbiamo visto (cfr. par. 2.2) questa non è una proprietà primitiva dell’inferenza, ma deriva da quella di ampliatività ed è dunque inadeguata a renderne conto. Inoltre mentre la giustificazione dell’inferenza fornita dal punto di vista standard richiede la nozione di verità e si basa su argomentazioni circolari 16 , la giustificazione contenutistica si basa sulla plausibilità ed è motivata dal ruolo che le inferenze svolgono all’interno della conoscenza. Infatti le inferenze deduttive sono giustificate non perché preservano la verità, ma perché preservano la plausibilità. Il ragionamento deduttivo non può essere caratterizzato, come fa Polya, semplicemente come preservante la verità. Poiché le premesse sulle quali è basata la nostra conoscenza non sono vere ma solo plausibili, le inferenze deduttive non preservano la verità, poiché non c’è alcuna verità da preservare, ma solo la plausibilità. La giustificazione delle inferenze deduttive è semplicemente una conseguenza della loro non-ampliatività, che è una proprietà più primitiva della preservazione della verità: infatti «la loro conclusione è una mera riformulazione del contenuto delle premesse, e pertanto, se le loro premesse sono compatibili con i dati esistenti, tale sarà anche la conclusione» 17 . Ciò non toglie nulla alla loro utilità perché «una riformulazione del contenuto delle premesse può rendere esplicita informazione che è solo implicita nelle premesse, facilitando pertanto il con-
16
Cfr. Cellucci 2006, par. 2.
17
Cellucci 2006, 227.
183
Capitolo 12. Plausibilità senza verità fronto delle premesse con i dati esistenti, e quindi stabilendo la loro plausibilità, esaminando le loro conseguenze» 18 . Dall’altra parte le inferenze non-deduttive sono giustificate in virtù del fatto che permettono di trovare ipotesi per risolvere problemi a partire dai dati disponibili e dalla conoscenza esistenza. Sebbene sia ovvio che nulla è in grado di garantire che le ipotesi così trovate siano plausibili, in quanto le inferenze non-deduttive sono fonte di fallacie, solo le inferenze non-deduttive permettono di trovare ipotesi, tra le quali bisognerà effettuare una scelta mediante una attenta valutazione delle ragioni a favore e le ragioni contro ognuna di esse. Pertanto sia le inferenze deduttive sia quelle non-deduttive non sono in grado di produrre conoscenza di per sé, ossia senza far riferimento a qualcosa di esterno a esse. Nel caso delle inferenze deduttive, per poter valutare la plausibilità delle loro premesse è necessario compararle con la conoscenza esistente, e quindi con qualcosa di esterno a esse. Nel caso delle inferenze non-deduttive, una volta prodotte le ipotesi a partire dai dati, è necessario valutarne la plausibilità, ossia compararle con la conoscenza esistente, quindi con qualcosa di esterno a esse. Da ciò possiamo concludere che «le inferenze deduttive possono essere giustificate solo nello stesso senso in cui sono giustificate le inferenze non-deduttive, ossia mediante una giustificazione esternalista, che fa riferimento al loro ruolo nella conoscenza e quindi alla realtà» 19 . Dunque la combinazione di questa caratterizzazione dell’inferenza e della nozione di plausibilità fa cadere l’asimmetria tra verità e plausibilità e dissolve le ragioni della loro separazione. Con essa viene meno un’altra ipotesi caratteristica delle teoria della plausibilità, ossia la possibilità di distinguere tra un’incertezza propria dei metodi e un’incertezza propria delle premesse (cfr. cap. 2, par. 3), che è illusoria. Tutte le nostre premesse sono incerte, provvisorie e plausibili e i nostri metodi sono al massimo in grado di preservare tale plausibilità e quindi non sottraggono in modo definitivo nessun oggetto conoscitivo all’incertezza. Pertanto non si danno conoscenze certe contrapposte a conoscenze solo plausibili, ma tutte le nostre conoscenze sono incerte e al massimo plausibili, nel senso che ogni nostra teoria è un insieme di ipotesi plausibili, non vere. Da ciò segue che non solo nulla può metterci al riparo dalla possibilità che esse si rivelino false, ma soprattutto esimerci dal compito di incessante ricerca e approfondimento delle ipotesi che sostengono le no-
18
Ibid.
19
Ivi, 232.
184
Il vero e il plausibile stre conoscenze e che dobbiamo essere pronti a rivedere e, nel caso, abbandonare. 4. Plausibilità e conoscibilità Il dissolvimento della nozione di verità e l’utilizzo in suo luogo di quella di plausibilità, ossia una teoria della plausibilità senza verità, non implica lo scetticismo, ossia l’idea che la conoscenza non sia possibile. Tale conclusione è semplicemente il risultato di una concezione che riconosce che la nozione di verità non gioca un ruolo decisivo all’interno dei processi che producono la conoscenza e che ne consentono l’avanzamento. Infatti la verità, nelle sua varie articolazioni storico-concettuali, non è uno strumento adeguato a fornire una spiegazione della conoscenza e della ricerca scientifica. Essa non solo non riesce a render conto dei principali strumenti della conoscenza (come l’inferenza), ma si è rivelata inessenziale ai fini della nascita e dello sviluppo della scienza moderna 20 . La plausibilità invece gioca un ruolo decisivo nella conoscenza, perché permette di conoscere studiando e fornendo strumenti per valutare, estendere e raffinare le ipotesi che sostengono la conoscenza. Non è infatti la ricerca della verità che ha motivato e contribuito al successo della ricerca scientifica e dell’impresa conoscitiva, ma la ricerca di ipotesi plausibili, nel senso di compatibili con i dati esistenti, e di metodi e strumenti in grado di costruirle, affinarle e valutarle. La plausibilità non è dunque un surrogato o un semplice correlato della verità, uno strumento da utilizzare provvisoriamente in luogo della verità fino a quando essa non possa venir determinata (e quindi logicamente e temporalmente separata da essa), ma è il carattere saliente della conoscenza umana. Semmai la costruzione di una teoria della plausibilità senza verità comporta, come abbiamo visto, la messa in discussione di alcune tesi filosofiche consolidate, come la distinzione logica e temporale tra scoperta e giustificazione o l’esistenza di metodi certi contrapposti a metodi incerti. L’affermazione che la conoscenza è plausibile e non vera non richiede di sposare la tesi che la conoscenza non sia possibile, ma richiede semplicemente una diversa caratterizzazione dei suoi oggetti. Essa abbandona l’idea che esista qualcosa, come la verità appunto, in grado 20
Per un’analisi delle varie forme in cui è stata pensata la nozione di verità e della sua
non essenzialità ai fini dello sviluppo della scienza moderna cfr. Cellucci 2007.
185
Capitolo 12. Plausibilità senza verità di sottrarre definitivamente la conoscenza a ogni ragionevole dubbio e riconosce l’incertezza come costitutiva e ineliminabile di ogni nostra conoscenza, sviluppando e perfezionando strumenti per gestirla e limitarla. La costruzione e lo sviluppo della teoria della plausibilità senza verità non implica dunque che non possa darsi conoscenza, ma solo che non si può dare una conoscenza libera da ogni forma di incertezza. E il compito della conoscenza non è quella di sottrarre i suoi oggetti all’incertezza, ma di fornire gli strumenti per estendersi, affinarsi e rafforzarsi mediante un continuo confronto con la conoscenza esistente e i dati disponibili. La plausibilità senza verità non implica che la conoscenza non sia possibile, ma solo che essa è incessantemente esposta a un ragionevole, plausibile dubbio.
186
Il vero e il plausibile
Bibliografia Antonelli, A.: 2004, La logica del ragionamento plausibile, in: L. Floridi (a cura di), «Linee di ricerca», SWIF, 226-252. Aristotele: 1996, Retorica, trad. it. di Dorati M., Oscar Mondadori, Milano. Aristotele: 1990, Topici, trad. it. di Colli G., Laterza, Bari. Bacchus, F.: 1990, Representing and reasoning with probabilistic knowledge, MIT Press, Cambridge, Massachusetts. Badaloni, S. - Zanardo, A.: 1991, Typicality for Plausible Reasoning, in: Ardizzone, E. - Gaglio, S. - Sorbello, F. (a cura di), «Lecture Notes in Artificial Intelligence», Springer-Verlag, Berlin-Heidelberg, 549, 470-474. Badaloni, S. - Zanardo, A.: 1994, Plausibility as truth: a local pattern for non monotonic reasoning, in: Giornata di lavoro sul ragionamento non monotono, Roma, draft. Badaloni, S. - Zanardo, A.: 1996, Plausible reasoning: a first-order approach, «Journal of Applied Non-Classical Logics», 6 (3), Hermes, Paris, 215-261. Barnett, J. A.: 1991, Calculating Dempster-Shafer Plausibility, «IEEE Trans. Patterns Analysis & Machine Intelligence», 13 (6), 599602. Bayes, T.: 1763, An Essay Toward Solving a Problem in the Doctrine of Chances, «Philosophical Transactions of the Royal Society of London», 53, 370-418. Benaceraff, P.: 1996, What mathematical truth could not be, in: Morton, A. - Stich, S. (a cura di), Benaceraff and his critics, Blackwell, 959. Black, M.: 1962, Models and metaphors: Studies in language and philosophy, Cornell University Press, Cornell. Blackman, S. - Populi, R.: 2000, Design and Analysis of modern tracking systems, Artech House, Norwood. Bunge, M.: 1967, Analogy in quantum mechanics: from insight to nonsense, «British Journal for the Philosophy of Science», 18 (4), 265-86. Cavini, W.: 1989, Modalità dialettiche nei Topici di Aristotele, in: Corsi, G. e al. (a cura di), Atti del convegno interno di storia della logica, CLUEB, Bologna, 15-46. Carnap, R.: 1950, Logical foundations of probability, The University of Chicago Press, Chicago.
187
Bibliografia Capozzi, M.: 1999, Dialectic, probability and verisimilitude in Kant’s logic, in: Atti del convegno triennale della SILFS, Rubbertino, Cesena-Urbino, 31-44. Capozzi, M.: 2002, Kant e la logica, I, Bibliopolis, Napoli. Capozzi, M.: 2006, Kant on heuristics as a desiderable addiction to logic, in: Cellucci, C. - Pecere, P. (a cura di), Demonstrative and Non-Demonstrative Reasoning in Mathematics and Naturals Science, Edizioni dell’Università degli Studi di Cassino, Cassino, 123-181. Castelfranchi, C. - de Rosis, F. - Grasso, F.: 1999, Deception and suspicion in medical interactions: towards the simulation of believable dialogues, in: Wilks, Y. (a cura di), Machine conversations, Kluwer International Series in Engineering and Computer Science, 511, cap. 8. Cellucci, C.: 1998, Le ragioni della Logica, Laterza, Roma - Bari. Cellucci, C.: 2002, Filosofia e matematica, Laterza, Roma. Cellucci, C.: 2005, Mathematical discourse vs. mathematical intuition, in: Cellucci, C. - Gillies, D. (a cura di), Mathematical Reasoning and Heuristics, King’s College Publications, London, 137-165. Cellucci, C.: 2006, The question Hume didn’t ask: why we should accept deductive inference, in: Cellucci, C. - Pecere, P. (a cura di), Demonstrative and Non-Demonstrative Reasoning in Mathematics and Naturals Science, Edizioni dell’Università degli Studi di Cassino, Cassino, 207-235. Cellucci, C.: 2007, Filosofia e conoscenza, Laterza, Roma, draft. Cicero, M. T.: De natura deorum, trad. it di Calcante C., BUR Rizzoli, Milano. Collins, A.: 1978, Fragments of a theory of human plausible reasoning, in: Waltz, D. (a cura di), Proceedings of the 1978 workshop on Theoretical issues in natural language processing, Association for Computational Linguistics, Morristown, 194-201. Collins, A. - Michalski, R.: 1989, The logic of plausible reasoning: a core theory, «Cognitive science», 13, 1-49. Colyvan, M.: 2004, The philosophical significance of Cox’s theorem, «International journal of approximate reasoning», 36, 71-86. Connell, L. - Keane, M. T.: 2003a, Knowledge-fitting theory of plausibility, in: Cunningham, P. - Fernando, T. - Vogel, C. (a cura di), Proceedings of the Conference on AI and Cognitive Science, Dublin University Press, Dublin, 40-45. Connell, L. - Keane, M. T.: 2003b, PAM: a cognitive model of plausibility, in: Alterman, R. - Wayne, D. G. (a cura di), Proceedings of the 25th Annual Conference of the Cognitive Science Society, Erlbaum, Hillsdale, 264-269. 188
Il vero e il plausibile Connell, L. - Keane, M. T.: 2004a, Making the implausible plausible, in: Proceedings of the 26th Annual Conference of the Cognitive Science Society, Erlbaum, Chicago, draft. Connell, L. - Keane, M. T.: 2004b, What plausibility affects plausibility? Concept coherence and distributional word coherence as factors influencing plausibility judgments, «Memory & Cognition», 32 (2), 185-197. Connell, L. - Keane, M. T.: 2006, A model of plausibility, «Cognitive Sciences», 30 (1), 95-120. Copi, I.: 1961, Introduction to logic, trad. it. Lupacchini R., Introduzione alla logica, 1997, Il Mulino, Bologna. Corfield, D.: 2003, Towards a philosophy of real mathematics, Cambridge University Press, Cambridge. Cox, R. T.: 1946, Probability, Frequency, and Reasonable Expectation, «Am. Jour. Phys.», 14, 1-13. Davies, T. R.: 1988, Determination, uniformity and relevance: normative criteria for generalization and reasoning by analogy, in: Helman, D. H. (a cura di), Analogical Reasoning, Kluwer Academic Publisher, 227-250. Daston, L.: 1988, Classical probability in the enlightenment, Princeton University Press, Princeton. Downward, P. - Mearman, A.: 2005, Methodological triangulation at the Bank of England: An Investigation, draft. De Finetti, B.: 1931, Sul significato soggettivo della probabilità, «Fundamenta Mathematicae», 17, 298-329. De Finetti, B.: 1937, La prevision: ses lois logiques, ses sources subjectives, «Annales de l’Institut Henri Poincarè», VII, 1-68. De Finetti, B.: 1949, La “logica del plausibile” secondo la concezione di Polya, Società Italiana per il Progresso della Scienza, XLII Riunione, Roma, Relazioni, I, 227-236. De Finetti, B.: 1989, La logica dell’incerto, Mondadori M. (a cura di), Il Saggiatore (Theoria), Milano. Dezert, J.: 2002, Foundations for a new theory of plausible and paradoxical reasoning, «Information and security», 9, 13-57. Elio, R.: 2002, Belief revision and plausible inference, draft. Euler, L.: 1784, Introductio in analysin infinitorum, I, in: Krazer, A. Rudio, F. (a cura di), Opera Omnia, Serie prima, VIII. Feynman, R. P.: 1967, The character of physical law, MIT press, Massachusetts. Friedman, N. - Halpern, J.: 1995, Plausibility measures: A user’s guide, in: Proceedings of the Eleventh Conference on uncertainty in AI (UAI ’95), 175-184.
189
Bibliografia Gagarin, M.: 1994, Probability and persuasion: Plato and early Greek rhetoric, in: Whortinggton, I. (a cura di), Persuasion: Greek rhetoric in action, Routledge, London, 48-64. Galavotti, M. C.: 2005, Philosophical introduction to probability, CSLI, Stanford. Gaskin, R.: 1995, The sea battle and the master argument, de Gruyter, Berlino-New York. Gelfond, M. - Watson, R.: 2003, Nonmonotonic Logic, in: The Encyclopedia of Cognitive Science, Nature Publishing Group-Macmillan Reference Inc, UK, 375-382. Gigerenzer, G.: 1991a, How to make cognitive illusions disappear: beyond heuristics and biases, in: Stroebe, W. - Hewstone, M. (a cura di), «European review of social psychology», 2, 83-115. Gigerenzer, G.: 1991b, On cognitive illusions and rationality, in: Eells, E. - Maruszewski, T. (a cura di), Probability and rationality: studies on L. Jonathan Cohen's philosophy of science (Poznan Studies in the Philosophy of the Sciences and the Humanities), Rodopi, Amsterdam, 21, 225-249. Gigerenzer, G.: 1994, Why the distinction between single-event probabilities and frequencies is important for psychology (and vice versa), in: Wright, G. - Ayton, P. (a cura di), Subjective probability, Chichester, Wiley, 129-161. Gigerenzer, G.: 1996, On narrow norms and vague heuristics: a reply to Kahneman and Tversky, «Psychological Review», 103, 592596. Gigerenzer, G.: 2002, Calculated risks, trad. it. Rigamonti G., Quando i numeri ingannano, 2003, Cortina, Milano. Gillies, D.: 2000, Philosophical theories of probability, Routledge, London. Good, I. J.: 1950, Probability and the weighing of evidence, Charles Griffin, London. Good, I. J.: 1962, Good thinking: the foundations of probability and its application, University of Minnesota Press, Minnesota. Grosholz, E. R.: 2000, The partial unification of domains, hybrids, and the growth of mathematical knowledge, in: Grosholz, E. - Breger, H. (a cura di), The growth of mathematical knowledge, Kluwer, Dordrecht. Hacking, I.: 1975, The emergence of probability. A philosophical study of early ideas about probability, induction and statistical inference, Cambridge University Press, Cambridge. Halpern, J.: 1999a, A counterexample to theorems of Cox and Fine, «Journal of AI research», 10, 67-85.
190
Il vero e il plausibile Halpern, J.: 1999b, Technical Addendum, Cox's theorem Revisited, «Journal of AI research», 11, 429-435. Hardy, G. H.: 1908, A course of pure mathematics, Press Syndicate of the University of Cambridge, London. Helton, J. C.: 1997, Uncertainty and sensitivity analysis in the presence of stochastic and subjective uncertainty, «Journal of Statistical Computation and Simulation», 57, 3-76. Hesse, M.: 1966, Models and analogies in science, University Notre Dame Press, Notre Dame, Indiana. Hilpinen, R.: 1976, Approximate truth and truthlikeness, in: Przelecki, M. et al. (a cura di), Formal Methods in the Methodology of the Empirical Sciences, Reidel, Dordrecht. Ioppolo, A. M.: 1986, Opinione e scienza, Bibliopolis, Napoli. Ioppolo, A. M.: 2005, La critica di Carneade al criterio stoico di verità in Sesto Empirico, Adversus mathematicos VII, in: L’eredità platonica - Studi sul platonismo da Arcesilao a Proclo, Bibliopolis, Napoli, 79-113. Ippoliti, E.: 2006, Demonstrative and Non-demonstrative reasoning by analogy, in: Cellucci, C. - Pecere, P. (a cura di), Demonstrative and Non-Demonstrative Reasoning in Mathematics and Naturals Science, Edizioni dell’Università degli Studi di Cassino, Cassino, 307-338. Juthe, A.: 2005, Argument by analogy, «Argumentation», 19, 1-27. Kahneman, D. - Tversky, A.: 1979, Prospect theory: an analysis of decision under risk, «Econometrica», 47 (2), 263-292. Kahneman, D. - Slovic, P. - Tversky, A.: 1982, Judgement under uncertainty: heuristics and biases, Cambridge University Press, Cambridge. Kelly, K. - Glymour, C.: 2003, Why Probability Does Not Capture the Logic of Scientific Justification, in: Hitchcock, C. (a cura di), Contemporary Debates in the Philosophy of Science, London, Blackwell. Keynes, J. M.: 1921, A treatise on probability, in: The collected writings of J. M. Keynes, The Macmillian Press LTD, VIII. Knight, F.: 1921, Risk, uncertainty and profit, Houghton Mifflin Company, Boston. Kyburg, H.: 1961, Probability and the logic of rational belief, Wesleyan University Press, Middletown. Kokinov, B.: 1994, A hybrid model of reasoning by analogy. In: Holyoak, K. J. - Barnden, J. A. (a cura di), Analogical Connections, Advances in connectionist and neural computation theory, II, Ablex Publishing Corporation, Norwood, New Jersey, 247318. 191
Bibliografia Koopman, B. O.: 1940a, The axioms and algebra of intuitive probability, «Annals of mathematics», 41, 269-292. Koopman, B. O.: 1940b, The basis of probability, «Bulletin of the American mathematical society», 46, 763-764. Laplace, P. S.: 1812, Théorie analitiques des probabilites, Œuvres complètes, Académie des Science, VII. Laseter, T. - Hild, M.: 2004, The power of plausibility theory, «Strategy+business», 35, 32-35. Lemaire, P. - Fayol, M.: 1995, When plausibility judgements supersede fact retrieval: the example of odd-even rule effect in simple arithmetic, «Memory and Cognition», 69, 67-96. Maierù, A.: 1972, Terminologia logica della tarda scolastica, in: Lessico Intellettuale Europeo, Roma, VIII. Maital, S.: 2004, Daniel Kahneman: On redefining rationality, «Journal of socio-economics», 33, 1-14. Marchildon, L.: 2006, Bohmian trajectories and the ether: where does the analogy fail?, «Studies in History and Philosophy of modern physics», 37, 263-274. McFadden, D.: 1999, Razionalità per economisti, in: Motterlini, M. Palmarini, M. (a cura di), 2005, Critica della ragione economica, Il Mulino, Milano, 25-76. Melis, E. - Veloso, M.: 1998, Analogy in problem solving, in: Farinas del Cerro, L. - Gabbay, D. - Ohlbach, H. J. (a cura di), Handbook of Practical Reasoning - Computational and Theoretical Aspects, Oxford University Press. Michalski, R.: 1972, A variable-valued logic system as applied to picture description and recognition, in: Nake, F. - Rosenfeld, A. (a cura di), Graphic language, North-Holland Publishing Co., Amsterdam-London, 20-47. Michalski, R. - Winston, P.H.: 1986, Variable precision logic, «Artificial intelligence», 29, 121-146. Miller, D.: 1974, Popper’s Qualitative Theory of Verisimilitude, «British Journal for the Philosophy of Science», 25, 166-177. Miller, D.: 1975, The Accuracy of Predictions, «Synthese», 30 (1/2), 159-191. Miller, D.: 1976, Verisimilitude Redeflated, «British Journal for the Philosophy of Science», 27 (4), 363-381. Moore, N.T. - Grosberg, A.Y.: 2005, The limits of analogy between selfavoidance and topology-driven swelling of polymer loops, «Physical Review E», 76 (6 Pt 1), 061803-1-10. Olsen, W.: 2004a, Methodological triangulation and realist research: an Indian examplar, in: Making Realism work: realist social theory and empirical research, Routledge, London-New York. 192
Il vero e il plausibile Olsen, W.: 2004b, Triangulation in social research: qualitative and quantitative methods can really be mixed, in: Development in sociology, Causeway Press, 212-224. Parker, K.: 2003, Analogy: handle with care, «Physics Education», 38 (3), 200-201. Peirce, C. S.: 1910, Notes on the doctrine of chances, «Popular Science Monthly», 44. Ristampato in: 1995, Buchler, J. (a cura di), Philosophical Writings of Peirce, Dover Pubblications, New York, 164–173. Platone: 1934, Dialoghi, trad. it. Diano C., Laterza, Bari. Polya, G.: 1954, Induction and analogy in mathematics, I - Induction and analogy in mathematics, II - Patterns of plausible inference, Princeton University Press, Princeton. Polya, G.: 1957, How to solve it, Princeton University Press, Princeton. Popper, K.: 1959, The propensitive interpretation of probability, «British journal for the philosophy of science», 10, 24-52. Popper, K.: 1979, Objective knowledge, Claredon Press, Oxford. Ramsey, F.: 1926, Truth and probability, in: 2001, Braithwaite, R. (a cura di), The foundations of mathematics and other logical essays, Routledge, London. Renon, L. V.: 1998, Aristotle’s endoxa and plausible argumentation, «Argumentation», 12, 95-113. Rescher, N.: 1976, Plausible reasoning, Van Gorcum, Assen-Amsterdam. Rescher, N.: 2006, Presumption and the practices of tentative cognition, Cambridge University Press, Cambridge. Russell, S.: 1988, Analogy by similarity, in: Helman, D. H. (a cura di), Analogical Reasoning, Kluwer Academic Publisher, 251-269. Sextus Empiricus: Adversus mathematicos, trad. it. Russo A., 1972, Laterza, Bari. Sextus Empiricus: Adversus logicos, trad. it. Russo A., 1975, Laterza, Roma-Bari. Shafer, G.: 1976, A mathematical theory of evidence, Princeton University Press, Princeton. Shafer, G. - Pearl, J.: 1990, Introduction to Chapter 8: Non-numerical approches to plausibile inference, in: Pearl, J. - Shafer, G. (a cura di) Readings in uncertain reasoning, Morgan Kaufmann, San Francisco, 628-631. Shelley, C.: 1999, Multiple analogies in evolutionary biology, «Stud. Hist. Phil. Biol. & Biomed. Sci.», 30 (2), 143-180. Shelley, C.: 2002a, Analogy Counterarguments and the Acceptability of Analogical Hypotheses, «British journal for the philosophy of science», 53 (4), 477-496. 193
Bibliografia Shelley, C.: 2002b, The analogy theory of disanalogy: when conclusions collide, «Metaphor and Symbols», 17 (2), 81-97. Shelley, C.: 2003, Multiple analogies in science and philosophy, John Benjiamins, Amsterdam-New York. Spohn, W.: 1987, Ordinal Conditional Functions. A Dynamic Theory of Epistemic States, in: Harper, W. L. - Skyrms, B. (a cura di), Causation in Decision, Belief Change, and Statistics, II, Kluwer, Dordrecht, 105-134. Talaly, L. E.: 1987: Rethinking the function of clay figurine legs from Neolithic Greece: an argument by analogy, «American Journal of archaeology», 91 (2), 161-169. Tzanakis, C.: 1998, Discovering by analogy: the case of Schrödinger’s equation, «European Journal of Physics», 19, 69-75. Van Bendegem, J. P.: 2000, Tools for the mathematician, in: Hallyn, F. (a cura di), Metaphor and analogy in the sciences , Kluwer Academic Publisher, 105-127. Van Horn, K. S.: 2003, Constructing a logic of plausible inference: a guide to Cox’s theorem, «International Journal of Approximate Reasoning», 34 (1), 3-24. Vogt, H. - Aras, Ö. - Balzer, R. J.: 2004, The limits of analogy between boiling and gas evolution at electrodes, «International journal of heat and mass transfer», 47, 878-895. Von Mises, R.: 1928, Probability, statistics and truth, 1954 translation, Dover, New York. Von Neumann, J. - Morgenstern, O.: 1944, Theory of games and economics behavior, Princeton University Press, Princeton. Vreeswijk, G. A.: 2000, On the relation between plausible reasoning and defeasible reasoning, Technical report IR-292, Department of Mathematics and Computer Science, Vrije Universiteit, Amsterdam. Walton, D. N.: 1992, Rules for plausible reasoning, «Informal Logic», 14 (1), 33-51. Walton, D. N.: 2001a, Enthymems, Common knowledge and plausible inference, «Philosophy and Rhetoric», 34 (2), 93-112. Walton, D. N.: 2001b, Abductive, presumptive and plausible arguments, «Informal Logic», 21 (2), 141-169. Weitzenfeld, J.: 1984, Valid reasoning by analogy, «Philosophy of science», 51, 137-149. Zadeh, L.: 1979, On the validity of Dempster’s rule of combination of evidence, Memo M79/24, Berkeley University, California. Zadeh, L.: 1986, A simple view of the Dempster-Shafer theory of evidence and its implication for the rule of combination, «AI Magazine», 7 (2), 85-90. 194
Il vero e il plausibile
Indice analitico ampliatività, 66, 137, 180-1, 183 analogia, 34, 36, 43, 56, 58, 61, 105, 130, 136-7, 149, 151, 159, 161 - concezione euristica, 71, 81-2, 84 - concezione induttivista, 67, 81 - concezione strutturalista, 67 - duplicità della, 65-7 - e ibridazione, 74-5 - e probabilità, 68-70 - e ragionamento parallelo, 78-80 - limiti della, 84-5 - problema logico (LPA), 66-9, 184 apraxia, 22 argomento, - convergente, 124-8 - legato, 126-8 - seriale, 128 Aristotele, 10, 14, 15 - definizione di plausibilità, 18 - e interpretazione statistica della plausibilità, 20 Bayes, Thomas, 92 - teorema di, 10, 27, 29, 47-51, 53, 59, 60-1 Baumgarten, Alexander G., 30 - e Kant, 30 - nozione di verosimiglianza, 30 Boezio, 18 Bunge, Mario, 85 - e limiti dell’analogia, 85-6 Capozzi, Mirella, 18 Carneade, 10, 20-4, - critica al criterio di verità stoico, 178 - definizione della plausibilità, 23 Cellucci, Carlo, 69 - definizione di plausibilità, 179 - e contenuto, 180 - e inferenza, 180-1 Cognitivismo, 160, 162 - e probabilità, 139-40, 152-155, 156-7 - e plausibilità, 156-7 Collins, Allan, 142, 145, 148-50
195
Indice analitico concezione non-probabilistica, - formulazione della, 109 concezione probabilistica - formulazione della, 43 Connell, Louise, 7, 33, 152 condizione di somma-uno, 19, 97, 103-4, 110, 114-7, 129 conoscenza, - comune, 120-1, 160 - reciproca, 17, 120 contenuto - di falsità, 168-70, 172-4 - di verità, 168-70, 172-4 - e plausibilità, 180-1 - e verisimiglianza, 168 - taskiano, 166, 168, 172 - relativizzazione di, 168, 172 contesto, 18-9, 66, 85, 147-8, 179 - della giustificazione, 34, 52, 66 - della scoperta, 65, 66, 84 Corace, 14 Cox, Robert T. - teorema di, 44-7 credenza, - allocazione di, 35, 38 - rappresentazione bi-dimensionale, 39 - rappresentazione mono-dimensionale, 38-9, 88 criterio, - di verità, 21-2, 172, 178 decisione, 9, 95, 152, 157 Dempster, Arthur P., 43, 87, - differenza tra credenza e plausibilità, 90 - interpretazione dello zero probabilistico, 89 - regola di combinazione di, 91-2 Dezert, Jean 97-8, 102, 104-6 - differenza tra credenza e plausibilità, 99-100 - regola di combinazione di, 102 eikos, 13, 14, 16 empatia, 15-7 endoxa, 10, 13 - teoria degli, 18-20 entimema, 11, 110, 120-3 esternalismo, 180, 184
196
Il vero e il plausibile Euler, Leonard, 70-1, 75, 83-5 - e soluzione del problema di Leibniz, 71-4 - e soluzione del problema di Mengoli, 76-8 euristica, 31, 33, 43, 53, 63, 71, 86, 105, 130 de Finetti, Bruno, 28 - interpretazione della probabilità, 27-8 - e Polya, 53 Feynman, Richard, 83 Filone di Larisssa, 24 Gestalt, 161 Gigerenzer, Gerd, 162 Gillies, Donald, 25, 51 Gödel, Kurt, 182-3 Good, Irvin, 29 ibridazione, 71, 74, 83 illusioni cognitive, 139, 142, 161-2 incertezza, - aleatoria, 35 - dei metodi, 35-6, 96, 129, 133 - definizione di, 9, 15, 32, 101-2, 112-3, 133, 141, 158, 165 - delle premesse, 35-6, 96, 129 - epistemica, 35, 37, 45, 164, 167 - e rischio, 32, 35-6, 106 - ontologica, 165, 167, 171-2 inferenza, - ampliativa, 69, 85, 180-1 - caratterizzazione della, 180 - deduttiva, 104, 137, 180-1 - non-ampliativa, 181, 183 - non-deduttiva, 179-81 internalismo, 69 Kahneman, Daniel, 161 Kant, Immanuel, 30, 31, 106 - distinzione probabile-verosimile, 30-1 - e distinzione rischio-incertezza, 32 - nozione di probabile, 30 - nozione di verosimile, 31 Keane, Mark, 33, 141, 152 Keynes, John M., - definizione di incertezza, 32 Knight, Frank H., 36 - definizione di incertezza, 36 Koopman, Bernard, 29 197
Indice analitico Kyburg, Henry, 119 Laplace, Pierre S., 25 - demone di, 25 Leibniz, Gottfried W., 74 - problema di, 74, 76-8 - formulazione del, 74 paradosso - dell’inferenza, 84, 169 - della lotteria, 116, 198 meccanica quantistica, 27, 86, 100 Mengoli, 70 - problema di, 70-1, 74, 76, 81-5 - formulazione del, 71 metodo analitico, 71, 82 - revisione del, 81 Michalski, Ryszard, 139, 142, 159 - logica di, 144, 148, 151, 159 von Mises, Ludwig, 26 non-monotonicità, 66, 131-4, 136, 138 Pearl, Judea, 8 Peirce, Charles S., 26 pithanon, 20 Platone, 14-5 plausibilità, - e verità, 13, 986, 110, 131, 135, 175, - e scetticismo, 177, 185-86 - funzione pratica di, 34 - funzione teoretica di, 34 - senza verità, 182-4, 186 - soggettiva e psicologica, 142, 151, 166 Polya, George, 75, 85, 124, 146, 146, 183, - concezione della plausibilità, 62-3 - e analogia, 65, 67-9, 76, 78, 96, 105, 130, - e metodo analitico, 71 - interpretazione probabilistica di, 58-61 - modelli di ragionamento plausibile, 54-8 Popper, Karl, 26, 165, - e contenuto, 168 - e verità, 167, - nozione di verisimiglianza di, 170-1, 173-4 principio - del terzo escluso, 19, 38, 46, 79, 99 - di conseguenza (o Teofrasto), 113, 115, 124, 198
Il vero e il plausibile - di ragion cogente, 25 - di ragione insufficiente, 25-6 - di sistematicità, 67 - induttivo di Polya, 56, 146 probabilità - classica, 25-6 - epistemica, 27-9, 47, 61-2, 171-2 - frequentista, 26 - intuizionista, 29 - oggettiva, 26 - propensiva, 25-7 - relazionista, 28 - rivelata, 29, 156 - soggettiva, 28-9 Ramsey, Frank, 29 regola del taglio, 131, 133-4 Rescher, Nicholas, 18, 37, 47, 117, 121 - e differenze funzionali probabile-plausibile,116-9 - e Polya, 121-4 - formulazione della concezione deduttivista, 110-3 rischio, - assunzione di, 152, 154 - avversione al, 139, 152-3 - conoscibile, 155, 157 - definizione di, 32, 35-6, 154-5 - gestione di, 106, 152, 157 - non conoscibile, 139, 152 - soglie di, 156-7 Russell, Bertrand, 63 Samuelson, Paul, 154 scetticismo, 21, 24, 119, 177, 185 scheinbarkeit, 30, script, 120-1 somma ortogonale, 91-2, 95, 96 scuola siracusana, 13, - concezione della plausibilità, 14-6 Sant’Agostino, 24 Sesto Empirico, 24 Shafer, Glenn, 8 Shelley, Cameron, 79 Smarandache, Florentin, 97 Soros, George, 163 Tarsky, Alfred, 168 199
Indice analitico Teofrasto, 112 - regola di, 112, 114, 118, 124, 126-8, Tisia, 14 Tversky, Amos, 161 valore atteso, 153-5 - limiti di, 156-7 verosimiglianza, 8-9, 12, 30-1, verisimiluto, 10, 13, 30-2, 120, 170 wahrscheinlichkeit, 30 Walton, Douglas, 8, 20, 24 - e limiti della teoria di Rescher, 124-8 - e probabilità, 43 Zadeh, Lofti, 94
200