Filosofia della scienza Corso 2013-2014

105
1 Claudio Pizzi LEZIONI DI FILOSOFIA DELLA SCIENZA a.a. 2013 -2014

Transcript of Filosofia della scienza Corso 2013-2014

1

Claudio Pizzi

LEZIONI DI FILOSOFIA DELLA SCIENZA

a.a. 2013 -2014

2 2

I. IL POSITIVISMO LOGICO.

§1. Dell' epistemologia contemporanea, a differenza che di altre discipline, si

puo indicare una data di nascita abbastanza precisa, il 1925. In quest’anno un

fisico viennese di grande cultura filosofica, Moritz Schlick (1882-1936),

cominciò a usare il salotto di casa sua per ospitare un gruppo di discussione a

cui partecipavano colleghi della generazione piu giovane, di varia estrazione

culturale. Al centro di molte discussioni erano le idee contenute in un testo di

recente pubblicazione, il Tractatus LogicoPhilosophicus.

L’autore di questo testo atipico, che si presentava come una serie di aforismi

numerati, era un giovane viennese, rampollo di una ricchissima e blasonata

famiglia, Ludwig Wittgenstein. Partito volontario per la Prima Guerra Mondiale,

Wittgenstein era stato fatto prigioniero dagli italiani a Monte Cassino, riuscendo

però a completare il manoscritto nella forma che sarebbe diventata definitiva.

E' singolare che l’autore del libro che era al centro di tanto interesse non

abbia mai preso parte alle riunioni del circolo pur mantenendo i contatti con

alcuni esponenti come Friedrich Waismann. Questo si puo spiegare con la

scontrosita del suo carattere, ma bisogna anche tener conto che Wittgenstein

riteneva di non aver niente da aggiungere a quanto scritto nel suo libro, con cui

pensava di aver risolto in modo definitivo tutti i problemi principali della

filosofia. Al termine di questa impresa filosofica, come lui stesso dichiarava alla

fine della sua trattazione, non poteva esserci altro che il silenzio.

Le riunioni del circolo – che prese il nome di Ernest Mach Verein – erano

molto animate. I filosofi nel senso tradizionale del termine erano per lo piu

assenti ma partecipavano matematici come Hans Hahn e saltuariamente Kurt

Gödel (che era boemo), sociologi come Otto Neurath e Felix Kaufmann, fisici

come Philipp Frank.

Nel 1926 Rudolf Carnap (1891-1970), che era docente a Jena, fu chiamato

all’Università di Vienna. Il contributo di Carnap, che sarebbe diventato in

seguito la figura dominante importante del movimento, fu importante anche per

la sua capacità di mantenere i contatti con gli ambienti tedeschi. Con qualche

anno di ritardo infatti a Berlino si era costituito un circolo ispirato alle stesse

idee, i cui maggiori esponenti furono Hans Reichenbach (1891-1953), Carl

Gustav Hempel (1903-1992), Richard von Mises (1885-1953), Walter Dusbislav

(1895-1937). Nel giro di pochi anni circoli analoghi vennero aperti in Polonia

(circolo di Leopoli – Varsavia), in Inghilterra, dove aveva lasciato il segno la

lezione di Russell, e in seguito negli Stati Uniti dove emerse rapidamente la

figura del matematico-filosofo W.V.O. Quine.

§2. La corrente di pensiero che nasceva in questo modo e stata battezzata in vari

modi : positivismo logico, neopositivismo, neoempirismo, empirismo logico,

empirismo scientifico. Comunque la si voglia chiamare, è unanime il

3 3

riconoscimento che le personalità che lo costituivano erano di statura eccezionale

e che altrettanto eccezionale fu la svolta che riusci a imprimere alla riflessione

sulla scienza. Tanto per cominciare, un punto caratterizzante della nuova

corrente di pensiero è che la filosofia non doveva essere concepita come un

corpo di dottrine o di principi ma come un’attività. Scopo di questa attività

doveva essere l’ analisi logica del linguaggio, cioè l’analisi del linguaggio

compiuta mediante lo strumento della logica. Oggetto primario della ricerca

erano le nozioni basilari della scienza (legge, teoria, esperimento, …), che

venivano sottoposte ad un esame che Carnap chiamava di esplicazione. Una

nozione vaga e intuitiva espressa nel linguaggio ordinario,p.es quella di teoria o

di probabilità, doveva essere esplicata, e cioe rimpiazzata da un suo sostituto

rigoroso espresso entro un linguaggio ideale, esente dalle impurità del

linguaggio ordinario. Lo strumento per condurre questa attività esplicativa era

una scienza rigorosa che era stata fondata pochi decenni addietro da matematici

come Boole, Frege e Russell, la logica matematica. Dunque qui vediamo un altro

elemento di novità. Per quanto fosse una metascienza, essendo un’ attività

esercitata mediante metodi scientifici, la filosofia cosi intesa si proponeva essa

stessa come una scienza.

Non c’e dubbio che l’origine di questa idea sia reperibile nel Tractatus

di Wittgenstein. Vediamo dunque per sommi capi che cosa si trova in questo

classico della filosofia. Apparso negli Annalen der Naturphilosophie di Ostwald

nel 1921, e poi in inglese nel 1922 con introduzione di Bertrand Russell, il

Tractatus consta di una serie di aforismi seguiti da commenti e sottocommenti,

numerati secondo il loro grado di importanza. Lo stile della presentazione,

lapidario e a volte criptico, è piu simile a quello della filosofia presocratica e

della filosofia orientale che a quello contemporaneo, caratteristica che contribuì

forse al suo successo editoriale. Il libro consta di sette aforismi principali seguiti

da commenti numerati in ordine di importanza.

1. Il mondo è tutto ciò che accade

2. Ciò che accade, il fatto è il realizzarsi di stati di cose

3. L’immagine logica dei fatti è il pensiero

4. La proposizione è il pensiero dotato di senso

5.La proposizione è una funzione di verità delle proposizioni elementari

6.La forma generale della proposizione è [ , ]

7.Di ciò di cui non si può parlare bisogna tacere

Il mondo reale viene presentato come la somma degli accadimenti o fatti, e

questi sono la realizzazione di alcuni degli infiniti “stati di cose”

combinatoriamente possibili. Questi fatti possono essere estremamente

complessi, ma per quanto complessi siano, essi non sono altro che combinazioni

di fatti atomici o elementari, e cioè di fatti che non possono essere scomposti in

altri fatti: p.es. il fatto che piove e che il cielo e coperto è un fatto molecolare ,

4 4

che è la composizione del fatto atomico che piove con il fatto atomico che il

cielo è coperto. Poichè tra linguaggio e mondo esiste una specularità fotografica,

il linguaggio nella sua forma ideale consta di enunciati molecolari che sono la

composizione di enunciati atomici. Il modo in cui gli enunciati si compongono

nel linguaggio ideale è offerto da alcuni semplici connettivi logici: negazione,

congiunzione, disgiunzione, condizionale e bicondizionale. L’uso di simboli

appositi (¬ , ˄ , v , ⊃ , ≡) sta a sottolineare che questi connettivi non sono

esattamente la traduzione dei loro corrispettivi nel linguaggio ordinario. Le

cosiddette tavole di verità, che sono una creazione originale di Wittgenstein,

ci danno le condizioni a cui un enunciato molecolare è vero o falso a seconda

della verità o falsità degli enunciati atomici componenti.

Vero e Falso sono detti i “valori di verità” degli enunciati.

Queste tavole di verità si possono descrivere sinteticamente in questo modo:

Se A e B sono enunciati qualsiasi, la congiunzione A & B è Vera se A e B sono

ambedue Vere, altrimenti Falsa; la disgiunzione A v B è Falsa se A e B sono

ambedue False, altrimenti Vera; il condizionale A ⊃ B è Falso se A e Vera e B

Falsa, altrimenti Vero ; il bicondizionale A ≡ B è Vero se A e B hanno lo stesso

valore di verità, altrimenti è falso; la negazione ¬A è vera se A è Falsa, e Falsa

se A è era.

Quando un enunciato e invariabilmente vero si dice tautologia: le tautologie

sono quelle che tradizionalmente venivano chiamate leggi logiche (p.es. il terzo

escluso). Applicando le tavole di verità si può stabilire in modo meccanico e in

un tempo finito se un enunciato è o non è una tautologia. Come si suol dire,

dunque, le tavole di verità forniscono una procedura di decisione per la logica

degli enunciati atomici e molecolari. Come si vedrà piu avanti, questa logica è

solo una porzione limitata della logica necessaria alla formalizzazione del

linguaggio scientifico, ma Wittgenstein riteneva che a tale frammento fosse

riducibile ogni ramo superiore della logica.

Su questa premessa fondamentale (in effetti una vera e propria metafisica)

Wittgenstein costruisce una teoria del significato che, in forma più sofisticata,

sarebbe stata ereditata dal Circolo di Vienna. L’idea basilare e che una

proposizione è dotata di senso quando si è in grado di definire una procedura per

stabilire se è vera o falsa, dove la verità consiste nel rispecchiamento di un fatto

atomico o molecolare. Nella sua prima formulazione il cosiddetto “criterio

empirico di significanza” prendeva questa forma, noto anche come principio di

verificabilita :

(PV)“Un enunciato è significante se e solo se è verificabile in linea di

principio”.

Altra variante

(PV*)“Il significato di un enunciato è il metodo della sua verifica”

Prendiamo p.es. due coppie di asserti tratti dalla filosofia tradizionale: “Un ente

5 5

onnipotente ha creato il mondo” e “l’Essere e in bilico sul Nulla”. Non

essendoci procedure per stabilire se sono veri o falsi, sono privi di senso, e lo

stesso vale per le loro negazioni. La funzione della logica (e della filosofia come

attivita di chiarificazione) è quella di parafrasare gli enunciati del linguaggio

ordinario nel linguaggio ideale, in modo tale da chiarire la loro forma logica

perfetta; una volta cosi tradotte, si stabiliscono le condizioni a cui sono vere o

false, e si stabilisce cosi la loro sensatezza. La conclusione di questa analisi, o

meglio le conclusioni che si propone di raggiungere questa analisi, è che le

proposizioni che costituiscono la metafisica tradizionale sono prive di senso,

mentre solo le proposizioni della scienza sono dotate di senso.

In Wittgenstein questa autolimitazione della filosofia si colora di una vena

mistica che non si trova negli altri filosofi neopositivisti. Le proposizioni

dell’etica e dell’estetica a suo giudizio sono a rigore prive di senso, anche se

esprimono sentimenti e passioni che, pur essendo ineffabili, hanno grande valore

per gli uomini. Lo stesso vale per il Trascendente: esso viene percepito come

qualcosa che si pone al di la del limite, che esiste (“si mostra”, dice W), ma e

inesprimibile.

La metafisica tradizionale e la sua compagna prossima –la teologia -- dunque

sono il campo di contese inconcludenti e infinite perchè constano di pseudo-

proposizioni prive di senso e discutono quindi pseudoproblemi.

Ma le discussioni che si aprirono immediatamente, in seno al Circolo, sul

criterio empirico di significanza, danno la misura di come lo stile filosofico del

circolo fosse antidogmatico e, in certo senso, ispirato al metodo sperimentale.

Ogni esplicazione di un concetto che veniva proposta in via tentativa non

pretendeva ad essere definitiva, ma solo perfettibile. La nozione piu importante

da esplicare in via preliminare era la nozione di significanza, ma il principio di

verificabilità si dimostrava immediatamente inaccettabile, almeno nella

formulazione sopra proposta. In primo luogo, anche trascurando che tutte le

proposizioni normative e valutative risultano prive di senso per tale criterio,

bisogna chiarire che la verificabilità “in linea di principio” deve applicarsi anche

a proposizioni per cui non esiste, nel momento in cui sono valutate, la

disponibilità tecnica di una verifica. Quando venne fondato il Circolo di Vienna

non c’era la possibilità tecnica di mandare una sonda sulla Luna, ma nessuno

dubitava della sensatezza dell’enunciato “ci sono montagne dall’altra parte della

luna”, per quanto avrebbe potuto risultare, a sorpresa, falso. La risposta che si

poteva dare circa la sua sensatezza era che esso risulta sensato “in linea di

principio”, e cioè, verificabile o falsificabile nei limiti in cui possiamo

descrivere senza contraddizione delle tecniche che consentirebbero la verifica.

Ma il problema più grave, come si vide immediatamente, era un altro.

Prendiamo una legge di natura come “Tutti i corvi sono neri”. E’ ovvio che

questa legge non asserisce qualcosa sui corvi effettivamente osservati, che sono

6 6

in numero finito, ma su tutti i corvi presenti, passati e futuri, i qualis sono in

numero infinito; anzi, come vedremo meglio, su tutti i possibili corvi, che sono

pure infiniti. Secondo una teoria suggerita dallo stesso Wittgenstein nel

Tractatus, un asserto come questo, che i logici simbolizzano nella forma "∀x (Cx

⊃ Nx) equivale a una congiunzione infinita di enunciati del tipo “a e un corvo

solo se a e nero”, “b e un corvo solo se b e nero”, “c e un corvo solo se c e nero “

ecc.. In questa analisi vediamo all’opera il ruolo della logica formale, che porta

a evidenziare una struttura che il senso comune e la logica del senso comune non

rendono trasparente. Per verificare una legge come questa dovremmo quindi

verificare infiniti enunciati, e quindi compiere infinite verifiche. Ma questo non

è possibile nemmeno in linea di principio: ammesso e non concesso che si

disponga di un nome per tutti gli oggetti dell'universo, dobbiamo fare i conti con

il fatto che il tempo disponibile per le verifiche è un tempo finito. Conclusione:

le leggi scientifiche, che sono gli enunciati che rendono possibile la ricerca e la

teorizzazione scientifica, sono prive di senso.

Gli anni ’30 furono caratterizzati dai tentativi di emendare il criterio empirico

di significanza salvando almeno la significatività delle leggi scientifiche. In

Testability and Meaning Carnap propose di sostituire la verificabilità con la

controllabilità (che presuppone l’ esistenza di strumenti di controllo) e poi con

il requisito più debole della confermabilità. Il criterio di significanza

liberalizzato asserirà dunque che un enunciato è significante se e solo se e

confermabile.

Che vuol dire “confermabile”? Per capirlo dobbiamo renderci conto del fatto

che il neopositivismo è l’erede dell’empirismo classico, cioè dell’ idea secondo

cui ogni conoscenza non a priori deriva in ultima analisi dall’esperienza. (il

sintetico a priori per un empirista è puramente contraddittorio). Ma l’ esperienza

ci dà solo approssimazioni alla certezza, e cioè gradi probabilità. Il probabilismo

quindi è l’esito naturale dell’empirismo. Assegnare a un enunciato un grado di

conferma sulla base dell’esperienza equivale ad assegnargli un grado di

probabilità. Se a un enunciato (p.es. a una legge) siamo in grado assegnare un

grado di probabilità sulla base dell’esperienza questo enunciato è significante,

altrimenti no.

La nuova riformulazione di Carnap poneva su basi più soddisfacenti il criterio

di significanza, ma guadagnava un problema nuovo, che era quello di proporre

un’analisi logica della stessa nozione di probabilità. Come vedremo più avanti,

Carnap produsse uno sforzo matematicamente poderoso per ricostruire il calcolo

delle probabilità come ramo specifico (assiomatico) della logica. Nella sua

prospettiva la logica della conferma, la logica induttiva e il calcolo della

probabilità costituiscono un’unica teoria. Non erano idee completamente nuove,

dato che Keynes le aveva già espresse nel suo “Treatise on Probability”. Ma la

differenza sostanziale è che Carnap usa come strumento di indagine non la

7 7

matematica ma la logica simbolica. Per tutti i neopositivisti è la logica, non la

matematica, che diventa strumento per la rigorizzazione del linguaggio

scientifico. Secondo Carnap, che da questo punto di vista proseguiva

l’insegnamento di Frege e Russell, la matematica si può ricostruire come un

ramo della logica (logicismo).

Come vedremo, oggi questa posizione è difficilmente sostenibile, ma l' idea

guida del logicismo ha avuto un’ enorme suggestione e ha dato slancio alle

ricerche del Circolo di Vienna.

§3. Torniamo per un momento alle vicende del Circolo, che dopo il 1925 nel giro

di pochi anni si trasformava in un vero e proprio movimento organizzato. Nel

1929 compariva il manifesto del gruppo Wissenschaftliche Weltauffassung: der

Wiener Kreis, un opuscolo di 60 pagine firmato da Hahn, Neurath, Carnap. Nel

1935 Neurath in una breve monografia enucleava quattro caposaldi che erano

condivisi da quanti aderivano al movimento: 1) antimetafisica 2) empirismo di

carattere generale 3) intervento metodico della logica 4) matematizzazione di

tutte le scienze. Tra i precursori delle nuove idee venivano indicati (a parte

Mach, che era il modello di scienziato-filosofo piu vicino al circolo) Comte,

Hume, Sesto Empirico, Leibniz. Filosofi come Democrito e Marx erano citati

insieme ad altri per il loro orientamento antimetafisico e antireligioso.

Era molto chiaro che la logica e la matematica agivano non solo come

strumenti di lavoro ma assolvevano una funzione superiore. Infatti, dal momento

che offrivano un linguaggio comune a tutte le scienze avanzate, assicuravano la

comunicazione tra queste e quindi diventavano agenti-chiave di un processo

che la filosofia doveva incoraggiare: quello verso l’unità della scienza. La

promozione dell’unità della scienza diventa quindi un obiettivo cardinale

dell' epistemologia. Nel 1935 si tenne a Parigi un congresso intitolato all’unità

della scienza, a cui Neurath partecipò con una prolusione in cui si richiamava

apertamente al programma degli enciclopedisti del 700. Neurath diventava

animatore di una collana di studi “International Encyclopedia of Unified

Science” di cui vennero pubblicati diversi fascicoli scritti dai migliori specialisti.

Le scienze non solo dovevano tendere all’unità ma di fatto erano avviate verso di

questa nella misura in cui una scienza avanzata, la fisica, tendeva

progressivamente a inglobare altre scienze, a partire dalla chimica, come suoi

rami specifici. A lungo andare le scienze della vita , e poi anche le scienze

umano sociali – così si pensava- si sarebbero ridotte a rami specializzati della

fisica (fisicalismo).

Mentre le idee del Circolo acquistavano vigore, le vicende umane dei suoi

componenti erano drammaticamente sfortunate. Nel 1936, anno dell’annessione

dell’Austria alla Germania, Schlick venne assassinato da uno studente nazista

sulle scale dell’Università di Vienna. Questo evento segnava la fine del

8 8

movimento organizzato in Europa e l’inizio della diaspora dei suoi membri.

Carnap, Reichenbach, Hempel, Weinberg, Feigl e altri trovarono posto in varie

università americane, dove incontrarono un ambiente molto favorevole.

Naturalmente, nonostante la mediazione di brillanti giovani come Quine, la

filosofia dominante negli USA era quella pragmatista, dominata dall’ influenza

di personalità come Dewey e C.I.Lewis, a cui tra l'altro non era estranea neppure

l’influenza dell’idealismo hegeliano importata nell’800 dagli immigrati di lingua

tedesca.

Fino al 1970 (morte di Carnap) il positivismo logico nella versione americana

– talvolta chiamato received view – fu la corrente epistemologica dominante

negli Stati Uniti. Da un lato questa corrente di pensiero, che non solo ammetteva

ma incoraggiava le divergenze interne come fattore di progresso, mostrava una

straordinaria capacità di crescita, dall’altro il successo era garantito dalla

mancanza di alternative credibili.

Negli anni ‘30, grazie soprattutto ad Hempel, il positivismo logico fu in grado

di sviluppare una concezione delle teorie scientifiche e della spiegazione

scientifica che non ha avuto rivali fino agli anni 70. Cominciamo a chiarire che

il pensiero dei neopositivisti poggiava su una serie di presupposti che non

venivano messi in discussione perche erano in un certo senso considerati

autoevidenti. Si trattava di alcune dicotomie concettuali e principalmente:

1) la distinzione analitico-sintetico

2) la distinzione tra contesto della giustificazione e contesto della scoperta

3)la distinzione teorico - osservativo.

1) La prima distinzione fa parte della tradizione filosofica derivata

dall’empirismo. Gli enunciati veri o sono tali per la loro forma o per il

significato dei termini (ex vi terminorum) oppure in virtù dell’osservazione e

dell’esperimento. Alla prima classe appartengono enunciati come “0=0”,

“2+2=4”, “Nessuno scapolo è sposato”, che vengono detti analitici. Altri

enunciati, come “ alcuni gatti sono neri”, sono derivati dall’esperienza e sono

detti sintetici. I primi non possono mai essere falsi per il loro stesso significato,

mentre i secondi possono essere veri o falsi a seconda delle circostanze.

2) La distinzione tra contesto della scoperta e contesto della giustificazione,

sottolineata da Reichenbach, indica che le qualità che rendono giustificato

inserire un enunciato nel corpo della scienza (p.es. coerenza interna, alto grado

di conferma ecc.) non hanno niente a che vedere con il modo in cui questo

enunciato e stato di fatto scoperto dagli scienziati. Che Newton sia arrivato alla

teoria della gravitazione osservando una mela cadere dall’albero è molto

interessante per la psicologia ma irrilevante per la epistemologia. Si osservi che

molte scoperte sono , come si dice oggi, serendipiane, cioe preterintenzionali, il

che nulla toglie alla loro validità.

3) La dicotomia osservativo-teorico e essenziale per capire la concezione

9 9

neopositivista delle teorie. Il linguaggio ideale della scienza deve distinguere

rigorosamente due insiemi di termini ; quelli che descrivono qualcosa che cade

sotto il dominio diretto dei sensi (rosso, mela, telescopio…) e quelli che non

hanno questa caratteristica, pur essendo impiegati correntemente nella scienza

(gravità, peso, inflazione, inconscio…). Grosso modo si tratta della vecchia

distinzione tra concreto e astratto che qui, ovviamente, viene riformulata

attraverso l’ esame rigoroso della logica. Non si nega che ci possono essere casi

di difficile attribuzione ( per esempio un peso di 90 Kg rilevato da una bilancia è

osservativo o teorico? ) ma si afferma che si può sempre tracciare una distinzione

abbastanza sicura tra ciò che viene rilevato dall’osservazioni o da semplici

operazioni di misura e ciò che non ha questa caratteristica.

Breve parentesi. Negli anni '20 e '30 i neopositivisti dedicarono molte energie a

stabilire la forma e la qualità delle informazioni basilari, derivate dai sensi, su cui

doveva poggiare l’intera costruzione della scienza (protocolli). Alcuni

sostenevano che i protocolli non erano enunciati ma resoconti neutri di

osservazioni del tipo “qui,ora, rosso”, mentre altri come Neurath sostenevano

che ogni enunciato va confrontato con altri enunciati , per cui non ha senso far

poggiare una costruzione linguistica come la scienza su dati extralinguistici.

Qui interessa osservare che, una volta accettata la dicotomia

osservativo/teorico” per gli enunciati singoli, questa si può estendere alle leggi

scientifiche (che per i neopositivisti sono enunciati di tipo particolare, e non

elementi della realtà) le quali possono essere classificate quindi in osservative

( es.:”tutti i cavalli hanno un cervello”) e teoriche (es::“tutti gli atomi sono

costituiti da elettroni in movimento”).

Qui dobbiamo subito chiederci se gli asserti teorici, non essendo derivati

dall’osservazione, non finiscano per cadere sotto i rigori del criterio empirico di

significanza al pari delle pseudoproposizioni metafisiche (già abbiamo visto che

questo pericolo insidiava le stesse leggi scientifiche). Qui le risposte sono state

diverse. La piu semplice, proposta dal fisico americano Bridgman, sta nel dire

che ogni termine teorico è definibile in termini della classe di operazioni e di

calcolo che consentono di precisare il loro valore. Per quanto suggestiva, questa

idea urta contro una difficoltà di fondo: dal momento che le operazioni di misura

e di calcolo di una stessa grandezza, poniamo della temperatura, sono diverse e

cambiano con gli sviluppi tecnologici, dovremmo concludere che ci sono diversi

concetti di temperatura e che che questi cambiano continuamente nel tempo.

Nessuno, in effetti, si sente di sostenere che il tempo misurato da una clessidra è

un oggetto diverso dal tempo misurato da un orologio elettronico, anche se

questo è ciò che segue dalle premesse operazioniste.

Per ovviare a questo problema i neopositivisti approdarono a una concezione

che divenne in un certo senso definitiva:

per ogni termine teorico t esistono delle regole che lo connettono ai dati

10 10

osservativi dandone una “interpretazione parziale”, che può arricchirsi

indefinitamente con lo sviluppo della scienza. Una regola di corrispondenza per

esempio e la seguente:

(RC)“se la colonnina di mercurio entro il termometro b raggiunge la tacca c, la

temperatura del corpo b e di 35°”.

Il complesso di tali regole (che, si noti, non sono equivalenze ma semplici

implicazioni) è in grado di interpretare, cioè assegnare un significato, in un dato

momento storico, a un termine teorico.

Una teoria scientifica si presenta come una costruzione piramidale di leggi

gerarchizzate secondo la loro generalità e secondo il loro carattere più o meno

teoric . Questo presuppone che si sappia distinguere una legge di natura da altri

enunciati che hanno struttura sintattica analoga (p.es. “Tutti i pianeti hanno il

nome di una divinità greca”), ma i neopositivisti ritenevano, almeno fino

all’inizio degli anni ’40, che tale distinzione non fosse problematica. Al livello

piu basso della gerarchia di leggi suddetta si trovano leggi che si appoggiano

direttamente all’esperienza osservativa. Per esempio dall’asserto vero “tutti i

corvi osservati sono neri” si inferisce la legge osservativa “tutti i corvi sono neri”

mediante una estrapolazione induttiva. L’induzione, come è noto, è il processo

inferenziale per cui da una proposizione vera della forma “Qualche A è B” si

inferisce “Tutti gli A sono B”.

Ci sono casi in cui una legge riceve sostegno induttivo dal basso, ma è anche

derivabile da leggi più generali e/o più astratte. Una legge del genere nel corpo

della teoria ha una posizione molto solida. Al vertice della piramide si trovano

nella scienza- modello (la fisica) leggi teoriche come F=ma. Leggi

completamente teoriche come queste ricevono un senso mediante le regole di

corrispondenza, ma sono giustificate dalla loro capacità di derivare innumerevoli

leggi di inferiore generalità e di minore astrazione che in forma diretta o indiretta

poggiano sull’esperienza.

Veniamo ora al concetto di spiegazione (si noti che la spiegazione non va

confusa con la esplicazione a cui si è gia accennato, anche se i termini in italiano

sembrano sinonimi). Un tema importante dell’espistemologia e stato fin dall’ 800

l’interrogativo: qual è lo scopo primario della scienza? Le risposte sono state

almeno tre : a) descrivere sinteticamente la natura; b) effettuare previsioni

corrette; c) spiegare i fenomeni sotto indagine.

Scartata come limitativa la prima, la terza risposta è stata quelle che i

neopositivisti hanno sottoscritto, anche perche si e affermata la convinzione

che fosse coincidente con la seconda. Hempel ha difeso con forza

fino agli anni 60 la cosiddetta “tesi della simmetria”, secondo la quale

spiegazione e previsione sono strutturalmente identiche. Su questo ci sarebbe

molto da discutere. Se è vero che la previsione razionale di un evento (p.es.

11 11

un’eclissi di luna, non certo una vincita al lotto) implica una sua spiegazione, è

più difficile sostenere che la spiegazione di un evento passato (p.es. il crollo di

Wall Street del 1929) implichi una sua previsione (il crollo si e verificato perchè

in quel momento ha colto gli operatori di sorpresa, altrimenti sarebbe stato forse

evitato).

Accettiamo per semplicità la tesi della simmetria. Spiegare significa dare una

risposta alla domanda “Perchè E”? E può essere una legge o un fatto singolo. Nel

caso di una legge la nozione neopositivista di teoria racchiude la risposta: Se

una legge si deriva da una legge più generale si considera spiegata da questa.

Naturalmente bisognerebbe caratterizzare la nozione di “più generale”. Se io mi

chiedo perchè tutti i cani italiani hanno un cervello e rispondo “ perchè tutti i

cani europei hanno un cervello” questa seconda legge è piu generale della

prima, ma darebbe una spiegazione ben misera del fatto su cui ci si interroga.

Viceversa “tutti i quadrupedi hanno un cervello” darebbe una spiegazione molto

migliore perche connette due proprieta strutturali suggerendo anche un nesso

causale tra di esse.

Ciò che è chiaro comunque è che spiegare significa derivare logicamente, e

che ogni spiegazione va presentata come una derivazione logica. Nel caso E sia

un evento singolare effettivamente accaduto la derivazione logica può essere

data da uno o più fatti noti come accaduti mediante una o più leggi di natura.

Seguendo Hempel, l’evento da spiegare E (explanandum) si deriva da un

explanans che consta di una classe di leggi L1 & …& Ln e di condizioni iniziali

C1….Ck.

Questa idea apparentemente banale, nota come teoria delle leggi di copertura o

schema di Hempel-Oppenheim, in realtà è una fonte di problemi. in primis

bisogna porre delle restrizioni su questa definizione iniziale. Supponiamo per

esempio che E e C1 siano identiche o logicamente equivalenti oppure due

descrizioni dello stesso fenomeno.

In questo caso avremmo che Ci e un elemento della spiegazione di E, cioe che E

spiega E. Questo può sembrare assurdo, ma nella storia della scienza si è

verificato più spesso di quanto non si pensi. Nella commedia di Molière “Il

Borghese Gentiluomo” si ironizza sugli aristotelici che spiegavano la capacità

dell’oppio di far dormire dicendo che possedeva un virtus dormitiva. Per un

neopositivista il significato di questo enunciato è indistinguibile

dall’explanandum (le procedure di verifica sono identiche!), per cui in questo

caso, nonostante le apparenze, si spiega E mediante E. Altre condizioni

restrittive hanno lo scopo di evitare altre banalizzazioni: per esempio, se A

spiega E, non bisogna permettere che E spieghi A, quindi bisogna garantire che

questa relazione non sia simmetrica.

Ma la più interessante difficoltà è stata vista da Hempel per il fatto che L1…

Ln possono essere non leggi ineccepibili ma leggi probabilistico-induttive

12 12

(p.es. il 99% dei fiammiferi sfregati si accende). Questo impone una correzione

dello schema iniziale perchè l’explanandum in questo caso non segue con la

probabilità del 100% ma con un grado di certezza inferiore. Stando così le cose,

dobbiamo precisare il grado di certezza (probabilità) della conclusione

specificandolo anche formalmente. Per Hempel –c he distingue questo schema

chiamandolo Statistico-Induttivo per distinguerlo da quello Nomologico-

Deduttivo- la probabilità della conclusione date le premesse deve comunque

essere molto alta (regola dell’alta probabilità) .

Il modello SI (StatisticoInduttivo) ha dei problemi propri che si aggiungono

ai problemi del modello con leggi ineccepibili, che viene chiamato ND

(Nomologico-Deduttivo).

Ci limitiamo ad accennare al fatto che un aumento di informazione nelle

premesse può far cadere saltare un rapporto stabilito tra premesse e conclusione

sulla base di una minore informazione. Per esempio: chiediamoci perche il Sig.

Rossi si è ristabilito da una recente operazione chirurgica.

Rispondiamo con l’explanans seguente: Rossi è stato operato di appendicectomia

e il 99% di questi interventi è seguito da una rapida guarigione. Ma supponiamo

di acquisire nuove informazioni su Rossi: da queste risulta che Rossi ha 95 anni

di età. La probabilità che a quest’età un’operazione di questo genera si risolva

con una rapida guarigione non è molto alta ma molto bassa, il che rende

l’inferenza illegittima . Si dice oggi che un’inferenza come questa è

nonmonotòna: e cioè che è sensibile all’ incremento di informazione nelle

premesse.

La risposta di Hempel al problema, che suscitò immediatamente obiezioni e

polemiche, fu che per evitare questo inconveniente la descrizione

dell’explanandum deve essere sempre massimamente specifica. Bisogna, cioè,E

deve essere descritto in modo tale da esplicitare tutte le informazioni che si

possiedono su E. Questo è un caso particolare della regola che i positivisti logici

chiamano di Evidenza Totale. In ogni spiegazione bisogna quindi tener conto di

tutta l’informazione disponibile tanto nell ‘explanans che nell’explanandum.

Certo si tratta di un ideale difficile da raggiungere, se non altro perché

esplicitare tutta l’informazione disponibile potrebbe esigere un tempo infinito o

comunque illimitatamente grande. Inoltre bisogna distinguere tra informazione

rilevante per il problema e informazione irrilevante per lo stesso. Ma

l’idealizzazione richiesta in questo caso non è peggiore di quella richiesta in altri

contesti, per esempio quando si richiede, in statistica, l’ impiego

di campioni quanto più possibile grandi e quanto più possibile randomizzati. Se

nella scienza si fa ampio uso di leggi ideali (come la legge ideale dei gas) non si

vede perché l’idealizzazione deva essere preclusa nel campo della metodologia

scientifica.

13 13

[Per una Bibliografia essenziale sul neopositivismo si veda L. Geymonat, “Storia

del pensiero scientifico e filosofico”; voll 6 e 7, Garzanti 1972, 1976]

14 14

II.LA SVOLTA RELATIVISTICA E IL PROBLEMA DEL REALISMO.

§1. Negli anni ’50 il positivismo logico dominava incontrastato le università di

tutti i paesi di lingua inglese. Allo stesso modo in cui si usa indicare per il

neopositivismo una data di nascita si potrebbe indicare una data di morte: in tal

caso una scelta appropriata sarebbe il 1970 (anno della scomparsa di Carnap). La

verità è il neopositivismo non è morto perche è stato superato da altre

correnti piu agguerrite o perche è ”passato di moda”, come accaduto p.es. al

marxismo o all’esistenzialismo. Il fatto è che per svariati motivi i suoi stessi

esponenti hanno smesso di riconoscersi negli assunti basilari condivisi dagli

esponenti del Circolo di vienna . Ricordiamo che per i neopositivisti la filosofia

non e un sistema di idee ma un’attività, e che tale attività portava i neopositivisti

a rimettere in discussione spregiudicatamente i presupposti di base. Alla fine le

divergenze su questi presupposti erano divenute troppo ampie perchè si potesse

parlare di un movimento di pensiero unitario, anche se estremamente articolato.

Alcuni di questi presupposti condivisi sono già stati indicati in alcune di quelle

opposizioni concettuali a cui si è gia accennato e che venivano accettate come, in

un certo senso, autoevidenti: in particolare la distinzione analitico-sintetico, la

distinzione osservativo-teorico, la distinzione tra contesto della scoperta e

ontesto della giustificazione.

Per quanto riguarda la prima opposizione va osservato che W.v.O.Quine in

“Due dogmi dell’empirsimo” (1946), pur ponendosi come il collega Nelson

Goodman nel solco del neopositivismo, criticava l’adesione dei positivisti logici

a due “non empirici dogmi dell’empirismo”: questi dogmi erano il riduzionismo

(la tesi per cui cio che è significante è riconducibile a qualcosa che deriva

dall’esperienza immediata) e la distinzione analitico-sintetico.

Quine si chiedeva: che significa dire affermando che un enunciato come “ogni

scapolo è maschio” è “analitico” anziché “sintetico”?. Quando si tenta di

esplicare l’analiticità secondo Quine si chiamano in causa nozioni imparentate

come quella di sinonimia, necessità, regola semantica, che non hanno un

significato chiaro (Quine ha sempre accusato di oscurità nozioni modali come

quelle di necessario e possibile) oppure rimandano circolarmente a quella di

analiticità.

Quanto al riduzionismo (che riporta al criterio empirico di significanza) Quine

osserva che in fondo esso riposa sul presupposto per cui si possono falsificare o

verificare degli enunciati atomici in stato di isolamento mediante dati sensoriali,

ciascuno dei quali dovrebbe essere espresso da qualche proposizione elementare.

Di fatto però questo non accade. La tesi di Quine, poi sviluppata da lui negli anni

50 con un impronta molto personale, è che gli enunciati di una teoria non

vengono sottoposti al vaglio dell’esperienza singolarmente ma in modo olistico,

15 15

cioè tutti insieme. Idee analoghe erano state proposte nei primi decenni del XX

secolo dal fisico francese Duhem, per cui si parla spesso di “tesi di Duhem-

Quine”. Per Quine è ingenuo pensare che una teoria venga confermata

confermando singolarmente tutti i suoi asserti, oppure che si abbandoni una

teoria semplicemente perchè si trova un controesempio a uno dei suoi singoli

enunciati. Quando una teoria “funziona” globalmente ai fini della spiegazione e

della previsione non è conveniente eliminarla, anche se per avventura dovesse

essere in conflitto con qualche dato sperimentale. Qui emerge il pragmatismo

della tradizione americana, che preferisce parlare di utilità o funzionalità delle

teorie piuttosto che di verità o falsità delle stesse. Per usare la sua immagine, una

teoria è come un campo di forza che tocca l’esperienza con uno sei suoi lati. Se

entra in conflitto con l’esperienza viene revisionata in modo da riprendere la sua

funzionalità.

Nella prospettiva di Quine ci sono proposizioni piu immuni da revisione e

altre meno immuni. Le proposizioni della logica e della matematica sono piu

immuni da revisione delle altre, e queste sono quelle che i neopositivisti di solito

classificano come analitiche. Ma esse non sono immuni per loro natura o per

qualche stipulazione che le rende tali, come i neopositivisti erano soliti pensare.

Un esempio per esempio e dato dalla legge del terzo escluso, che per la logica

matematica e una tautologia garantita dalle tavole di verità. A parte il fatto che

c’e una scuola di pensiero matematica, l’intuizionismo, che le nega la validità

del terzo escluso nelle stesse scienze formali, e accaduto che la meccanica

quantistica, cioe una scienza empirica, ha evidenziato una classe di fenomeni

sperimentali che si possono descrivere solo rinunciando ad una logica che

includa il terzo escluso e molte altre delle leggi logiche accettate dalla tradizione.

Dunque quello che è sempre stata citata come un esempio di verità analitica è

stato rimesso in discussione a fronte di dati sperimentali, proprio come

accadrebbe quando la scoperta di cigni neri in Australia ha portato a respingere

la presunta legge, universalmente creduta vera per secoli, espressa da “tutti i

cigni sono bianchi”.

Negli anni '50 il neopositivismo subiva attacchi anche da parte di una scuola

che per certi versi era agli antipodi di quella pragmatista a cui si ispirava

sostanzialmente Quine. Era la scuola che un filosofo di orgine viennese, Karl

Popper, aveva fondato in Inghilterra presso la London School of Economics, e

che tuttora è attiva in vari paesi del mondo (Agassi, Watkins, Fetzer).

Per molti anni, soprattutto in Italia, Popper (viennese della generazione di

Carnap) e stato considerato un neopositivista eretico e un personaggio

secondario nel panorama epistemologico. I punti di contatto con il

neopositivismo ovviamente non mancano: per esempio la concezione della

spiegazione scientifica di Popper anticipava quella di Hempel, al punto che si

parla di teoria della speigazione di Popper-Hempel.

16 16

Ma gli sviluppi del pensiero di Popper seguiti alla sua “Logica della scoperta

scientifica” (1936) hanno reso chiaro che la sua prospettiva era originale e

indipendente. Rapidamente, si puo osservare che gia negli anni ‘20 il problema

centrale di Popper non era quello della significanza (su cui si tormentavano i

neopositivisti) ma quello della demarcazione tra scienza e non-sceinza, e in

particolare quello della demarcazione tra scienza e pseudoscienza. Che cosa

distingue gli asserti della scienza da ciò che scienza non è, anche quando si

autoproclama scienza? Gli enunciati della scienza hanno una caratteristica

comune: sono tutti falsificabili. Anche se non siamo in grado di dire che sono

veri, siamo in grado di dire quale osservazione o quale esperimento li renderebbe

falsi. Si noti che questo risolve in modo diverso il problema di definire le leggi

di natura. “Tutti i corvi sono neri” fa parte della scienza non perche è vero ma

perchè è un’ ipotesi che ha resistito a vari tentativi di falsificazione. Noi siamo in

grado di enunciare che cosa lo renderebbe falso (l’osservazione di un corvo non-

nero) e l’etica scientifica impone di sottoporlo a tests severi in grado di

falsificarlo. Non ha senso raccogliere all’infinito esempi di corvi neri per

confermare questa presunta legge: essa avrà sempre il carattere di un’ipotesi, la

cui validità dipende dalla sua resistenza ai tentativi di falsificazione.

La metafisica e le pseudoscienze invece si autoimmunizzano rendendo

impossibile la falsificazione. In un famoso saggio del 1933 Popper cita la

psicoanalisi, il marxismo e l’astrologia come esempi di pseudoscienze formulate

in modo da non essere smentite da nulla. Per esempio le caratterizzazioni dei tipi

umani secondo i segni zodiacali è formulata in modo tale che ci sono sempre

scappatoie per evitare la falsificazione (per esempio il ricorso agli ascendenti,

alle cuspidi ecc.). Questo non accade – e non deve accadere – per la scienza.

Quando Einstein presentò la relatività in varie occasioni disse che il test

decisivo per la teoria sarebbe stato l’osservazione del pianeta Mercurio nel 1919

in posizione di massima vicinanza al Sole : “Se non dovesse esistere lo

spostamento verso il rosso delle linee spettrali dovute al potenziale

gravitazionale, la teoria generale della relatività sarebbe insostenibile”.

La scienza per Popper è un sistema di ipotesi che reggono fino a provacontraria,

proprio come l'accusa che porta alla condanna di un imputato viene

accettata da un tribunale fino a che non emergono eventuali elementi che la

falsifichino (si noti che Popper era figlio di un noto avvocato). L’induzione

quindi non ha alcun ruolo nella scienza. Tutt’al piu una teoria che sostiene molti

tests volti a falsificarla si puo dire piu o meno corroborata, dove il grado di

corroborazione non è esprimibile da un valore numerico perchè dipende dalla

severità dei tests.

La scienza è un edificio che non poggia sul terreno roccioso: per usare una

fortunata metafora di Popper, è come una palafitta piantata su un terreno

argilloso. Con il tempo una teoria si consolida, i pali della palafitta vengono

17 17

spinti piu a fondo, ma senza arrivare mai a un punto fermo. Una teoria T, se

falsificata, è sostituita da una nuova teoria T’ che recupera la parte sana di T. T’

verrà poi sostituita da una teoria migliore T e così via all’infinito”. Questo

sviluppo ci porta a teorie sempre piu verisimili, cioe sempre piu approssimate

alla verità, verità che resta un ideale a cui la scienza si avvicina asintoticamente.

Bisogna sottolineare ancora che Popper non si interessa della questione della

significanza. Criticare la metafisica non vuol dire negare la significanza dei suoi

enunciati. Sarebbe sciocco pensare che Aristotele o Cartesio dicessero cose prive

di senso (incidentalmente Popper negli ultimi anni ammise di essere sempre stato

un dualista cartesiano, cioe di aver sempre creduto nel dualismo di spirito e

materia). In realà non solo buona parte della metafisica è dotata di senso, ma è

accaduto che la metafisica ha preparato il terreno alla scienza o l’ha

accompagnata interagendo positivamente con questa. Il tema della c.d. Relevant

Metaphysics e stato sviluppato dopo il ‘60 soprattutto dalla sua scuola, che ne ha

fatto un motivo caratterizzante.

Quine e Popper rappresentano due modi diversi di criticare il positivismo

logico pur restando fedeli , in un certo senso, al suo spirito. Per quanto lontani,

ambedue hanno in comune il rifiuto di considerare la teoria come una

costruzione distillata, tramite qualche tipo di astrazione, dalle esperienze

osservative. Secondo Popper questa idea non fa che perpetuare il mito

baconiano secondo cui i concetti astratti, le teorie , le leggi ecc. sono derivati

dalle osservazioni così come il vino e derivato dalla spremitura dei chicchi di

uva. E’ stato facile obiettare a Popper che di fatto la sua concezione usa più

induzione di quanto lui miri a far apparire. Quella che Popper chiama “gradi di

corroborazione” – cioè gradi di resistenza ai test falsificanti – assomigliano ai

gradi di conferma carnapiani. Ma, soprattutto, accade che per effettuare un test

falsificante c’è bisogno di usare strumenti sicuri e collaudati p. es. telescopi,

barometri ecc. : e tale sicurezza può solo essere stabilita con ripetute esperienze,

cioè in fin dei conti con una procedura di tipo induttivo. Detto altrimenti,

dobbiamo presupporre la persistenza di certi oggetti e la stabilità di un certo

numero di loro qualità, cioè ammettere qualche variante del principio che una

volta veniva chiamato di Uniformità della Natura. In ogni caso, i tests verificanti

o falsificanti vanno ripetuti un certo numero di volte finchè non danno un

risultato che si giudica sicuro. E’ accaduto per esempio per l’esperimento di

Michelson-Morley, che è stato escogitato per refutare o confermare l’esistenza

dell’etere cosmico ed è stato ripetuto diverse volte con risultati alterni. Qui

Popper risponde alla critica proponendo un tipo speciale di convenzionalismo:

sono gli scienziati che, con un accordo tacito o esplicito, convengono che un

certo asserto (asserto-base) ha la caratteristica di un dato incontrovertibile è si

puo usare per la falsificazione di enunciati piu complessi.

18 18

Un problema di non facile soluzione per Popper era definire le condizioni a

cui sono falsificabili le leggi o le generalizzazioni probabilistiche, p.es. “il 51%

dei bambini è maschio alla nascita”. Quale campione di bambini osservato si

potrebbe considerare falsificante per la generalizzazione in questione? Anche in

questo caso entrano in gioco delle convenzioni più o meno tacite stabilite dalla

comunità scientifica.

Ci sono certi valori al di sotto della quale la devianza dei campioni osservati

dai valori enunciati nell’ipotesi si può considerare non-significativa e al di sopra

della quale vale l’opposto. Su un punto Popper mostrava un indubbio vantaggio

sui neopositivisti. Non hasenso chiedere a un osservatore “che cosa vedi nel

microscopio?” perché nessuno può descrivere in un tempo finito ciò che si vede

in un dato momento.

L’idea che esista un osservatore neutro che funziona come una macchina

fotografica perfettamente passiva è un mito empirista. Noi facciamo delle

osservazioni per rispondere a problemi che ci vengono posti (p.es. per sapere se

in una data posizione si trova o no una macchia rossa) e tali domande

dipendono dalla teoria che stiamo sottoponendo a test. L' apprendimento

procede per prove ed errori e non per ripetizioni cumulative di esperienze, come

ingenuamente pensavano gli empiristi. La teoria sotto indagine quindi guida ciò

che chiamiamo osservazione, anche se ovviamente potrebbe essere falsificata

dall’ osservazione stessa.

Negli anni cinquanta il rapporto teoria-osservazione – e quindi la dicotomia

teorico-osservativo – diventava un tema di sempre maggiore importanza, anche

perché c’era una disciplina, la psicologia della percezione, che poteva mettere a

disposizione dei filosofi una massa cospicua di risultati di cui era obbligatorio

tenere conto.

Nello stesso tempo si doveva registrare di un fatto che sicuramente giocava a

sfavore del neopositivismo. L’autore del Tractatus, dopo un periodo di silenzio

interrottosi con la sua chiamata a Cambridge nel 1928, aveva ripensato le idee

del suo capolavoro e proposto un punto di vista che appariva nuovo. Questo

“secondo Wittgenstein” ha lasciato un solo testo a stampa, le Ricerche

Filosfiche, apparse postume nel 1952 , ma anche un’ impressionante mole di

manoscritti sotto forma di diari e di appunti, a cui si devono aggiungere gli

appunti presi dai suoi studenti nel corso delle lezioni. Ciò che cambiava rispetto

19 19

al Tractatus primariamente era la teoria del significato. Nel Tractatus una

proposizione è significante se e solo se è vera o falsa, e la sua verità consiste

nell’essere rispecchiamento (immagine) di un fatto atomico o molecolare. Ma il

secondo Wittgenstein, influenzato forse dallo studio dell’etnoantropologia

(scrisse una recensione de “Il Ramo d'oro” di Frazer), vede ora che il significato

di un enunciato è dato dall’insieme di regole che ne governano l’uso. Allo stesso

modo in cui il significato della torre negli scacchi, poniamo, è dato non

dall’avere la forma di una torre ma dall’insieme di regole che ne governano l’uso

nel gioco degli scacchi, così il senso di una parola come, poniamo, “bellezza”

non è dato dal riferirsi a un oggetto chiamato “bellezza” ma dalle regole che ne

governano l’uso in una lingua come l’italiano (teoria dei giochi linguistici). Il

linguaggio comune, non il linguaggio perfetto della logica, diventa dunque

l’oggetto primario di indagine insieme allo slogan “non chiedete il significato,

chiedete l’uso”. I seguaci di Wittgenstein in Inghilterra (Strawson, Anscombe,

Ryle, Toulmin), che sono tuttora numerosi, trasformarono questa filosofia in una

“filosofia del linguaggio ordinario”, che dal loro punto di vista si riduceva di

fatto all’analisi della lingua inglese.

Wittgenstein aveva familiarità con la cosiddetta “teoria della Gestalt”,

secondo cui non esiste un vedere che non sia percezione strutturata di una forma.

Esempi famosi sono il cubo di Necker e l’immagine del duck-rabbit una figura

ambigua che può essere “letta” come un papero o un coniglio, e che Wittgenstein

riproduce nell Ricerche Filosofiche. La tesi di Wittgenstein è che la disponibilità

di un certo linguaggio condiziona la percezione stessa. Chi non ha mai visto la

neve, come certi popoli dell’Africa,non possiede nel suo linguaggio la parola

“neve” e non può riconoscere qualcosa come neve. Nello stesso tempo, come

osservava il linguista Benjiamin Lee Whorf, gli esquimesi che hanno venti

20 20

termini diversi per indicare tipi di neve, “vedono” diversi tipi di neve che noi

non siamo in grado di riconoscere come tali.

Il secondo Wittgenstein pone le basi per un rovesciamento del rapporto tra

linguaggio e osservazione. Applicata all’epistemologia, questa concezione

aveva alcune immediate implicazioni, colte con grande penetrazione già in un

libro di Norwood Russell Hanson, Patterns of Discovery (1958). La logica

simbolica e la matematica cessavano di fornire il linguaggio ideale della scienza.

Ciò che diventava importante erano gli usi che gli scienziati fanno dei termini

di cui dispongono e che determinano il loro senso. Teorie diverse comportano

giochi linguistici diversi, anche se i segni grafici o acustici coinvolti possono

essere identici. Il termine “terra” usato da Tolomeo non ha lo stesso senso del

termine “terra” usato da Keplero perché il suo senso è determinato dalle regole

che lo connettono ad altri termini come “sole”, “cielo” ecc. , e tali regole sono

diverse da teoria a teoria. Quindi le osservazioni descritte entro teorie diverse

sono osservazioni diverse. Quando Tolomeo e Keplero guardano il sole

“vedono” due cose diverse. Tolomeo “vede” un oggetto mobile, Keplero “vede “

un oggetto immobile, allo stesso modo in cui qualcuno può vedere un papero e

un altro un coniglio in una figura gestaltica. I dati empirici, si dirà sempre più

frequentemente, sono “carichi di teoria”. La teoria condiziona lo stesso livello

osservativo. Si tratta di idee non competamente nuove. Basta notare che intorno

al 1935 un medico polacco, Ludwig Fleck, aveva già evidenziato la natura

strutturata della percezione in un libro riscoperto anni dopo, “Genesi e sviluppo

di un fatto scientifico”, che ripercorreva la scoperta della reazione Wasserman.

Questo nuovo modo di intendere l’osservazione scientifica è stato proposto da

M.Polanyi all’inizio degli anni 50, anche se è stato il libro di Hanson già citato a

segnare una svolta nel campo epistemologico. Qui Hanson per la prima volta

presenta la scoperta scientifica come un’ impresa volta alla determinazione di

21 21

“modi di vedere”. Sono questi “modi di vedere” che hanno la funzione che

Hempel assegnava alle leggi e alle teorie nella spiegazione. Qualcosa è spiegato

quando trova un posto entro una Gestalt, una visione teorica dei fenomeni.

Negli stessi anni un filosofo inglese, Stephen Toulmin, introduceva la metafora

delle teorie come mappe, cioè rappresentazioni non-linguistiche della realtà. Si

tratta sempre di un allontanamento dalla concezione neopositivista in quanto le

teorie e le leggi cessano di essere entità linguistiche e la spiegazione cessa di

essere un tipo particolare di ragionamento. L’epistemologo ora non si occupa di

ricostruire razionalmente entro un linguaggio ideale i risultati della scienza, ma

si occupa del modo effettivo in cui gli scienziati giocano il gioco della scienza.

E’ chiaro allora che anche la dicotomia tra contesto della scoperta e contesto

della giustificazione viene sostanzialmente superata, e parallelamente viene

meno la distinzione (cara soprattutto a Popper) tra metodologia descrittiva e

metodologia normativa. Cade la distinzione netta tra epistemologia, psicologia

della scoperta, storia della scienza e sociologia della scienza.

Questo diverso orientamento, che era minoritario negli anni ‘50, guadagnò

lentamente terreno fino a diventare dominante negli anni ‘70 e ‘80. In mancanza

di un termine preciso, lo si è chiamato postpositivismo o, meno bene, “nuova

filosofia della scienza”. La popolarità arrivò sull’onda di un fortunato libro,

“La struttura delle rivoluzioni scientifiche”, il cui autore, Thomas Kuhn, era,

significativamente, uno storico della scienza prestato alla filosofia. Kuhn aveva

studiato per anni la rivoluzione copernica e si era convinto che il modo in cui si è

passati dalla concezione tolemaica del mondo a quella copernicana

esemplificava uno schema di sviluppo che si poteva applicare alla storia di tutte

le scienze indistintamente. Lo schema di sviluppo consiste in questo. La

comunità scientifica normalmente condivide in modo più o meno conscio un

linguaggio (inteso come insieme di regole per l’uso dei termini) e un insieme di

22 22

pregiudizi, dogmi, opinioni ereditate, che Kuhn non chiama teoria ma

paradigma. L’attività ordinaria degli scienziati consiste nella soluzione di

rompicapi (puzzles) che vengono generati dall’ impiego del paradigma stesso.

Questa attività è chiamata da Kuhn scienza normale.

Ci sono momenti in cui un paradigma entra in crisi perché cessa di proporre

problemi interessanti e presenta anomalie vistose che non si è in grado di

risolvere con gli strumenti interni al paradigma. Dopo un periodo di crisi viene

proposto da qualcuno un modo alternativo di vedere le cose, cioè un nuovo

paradigma. Si entra così in una fase rivoluzionaria, che può essere anche molto

lunga, e che si concluda quando il nuovo paradigma conquista il consenso della

generazione più giocane degli scienziati. Quando questo accade il vecchio

paradigma viene seppellito, si riscrivono i manuali scientifici e si reimposta la

ricerca creando un nuovo periodo di scienza normale.

Dal momento che i paradigmi condizionano il modo di vedere, rendono gli

scienziati ciechi rispetto ai dati empirici che potrebbero falsificarli. Con buona

pace di Popper, gli scienziati nella fase di scienza normale tendono a conservare

il paradigma vigente perché non “vedono”, né possono vedere con le lenti

offerte dal paradigma, i controesempi falsificanti. L’atteggiamento degli

scienziati non è molto diverso da quello degli artisti che seguono una corrente

estetica, degli uomini di fede che professano una religione o dei seguaci di un

partito che seguono un’ideologia. Il cambiamento di paradigma, che a volte è

dovuto alla genialità di un unico creatore (Galileo, Darwin, Einstein) è

paragonato ad una conversione religiosa, dopo la quale il problema è solo

convertire gli altri, cioè persuaderli a militare a favore del nuovo paradigma.

E’ da notare che nelle rivoluzioni scientifiche si ha una sostituzione di

paradigmi, il che non vuol dire affatto che nel cambiamento si registra un

progresso. Si può parlare di progresso entro un paradigma, ma non di un

23 23

progresso nel passaggio da un paradigma a un altro. Ciò che è giusto o sbagliato

è tale rispetto a un paradigma, ma non possiamo classificare un paradigma

come giusto o sbagliato rispetto a un altro paradigma: i paradigmi, come dice

Kuhn, sono incommensurabili.

Si attuava così nel campo dell’ epistemologia lo stesso passaggio al

relativismo che gli etno-antropologi avevano già introdotto nel campo delle loro

discipline. E’ chiara in particolare l’influenza che Kuhn ha ricevuto

dall'etnolinguista B.L. Whorf, che infatti Kuhn cita nella prefazione al suo libro.

Per Whorf gruppi etnici linguisticamente diversi vivono in realtà diverse perché

usano linguaggio diversi; per esempio gli indiani Hopi vivono in un mondo

diverso dal nostro perché la loro nozione di tempo, rappresentata in un

linguaggio diverso dal nostro e intraducibile con il nostro, è in realtà differente.

Chi crede nella intraducibilità dei linguaggi non fa fatica a passare alla tesi

kuhniana della intraducibilità delle teorie, anche se tanto gli aristotelici che

Copernico parlavano la stessa lingua, cioè il latino.

Allo stesso modo in cui non ha senso chiedersi se la cultura hopi è migliore o

peggiore della nostra, così non ha senso chiedersi se il paradigma tolemaico è

migliore o peggiore del nostro. Passando al nuovo paradigma perdiamo la

capacità di vedere che cosa c’è di buono nel vecchio paradigma. E’ errato

dunque dire che il vecchio paradigma è “superato” dal nuovo, anche se

ovviamente qualcosa del vecchio viene conservato e qualcosa di nuovo prende il

posto di quanto viene cancellato. Questo perché cambiare paradigma vuol dire

cambiare mondo: Galileo e Tolomeo vivono in realtà diverse, stante che la realtà

è qualcosa che viene percepito attraverso il filtro del paradigma.

Queste idee, come si può capire, ebbero un enorme risonanza. Facevano cadere

in un solo colpo il mito della superiorità della scienza rispetto ad altre forme di

rapporto con il mondo (letteratura, pittura, storia, ideologia) e mettevano in crisi

24 24

la convinzione che la scienza garantisse una conoscenza progressivamente

più profonda del mondo.

Nell’arco di pochi anni idee simili a quelle di Kuhn vennero sviluppate

da studiosi di formazione diversa le cui conseguenze si manifestavano in forme

che apparivano anche più radicali. “Contro il metodo” di Feyerabend (un fisico

passato alla filosofia) apparso nel 1975, portava l’antipositivismo di Kuhn alle

estreme conseguenze. Galileo – l’eroe positivo di questo libro – ottenne i suoi

successi non applicando i metodi codificati dagli epistemologi tradizionali ma

violando sistematicamente le regole di quello che sarebbe stato poi codificato

come un metodo scientifico. Ciò che Galileo poteva vedere nel suo famoso

telescopio era ben poco rispetto a quanto lui diceva di vedere e soprattutto

rispetto a quanto teorizzava di vedere. Ciò che importava a Galileo era catturare

il consenso alle sue teorie e rispetto a questo fine i dati sperimentali avevano

valore più che altro propagandistico. Si sa con certezza che, nonostante gli

venga ascritta la paternità del metodo sperimentali, Galileo non eseguì mai

alcuni degli esperimenti di cui si faceva promotore. Gli esperimenti che Galileo

prediligeva erano esperimenti mentali (cioè fatti con l’immaginazione) e in

questi si presupponeva spesso la teoria che gli esperimenti miravano a

corroborare.

Lo slogan “tutto è teorico”, che divenne popolare anche in Italia negli anni ‘70,

da Feyerabend veniva integrato con lo slogan dell’anarchismo

metodologico:”tutto va bene”. Le teorie scientifiche entrano in competizione tra

loro come i movimenti politici e, sul libero mercato, dominano per la loro

capacità di catturare il consenso. In questa prospettiva mon c’è neppure una

distinzione netta tra scienza e pseudoscienza: astrologia e magia nera possono

influenzare la scienza ed entrare in competizione con essa senza che ciò implichi

una svalutazione della scienza, comunque la si voglia definire.

25 25

L’anarchismo metodologico di Feyerabend, che andava di pari passo con la

deregulation che si affermava in quegli anni negli Stati Uniti, convinse

molti, inizialmente sedotti dalle idee di Kuhn, che il nuovo relativismo stava

spingendo in una direzione pericolosa. Veniva messa in crisi non soltanto la

capacità della scienza di descrivere un mondo oggettivo, ma la stessa distinzione

della scienza rispetto ad altre attività che non sono solo estranee alla scienza ma

giudicate di solito antiscientifiche. Che cosa distingue più, in una prospetiva

anarchica, la fisica dalle scienze occulte o dalla dianetica di Ron Hubbard?

Sulla strada indicata da Feyerabend pochi anni dopo si è sviluppata la

filosofia di Richard Rorty, un filosofo che, coerentemente con le proprie idee, si

è poi trasferito in un dipartimento di letteratura. In “La scienza e lo specchio

della natura”(1979) Rorty annulla la distinzione tra linguaggio e mondo.

L’ipotesi che esista un mondo speculare al linguaggio (metafisica del Tractatus)

o un mondo indipendente dal linguaggio, è giudicata superflua e insostenibile.

La verità non è la corrispondenza con un mondo “là fuori” ma l’asseribilità

garantita dal consenso, come peraltro era stato anticipato dai grandi pragmatisti

americani come Dewey.. “La razionalità scientifica – scrive Rorty- è solo

questione di essere aperti e curiosi, e di fare affidamento sulla ragione anziché

sulla forza” : con il che si può classificare per scienza più o meno tutto quello

che ottiene il consenso in una società non violenta.

Esiste una babele di linguaggi : il linguaggio della fisica, della sociologia, il

linguaggio ordinario, che hanno tra di loro rapporti complessi. Compito del

filosofo è mettere in comunicazione questi linguaggi operando delle traduzioni,

o meglio delle interpretazioni. Il lavoro del filosofo è un lavoro ermeneutico

volto ad assicurare il dialogo, ben lontano dalla ricostruzione logica richiesta dai

neopositivisti: incidentalmente, più simile al lavoro di comprensione storica che

26 26

Croce e Gentile proponevano come compito dell’intellettuale dopo la fine della

filosofia.

Può essere interessante osservare che le radici del postpositivismo si

trovavano già all’interno di alcuni orientamenti emersi all’interno del

positivismo logico. In particolare Neurath, in dura polemica con Schlick, negava

che la verità di un enunciato atomico (p.es. “il tavolo è rosso”) si potesse

stabilire confrontando il linguaggio con un mondo extralinguistico. Gli enunciati

si confrontano solo con altri linguaggi e non con dati sensoriali o “fatti” nel

senso del Tractatus di Wittgenstein. Che cosa allora rende un enunciato vero o

falso ?

Qui bisogna accennare al fatto che nella storia del pensiero si sono affacciate

diverse teorie della verità, ma qui importa menzionarne due di grande

importanza : quella corrispondentista e quella coerentista. Secondo i

corrispondentisti la verità di un enunciato consiste nel suo rispecchiare qualche

aspetto reale del mondo (Aristotele : “dire il vero significa dire di ciò che è, che è

e di ciò che non è, che non è”). Questo sembra ovvio, ma si pensi che ci sono

molti casi in cui saremmo imbarazzati ad indicare la porzione di realtà (il fatto o

i fatti, secondo il Tractatus) a cui gli enunciati veri corrispondono. A che fatto

corrisponde 2+2=4 ? A che fatto corrisponde l’enunciato vero che tutti i corvi

sono colorati? Le leggi di natura sono come questa sono congiunzioni

infinitarie: esistono allora fatti infinitari? A che fatto corrisponde l’enunciato

negativo che Milano non è in Vietnam?

I coerentisti aggirano queste difficoltà evitando di agganciare la verità alla

sfera dei fatti. In tal modo, rotti gli ormeggi con la realtà, resta aperta solo la

possibilità di valutare i rapporti degli enunciati tra di loro. Gli enunciati veri

formano un insieme accettato e coerente (cioè privo di contraddizioni) e la verità

di un enunciato consiste nel suo essere coerente con l’insieme degli enunciati

27 27

accettati. Questa concezione è quella tipica degli idealisti come Hegel o Croce,

che vedevano il mondo come una costruzione coerente dello spirito. Un

coerentista come Neurath in effetti anticipava da un lato l’olismo di Quine ,

dall’altro il rifiuto dei postpositivisti a vedere nella scienza una fotografia della

realtà.

In effetti un’ obiezione che venne immediatamente opposta al nuovo trend

postpositivista consisteva nell’accusare la nuova filosofia della scienze di essere

una forma di idealismo più o meno camuffato. Israel Scheffler e Karl Kordig in

particolare, con due libri tradotti anche in italiano, non avevano difficoltà a

mostrare i punti deboli delle nuove concezioni. Il coerentismo in particolare era

una fonte di problemi. Il problema principale è che non c’è un solo insieme

coerente di enunciati che può essere proposto come “accettato”. La coerenza può

essere stabilita in vari modi. ”Domani piove e “domani non piove” sono due

proposizioni coerenti con quanto sappiamo; eppure una sola della due sarà

l’alternativa vera.

Certo il consenso degli scienziati si dirige verso alcuni insiemi coerenti di

credenze piuttosto che verso altri. Ma, se è per quello, anche sistemi paranoici

di credenze come quello, per esempio nazista (che ebbe anche ricadute

importanti sula piano scientifico) hanno riscosso ampi consensi. Bisogna

distinguere tra un consenso qualsiasi e un consenso razionale, e su questa

distinzione i postpositivisti hanno detto ben poco di interessante.

Negli ultimi anni Kuhn (scomparso nel 1996) mostrava una maggiore cautela

nella difesa della sua tesi originaria, osservando che nel repertorio di argomenti

con cui gli scienziati difendono un paradigma o decidono tra due paradigmi in

conflitto hanno un peso maggiore le valutazioni basate sulla probabilità, sulla

valutazione dell’evidenza e via dicendo. Inoltre, riconosceva che era meglio

28 28

evitare di dire che paradigmi diversi determinano mondi diversi, cercando di

mettersi al riparo dall’accusa di propugnare una forma larvata di idealismo.

§3. Le posizioni più oltranziste nel postpositivismo non potevano non suscitare

delle reazioni vivaci ma anche, come spesso accade, avevano l'effetto di

stimolare dei tentativi di mediazione. Vale la pena di citarne due, che hanno

avuto giustamente fortuna: quello di Imre Lakatos e quello di Hilary Putnam.

Quando Lakatos conobbe in Inghilterra Popper e fu conquistato dal suo

pensiero, aveva alle spalle una vicenda umana e filosofica tormentata.

Ungherese, era stato un filosofo di impostazione marxista e anche esponente del

governo rivoluzionario dei Imre Nagy nel 1956, che venne poi travolto dalla

restaurazione filosovietica. Il suo popperismo si è associato, in una sintesi ben

riuscita, con l’intuizione di fondo hegeliana secondo cui la storia del pensiero

ha una razionalità intrinseca.

L’idea centrale di Lakatos è in estrema sintesi questa: una teoria accettata

dalla comunità ha un nucleo relativamente stabile, intorno al quale viene disposta

una cintura protettiva di ipotesi, assunti ausiliari ecc. che la difendono dalle

falsificazioni. Tra queste compaiono le ipotesi ad hoc non verificate, che per

Popper erano contrarie all’ etica falsificazionista o l’uso della clausola ceteris

paribus, che funziona come comodo ammortizzatore di fronte ad apparenti

controesempi. La teoria cresce su se stessa espandendosi in varie direzioni e

prende la forma di un programma di ricerca: un programma di ricerca non è una

singola teoria ma una successione di teorie ciascuna delle quali è un

aggiustamento della precedente. Esso nuota in un “oceano di anomalie” e se

queste sono intollerabili alla fine viene abbandonata: ma viene abbandonata solo

quando si rende disponibile un programma di ricerca migliore – cioè più ricco e

in grado di risolvere i problemi del primo. La metodologia dei programmi di

29 29

ricerca quindi cerca di coniugare il falsificazionismo popperiano con la visione

storico-dinamica delle teorie inaugurata dai postpositivisti.

Quanto a Putnam, è uno dei molti filosofi che hanno affrontato il problema più

difficile che è implicito nella visione postpositivista, ossia la questione del

realismo. Se le teorie scientifiche rispecchiano la realtà, bisognerebbe

concludere che il cambiamento delle teorie porti con sé un cambiamento della

realtà? Se questo non accade, allora dobbiamo abbandonare l’idea che le teorie

rispecchino la realtà e accettare l'idea che sono solo strumenti di previsione e di

calcolo, come si è sostenuto varie volte negli anni '30 (strumentalismo)? I

postpositivisti hanno complicato la questione facendo collassare la distinzione

tra osservativo e teorico, per cui la teoria influenzerebbe i dati osservativi e

quindi la stessa percezione della realtà. Hilary Putnam ha proposto una

ragionevole mediazione che ricorda la mediazione kantiana tra razionalismo ed

empirismo. Il “realismo interno” di Putnam consiste nel dire che le teorie

influenzano la descrizione del mondo e anche i problemi che vengono proposti

alla scienza, ma non le risposte ai problemi stessi.

Putnam comunque non vuole spingersi a concepire la realtà come un

“noumeno” kantiano in linea di principio inconoscibile. Indubbiamente c’è una

differenza tra il classificare una balena come un pesce o come un mammifero, e

questo naturalmente dipende da teorie presupposte. Ma, una volta descritta la

realtà nella cornice di una teoria, questa è in grado di falsificare o confermare la

stessa teoria da cui è descritta. Il mondo non è inconoscibile, ma conoscibile con

la mediazione di schemi concettuali storicamente determinati.

Si può connotare l’acqua come “l’unico liquido trasparente, incolore, inodore”

–come si faceva ai tempi antichi- oppure con H20, ma questo cambiamento

riguarda il modo in cui ci si riferisce alla stessa entità, e non la natura dell’entità

30 30

stessa. Invece di parlare di verità come corrispondenza a un mondo esterno,

parleremo di accettabilità razionale.

Di sicuro, per Putnam, il relativismo è una posizione sbagliata : se non altro

perché, come già aveva visto Socrate contro Protagora, il relativista deve

proporre suo relativismo come qualcosa di assoluto, e quindi negare

implicitamente il suo stesso relativismo nel momento in cui lo professa.

BIBLIOGRAFIA ESSENZIALE (reperibile in italiano)

Hanson,N.R. Patterns of Discovery (1958), Syndics of the CAmbridge

University Press, 1978 , trad.it “Modelli della scoperta scientifica”

Feltrinelli,Milano 1978

Feyerabend,P.K., Against Method, NLB, 1975, trad.it. “Contro il metodo”,

Feltrinelli,MI,1979

Kuhn, T. , The Structure of Scientific Revolutions, trad.it. “La struttura delle

Rivoluzioni Scientifiche”, Einaudi, Torino, 1978

Kuhn,T., Sneed J.D., Stegmuller,W., Paradigmi e Rivoluzioni nella Scienza,

a cura di M.Baldini, Armando, Roma, 1983

Rorty,R, Philosophy and the Mirror of Nature, Princeton U.P. 1979; trad.it. “La

filosofia e lo specchio della natura” Bompiani,MI, 1986

Lakatos,I.-Musgrave (a cura di), Criticism and the Growth of Knowledge,

Cambridge U.P. 1970, trad.it. “Critica e Crescita della conoscenza”, Feltrinelli,

MI, 1976

Popper ,K. Logik der Forschung, Springer, Vienna 1935, trad.it. in Logica della

Scoperta Scientifica,, Einaudi,TO, 1974,

Popper, K. Realism and the aim of Science from the Postscipt to the Logic of

Scientific Discovery, a cura di W.W.Bartley III (trad.it. Poscritto alla Logica

della Scoperta Scientifica,Il Saggiatore, MI, 1984

Quine,w.v.O From a Logical Point of View, Harvard U.P, 1961, trad.it. Il

problema del significato. Ubaldini, Roma, 1966

Quine W.V.O, Saggi Filosofici 1970-1981 , a cura di M.Leonelli, Armando,

Roma 1982

Wiitgenstein, Philosophical Investigations, 1951 trad.it Ricercehe Filosofiche

31 31

III. LA LOGICA MATEMATICA E LA FILOSOFIA DELLE SCIENZE

FORMALI

§1. Verso la metà dell’800 un geniale matematico tedesco, Georg Cantor, pose

le basi di una teoria che era destinata a diventare, secondo un modo di pensare

diffuso, non solo uno strumento concettuale prezioso ma il fondamento stesso

di tutto il corpo della matematica: la teoria degli insiemi.

Cantor non dava una definizione di insieme soddisfacente dal punto di vista

contemporaneo, ma definiva in modo sufficientemente chiaro le operazioni tra

insiemi e le relazioni tra insiemi. Le operazioni fondamentali tra insiemi sono :

complementazione (−), unione (∪), intersezione (∩).

Le relazioni sono invece di due tipi : appartenenza (∈) e inclusione, (⊆). E’

importante non confondere queste due relazioni. Ogni insieme A è incluso in se

stesso in quanto tutti gli elementi di A sono elementi di A (A ⊆ A), ma

normalmente, anche se non sempre, un insieme A non appartiene a se stesso (A

∉ A : l’insieme delle mele non è una mela). Se A ⊆ B e A e B sono insiemi

diversi, A si dice sottoinsieme proprio di B.

Esistono inoltre due insiemi speciali, il più piccolo di tutti o insieme vuoto (∅)

e il più grande di tutti o insieme totale (V).

32 32

Che cosa distingue un insieme finito da uno infinito? La risposta di Cantor si

appoggia a una proprietà paradossale degli insiemi infiniti, quella di avere la

stessa numerosità di alcuni dei loro sottoinsiemi propri. Per esempio, come aveva

già notato Galileo, l'insieme dei numeri naturali N ha la stessa numerosità

dell'insieme dei numeri pari, che è un insieme incluso in N ma diverso da N.

Tale equinumerosità si accerta definendo una corrispondenza biunivoca tra i

membri del primo insieme e i membri del secondo.

La maggior gloria di Cantor è stata la teoria del transifinito, cioè la scoperta

del fatto che ci sono diversi tipi di infinito: l’insieme dei numeri reali R per

esempio è più numeroso dell’insieme dei numeri naturali, e da R si può generare

per iterazione una gerarchia di insiemi di numerosità crescente. Quando un

insieme è infinito o arbitrariamente grande, come p.es. l’insieme dei numeri pari

o l’insieme dei corvi, non possiamo descriverlo enumerando i suoi elementi

(estensionalmente, come si dice) ma indicando la proprietà che gli elementi

hanno in comune, e cioè menzionando l' intensione, o concetto, che li accomuna.

C’è un principio basilare che collega l’aspetto intensionale all’aspetto

estensionale degli insiemi, il c. d. Principio di Comprensione:

(PC) Per ogni proprietà coerente P esiste l’ insieme di tutti e solo gli elementi

che godono di P.

Usando dei simboli il principio PC si può simbolizzare così: per ogni x, Px sse

x ∈x: Px

33 33

Per esempio, data la proprietà “rosso”, esiste l’insieme di tutte e solo le cose

rosse, mentre data la proprietà “essere un insieme infinito” esiste l’insieme di

tutti e solo gli insiemi infiniti. Con un passo ulteriore Cantor teorizzava che

possiamo rappresentare tutte i predicati relazionali come insiemi di insiemi

ordinati di tipo particolare (p.es. la relazione “essere padre di” come l’insieme

delle coppie ordinate di padri e figli). Le funzioni sono intese come relazioni di

tipo particolare, cioè relazioni della forma “molti-uno”.

La descrizione delle relazioni tra insiemi può essere operata entro una logica

con il linguaggio più complesso di quello che Wittgenstein definiva mediante le

tavole di verità. Se dico

(U) “tutti gli uomini sono mortali”

questo descrive una relazione tra insiemi, che potremmo anche descrivere

dicendo

(U*)“l’insieme degli uomini è incluso nell’insieme dei mortali”.

Alternativamente, invece di dire

(E) Qualche uomo è mortale

potremmo dire

(E*)L'intersezione tra l'insieme degli uomini quello dei mortali è diversa

dall'insieme vuoto.

Il linguaggio proposizionale i cui connettivi sono descritti dalle tavole di verità

contiene soltanto negazioni, disgiunzioni, congiunzioni, condizionali, ma la

34 34

proposizione (U) non rientra in nessuna di queste categorie. D’altro canto è

assurdo dire che si tratta di un enunciato atomico, della stessa forma di “piove”

perché non descrive un fatto atomico, ma semmai descrive una composizione di

infiniti fatti atomici. Per questo è necessario introdurre dei simboli appositi, i

quantificatori, che ci consentano non solo di rappresentare proposizioni

universali come U ma di distinguerle da altre più deboli come E.

Gottlob Frege, il padre della logica contemporanea, introdusse una notazione e

un insieme di regole per questi operatori (i quantificatori), in modo che U ed E

vengono rese rispettivamente da queste due formule: ∀x(Ux ⊃ Mx) e ∃ x(Ux ∧

Mx). In questo linguaggio con soggetti e predicati avremo un numero infinito di

predicati U, M, S…. e un numero infinito di variabili x,y,z… che sono, come si

dice, vincolate dai quantificatori.

I predicati possono essere semplici ma anche relazionali, come “avere un

padre”. Per esempio “ogni corvo ha un padre” diventa una formula complessa

come ∀x(Cx ⊃ ∃y Pyx). Come abbiamo visto, i neopositivisti sosterranno in

seguito che questo linguaggio standardizzato è il linguaggio ideale della scienza,

e che compito primario dello scienziato è parafrasare il linguaggio ordinario

in questo linguaggio perfetto.

Con Frege per la prima volta la logica riceve un’assiomatizzazione. Viene

cioè stabilito un insieme di enunciati fondamentali da cui, mediante regole

molto semplici, si è in grado di derivare la totalità delle leggi logiche,

35 35

proposizionali e quantificate, sotto forma di teoremi. Ma c’è di più: Frege ritiene

che dagli assiomi della logica si possa derivare, mediante la logica stessa, tutta la

teoria degli insiemi e tutta l’aritmetica. Si noti infatti che “essere un insieme” è

un predicato come un altro e le due relazioni di appartenenza e di inclusione

sono relazioni né più né meno come “padre di” e si possono quindi rappresentare

entro la logica dei quantificatori. Per il resto, è ovvio che intersezione, unione e

complementazione si possono rappresentare mediante i connettivi proposizionali

di congiunzione, disgiunzione e negazione rispettivamente (p.es. l’insieme delle

cose rosse e quadrate è l’intersezione dell’ insieme delle cose rosse con le cose

quadrate)

E' degno di nota che le funzioni tanto matematiche che extramatematiche

(p.es. quella che correla peso e statura di un individuo) si lasciano rappresentare

come relazioni di tipo particolare. Una particolare funzione, già menzionata, è la

corrispondenza biunivoca, che mette in correlazione insiemi della stessa

numerosità, p.es. l’ insieme formato da Romolo e Remo e quello formato da

Caino e Abele. Per stabilire questa corrispondenza non è necessario possedere il

concetto di numero. In compenso, possiamo definire la nozione di numero

cardinale mediante la nozione di corrispondenza biunivoca. Per capire la

procedura, possiamo creare l’insieme di tutti gli insiemi che possono essere

messi in corrispondenza con l’insieme formato da Romolo e Remo e chiamarlo

“Numero 2”. Allo stesso modo, possiamo formare l’insieme di tutti gli insiemi

36 36

che si possono mettere in corrispondenza biunivoca con l’insieme dei tre

moschettieri e chiamarlo “numero 3” e così via all’infinito. Lo zero sarà

ovviamente l’insieme vuoto.

Frege fece vedere come le operazioni dell’aritmetica - somma,

sottrazione,moltiplicazione, divisione - si possono definire in termini delle

operazioni insiemistiche.

In quegli anni un italiano, Giuseppe Peano, aveva formulato gli assiomi per

l’aritmetica (aritmetica di Peano) e Frege fece vedere che questi assiomi si

potevano derivare dalla teoria degli insiemi e quindi indirettamente dalla logica.

I rami superiori dell’aritmetica - calcolo delle probabilità, calcolo

infinitesimale, teoria dei numeri complessi, ecc. - per Frege erano costruibili

come rami dell’aritmetica, e quindi indirettamente come rami della logica.

Questa imponente costruzione concettuale, che Frege chiamava programma

logicista, rappresentava il primo tentativo di dare un fondamento alle scienze

formali assicurando nelle stesso tempo ad esse un linguaggio comune e un

insieme di regole di ragionamento perfettamente codificate, offerte per l'appunto

dalla logica.

E’ degno di nota che in questo programma veniva rovesciato il rapporto tra

logica e matematica che altri, come Gorge Boole, avevano esplorato con

successo. Secondo Boole la logica si poteva ricostruire come un ramo particolare

dell’algebra interpretando le variabili x,y,z… coma classi di oggetti e i segni x,

37 37

+, - come operazioni su classi. In tal modo Boole ricostruiva la parte valida

della sillogistica aristotelica, ma purtroppo non era in grado di rappresentare la

logica di enunciati più complessi come quelli relazionali.

Purtroppo l'ottimismo fondazionale uscitato dal programma logicista era

destinato a durare poco. Un giovane studioso inglese, Bertrand Russell, che

intratteneva, già a 18 anni, un fitto carteggio con Frege, rilevò che il principio di

comprensione, essenziale per la teoria degli insiemi fregeana, portava a una

contraddizione, o meglio ad una antinomia.

Abbiamo visto che normalmente gli insiemi non appartengono a se stessi,

anche se insiemi molto grandi, come l’insieme di tutti gli isnsiemi, godono di

questa proprietà. Chiamiamo dunque “normali” gli insiemi che non si si

autoappartengono. Per il principio di comprensione allora esiste l’insieme di

tutti e solo gli insiemi normali (cioè un insieme che contiene questi e solo

questi). Chiamiamo X questo insieme e chiediamo X ∈ X o X ∉ X? Tutte e

due le domande, come si può facilmente vedere, portano ad una contraddizione ,

nel senso che risulta che X ∈ X se e solo se X ∉ X.

E’ falso dunque che esiste l’insieme X, il che però mette in crisi il principio di

comprensione asserente che per ogni proprietà coerente esiste l'insieme di tutti e

solo gli oggetti che ne godono. Si noti che questa antinomia assomiglia

all’antinomia del mentitore: “Io mento” implica che dico la verità, ed è strano

che Frege non avesse visto la difficoltà.

38 38

Russell cercò di correggere la costruzione di Frege introducendo una

gerarchizzazione degli insiemi in insiemi, insiemi di insiemi, ecc. Ciascuno di

questi enti appartiene a un tipo diverso, e Russell introduce la convenzione che

si può parlare di appartenenza di X a Y sse il tipo di Y è di grado

immediatamente superiore al tipo di X. Non si può quindi mai fare sensatamente

un asserto della forma X ∈ X o X ∉ X. Le complicazioni della teoria dei tipi

furono però tali da far desistere lo stesso Russell dal continuare su questa strada.

E’ stato suo merito, comunque, se nei tre ponderosissimi volumi dei Principia

Mathematica (scritti insieme a A.N. Whitehead nel 1910) sono stati poste le basi

della logica contemporanea, anche nello stile notazionale che è diverso da quello

di Frege.

In quegli anni il programma logicista, per quanto sostenuto dal prestigio di

Frege, Russell e Whitehead, non era l’unica risposta al problema che in quel

momento era più avvertito, quello dei fondamenti della matematica. Due altri

orientamenti di pensiero si affermavano in quegli stessi anni: quello intuizionista

di Brouwer e quello formalista di Hilbert. L’intuizionismo è di fatto un ramo di

quello che oggi viene più genericamente chiamato costruttivismo. Si tratta

dell’idea per cui un enunciato A è vero quando esiste una dimostrazione di A, e

falso quando esiste una dimostrazione di non-A, cioè una refutazione di A. Per

qualche A potrebbe non esserci né una dimostrazione né una refutazione: così

accade per esempio per la congettura di Goldbach (ogni numero pari è la somma

39 39

di due numero primi), che è stata verificata dai computers per numeri

astronomicamente grandi, ma non è mai stata dimostrata né refutata dagli

assiomi di Peano. Brouwer ci metteva di suo una forma particolare di

mentalismo, per cui la matematica è una costruzione della mente umana,

sganciata dal linguaggio. I numeri naturali secondo lui sono oggetto di

un’intuizione primaria che genera la successione numerica, e il problema per

Brouwer e il suo più importante continuatore (H. Heyting) diventava

naturalmente quello di spiegare la natura dei numeri irrazionali e complesso e

introdurre metodi dimostrativi in grado di sopperire alla perdita di quello

strumento fondamentale di ragionamento che è il terzo escluso. Nonostante

l’avversione di Brouwer per i formalismi, la logica intuizionista proposta da

Heyting è oggi studiata con i metodi della logica simbolica.

David Hilbert si collocava agli antipodi di Brouwer escludendo completamente

la componente psicologica. I vari rami della matematica per lui sono solo sistemi

formali, intesi come giochi di segni governati da assiomi e regole che ne

consentono la manipolazione concreta. Il significato associabile a questi simboli

(la cosiddetta dimensione semantica) non ha così alcun ruolo essenziale nella

costruzione di un sistema formale. La matematica diventa quindi lo studio

generale dei sistemi formali, come poi dirà il più importante formalista post-

hilbertiano, H.B. Curry. Un sistema di segni è accettabile quando è privo di

contraddizioni (consistente), e il problema della consistenza diventa allora il

40 40

problema cardinale del formalismo. Una volta dimostrato che il problema della

consistenza della geometria e di altre teoria formali si riduceva la problema della

consistenza dell’aritmetica, si trattava di studiare il problema della consistenza

dell’aritmetica di Peano restando, per così dire, al suo interno. Secondo Hilbert

questo si poteva fare escludendo operazioni infinitarie e operando con metodi

“finitisti”. Le totalità infinite vengono trattate come finzioni, cioè “come se “

esistessero realmente alla stregua delle totalità finite. In particolare dobbiamo

operare senza ricorrere al cosiddetto principio di induzione matematica (da non

confondersi con l'induzione empirica), che entra in gioco quando ci proponiamo

di dimostrare che infiniti oggetti godono di una stessa proprietà. Siano a(0)…..

a(n),a(n+1)….. infiniti oggetti dello stesso genere la cui classe abbia la stessa

numerosità dell'insieme dei numeri naturali. Se voglio dimostrare, p.es. ,che tali

oggetti sono tutti divisibili per due, dimostro in primo luogo che a(0) è divisibile

per 2 e poi, ipotizzando che un qualsiasi a(n) sia divisibile per due, dimostro che

il successivo a (n+1) è pure divisibile per 2.

Senza questo principio, che è introdotto da Peano tra gli assiomi

dell'aritmetica, diventa problematico dimostrare teoremi anche molto semplici,

per es. Per ogni x,y,z : x +(y +z) = (x +y) + z.

Nella visione di Hilbert la logica opera come “teoria della dimostrazione” o

“metamatematica”, cioè come insieme di metodi finitisti atti a dimostrare dagli

assiomi le proposizioni matematiche anche intuitivamente semplici, come a=a, e

41 41

a stabilire la consistenza dei sistemi formali. Con i metodi ristretti richiesti da

Hilbert si conseguirono inizialmente alcuni limitati successi.

Von Neumann riuscì a dimostrare la consistenza di un sistema più debole

dell’aritmetica di Peano, l’aritmetica con induzione limitata a proprietà non

infinitarie. Era lecita quindi la speranza che si potesse arrivare in pochi anni a

dimostrare lo stesso risultato per l’aritmetica di Peano. Le speranze erano

incoraggiate anche dal fatto che un risultato analogo si raggiunse anche per la

c.d. “aritmetica di Presburger”, che è l'aritmetica senza l' operazione di

moltiplicazione. Per questa aritmetica debole venne dimostrata anche una

proprietà essenziale nel programma finitista, la decidibilità. Un sistema è

decidibile quando in un tempo finito si può stabilire se un enunciato gli

appartiene oppure no. Come disse Hilbert a un famoso convegno, il problema

della decisione è il problema fondamentale delle scienze formali.

Purtroppo nel giro di pochi anni le aspettative riposte nella capacità dei sistemi

formali di catturare i contenuti del pensiero formale ricevevano una serie di dure

smentite. In primo luogo Alfred Tarski dimostrava che il predicato di verità non

può essere definito entro il linguaggio di una teoria consistente che contenga l‘

aritmetica, ma solo entro il metalinguaggio della stessa. In altre parole non si

può dimostrare in una teoria di questo genere l’enunciato: “A è vera se e solo se

A” o “A è falsa se e solo se non-A” (altrimenti avremmo, per un certo A,

42 42

l’enunciato “questo enunciato è falso”, che risulta tanto vero che falso per la ben

nota antinomia del mentitore).

Tarski comunque riusciva a dare un senso rigoroso alla parola “vero” entro il

metalinguaggio della logica dei quantificatori, associando ad ogni predicato

l’insieme degli enti che ne godono e parafando, p.es., “la neve è bianca” in

“l’oggetto designato dalla parola “neve” appartiene all’insieme delle cose

designato dal predicato “bianco””

Kurt Gödel nel 1933 dimostrava un doppio risultato limitativo di enorme

portata tecnica e filosofica. Il c.d. “primo teorema di Gödel ” si può esprimere

così :”Ogni teoria consistente che contenga l’aritmetica di Peano è incompleta,

cioè non contiene tutti gli enunciati aritmetici veri”.

Ci sono dunque enunciati aritmetici veri che non possono essere dedotti da un

sistema assiomatico contenente l’aritmetica di Peano. Questo sorprendente

risultato è reso possibile da un metodo, scoperto dallo stesso Gödel, che consente

di codificare in linguaggio matematico tutti gli asserti esprimibili nel linguaggio

logico (Gödelizzazione). Qualunque successione finita di simboli che sia una

formula, p. es. A ⊃ A, viene associata univocamente a un numero di codice –il

suo numero di Gödel – che la rappresenta. Viceversa, dato un qualsiasi numero

di codice di una formula o di una sequenza di fomule, possiamo risalire alla

formula o alla seqeunza di formule che gli corrisponde.

43 43

Supponiamo ora di costruire una formula logica S che dica:” S è

indimostrabile” (cioè dica di se stessa che è indimostrabile, allo stesso modo in

cui il mentitore dice di se stesso “io sto mentendo”).

Le dimostrazioni sono sequenze di formule, quindi la relazione Dim(x,y) è vera

quando x è il numero di Gödel di una sequenza di righe di una dimostrazione

che termina con una formula avente numero di Gödel y.

Questa relazione, come Gödel mostra, è decidibile, cioè si può sempre

decidere se è vero o no che Dim(x,y). Infatti Gödel dimostra che se R è una

relazione decidibile e R(m,n) è vera, allora si dimostra nell’aritmetica R(m°,n°),

dove m°,n° sono le cifri numeri che rappresentano m,n ; mentre se R(m,n,) è

falsa allora si dimostra non-R(m°, n°). Questo vale per ogni R, quindi anche se R

è il predicato Dim.

Prendiamo ora la formula logica che asserisce, mediante opportuno impiego

dei numeri di Gödel, (G) “io non ho la relazione Dim con me stessa”. Se per

assurdo G si potesse dimostrare, G sarebbe vera. Ma in tal caso essa sarebbe

indimostrabile per quanto essa asserisce, il che porta a una contraddizione.

Quindi G è indimostrabile. Ma di fatto G è anche vera! Infatti essa asserisce la

propria indimostrabilità, quindi asserisce qualcosa di vero.

Quindi ci sono asserti matematici veri che sono, per quanto essi stessi

asseriscono, indimostrabili. A questo risultato Gödel aggiunge un’ importante

corollario, e cioè dimostra che per enunciati come G, non solo G ma anche la

44 44

negazione di G è indimostrabile. Quindi l’aritmetica è non solo incompleta ma

anche indecidibile, perché la verità o falsità di certi enunciati come G non può

essere stabilita con i metodi interni al sistema di riferimento.

Il secondo teorema di Gödel, corollario del primo, consiste nel far vedere che

se un sistema come l’aritmetica di Peano potesse dimostrare la formula che

esprime la sua stessa consistenza, allora potrebbe dimostrare anche G. Ma

poiché G non è dimostrabile, la formula che esprime la consistenza

dell’aritmetica non è neppure dimostrabile entro l’aritmetica di Peano. Il

programma di Hilbert, che aspirava a dimostrare la consistenza dell’aritmetica

usando il frammento finitista della stessa, si rivelava quindi infondato.

La portata filosofica dei due teoremi di Gödel è stata a vasto raggio.

Un’implicazione che si è voluto ravvisare, incoraggiata peraltro dallo stesso

Gõdel , è quella per cui che nessun dispositivo che applichi sistemi meccanici di

dimostrazione è in grado di dimostrare un certo numero di asserti veri, che però

la mente umana è evidentemente in grado di catturare ponendosi a un livello

diverso. Di qui il riaccendersi di discussioni, del resto mai sopite sopite, sul

dualismo animo-corpo e sulla rappresentabilità della mente come un particolare

tipo di computer.

45 45

BIBLIOGRAFIA ESSENZIALE

C.Mangione e S. Bozzi, Storia della logica.Da Boole ai nostri giorni, Garzanti,

Milano 1993

J.Crossley e altri, What is Mathematical Logic?, Oxford U.P. 1972, trad.it.

Boringhieri, Torino, 1976

G. Lolli, Filosofia della matematica, Il Mulino, Bologna, 2002

S.G. Shankar (a cura di) Il teorema di Gödel , Muzzio, Padova, 1991

C.Toffalori e P. Cintoli, Logica Matematica, McGraw-Hill, Milano, 2000

46 46

IV. Il problema dell’induzione e i fondamenti della probabilità

Secondo la dottrina tradizionale la differenza tra inferenza deduttiva e

induttiva si lascia tracciare dicendo che la prima va dal generale al

particolare, mentre l’altra in direzione opposta. Per esempio da “tutti i corvi

sono neri” si deriva deduttivamente “tutti i corvi osservati sono neri ”, mentre il

ragionamento induttivo sarebbe quello per cui da “tutti i corvi osservati sono

neri” si deriva (con un rischioso azzardato salto logico) “tutti i corvi sono neri”.

L’idea che l'induzione si riduca a questo è però criticabile per vari motivi.

Uno importante è che ci sono inferenze induttive che non rientrano nello

schema sopra offerto. Per esempio l’inferenza da “tutti i corvi osservati sono

neri” a “il prossimo corvo è nero” (a volte chiamata eduzione) non rientra

nello schema visto, eppure è chiaramente un tipo particolare di induzione.

Un modo più generale e più semplice per caratterizzare, almeno in prima

approssimazione, la differenza tra i vari tipi di ragionamenti si ha dicendo che

nella transizione dalle premesse alle conclusioni alcuni ampliano la nostra

conoscenza (ampliativi) mentre altri non godono di questa proprietà.

Volendo, potremmo caratterizzare come induttivi i ragionamenti ampliativi, e

deduttivi quelli non ampliativi. Ma qui è opportuno fare una distinzione

all’interno della classe dei ragionamenti ampliativi. Prendiamo questi due

enunciati:

(sa)“ se il fiammifero è stato sfregato si è acceso”

(as)“se il fiammifero si è acceso, allora è stato sfregato”.

sa e as sono ambedue ampliativi, ma il loro senso è diverso. Il primo ci

permette di passare da una causa all’effetto, il secondo da un effetto a una

presunta causa (più generalmente: dall’explanans all’explanandum). Anche il

grado di attendibilità del ragionamento è diverso. Infatti nel primo caso

47 47

possiamo ritenere che la conclusione sia altamente attendibile, purchè

ovviamente il fiammifero si trovi in condizioni ottimali (sia abbastanza

asciutto, con sufficiente ossigeno ecc.). Nell’altro caso invece la conclusione è

più aleatoria. Infatti ci sono diversi modi per accendere un fiammifero: lo si

può sfregare, ma anche mettere vicino a una sorgente di calore o surriscaldarlo

con un fascio di luc concentrato. Il motivo per concludere, dal fatto che un

fiammifero si è acceso, che è stato sfregato, dipende dalle informazioni di cui

disponiamo. Se per esempio vediamo che mancano superfici ruvide o carta

vetrata che c’è una candela accesa, la conclusione migliore da trarre è che il

fiammifero è stato acceso mettendolo nella fiamma della candela.

Per distinguere queste due forme di inferenza ampliative chiameremo

induzione la prima e abduzione la seconda, recuperando una bipartizione

teorizzata dal filosofo americano Peirce.

Il discorso sull’abduzione in questa sede si può solo accennare. Secondo

Peirce c’è una sorta di istinto abduttivo che ci porta a lanciare congetture

esplicative e a selezionare l’ ipotesi migliore. E’ questo istinto che guidava

Sherlock Holmes nella sua ricerca del colpevole e uno scienziato come

Keplero nella ricerca della traiettoria dei pianeti. Ci sono in effetti due fasi del

procedimento abduttivo: la prima creativa (che consiste nel lanciare ipotesi ), la

seconda selettiva, che consiste nel selezionare l’ ipotesi migliore eliminando

una dopo l’altra le ipotesi peggiori. Mentre la selezione può essere effettuata in

modo razionale, e quindi è codificabile come una logica governata da regole, è

dubbio che l’abduzione creativa – come la creatività in generale – possa essere

eseguita in base a un qualsiasi sistema di regole: il che riporta alla dicotomia tra

logica della giustificazione e logica della scoperta, della quale illustri

epistemologi come Popper e Reichenbach hanno negato l'esistenza.

48 48

L’induzione è stata all’origine di problemi non solo logici ma strettamente

filosofici. Il problema di Hume, come è noto, è il seguente: non c’è nessuna

garanzia logica che il futuro sia simile al passato, o più generalmente che la

parte nota dell'universo sia simile a quella nota. In termini statistici: l’inferenza

induttiva consiste nel passare da un campione all’universo, ma non c’è nessuna

garanzia logica del fatto che le proprietà riscontrate nel campione si

manifestino anche nell’universo. Ovviamente il campione deve rispettare dei

requisiti ben noti agli statistici: in primo luogo deve essere randomizzato ,

omogeneo -cioè non sbilanciato a favore di qualche componente- e

sufficientemente ampio (si pensi alla scelta accurata dei campioni nei cosiddetti

exit polls, che consentono di anticipare i risultati elettorali nel giro di pochi

minuti con buona approssimazione). Anche così, però, non c’ è nessuna

garanzia che l’inferenza ci porti infallibilmente a conclusioni vere. Basti

pensare al fatto che dopo aver osservato un numero enorme di cigni bianchi si

era convinti, verso il 1600, che fosse vero che tutti i cigni sono bianchi. La

scoperta dell’Australia, di cui prima non si sospettava neppure l’esistenza,

portò invece una sorpresa, perché si scopri l’esistenza di una tribù di cigni neri.

Verso il 1945 Nelson Goodman presentò un argomento logico per mostrare

che nel passare dal campione all’universo siamo legittimati a inferire tutte le

conclusioni che ci piacciono. Immaginiamo di aver osservato fino a oggi (anno

2014) milioni di smeraldi verdi e nessuno smeraldo di altro colore.

Introduciamo ora un predicato perfettamente definito che è

Verdlù: verde e osservato prima del 3000 oppure blu e osservato dopo il 3000.

Per la logica, se uno smeraldo è verde e osservato prima del 3000 allora a

fortori è verdlù (basta infatti che un disgiunto sia vero perché la disgiunzione è

vera) e tali sarà dopo il 3000 per un ragionamento induttivo. Ma che accade

dopo il 3000? Gli smeraldi non saranno certo “verdi e osservati prima del

49 49

3000”, quindi varrà l’altro corno del dilemma: saranno blu e osservati dopo il

3000, quindi saranno blu.

Le soluzione proports per il rompicapo sono state diverse. Secondo alcuni

dovremmo porre dei limiti ai predicati usati. Questo sembra la morale da trarre

anche da un altro paradosso, quello di Hempel.

(C )“Tutti i corvi sono neri” equivale a

(C*)“Tutti gli oggetti non-neri sono non-corvi”.

Secondo la teoria della conferma di Hempel C, cioè che tutti i corvi sono neri, è

confermato da “a è corvo & a è nero, b è un corvo & b è nero “ ecc. e il grado

di conferma aumenta con l’aumentare dell’evidenza confermante. A parità di

ragionamento, C* è confermata da “a non è nero e a non è un corvo” ecc. .

Questa seconda evidenza confermerà però anche che tutti i corvi sono neri,

dato che C e C* sono equivalenti. Basta allora l’osservazione di una scarpa

gialla o di un tavolo verde per confermare che tutti i corvi sono neri.

Eliminando (ma è difficile dire con quale criterio) predicati non-standard

come “non- corvo”, “non-nero”, verdlu’ ecc. sembra che i paradossi della

conferma in queste formulazioni spariscano. Ma non sparisce il problema

basilare di Hume, che aveva puntato il dito sul fatto che ogni inferenza

induttiva è logicamente errata: si può benissimo immaginare un mondo

“miracoloso” in cui il fiammifero sfregato non si accenda, gli smeraldi

addirittura un mondo in cui a partire da questa notte spariscano tutti i

fiammiferi e tutti gli smeraldi.

Il problema principale dunque è la giustificazione dell’induzione.

L’induzione, come si è detto più di una volta, è la gloria della scienza e lo

scandalo della filosofia. Quindi dobbiamo trovare motivi che non solo ci

dicano che cosa rende valida l’induzione ma ci diano criteri per scegliere tra

conclusioni induttive diverse ed eventualmente incompatibili.

50 50

Il problema dell’induzione è strettamente connesso a un altro: infatti noi

siamo alla ricerca anche di criteri per distinguere tra generalizzazioni vere per

accidente e generalizzazioni nomiche, cioè che che costituiscono leggi di

natura. P.es i due enunciati:

(a)Tutti i pianeti hanno un nome di un dio greco

(b) Tutti i pianeti ruotano in ellissi

hanno la stessa forma e sono ben confermate, eppure il primo non esprime una

legge, il secondo sì.

Dal punto di vista di Popper non c’è nessun problema dell’induzione perché

l’induzione non ha alcun ruolo nella scienza. Le leggi secondo Popper non

sono in qualche misura confermate (cioè non è appropriato conferire loro un

valore di probabilità) ma sono in alta misura corroborate: in altri termini sono

solo ipotesi che hanno resistito a tests elaborati con la sincera intenzione di

scalzarle. La corroborazione “assomiglia” alla conferma ma si distingue

soprattutto perchè non ha senso misurare i suoi gradi mediante valori numerici.

Le risposte al problema della giustificazione sono state molteplici ma qui

distingueremo solo quelle che hanno dominato il campo nel ‘900.

a. Teorie presupposizionali dell’induzione (Mill, Keynes, Burks). Oggi poco

popolare, questa concezione ha un enorme merito: quella di cercare di ridurre

l’induzione alla deduzione, negando l'esistenza di una dicotomia tra due tipi di

ragionamento diversi. Si parte dall’osservazione che spesso i ragionamenti

deduttivi sono espressi in modo ellittico, di solito per il fatto di non esplicitare

alcune delle premesse: come quando si dice,.p.es. “Bilbo è un gatto, quindi è un

felino”, che sottace la premessa “tutti i gatti sono felini”. Argomenti incompleti

di questo genere sono chiamati entimemi da Aristotele. Un argomento induttivo

come “tutti i corvi osservati sono neri, quindi tutti i corvi sono neri” sono

entimemi in quanto sottintendono qualche principio esprimente l’invarianza dei

51 51

nessi accertati con l’osservazione. Di solito si chiama principio di Uniformità

della Natura l’idea per la quale un nesso associativo o causale accertato in una

zona limitata dello spazio-tempo vale in tutte le zone dello spazio-tempo. E’

indubbio che questo principio è applicato consciamente o inconsciamente dagli

scienziati nella ricerca scientifica

Come Hume aveva visto acutamente, il problema è sapere da dove proviene

la nostra fiducia nell’ Uniformità della Natura. Se tale principio è stabilito

induttivamente cadiamo in un circolo vizioso, e d’altro canto è ovvio che non

viene stabilito deduttivamente. Una via d’uscita al dilemma a cui spesso si

ricorre è la categoria del sintetico a priori kantiano: si tratterebbe di un principio

che, come il principio di causalità, riguarda il mondo ma è qualcosa che rende

l’esperienza possibile e quindi a priori rispetto ad essa.

Gli empiristi tuttavia rifiutano il sintetico a priori, che dal loro punto di vista è

una contraddizione in termini. Carnap ha proposto una diversa riduzione

dell’induzione alla deduzione ed elaborato una logica induttiva come estensione

assiomatica della logica deduttiva (ponendosi quindi nel solco del programma

logicista). In questa prospettiva I ragionamenti induttivi sono ragionamenti

incompleti perché manca un’ informazione non nelle premesse ma nella

conclusione. Se si specifica che il grado di probabilità dell’asserto che il

prossimo corvo è nero è, p.es. 90%, allora il ragionamento che porta da “tutti i

corvi osservati sono neri” a “il prossimo corvo è nero con probabilità del 90%” è

deduttivamente valido.

Il problema naturalmente è quello di calcolare correttamente tale grado di

probabilità. Nel 1951 Carnap proponeva, ne “Il continuo dei metodi induttivi”

non uno ma infiniti metodi di calcolo, ottenuti dando valori numerici diversi a

due parametri che misurano il peso dato a due fattori che Carnap chiama fattore

logico (λ, dipendente dal numero dei predicati del linguaggio) e fattore empirico

52 52

(ε, dipendente dalla frequenza relativa m/n). Purtroppo Carnap non dice come si

deve scegliere λ o ε, introducendo quindi un elemento di arbitrarietà che apre la

strada a una certa dose di soggettivismo. Inoltre, per citare un apparente difetto

tecnico del suo lavoro, accade che la probabilità che la legge infinitaria “tutti i

corvi sono neri” riceve da “tutti i corvi osservati sono neri” è espresso da una

frazione con un numeratore finito e un denominatore infinito, frazione che ha

valore 0. C’è qualcosa di controintuitivo nell’assegnare valore di probabilità zero

alle leggi di natura, anche se questa conclusione si potrebbe difendere dicendo

che le leggi hanno valore informativo massimo in quanto, in un mondo che è per

ipotesi casuale, le regolarità persistenti sono improbabili e sorprendenti (come

peraltro ha sottolineato Popper). Carnap difende il suo schema asserendo che ciò

che importa è stabilire il grado di probabilità (conferma) non di “tutti i corvi

sono neri” ma della limitata previsione “il prossimo corvo sarà nero” (inferenza

eduttiva). La difficoltà comunque è stata risolta da Hintikka inserendo nel

continuo carnapiano un terzo parametro esprimente il numero di individui

dell’universo, modifica che comunque porta a valori che tendono verso zero per

universi molto grandi.

b. Giustificazione pragmatica dell’induzione. Reichenbach, considerato il più

grande empirista del XX secolo, ha aggirato il problema di Hume

evidenziando il fatto che “giustificare” significa solo valutare positivamente i

mezzi rispetto ai fini. Prendiamo la regola induttiva più semplice (regola

diretta), quella che trascura il peso del fattore logico e asserisce, sulla base

della frequenza osservata di m/n A che sono B nel campione, che il limite a

cui tende tale percentuale al crescere di n è esattamente m/n. A prescindere dal

fatto, dimostrato poi da Salmon, che è l’unica tra le regole più importante a

evitare lo stabilirsi di contraddizioni da premesse consistenti, per Reichenbach

questa regola è la migliore di tutte le regole alternative per il fatto che non

53 53

abbiamo nulla da perdere a seguirla. Se la natura è uniforme, vuol dire che

esiste un limite a cui tende la frequenza, e se tale limite esiste, la regola diretta

è in grado di calcolarlo meglio di qualsiasi altra regola. Se il limite non esiste,

cioè la natura non è uniforme, non ci sono regole in grado di calcolare un limite

che non c'è. Per usare una metafora: se un cieco segue una strada nel bosco, la

cosa più razionale da fare per lui è continuare sul sentiero seguito con successo,

anche se per ipotesi dovesse esserci un baratro.

c. Giustificazione induttiva dell’induzione. Una piccola minoranza di filosofi

(Braithwaite, Black) ha difeso il carattere autoapplicativo dell’induzione. Sia R

la regola:“la maggior parte degli A esaminati sono B” � “ Il prossimo A è B”.

Secondo questi filosofi “R per lo più ha funzionato � R funzionerà nel

prossimo caso” contiene una circolarità solo apparente perché non presuppone

la validità di R. La cosa però è dubbia perché “R ha per lo più funzionato”

sembra indicare per l’appunto che R è una regola valida.

Il ragionamento induttivo nella sua forma più generale ha la forma della

cosiddetta induzione proporzionale, cioè di un ragionamento la cui premessa

esprime una frequenza osservata nella forma “m/n A sono B”. Ora dire che il

51% dei bambini sono maschi alla nascita significa, secondo l’uso comune,

dire che la probabilità di avere una nascita di maschi è del 51%. Si tratta

dunque di un asserto probabilistico. Inoltre, le conclusioni di qualsiasi

ragionamento ampliativo hanno un certo grado di probabilità rispetto alle

premesse, quindi il nesso stesso tra le premesse e la conclusione ha natura

probabilistica. Ma cosa sono le probabilità e come si calcolano? Secondo una

scuola di pensiero che ha avuto una certa fortuna, il metodo assiomatico è

sufficiente a dare una definizione implicita dei concetti assiomatizzati: secondo

Hilbert, per esempio, concetti come quelli di punto, linea, retta sono

sufficientemente determinati dagli assiomi che li contengono, ovviamente

54 54

purchè siano coerenti. Lo stesso dovrebbe valere per le probabilità, per la quale

a partire dal 1933 è disponibile un’assiomatizzazione rigorosa dovuta al russo

A. Kolmogorov. Secondo Kolmogorov la probabilità è semplicemente la

misura della dimensione di un evento. Un evento va inteso come un insieme di

esiti di qualche esperimento: per esempio “uscita del 2 alla roulette” oppure

“pioggia domani, che è un esperimento fatto dalla Natura. Un evento certo

avrà probabilità 100%, uno impossibile 0 e uno incerto avrà un valore variabile

tra 0 e 100%. Essendo la misura numerica di una grandezza come lo è la misura

del peso o della statura, la probabilità avrà la caratteristica di essere additiva:

Pr (A ∪ B) = Pr(A) + Pr(B) – Pr(A ∩ B) (Principio delle probabilità totali).

Gli eventi costituiscono un’algebra di insiemi, il che significa che il

complemento e l’intersezione di eventi è ancora un evento.

Un concetto fondamentale è quello di probabilità condizionata o

subordinata

(PC) Pr(B|A) = Pr (A ∩ B) Pr(A)≠0

Pr(A)

Questa nozione è importantissima perchè ci consente di esprimere

l’indipendenza tra due eventi in questo modo: A e B sono indipendenti quando

Pr(B/A) = Pr B (viceversa, sono dipendenti quando in luogo della identità

abbiamo la disuguaglianza).

Grazie alla nozione di indipendenza riusciamo a stabilire, per un' elementare

applicazione della definizione (PC), la probabilità di una congiunzione di

eventi indipendenti:

Se Pr(B|A)= PrB, Pr(A ∩ B) = Pr A x Pr(B) (principio delle probabilità

composte).

55 55

Il problema filosofico aperto con l'assiomatizzazione di Kolmogorov è quello

di sapere se è sufficiente possedere assiomi per la probabilità per rispondere

alla domanda “che cos’ è la probabilità?”. Ammesso che la risposta sia

positiva, il calcolo delle probabilità è un meccanismo per calcolare probabilità

a partire da altre probabilità, ma non consente di dare criteri per assegnare le

probabilità che funzionano come input del calcolo (probabilità iniziali). Il

problema principale della filosofia della probabilità è per l’appunto questo.

Uno dei padri fondatori del calcolo delle probabilità, Laplace, ha formulato

una definizione di probabilità che ha dato una risposta al problema

considerata soddisfacente per molto tempo. La probabilità è il rapporto tra i

casi favorevoli all’evento e i casi possibili, purchè egualmente possibili.

Questa definizione è facilmente applicabile al tavolo da gioco, dove il calcolo

delle probabilità è sostanzialmente nato nel ‘600 per impulso soprattutto di

nobili sfaccendati come il Principe de Mereè. Nei giochi d’azzardo ci troviamo

di fronte a problemi quali: se lanciamo un dado, qual è la probabilità che esca

un numero pari? I casi possibili sono sei , i casi favorevoli 3, quindi la risposta

è ½. Ma la risposta si può dare solo se si sa che i casi sono equipossibili , e qui

cominciano ad apparire le difficoltà: perché equipossibile sembra uguale ad

equiprobabile, quindi devo già applicare la nozione di probabilità per stabilire

la equiprobabilità.

Laplace applica allora il c.d. Principio di Indifferenza: due casi sono

equipossibili quando non abbiamo motivo di aspettarci una piuttosto dell’altra.

Questa clausola funziona molto spesso senza grossi problemi; ma è chiaro

che introduce una relativizzazione alle conoscenze dei soggetti , che può essere

variabile nel tempo. Keynes nel Treatise on Probability (1921) ha dedicato

molte pagine al principio di indifferenza, formulando una sua correzione che

56 56

consiste essenzialmente nel chiedere che le alternative non siano

decomponibili in sottoalternative.

Keynes, Carnap, Jeffreys ed altri negli anni Trenta in realtà si proponevano

di salvare il nocciolo della concezione classica cercando di rendere applicabile

non solo al caso delle alternative indifferenti ma a tutti i casi. La probabilità per

questi filosofi logicisti è un rapporto logico tra una evidenza e una ipotesi.

Carnap ne parla come grado di conferma, e quindi fa coincidere il grado di

conferma, la logica induttiva e il calcolo delle probabilità. La forma corretta di

un enunciato probabilistico non è Pr(A)=r ma Pr(h|e)=r.Se vere, questi asserti

sono veri logicamente, e se falsi, logicamente falsi.

Per esempio la probabilità che il prossimo corvo è nero dato che sono stati

osservati 4 corvi neri e un corvo albino è un certo valore determinato ( sotto

certe premesse 4/5). Per stabilire questi valori Carnap introduce diversi gruppi

di assiomi oltre a quelli strettamente matematici (assiomi di regolarità, di

invarianza, di rilevanza di significato). Nel continuo dei metodi induttivi, come

già accennato, vengono introdotti due parametri (uno logico e uno empirico)

che rendono più complesso e soprattutto non univoco, il ristulato di questi

calcoli.

Mentre Laplace sviluppava la sua concezione aprioristica della probabilità,

faceva rapidi progressi una disciplina con un vasto spettro di applicazioni, la

statistica. Nata per gli interessi delle compagnie di applicazioni, la statistica

diventava uno strumento indispensabile nell’epidemiologia e quindi nella

fisica, soprattutto per lo studio dei gas (Boltzmann). Le affermazioni

probabilistiche gli statistici sono pure di forma Pr(B|A) = r, ma si leggono :la

percentuale di A che sono B è m/n (per se. La percentuale di cigni che sono

bianchi è 90%). Questi enunciati sono non analitici ma sintetici, non a priori

57 57

ma a posteriori, perché dipendono da informazioni derivate dall’esperienza

circa le frequenze osservate (frequentismo).

Il primo frequentista da citare è stato John Venn (1886), ma è stato

Reichenbach a dare al frequentismo la massima dignità filosofica facendone

l’unico punto di vista compatibile con l’empirismo (per il quale, come è noto,

qualunque conoscenza non logica deriva dall’esperienza). Si noti che il

frequentismo risolve immediatamente la difficoltà del principio di indifferenza.

Per un frequentista gli enunciati probabilistici riguardano il mondo ed

esprimono conoscenza sintetica del mondo. Per un empirista non ci sono

conoscenza a priori, a parte quelle logico-matematiche, quindi il principio di

indifferenza non è lecito perchè è basato su una forma di conoscenza a priori.

C’ è un unico modo per sapere se un dado non è truccato e se, quindi, le

alternative sono equiprobabili, e consiste nel lanciarlo un numero molto grande

di volte. Se le frequenze osservate di tutte le facce tendono , a lungo andare, a

stabilizzarsi su un certo valore – poniamo 1/6 – ciò vuol dire che la probabilità

dell’uscita di ciascuna delle facce è 1/6.

Per fare un’assegnazione di probabilità bisogna quindi prendere in

considerazione una sequenza (o un campione ordinato) le cui dimensioni sono

illimitatamente grandi. Non si può quindi identificare la probabilità

semplicemente con la percentuale osservata in un campione finito.

Secondo la formulazione di Reichenbach la probabilità di A entro una

classe B (PrA|B) è il limite a cui tendono le frequenze osservate di A in un

campione di n elementi tratti da B con il crescere di n.

E’ chiaro che c´ é una difficolta’ del concetto di limite usato dai frequentisti,

che non e´sicuramente uguale a quello usato in matematica. Il limite non puo’

essere calcolato con qualche algoritmo, anche perche’ non c´ e’ nessuna

garanzia logica che tale limite esista. Asserire che il limite esiste significa

58 58

asserire, in buona sostanza, il postulato dell’ uniformita’ della natura che, per

quanto si e’ gia’ detto, e’ controverso. In termini probabilistici l’asserto che la

frequenza tende alla probabilita’ teorica e´detto postulato empirico del caso, e

non e’ affatto un teorema del calcolo delle probabilita’. Sfortunatamente a volte

viene confuso con la legge dei grandi numeri, cioe’ con il c.d. teorema di

Bernoulli

Lim (n � °°) Pr [ | s/n –p| < ε ] =1

Se il campione osservato deve essere rappresentativo della sequenza, come

abbaimo già detto, deve inoltre avere delle proprietà di perfezione, prima di tutto

la “casualità” o “irregolarità”. Questo è stato oggetto di varie speculazioni

matematiche. Si e’ cercato, a partire da von Mises, di definire le proprieta’ di un

insieme regolare. Ma sembra che ci sia qualcosa di paradossale nel trovare un

insieme di regole per generare una sequenza irregolare. Si sono trovati in

compenso buoni risultati empirici per la generazione di sequenze

“pseudocasuali” (si noti che la sequenza dei decimali di π non puo’ dirsi

irregolare in senso tecnico, anche se di fatto nessuno ha trovato una regolarita’

nel modo in cui si succedono questi decimali).

Il frequentismo e´diventato il punto di vista dominante presso gli statistici,

dato che la nozione di probabilita’ che essi usano e’ di fatto quella frequentista.

Le difficolta’ comunque non mancano. Ci limitiamo a citare queste:a) la

definizione statistica di probabilita’ non soddisfa gli assiomi di Kolmogorov per

tutti i valori. b) per i frequentisti la probabilita’ descrive una frequenza entro una

classe di riferimento: quindi non ha senso assegnare un valore di probabilita’ a

eventi singoli ma solo a tipi di evento, p.es. “uscita del 2” . Non ha senso parlare

di probabilita’ dell’ evento “uscita del 2 al terzo lancio”. Una variante del

59 59

frequentismo detta “propensionismo” ha cercato di dare una risposta a questo

problema tenendo conto delle condizioni in cui si verificano i singoli eventi. Se

per esempio al terzo lancio il dado e’ zavorrato , ha un senso chiedersi qual e’ la

probabiilita’ dell’uscita di 2 al terzo lancio. In questa visione la probabilita’

diventa una propensione di un dato dispositivo a produrre certi risultati in

condizioni date.

La corrente di filosofia della probabilita’ che ha avuto maggiori e crescenti

consensi negli ultimi anni e’ quella soggettivista , dovuta a F.P. Ramsey e soprattutto al

matematico italiano Bruno de Finetti. I soggettivisti ritengono che ci sono tante

probabilita’ quanti sono i soggetti, dato che la probabilita’ e’ solo misura del grado di

credenza soggettiva. Le probabilita’ iniziali vengono accettate osservando il

comportamento dei soggetti nello scommettere. Supponiamo che il soggetto, trattando con

un allibratore, accetti di scommettere 10 euro sulla vittoria di un cavallo per ricevere in

cambio 100 euro. Vuol dire che considera rischiosa questa scommessa: il c.d. “quoziente

di scommessa” 10/100 misura il grado di fiducia nel verficarsi dell’evento, e precisamente

la probabilita’ del 10% ad esso assegnato.

In questa prospettiva, tutte le scommesse sono legittime salvo quelle che portano a

perdita certa. Per esempio, supponiamo di scommettere 10 euro su Testa e 10 euro su

Croce dopo aver fissato un quoziente di scommessa di 1,5. In tal caso si guadagnano in

ogni caso 15 euro, ma la scommessa ne costa 20. Scommesse del genere vengono dette

incoerenti. Il requisito della coerenza e’ pertanto l’unico che va rispettato, in quanto

requisito di razionalita’. Un sistema di scommessa incoerente (Dutch Book) puo’ essere

anche estremamente complesso, e sta allo scommettitore manifestare la sua razionalita’

rifiutandolo.

Si puo’ dimostrare che questa concezione della probabilita’ soddisfa gli

assiomi di Kolmogorov. I vantaggi del soggettivismo sono innegabili. Si puo’

60 60

scommettere tanto su eventi singoli che su eventi ripetuti, si puo’ tenere in conto

le frequenze osservate ma anche non tenerne alcun conto. Si puo’ assegnare una

probabilita’ anche un evento completamente nuovo, sulla base di convizioni che

non c’ é’ bisogno di giustificare. Il giocatore di borsa opera spesso in questo

modo , anche perche’ non dispose di statistiche sui titoli ma si fida di

informazioni riservate cha sta a lui valutare, o semplicemente al suo fiuto. La

fortuna del soggettivismo presso glie economisti e’ facile da spiegare, anche

perche’ i valori di probabilita’ vengono ricondotti a rapporti tra somme di

denaro.

Questa semplicita’ naturalmente ha un prezzo. Le osservazioni principali da fare

sono queste

1)Il quoziente di scommessa, poniamo del 10/100, vale tanto quando si scommettono 10

euro per averne 100 e quando si scommettono 1000 euro per averne 100.000. A parita’ di

reddito, la seconda scommessa e’ molto piu’ rischiosa. Per ovviare a questa difficolta’ si

potrebbe ricorrere (Ramsey) alla nozione di preferenza tra beni, che pero’ sembra

presupponga una conoscenza delle probabilita’.

2) Ci sono leggi probabilistiche che sono accettate dalla scienza perche’ hanno valore

intersoggettivo.

3)I soggettivisti non sono in grado di dire che signiifca “apprendere dall’

esperienza”, e cioe’ fare valutazioni probabilistiche razionali che siano

proporzionali all’esperienza accumulata. Secondo wittgensteiniani come

Strawson essere ragionevoli significa per definizione (cioe’ per gli usi del

linguaggio ordinario) avere delle credenze commisurate all’evidenza, ossia

ragionare induttivamente., mentre la razionalita’ intesa come coerenza nello

scommettere non fa parte del repertorio concettuale ordinario, anche perche’ si

61 61

puo’ vivere benissimo senza fare l’esperienza dello scommettere, che tra l’altro

presuppone l’esistenza di denaro circolante, sconosciuta in alcune culture

tropicali.

Negli ultimi anni l’attenzione degli epistemologi si e’ concentrata su uno

strumento matematico che i soggettivisti hanno avuto il merito di porre al centro

dell’attenzione in quanto dal loro punto di vista esprime l’unico senso preciso in

cui si puo’ parlare di “inferenza dal noto all’ígnoto”. Dimostrato nel 700 da un

matematico inglese, il torema di Bayes esprime la probabilita’ di A dato B in

termini della probabiilita’ di B dato A ( per questo e’ chiamato anche teorema

della probabilita’ inversa.)

Pr A| B = `Pr A x Pr(B|A)

Pr(B)

Se chiamiamo Pr(B|A) verosimiglianza , la verosimiglianza ha normalmente

valori diversi dalla probabilita’ . Per esempio la probabilita’ che tutti i corvi

siano neri (A) dati che 100 corvi sono neri e” diversa dalla probabilita’ che 100

corvi sono neri dato che tutti i corvi sono neri, che e’ esattamente del 100%. In

tal caso anche un soggettivista puo’ calcolare la probabilita’ della

generalizzazione induttiva una volta che conosca la verosiniglianza (che qui e’

ovviamente 1), e faccia un’assegnazione (eventualmete soggettiva) ad A e a B.

Il teorema di Bayes, prediletto daí soggettivsiti, e’ stato valorizzato come

strumento inferenziale daí filosofi detti bayesiani, che non necessariamente

sono soggettivisti (si parla di bayesianismo oggettivo). Esso pare fortemente

adeguato soprattuto nel campo della cosiddetta abduzione, che nel caso piu’

ovvio e’ l’ ínferenza da gli effetti alle cause. Se ci sono due ipotesi causali h1 e

62 62

h2, il teorema di Bayes consente di calcolare quale delle due cause e’ la piu’

probabile (cioe’ Pr h1|e) e Pr h2|e) uma volta che si sappia valutare qual e’ Pr

e|h1 e Pre|h2 e si sia assegnato un valore a Pr(h1),Pr(h2) e Pr(e)

BIBLIGRAFIA ESSENZIALE

.Boniolo e P.Vidali, Filosofia della scienza, cap.4 e App2 , Ed. Bruno

Mondadori, Milano,1999

J.Hintikka: Induzione, accettazione , informazione, (a cura di P. Parlavecchia e

M.Mondadori) Il Mulino,Bologna, 1974.

L.J.Cohen : Introduzione alla filosofia dell'Induzione e della probabilità,

Giuffrè, Milano 1998

M.C.Galavotti: Probabilità, La Nuova Italia, Firenze, 2000

C. Pizzi: Teorie della probabilità e teorie della causa, CLUEB, Bologna, 1983

P.Suppes: La logica del probabile: un approccio bayesaino alla probabilità,

CLUEB, Bologna, 1984

B.Skyrms, Introduzione alla logica induttiva, Il Mulino, Bologna, 1966

63 63

V.MORTE E RESURREZIONE DELLA CAUSALITA’

Ci sono due principi che nella filosofia tradizionale hanno avuto il ruolo di

caposaldi del pensiero: il cosiddetto “principio di causalità”, cioè l’assunto che

ogni evento ha una causa - e la sua variante più debole, il “principio di ragion

sufficiente”, asserente che ogni cosa ha una ragion d’essere o fondamento , dove

il fondamento è qualcosa che spiega l’effetto ma a, differenza della causa, non è

necessitante per questo.

In un celebre articolo scritto nel 1913 (ora in “Logica e Misticismo”), Bertrand

Russell esprimeva l’opinione che il principio di causalità è “il relitto di un’era

tramontata, il quale viene lasciato sopravvivere, come la monarchia,

nell’opinione errata che non produca danni”.

Con questa battuta Russell esprimeva un punto di vista che era corrente in

ambienti scientifici influenzati dal positivismo e anticipava le posizioni di quello

che sarebbe poi stato chiamato neopositivismo. Russell infatti non solo asseriva

la fine del principio di causalità, ma profetizzava anche che qualunque scienza

avanzata il linguaggio causale era destinato a sparire, e che le cosiddette leggi

causali sarebbero state formulate come equazioni differenziali in cui si

esprimeva la variazione concomitante di determinate grandezze da determinate

altre. Le variabili dipendenti avrebbero preso il posto degli effetti e le variabili

indipendenti avrebbero preso il posto delle cause.

La concezione di Russell presupponeva la fiducia nel primato della fisica

(dove era per l’appunto in corso il processo di purificazione linguistica sopra

descritto) e in realtà sottintendeva una completa fiducia in una futura confluenza

di tutte le scienze nella fisica. Come è noto, dopo la prima guerra mondiale il

fisicalismo avrebbe istituzionalizzato questo ruolo dominante nella fisica con il

c.d. fisicalismo e, per quanto riguarda la causalità, avrebbe assunto un

64 64

atteggiamento analogamente riduttivo. Wittgenstein nel Tractatus esprimeva in

modo tagliente questi umori con l’aforisma “la credenza nel nesso causale è

superstizione”. Quanto all’idea secondo cui ogni evento ha una causa,

Wittgenstein osservava (6.16) che “se ci fosse un principio di causalità potrebbe

suonare ‘Ci sono leggi di natura’”. Che cosa sono le leggi di natura?

Wittgenstein e i suoi allievi più diretti come Schlick le intendono come regole

che ci mettono in grado di prevedere i fenomeni o calcolare i valori delle loro

proprietà misurabili. L’esistenza di leggi di natura dunque non è altro che

l’esistenza di regole di inferenza o di calcolo di questo tipo.

Tuttavia l’eclissi della causalità non aveva ancora completato la sua parabola

se il più fedele portavoce di Wittgenstein, F. Waissmann, poteva scrivere nel

secondo dopoguerra un lungo saggio intitolato “Tramonto e fine della causalità”.

Secondo Waismann questo crollo definitivo della causalità sarebbe stato prodotto

dal principio di indeterminazione di Heisenberg (1927) . Come è noto, in questo

si afferma che è impossibile misurare simultaneamente due grandezze coniugate

(p.es. la posizione e la velocità di un elettrone), e quindi anche di fare predizioni

esatte circa i fenomeni del mondo subatomico. Possiamo parlare di cause senza

effetti e di effetti senza cause.

Con tutto ciò si arrivava alla dissoluzione del determinismo causale di Laplace

. Come è noto, Laplace postulava la possibilità di un demone onnisciente in

grado di calcolare in linea di principio tutte le qualità degli eventi passati e futuri

conoscendo in modo completo lo stato di cose presente. Il caso è semplicemente,

in questa prospettiva, l’ignoranza delle cause. Dopo Heisenberg il caso diventa

un ingrediente ineliminabile della realtà stessa. In tutte le scienze emergenti,

dalla sociologia alla biologia molecolare, leggi probabilistiche e statistiche

sostituivano le leggi deterministiche, che si potevano in ogni caso presentare

come casi limite delle prime.

65 65

A quasi un secolo di distanza da quella che pareva una crisi irreversibile

siamo in grado di fare un quadro della situazione completamente diverso da

quello pronosticato da Russell e condiviso dai neopositivisti. Da un lato l’

attuazione del programma fiscalista sembra oggi addirittura più remota di

quanto fosse ai tempi di Russell, e questo soprattutto per l’enorme rilievo che

hanno assunto le scienze umano-sociali. Dall’altro è un fatto che gli scienziati,

fisici compresi, non hanno certo abbandonato il linguaggio causale nell’ attività

di ricerca e dell’esposizione ufficiale dei loro risultati. I medici continuano a

parlare di eziologia delle malattie, e a fare della ricerca della cause di queste il

loro obiettivo fondamentale (una buona diagnosi è per tutti una questione di vita

o di morte) e anche i fisici usano un gergo causale, anche se in modo più

implicito che esplicito. Si pensi infatti che la maggior parte dei verbi transitivi

attivi (“urtare”,”espellere”, “distruggere” ecc.) sono essenzialmente verbi di

causazione in quanto descrivono un determinato rapporto tra evento causante ed

evento causato. Anche nell’ipotesi che si possa eliminare il gergo causale dalla

formulazione delle leggi, sembra che questo sia impossibile nella descrizione

della cosiddetta realtà fenomenica.

Quanto precede forse basta da solo a spiegare il moltiplicarsi impressionante

di saggi filosofici sulla causalità a partire dal 1960 circa, quando viene

pubblicato “Causation in Law” di Hart & Honorè, due filosofi del diritto

consapevoli dell’importanza che hanno le considerazioni causali

nell’accertamento delle responsabilità penali. Certo questo trend è in parte

motivato dall’esaurirsi del positivismo logico alla fine degli anni 50. Ma sarebbe

un errore pensare che questa fioritura sia legata al postpositivismo, cioè al filone

di pensiero della linea Hanson-Kuhn-Feyerabend. In realtà questa corrente

filosofica è ben poco interessata all’analisi concettuale e si è limitata a mettere

l’accento sul ruolo che hanno le teorie scientifiche nel rispondere alla domanda

66 66

“qual è la causa del fenomeno x”? Di che cosa si tratti si può vedere facilmente

da un esempio. Supponiamo che si verifichi un incidente stradale conclusosi con

la morte di un conducente che in stato di ubriachezza passava con il rosso.

Supponiamo di chiedere a un vigile urbano, a un medico, a un sociologo qual è la

causa del decesso. Avremo verosimilmente delle risposte diverse. L’uno dirà che

l’evento si è prodotto perché l’autista è passato con il rosso, l’altro indicherà la

causa in un’emorragia inarrestabile, il terzo nel fatto che il guidatore era un

alcolista. I tre soggetti sono influenzati da paradigmi diversi e individuano cause

diverse. Individuare una causa significherebbe dunque usare un certo insieme di

presupposti di sfondo (una teoria, un insieme di pregiudizi) per distinguere ciò

che è rilevante da ciò che non è rilevante. Tutto ciò è indubbiamente vero sul

piano della psicologia della ricerca scientifica, ma elude uno dei problemi

centrali della filosofia della scienza, e cioè che esistono catene causali

“oggettive”, cioè che i vari soggetti possono riconoscere come tali

indipendentemente dal peso che ciascuno può voler assegnare ai singoli membri

della catena? Questo problema è solo uno dei molti che sono stati recentemente

oggetto di dibattito nella filosofia della causalità, dove con questo termine

intendo rifermi a una nuova area di ricerca su temi comuni spesso scollegati,

che attualmente vengono perseguite con strumenti diversi (logici, linguistici,

algebrici, statistici) da studiosi di diversa estrazione che parlano linguaggi

diversi.

Vediamo insieme alcuni temi importante da esaminare con la massima

attenzione.

Gli studi sulla genesi del concetto di cause non sono, a rigore, filosofici.

Tuttavia ha una grande importanza per la ricerca filosofica sapere come si

sviluppano nel bambino le nozioni causali ,e confrontare questo sviluppo con

67 67

quello subito da queste nozioni nella storia della cultura. Il riferimento obbligato

qui è naturalmente alle ricerche di Jean Piaget e della sua scuola ginevrina.

Il bambino ha coscienza prima di tutto della propria capacità produttiva,

generativa e manipolativa, e in base a questo passo ad attribuire analoghi poteri

agli oggetti che riconosce come esterni al proprio corpo. Il linguaggio ordinario

è abbondantemente percorso da questa concezione produttivistica della causa.

Noi diciamo infatti che il fuoco ha prodotto la scottatura, che il sedativo agisce

sul sistema nervoso, che le scariche elettriche hanno generato un campo

magnetico.

Tutto questo è in accordo anche con l’animismo, cioè con la credenza comune

ai popoli primitivi secondo cui tutti gli oggetti possiedono un’anima. Questa

convinzione, o almeno i suoi residui, sono rintracciabili anche agli albori del

pensiero occidentale,e precisamente nella dottrina aristotelica secondo cui

esistono poteri occulti nelle sostanze, come il potere dell’oppio di causare il

sonno o il potere del diamante di tagliare il vetro. Ebbene, nell’ambito della

filosofia della causalità anche questa posizione filosofica ha ripreso vigore. Due

filosofi inglesi influenzati da Wittgenstein, Harrè e Madden, hanno

recentemente pubblicato un volume in cui si rilancia l’idea che l’ontologia

adeguata alla scienza moderna sia quella che contempla una realtà formata da

individui dotati di poteri.

E’ difficile credere che una filosofia di questo genere (si direbbe una filosofia

Lockeana aggiornata) sia presentabile agli albori del terzo millennio.

Supponiamo di dire che il digiuno di un certo deputato radicale ha causato il

dimagrimento dello stesso. Qual è l’oggetto dotato di poteri che causa tale

fenomeno? Non certo il cibo, a meno che non sia più una battuta dire “lo

zucchero rende il caffè amaro, se non ce lo metti” . Alternativamente, possiamo

dire che il digiuno è una sostanza dotata di poteri? Ma questo significa dilatare

68 68

tropo il ventaglio di ciò che gli aristotelici intendono per sostanza. Non

dimentichiamo che Don Ferrante di fronte alla peste di Milano osservava,

seguendo Aristotele, che la peste non era né sostanza né accidente, e quindi che

non poteva esistere. Un sostenitore di una teoria simile a quella di Harrè e

Madden, Mario Bunge, ha liquidato il problema sostenendo che enunciati del

genere necessitano di una complessa parafrasi, ma non dice quale.

Una nozione di causa simile a questa, ma più accettabile per un fisico, sta nel

ridurre la relazione di causa-effetto a quella di trasmissione di una grandezza

(forza, momento, accelerazione…) da un corpo all’altro. Ma il tipo di

controesempio da invocare è sempre lo stesso. Premendo l’interruttore la stanza

da luminosa diventa buia, ma questo si ottiene non con la trasmissione del flusso

di elettricità ma con l’interruzione dello stesso.

Anche le ricerche sulla genesi del concetto di causa non hanno ottenuto un

risultato univoco. Un conto infatti è la genesi nella mente del bambino, altra è

la genesi nella storia della cultura umana. Già nel 1940 il grande giurista

austriaco Hans Kelsen evidenziava che l’origine culturale della nozioni causali è

di tipo etico- giuridico. La parola “causa” (cfr. l’espressione “far causa a uno”)

indica “il responsabile”. I primitivi vedono nella natura una lotta tra gli elementi

della natura in cui viene perturbato l’equilibrio naturale. Il principio di causalità

non è altro che una proiezione sulla natura del principio del contrappasso (cioè

che la pena deve essere una vendetta proporzionata alla colpa): allo stesso modo

in cui la vendetta adeguata ripristina l’equilibrio sociale, l’effetto adeguato

ripristina l’equilibrio naturale.

Ora quest’idea della natura come sistema in equilibrio sotto spinte differenti è

vicina all’immagine che gli economisti danno oggi dei sistemi economici. Essi

sono rappresentabili come modelli (sistemi di equazioni) in cui alcune variabili

(p.es. salari) sono da considerare non influenzate da altre che dipendono dalle

69 69

prime, e quindi ne sono l’effetto. Grazie a particolari espedienti matematici

(studiati p.es. da Blalock e Simon) si riesce inoltre a dare un senso preciso

all’idea di feed-back, cioè alla retroazione delle variabili-effetto sulle variabili-

causa, che tende a riportare un sistema all’equilibrio. In tal modo la teoria dei

sistemi rientra nel filone dei molti tentativi volti a purificare l’idea di causa dai

suoi connotati antropomorfi e metafisici.

Questi tentativi, che nel 900 sono stai sviluppate con tecniche sofisticate,

hanno un precedente illustre nel pensiero di David Hume. Erroneamente si è

voluto vedere in questo filosofi uno scettico distruttivo che mirava a negare un

senso agli asserti causali. In realtà Hume, come ogni empirista, si rifiuta di

attribuire realtà a ciò che non è osservabile, e tali non sono i poteri causali e il

nesso causa-effetto. La tesi di Hume è che quando asseriamo che c è causa di e

stiamo semplicemente asserendo

1) che c ed e si sono realmente verificati

2) che eventi simili a c sono spazialmente contigui e regolarmente seguiti da

eventi simili ad e.

E’ solo per associazione ingannevole di idee, secondo Hume, che riteniamo che

ci sia un legame occulto tra la causa e l’effetto o un potere causale della sostanza

(regularity view).

All’analisi di Hume sono state opposte diverse obiezioni ma le due principali

sono le seguenti:

I). Ci sono casi in cui si può stabilire un nesso causale con una sola

osservazione, e quindi senza passare attraverso l’osservazione di esempi ripetuti.

Thomas Reid, un contemporaneo di Hume, osservava per esempio che l’effetto

della propria volontà sulle proprie azioni si può stabilire in modo immediato

senza passare attraverso osservazioni ripetute. Non essendo un fenomeno

pubblicamente osservabile, questo a rigore non è qualcosa che interessi un

70 70

empirista. Comunque si possono escogitare altri esempi analoghi: p.es. si inietta

un nuovo farmaco a una cavia e questa immediatamente muore: In mancanza di

altre ipotesi causali secondo alcuni è lecito concludere che l’iniezione è stata

causa della morte.

II). Ci sono successioni regolari che rispecchiano i requisiti di Hume e tuttavia

non sono causali.

Reid osservava che il giorno è regolarmente seguito dalla notte e viceversa,

senza che nessuno si possa dire causa dell’altro. La prima dentizione è

regolarmente seguita dalla seconda, ma non si può dire causa di questa. In molti

processi deterministici linerari un certo tipo di evento è seguito da un altro senza

che si possa dire che ne è la causa.

Controesempi di questo genere si potrebbero considerare non decisivi. Si

potrebbe argomentare che in effetti non si parla di nesso causa- effetto, ma che

nemmeno lo si esclude (dopo tutto , il giorno rende possibile la notte e la prima

dentizione rende possibile la seconda9. E’ dunque un caso di vaghezza

semantica, in cui c’è una certa arbitarietà nella scelta del linguaggio.

Ma casi di successioni regolari non causali esistono e sono all’ordine del

giorno. Kant, come si sa, aveva l’abitudine di compiere una passeggiata

quotidianamente nella piazza di Konigsberg con un puntualità cronometrica.

Quindi ogni giorno la sua presenza nella piazza era seguita da una certa

posizione delle lancette dell’orologio (orologio tanto tedesco quanto il filosofo).

Nessuno però potrebbe dire che la presenza di Kant era la causa della posizione

delle lancette, nonostante fosse a questa contigua anche spazialmente.

Perché è possibile produrre controesempi di questo genere? Una risposta

potrebbe essere che si tratta di generalizzazioni accidentali, non di leggi di

natura. Se Kant fosse mancato un giorno all’appuntamento o l’orologio si fosse

fermato per un guasto questo avrebbe creato sorpresa ma nessuno avrebbe

71 71

gridato al miracolo, come quando Giosuè fermò il sole durante la battaglia di

Gerico.

E’ sufficiente che chiedere che sussistano leggi di successione regolare per

parlare di relazioni causali? Con ciò siamo tornati al riduzionismo di

Wittgenstein, cioè all’idea che l’esistenza di nessi causali altro non sia che

l’esistenza di leggi di natura.

La riposta però è ancora negativa. Noi sappiamo che l’abbassarsi della lancetta

del barometro è regolarmente seguita dal maltempo (così si dice): abbiamo

quindi una regola che ci consente di inferire, dall’abbassamento del barometro,

l’avvicinarsi del maltempo. Eppure siamo anche sicuri che l’abbassarsi del

barometro non è causa del maltempo ma solo un indizio di questo. Altrimenti

detto, si tratta di una causa spuria, e il motivo per cui sembra una causa genuina

è che esiste una causa genuina antecedente (l’abbassamento della pressione

atmosferica) da cui dipende tanto la variazione barometrica quanto l’effetto vero

e proprio .

E’ difficile quindi accettare l’analisi regolarista senza almeno questa

correzione: c1 e’ causa di e se e segue nomicamente da c, a meno che non esista

una terza causa antecedente e2 da cui dipende tanto ci che e.

Negli anni ‘30 i neopositivisti hanno proposto. soprattutto per merito di

Hempel, un tentativo ancora più radicale di eliminare la nozione di causa. E’

sufficiente al proposito ricordare la teoria della spiegazione di Hempel-

Oppenheim. Molto semplicemente, se C è un elemento dell’explanans ed E è

l’explanandum, diremo che C è causa di E (C , si direbbe è ragione sufficiente,

una volta congiunta ad altre informazioni), per credere ad E. Parleremo di teoria

“esplicazionista della causa” in quanto le cause vengono ridotte a fattori

esplicativi.

72 72

Rispetto alla teoria neohumeana, p.es. di Schlick, l’ esplicazionismo elimina il

requisito della precedenza temporale delle cause. Supponiamo di chiedere:

“perché quel passero costruisce il nido?” (explanandum) e che la risposta sia

“perché disporrà in un momento successivo le uova nel nido”. Qui l’explanans è

posteriore all’explanandum. Lo diremmo una causa? Aristotele diceva di sì e

parlava al proposito di cause finali o posteriori all’effetto. Gli empiristi negano

l’esistenza di questa causalità retroattiva e preferiscono dire in questo caso che il

passero è stato programmato a mettere le uova nel nido, dove la programmazione

genetica è una causa antecedente, non posteriore.

Problema analogo è quello delle cause simultanee. Anche qui gli empiristi

sono

scettici e di solito sottoscrivono il principio di azione ritardata, secondo cui ogni

azione “prende tempo” , fosse anche l’azione delle onde più veloci, che sono

quelle luminose. La velocità altissima della luce spiga alcuni apparenti esempi di

causalità simultanea. Per esempio se premo il pulsante ho l’impressione che si

accenda “simultaneamente la lampadina”, ma in realtà ciò che accade perché il

lasso di tempo intercorso è impercettibile.

Per concludere, un neohumeano potrebbe definire una causa C1 come una

delle condizioni iniziali C1…Cn che fanno parte dell’explanans dell’effetto E

(explanandum) che si verifica in un momento successivo. Si potrebbe anche dire

che C1 è ceteris paribus sufficiente per E.

dove l’espressione “ ceteris paribus” indica le condizioni di contorno preesistenti

compatibili con E. . Questo concezione è assai elegante, ma il controesempio del

barometro ci fa riflettere sulla sua insufficienza. L’abbassarsi del barometro

rende prevedibile la tempesta, ma non la spiega e tanto meno ne è causa. Sono

stati fatti dei tentativi probabilistici molto sofisticati per distinguere le cause

genuine dalle cause spurie, che è un problema di vitale importanza soprattutto

73 73

quando sono in gioco delle correlazioni statistiche di eventi non facilmente

ordinabili temporalmente . Per esempio risulta una correlazione positiva tra le

variabili c ( check up) e e m ( mortalità) , anche se è difficile credere che i check

up diminuiscano la speranza di vita. Tecniche molto raffinate per lo

smascheramento delle cause spurie sono state introdotte nell’ impiego dei

modelli matematici come quelli di Blalock e Simon.

Ma sembra che non si sia dato rislato all’intuzione più semplice. Si può

osservare che l’abbassarsi del barometro è sì condizione ceteris paribus

sufficiente per l’effetto ma non è una condizione cegteris paribus necessaria o,

come si suol dire, una conditio sine qua non per lo stesso. Se, per esempio, non

ci fosse stato l’abbassamento del barometro per mancanza del barometro, ci

sarebbe stata egualmente tempesta, come avveniva prima dell’invenzione dei

barometri.

Qualcuno può sostenere che questo “esperimento mentale” è l’unico vero test

per la genuinità delle correlazioni causali. Si ipotizza in altre parole che un certo

evento C non si sia verificato e ci si chiede che cosa ne sarebbe dell’evento

successivo E.

Un asserto come “se non ci fosse stato c non si sarebbe verificato e” è un

periodo ipotetico della irrealtà, che i logici oggi chiamano condizionale

controfattuale. Max Weber ha teorizzato l’essenzialità di questo metodo in un

ben noto saggio sulla metodologia delle scienze storico-sociali. Non solo

riusciamo così ad eliminare le cause spurie, ma anche a dare un peso alle cause

genuine. Che cosa ha causato la I guerra Mondiale? Se non fossero stati sparati i

colpi di pistola di Sarajevo la guerra si sarebbe comunque verificata anche se in

modi leggermente diversi, quindi quell’evento (casus belli) si può qualificare

come causa occasionale.

74 74

Purtroppo la distinzione tra condizione sufficiente e condizione necessaria non

è mai stata chiara nella letteratura filosofica fino all’ultimo secolo, e la

confusione è presente in molti autori. Un esempio clamoroso è fornito dallo

stesso Hume, che in un passo celebre definisce la causa così: un oggetto seguito

da un altro, dove tutti gli oggetti simili al primo sono seguiti da oggetti simili al

secondo. O, in altri termini dove, se il primo non ci fosse stato, il secondo non

sarebbe mai esistito (Enquiry). Questo passo ha fatto versare fiumi di inchiostro

perché appare che nella prima parte del passo Hume definisce la causa come

condizione ceters paribus sufficiente, mentre nella seconda usa un condizionale

controfattuale.

Questa ambivalenza è stata incorporta da J.L.Mackie in una delle più

complesse e interessanti teorie della causa oggi disponibili. Secondo Macie le

cause sono una via dimezzo tra cause necessarie e sufficienti. Più precisamente

sono INUS-condizioni (: sono cioè parti insufficienti ma necessarie di una

condizione più ampia che è sufficiente ma non necessaria per l’effetto.

L’esempio del barile pieno di polvere è tipico. Il fatto che le polveri siano

asciutte è insufficiente per l’effetto, ma necessario entrop una condizione

complessiva che è in sé sufficiente ma non necessaria (il barile potrebbe

esplodere per cause diverse, per esempio un aumento anormale di temperatura).

La teoria controfattuale della causa è sostanzialmente condivisa da Mackie nel

suo ultimo libro, The Cement of Universe. Bisogna sottolineare che questa

concezione è ormai una delle più condivise, anche per il fondamentale contributo

di David K.Lewis.

Va subito detto che anche questa concezione ha le sue difficoltà. La principale

difficoltà è che possono esserci due o più cause che sono sufficiente per l’effetto

ma non necessarie. L’esempio standard è quello dei due killers che colpisono un

uomo con colpi egualmente mortali. Se il primo non avesse sparato –possiamo

75 75

dire- la vittima sarebbe comunque morta, e los tesso potrebbe dirsi del secondo

killer. Allora nessuno dei due è colpevole?

Un altro esempio spesso citato, perché tratto dalla letteratura giudiziaria, è

quello del viaggiatore nel deserto. Due delinquenti vogliono uccidere uno stesso

viaggiatore che si appresta ad attraversare il deserto. All’insaputa uno dell’altro

,uno gli pratica un foro nella borraccia, l’altro riempe la borraccia di veleno. La

vittima muore disidratata: ma se avesse bevuto dalla borraccia sarebbe

comunque morta, questa volta per avvelenamento. Questo esempio è

leggermente diverso da quello dei due Pistoleros perché nel primo caso i due

danno luogo a un caso di sovradeterminazione: qui invece i due malviventi

mettono in moto due catene causali una delle quali sopravanza l’altra.

Nonostante le difficoltà, la teoria della conditio sine qua non è quella che ha

una tradizione più solida in campo giuridica, e che si mostra più promettente.

Noi ci sentiamo in colpa per una certa azione quando possiamo dire che, se non

avessimo agito in quel modo , non ne sarebbe seguito quel particolare danno.

La cosa importante è riconoscere che sono diverse nozioni di causa di diversa

forza, che però hanno come nocciolo comune quello di conditio sine qua non. La

nozione più forte è probabilmente quella di “essere la causa” (cioè l’unica causa

determinante). Per fare un esempio, quando diciamo

1- La perdita al gioco è stata la causa della rovina di Filippo

Intendiamo dire che “Se Filippo non avesse subito la perdita al gioco non ci

sarebbe stata la sua rovina”, ma anche altro e precisamente:

(*) che la perdita al gioco era sufficiente a prevedere la rovina di Filippo

(**) che nessun altro evento noto antecedente si può considerare condizione

necessaria e sufficiente della rovina di Filippo,

Non c’è nessun problema comunque ad accettare l’idea che le nozioni causali

hanno un grado diverso di complessità. Pur avendo come base comune un

76 76

condizionale controfattuale, si può indicare come compito della filosofia della

causalità precisamente l’analisi di tali diverse nozioni, eventualmente in

linguaggi con un diverso grado di potenza espressiva. Il riferimento ai linguaggi

è essenziale perché, p.es., la teoria probabilistica della causa esige un linguaggio

più potente del linguaggio che consente di esprimere i condizionali

controfattuali.

Reichenbach, Salmon e Suppes ci hanno lasciato teorie probabilistiche della

causa molto interessanti. Quella di Suppes è la più nota agli economisti.

Definiamo una causa prima facie C di E come un evento che incremente la

probaibilità di E (Pr(E|C) > Pr(E)). Una causa prima facie può essere spuria o

genuina. Per essere considerata genuina bisogna far vedere che non esiste nessun

evento precedente che incrementa la probabilità di E in misura uguale superiore

a quello di C. L’esempio del barometro è un tipico esempio di causa non

genuina, perché la depressione antecedente aumenta da sola la probabilità di E in

misura maggiore, facendo scomparire il peso di C. Su questa base Suppes si

mostra capace di tracciare distinzioni molto sottile, come quella tra causa diretta

e causa indiretta, causa supplementare, causa sufficiente ecc..

Questa notevole flessibilità della teoria probabilistica della causa ha un prezzo.

Prima di tutto la teoria di Suppes assegna probabilità a eventi, non a fatti che

sono a loro volta relazioni causali. Eppure la causalità sussiste spesso tra fatti che

sono a loro volta relazioni causali. Io potrei dire per esempio che Tizio è stato

causa dell’avvelenamento mediante stricnina di Caio da parte di Sempronio. Per

trattare probabilisticamente questa relazione dovremmo assegnare un valore di

probabilità a una relazione probabilistica, il che oggi non è tecnicamente

possibile a meno di agiugngere assiomi molto problematici agli assiomi di

Kolmogorov.

77 77

Questo problema non si pone nelle teorie non probabilistiche, e in particolare

in quella controfattuale. E’ più che legittimo dire, per esempio, “se Tizio non

avesse aiutato Sempronio allora, se Sempronio non avesse usato la stricnina

contro Caio, Caio non sarebbe morto” : tutto ciò è equivalente a dire che se Tizio

non avesse aiutato Sempronio allora Caio non sarebbe morto per usato la

stricnina usata contro di lui da Sempronio. Si noti che in base allo stesso schema

si può trattare senza problemi anche la sovradeterminazione (se il primo killer

non avesse sparato il secondo sarebbe causa della morte di Kennedy) che

viceversa risulta difficoltosa anche dal punto di vista probabilistico.

Tutto questo fa pensare che la pluralità dei linguaggi non garantisca

automaticamente la traducibilità di un linguaggio nell’altro, e quindi sia

necessario operare una scelta radicale tra i linguaggi. In questo momento quello

controfattuale appare, nonostante le apparenze, più adeguato di quello

probabilistico.

BIBLIOGRAFIA ESSENZIALE

Benzi,M., Scoprire le cause, Franco Angeli, Milano,2003

Bunge,M., La causalità, Boringhieri,Torino, 1963

Blalock.H. , L'analisi causale in Sociologia, Marsilio.Padova,1967

Galavotti M.C.e Gambetta,G (a cura di) , Causalità e modelli probabilistici,

CLUEB, Bologna, 1983

Pizzi,C, Eventi e cause, Giuffrè,Milano,1997

78 78

VI. LA FILOSOFIA DELLE SCIENZE UMANO-SOCIALI.

Le discipline che studiano l’uomo (medicina, economia, sociologia,

psicologia, antropologia, etnologia) sono state per gli epistemologi una fonte di

diverse difficoltà, come si può desumere dal fatto stesso che è stato a volte

negato loro lo status di scienze. E’ chiaro, infatti, che non è sufficiente chiamare

qualcosa scienza perché sia tale effettivamente, come è evidente dal fatto che si

parla, per esempio, di scienze occulte e scienze motorie, che con la scienza

hanno poco a che spartire. Per non entrare qui nel merito di questa controversa

discussione ne parlerò come di discipline scientifiche, e non di scienze,

conservando però la dizione corrente “scienze umane” – “scienze sociali”. Sono

discipline di recente formazione, anche se forse la più antica delle scienze è la

medicina, che ha per oggetto primario il corpo umano e le sue patologie.

Qualcosa va detto sulla medicina per la sua singolarità e per l’importanza che

riveste per la vita di tutti. Nella misura in cui si interessa alle malattie non di un

singolo individuo ma di un’intera popolazione la medicina si può classificare tra

le scienza sociale. L’epidemiologia è lo studio della distribuzione dei

determinanti delle malattie nelle popolazioni umane. Ha inizio verso la fine del

‘500, quando si cominciano a fare elenchi dei decessi indicando la presunta

causa di morte. Dopo due secoli la epidemiologia si coniuga con la statistica e

raggiunge risultati sempre più esatti. E’ chiaro che il problema basilare che

interessa gli epidemiologi è partire dalla statistiche per individuare le cause

dell’epidemia.

Nel 1849 e nel 1853 due epidemie di colera colpirono l’Inghilterra.

Osservando che nelle aree a livello del Tamigi si aveva una concentrazione della

malattia più alta che nelle altre, raffinando progressivamente le osservazioni

anche con i dati circa le singole strade J.Snow arrivò a individuare nell’acqua

79 79

potabile inquinata dalle fogna la causa dell’epidemia. Era un grande progresso,

che faceva piazza pulita del vecchio pregiudizio per cui la causa del colera erano

dei miasmi o contaminazioni dell’aria. Nel 1883 Koch isolò il vibrione colerico e

quindi scoprì la causa batteriologica del colera, rendendo possibile la

prevenzione e la guarigione di singoli malati e non di popolazioni. Con

ragionamenti e rilevazioni di tipo analogo Semmelweiss scoprì la causa della

febbre puerperale nella mancanza di precauzioni igieniche da parte del personale

ospedaliero, introducendo la prassi della disinfezione delle mani con soluzione

clorurata.

Se la batteriologia è un ramo della medicina comunicante con la biologia,

ci sono rami della medicina come la psichiatria e la neurologia che sono al

confine con la psicologia, una disciplina che si è staccata dalla medicina negli

ultimi due secoli e ora ha caratteristiche autonome. Nel momento in cui entra

in gioco la sfera dei fenomeni che una volta erano chiamati spirituali (volontà,

pensiero, immaginazione, sogno ecc.) ci si imbatte nell’elemento principale

che separa le discipline in oggetto dalle scienze fisiche. La differenza tra

scienze umano-sociali e scienze fisiche ha una pluralità di aspetti.

In primo luogo, nelle scienze umane l’uomo si trova a dover riflettere e

capire non un oggetto esterno, ma in un certo senso se stesso. Per quanto

oggettiva e spassionata possa essere l’ osservazione di un uomo da parte di un

uomo, il medico o lo psichiatra si trova a cercare di capire qualcosa che lui

stesso conosce in quanto li ha sperimentati personalmente : da un lato (per i

fenomeni corporei) le sensazioni dolorose, il senso di sazietà o di fame ecc. ,

dall’altro (per i fenomeni psichici) i fenomeni dell’attenzione, della memoria

ecc. e le innumerevoli sfumature delle emozioni – odio, amore, paura, ira,

insoddisfazione ecc.

80 80

In secondo luogo, la complessità dei comportamenti umani non ha reso

possibile elaborare un corpo di leggi generali ben fondate paragonabile a

quello di cui si dispone nella fisica o nella biologia. Le generalizzazioni su

sui ci si appoggia sono più ristrette e meno precise di quelle delle scienze

naturali, quindi meno affidabili ai fini della previsione e della spiegazione. A

ragione di questo e non solo di questo, per comune ammissione, non esiste

nelle scienze sociali l’unanimità che si raggiunge nelle scienze naturali.

Inoltre, rispetto alle scienze naturali, le divergenze epistemologiche e

metodologiche di fondo condizionano la ricerca in un modo enormemente

più rilevante rispetto alle scienze naturali.

Una divergenza metodologica di lunga data riguarda la stessa opportunità

di prendere a modello per le scienze umane le scienze naturali mature e in

particolare la scienza regina, che è la fisica. Abbiamo già visto che i

neopositivisti erano accomunati dal fisicalismo, cioè dall’idea che ogni

scienza era destinata a diventare un ramo della fisica. Anche le scienze

umano-sociali per loro andavano quindi trattate come rami della fisica, e

Neurath propose una <<sociologia fiscalista>>. In primo luogo, nelle scienze

umane fiscaliste non c’è posto per valutazioni del tipo buono/cattivo,

giusto/ingiusto (ideale della Wertfreiheit: avalutatività, evidenziato da Max

Weber) che non competono allo scienziato. In secondo luogo - ciò che più

conta - non ci deve essere posto per asserti circa fenomeni per loro natura

inosservabili , come le intenzioni, i ricordi, i sogni, i pensieri e le menti di

altri soggetti. Ciò che è osservabile sono semplicemente i comportamenti: non

il pensiero ma il linguaggio, non le emozioni ma gli atti in cui tali emozioni si

esprimono , non i sogni ma i resoconti che di questa esperienza vengono

riferiti. In psicologia questo orientamento prende la forma del cosiddetto

comportamentismo (Pavlov, Watson, Skinner), che consiste nell’osservare

81 81

l’uomo alla stessa stregua di quanto si fa con in animali di un certo livello di

intelligenza. Allo stesso modo in cui il cane lascia prevedere certi

comportamenti prodotti da certi stimoli (per esempio la salivazione in

presenza del cibo) , così il bambino piccolo e l’uomo adulto hanno

comportamenti comprensibili secondo lo schema stimolo-risposta, e lo

psicologo non deve occuparsi di nient’altro.

Ma se il comportamentismo poteva avere qualche plausibilità nello studio

di individui in stato di isolamento, diventava problematico nello studio di

essere umani in stato di aggregazione. La fisica, a differenza dell’astronomia,

è una scienza sperimentale e deve il suo progresso al metodo sperimentale di

Galileo. Un esperimento, come è noto, è un’interferenza deliberata con il

corso della natura che consente di stabilire per induzione le leggi di

comportamento dei corpi e lo stesso dovrebbero fare, secondo i

comportamentisti, gli psicologi.

Ma, mentre su un bambino possiamo compiere esperimenti come quello di

Pavlov sui cani, come è possibile fare esperimenti su aggregati sociali? Al

proposito si osserva che, anche se non si possono fare esperimenti di

laboratorio, si possono costruire esperimenti che in qualche modo sono loro

surrogati. Per esempio fu ideato un esperimento di laboratorio per

determinare se i votanti vengano influenzati dalla conoscenza della

confessione religiosa dei candidati (si crearono associazioni con membri che

non si conoscevano precedentemente e si fecero elezioni a cariche interne. A

metà degli affiliati venne rivelata la confessione religiosa dei candidati,

all’altra metà venne nascosta; si vide che c’era una differenza significativa).

Ma purtroppo non tutti i fenomeni sociali si prestano a queste esperimenti, e

questo fa capire la scarsità o l’inaffidabilità delle leggi su cui può contare una

disciplina come la sociologia.

82 82

Un problema che è citato come un ostacolo alla formulazione di leggi

generali riguarda il “condizionamento culturale” dei fenomeni sociali. Per

esempio il rapporto tra tasso di natalità e status sociale si può determinare

con una certa precisione in una certa comunità in un certo periodo storico,

ma può essere completamente diverso in comunità diverse o in periodi storici

diversi. Possiamo parlare in questo caso di leggi? Salvo eccezioni, gli

epistemologi concordano sul fatto che le leggi sono spazio-temporalmente

invarianti.

Possiamo dire che ci sono leggi, se non intraculturali, transculturali? Si è a

volte sostenuto che se la funzione delle leggi è fare previsioni corrette, queste

leggi non possono esserci perché non garantirebbero previsioni sicure circa

ogni periodo futuro di tempo, all’opposto come l’astronomia ci permette di

predire le eclissi che avverranno tra milioni anni. Ma questo non è possibile

per la mutevolezza delle società umane e di fatto, come si osserva , previsioni

esatte sono rare anche nel breve periodo. Possono esserci previsioni inesatte:

p.es. si sa con certezza che la diffusione di certe notizie sui mass media –p.es.

certi tipi spettacolari di crimini – producono effetti imitativi, ma non si sa

prevedere la dimensione di questi, la qualità e il tempo in cui si possono

verificare.

Come controbiezione si potrebbe osservare che in fisica le previsioni

esatte sono garantite solo dal soddisfacimento di certe condizioni che possono

essere anche estremamente complesse: per esempio la costante gravitazionale

nella legge di Galileo per la caduta dei gravi (s= gt2/2) non ha lo stesso valore

a tutte le latitudini perché dipende dalla distanza dal centro della terra, per cui

le previsioni sono esatte purchè tale valore venga reso preciso applicando la

legge ai casi specifici. Questa risposta però non viene giudicata sufficiente.

Ci sono infatti casi in cui le previsioni nelle scienze sociali disturbano il

83 83

processo stesso che pretendono di prevedere,e questo a ragione del fatto che

nelle scienze umane il soggetto della conoscenza e l’oggetto conosciuto

hanno delle interdipendenze dovute alla natura comune. Si pensi alle

previsioni di borsa: se queste vengono rese pubbliche, possono disturbare

l’andamento della borsa. La previsione di un crollo in borsa potrebbe

scatenare il panico e provocare esattamente ciò che esso predice (predizioni

autoadempienti). In altri casi le predizioni possono essere autofalsificanti (si

parla di previsioni “suicide”). Se si prevede p. es. un aumento di azioni

terroristiche in una certa area questo porterà a un aumento delle misure di

prevenzione e quindi a una falsificazione della previsione stessa.

Questa difficoltà riguarda non previsione singole ma la portata conoscitiva

di teorie complesse. Si è sostenuto per esempio che la predizioni di Marx del

crollo del capitalismo ha messo in moto dei processi (p.es. concessioni

sindacali, misure previdenziali ecc.) che hanno disinnescato i motivi che

secondo Marx avrebbero inevitabilmente provocato la fine del capitalismo.

Il fenomeno dell’interferenza non deve stupire perchè si riscontra in

medicina, con il c.d.”effetto camice bianco”: la presenza del medico può

alterare i valori della pressione in soggetti particolarmente emotivi. Si noti

peraltro che gran parte delle informazioni di base in certe scienze è basato sui

sondaggi o sulle interviste, e – al di là degli errori che si possono commettere

solo per il fatto di usare metodi statistici errati (campioni non rappresentativi

o non randomizzati) – il modo in cui il sondaggio viene fatto (p.es. la stessa

formulazione delle domande) può modificare il comportamento stesso della

persona intervistata. Questa difficoltà è stata spesso sottovalutata dagli

antropologi, che interferiscono con i processi studiati in modi che non sono in

grado di valutare date le differenze culturali tra loro e i soggetti con cui

vengono a contatto.

84 84

Si può osservare che anche nelle scienze naturali si manifesta pure

un’interazione tra strumento di osservazione/misura e oggetto osservato: fatto

ben noto nel mondo sottomicroscopico (che seconda una certa scuola di

pensiero spiega il principio di indeterminazione di Heisenberg) ma anche nel

mondo macroscopico, in cui un termometro freddo può modificare la stessa

temperatura del liquido in cui viene immerso a scopo di misurazione. Accade

però che queste modificazioni o sono trascurabili o possono essere calcolate

in modo esatto e invariabile, cosa che non accade nella sfera dei fenomeni

sociali.

Infatti c’è un alto grado di imprevedibilità negli sviluppi degli organismi

sociali. Anzi un fenomeno ben noto e sempre osservato, soprattutto quando è

in gioco l’applicazione di utopie (p.es. l’abolizione della famiglia o della

proprietà privata) è quello della controfinalità: ciò che si ottiene non solo è

diverso da quanto ci si propone di realizzare ma è agli antipodi di questo. Si

pensi che gli ideali di libertà, eguaglianza e fraternità hanno portato al Terrore

della Rivoluzione Francese e quindi a risultati esattamente opposti da quelli

che si cercava di conseguire.

Fin qui abbiamo dato per scontato che l’obiettivo distintivo delle scienze

sia quello di garantire previsioni o retrodizioni esatte. Ma si potrebbe

obiettare che vedere nella previsione l’obiettivo fondamentale della scienza è

da un lato riduttivo, dall’altro troppo pretenzioso. Secondo Hempel c’è una

simmetria tra spiegazione e previsione, nel senso che ogni previsione può

essere convertita in una spiegazione hempeliana e viceversa (tesi della

simmetria). Ma Hempel stesso ha avuto dei ripensamenti sulla tesi della

simmetria. In questa sede è meglio sostenere che scopo primario della

scienza non è la previsione ma la spiegazione, eventualmente fatta col senno

di poi. Il crollo di Wall Street è stato un evento in quel momento

85 85

imprevedibile – se fosse stato prevedibile non si sarebbe verificato – ma oggi

siamo in grado di darne una spiegazione, così come spieghiamo incidenti

aerei che non erano umanamente prevedibili nel momento in cui si

verificavano.

Ritornando alla questione dell’interferenza, bisogna prendere atto che, pur

rendendo problematiche le previsioni, anche le interferenze sono oggetto di

conoscenza e possono essere descritti in leggi sufficientemente affidabili.

Dunque si può sostenere che è possibile stabilire alcune leggi del

comportamento di individui isolati e di gruppi sociali e che leggi possono

essere usate , se non per la previsione, sicuramente per la spiegazione.

Qui però interviene un’altra difficoltà, dovuta al fatto che le leggi in

questione, e le spiegazioni che esse autorizzano, non possono essere leggi

descrittive di comportamenti come i comportamentismi hanno richiesto. Le

azioni umane sono mosse da intenzioni, aspettative, timori, speranze, illusioni

ecc. . tali stati interni non possono osservati come si osserva la caduta di una

mela dall’albero. Ma un comportamentista potrebbe non aderire a una forma

di rozzo riduzionismo che vieti di parlare di stati interni. Allo stesso in cui

“massa” e “peso” sono termini teorici che vengono agganciati al piano

osservativo mediante acconce regole di corrispondenza, così termini come

“”paura”, “attenzione” “ambizione”,… designano stati interni che però

esistono nella misura in cui hanno delle manifestazioni osservabili.

Nonostante questo garantisca un grande ampliamento di prospettive, è chiaro

comunque che l’introspezione però viene esclusa come metodo di

conoscenza, perché non si può ricondurre a comportamenti pubblicamente

osservabili. Con buona pace degli psicoanalisti, dovremmo rinunciare a

considerare, per esempio, i sogni come elementi che producono conoscenza,

per il semplice fatto che ciascuno sogna sempre i propri sogni e non i sogni

86 86

altrui (e tra l’altro ne diventa consapevole al risveglio, con una dubbia

anamnesi)

Ci sono alternative al comportamentismo più o meno liberalizzato? Un’

alternativa è questa: noi possiamo capire gli eventi storici, sociali, e

psicologici perché noi , in quanto uomini, sperimentiamo stati interni simili a

quelli degli agenti che vengono studiati. Possiamo in altre parole dire, p.es. :

“se fossi stato un calvinista del 500 in un paese come l’Olanda avrei

partecipato a quel fenomeno sociale descritto come capitalismo nascente”

(questo è implicito nella tesi di Weber che vede una connessione tra nascita

del capitalismo e etica protestante). Non si possono, in altre parole, capire i

fenomeni umano-sociali senza una certa dose di empatia (il “mettersi nei

panni degli altri”). A questo punto però si può fare a meno della spiegazione

mediante leggi e puntare esclusivamente sulla comprensione dei fenomeni

(Verstehen contrapposto a Erklaren).

Nell’800 la distinzione tra spiegazione mediante leggi e comprensione è

stata più volte teorizzata insieme alla distinzione tra scienze nomotetiche

(come le scienze naturali) e scienze idiografiche (come la storiografia) che

hanno come obiettivo la descrizione esauriente di fatti, o complessi di fatti,

che hanno una loro fisionomia irripetibile, e quindi non possono essere

soggetti a leggi. Se è difficile trovare due individui che hanno malattie simili

in circostanze simili (si pensi che ci sono malattie, p.es. allergie rarissime, che

colpiscono sono poche persone al mondo) a maggior ragione sarà difficile

trovare situazioni storiche simili in cui accadono eventi simili (p.es. guerre o

rivoluzioni). Se dico “Luigi XIV morì impopolare perché fece una politica

nociva per gli interessi nazionali” dove si può trovare una legge che funziona

come spiegazione del fatto che Luigi XIV morì impopolare? Dovrei trovare

casi simili nella storia, ma di fatto di simile a Luigi XIV c’è solo Luigi XIV.

87 87

Secondo il filosofo della storia W.Dray lo schema di Hempel non si applica

alle scienze umane: l’ azione umana A si spiega solo facendo vedere che nelle

date circostanze era la cosa più razionale da fare.

Secondo von Wright il comportamento intenzionale o finalistico va

compreso con metodi diversi da quelli che fanno ricorso a leggi associative o

causali. Quello che von Wright chiama “sillogismo pratico” ha questa forma:

x intende provocare E

x ritiene di non poter provocare E se non fa l’azione A

x si dispone a fare A

Secondo von Wright la conclusione descrive un fatto che si può conoscere

solo comprendendo le intenzione di x.

La storiografia è la più controversa delle discipline umano-sociali, al punto

che si è più volte negato la citttadinanza nel dominio della scienza (secondo

una versione benevola, è a metà strada tra scienza ed arte). Il motivo

principale è che non ci sono leggi propriamente storiche, e se si possono

formulare queste vengono spesso assegnate ad altre scienze (p.es. può essere

vero che periodi di costumi sessuali rilassati si succedono a periodo di

costumi sessuali restrittivi, ma se questa è una legge può essere una legge

sociologica, non squisitamente storica).

Agli antipodi rispetto alla storiografia si colloca l’economia, che si è

sviluppata come disciplina scientifica dal tronco della filosofia nell’800,

anche se il capolavoro di Adam Smith è del 1776. Rispetto ad altre discipline

è stata la prima ad usare strumenti matematici anche molto complessi (che a

qualcuno, come Norbert Wiener, sono sembrati un modo per camuffare la sua

arretratezza rispetto alle scienze naturali).Ciò che è sembrato fin dall’inizio

metterla sullo stesso piano delle scienze naturali è il fatto che l’esito di una

miriade di comportamenti individuali volontari può essere un comportamento

88 88

collettivo involontario (p.es. un aumento generalizzato dei prezzi). In tal

modo il comportamento della collettività non si può paragonare a quello dei

singoli e non dipende dalla considerazione di stati interni, il che fa pensare

che questi fenomeni siano trattabili come fenomeni naturali.

Rispetto alle scienze naturali colpisce la distanza che separa le teorie

economiche dai fatti, soprattutto macroeconomici, a cui si riferiscono. Per

citare le parole di Daniell Hausman, fondatore della rivista Economics and

Philosophy,”con un po’ di esagerazione si potrebbe concludere che

l’economia contemporanea possiede tutti i segni distintivi di una scienza

matura, tranne il successo empirico”. Ci sono cinque temi principali che

impegnano la metodologia della scienza economica.

1) Molti principi economici contengono asserzioni sul mondo dal punto di

vista soggettivo di un agente individuale. E’ un freno alla vera scienza?

2) I principi centrali dell’economia (p.es. “tutti preferiscono maggiore

ricchezza a minore benessere”) sono inesatti, cioè devono far fronte a un

numero esorbitante di controesempi. Come si può costruire una scienza in

tali condizioni?

3) Gli economisti contemporanei esitano a parlare di “teorie” o “leggi” e

preferiscono operare con “modelli”.

4) Le relazioni causali sono difficili da identificare perché i fenomeni

economici sono interdipendenti. In termini di variabili, è normale essere

costretti a dire che x influenza y, y influenza z, ma z influenza a volte x.

5) Qual è il fondamento empirico della fiducia nei modelli, dato il loro scarso

aggancio con i fatti?

Le prime considerazioni metodologiche si trovano in Nassau Senior

(1836) e J. S. Mill (1836). Mill distingue metodo a posteriori a metodo a

priori. I famosi metodi di Mill per scoperta delle cause sono metodi a

89 89

posteriori, ma sfortunatamente inapplicabili. Il più importante di questi

metodi è il metodo della differenza. Per sapere, per esempio, se i dazi

doganali favoriscono o no lo sviluppo economico dovrei confrontare

nazioni che li applicano con nazioni che non li applicano, ma non ci sono

mai nazioni che sono diverse solo per questa caratteristica. Anche il

ragionamento controfattuale è problematico per questo motivo. Dunque

bisogna ricorrere al metodo a priori. Si fissano alcune leggi generali

valide inattaccabili e le si usano per fare previsioni attendibili in

circostanze date, che possono essere sbagliate senza inficiare le leggi

prestabilite. In tal modo possiamo accettare l’economia come scienza

inesatta e separata, cioè sviluppata ignorando deliberatamente le

informazioni fornite da altre discipline. Anche se non parla di modelli,

Milll prefigura l’importanza dei modelli e anticipa la metodologia degli

ultimi decenni.

Questo orientamento incontrò critiche severe da economisti più o meno

influenzati dal neopositivismo. P.es. Terence Hutchison negli anni ‘30

osservò che le clausole ceteris paribus che si associavano gli asserti

teorici erano così numerose da rendere inapplicabili (e quindi prive di

senso empirico) le teorie economiche. Negli anni 50 Fritz Machlup e

Milton Friedman argomentarono che gli economisti devono predire con

esattezza solo i prezzi e le quantità, cioè i dati di mercato, ignorando tutto

ciò che esorbita da questi. In questo strumentalismo esasperato ogni

ipotesi che non venga ricondotta all’econometria viene giudicata

irrilevante. Ma questo sembra in contrasto con la prassi corrente, inclusa

quella di Friedman, in cui molte ipotesi, anche nel linguaggio causale che

Friedman rifiuta, vengono mantenute anche quando sono falsificate dai

dati di mercato. Non c’è da stupirsi se questa pluralità di atteggiamenti ha

90 90

portato a una proliferazione di studi metodologici, che occupano orami

quasi una metà della letteratura economica. Seguendo la classificazione di

Hausman, gli orientamenti emersi si possono classificare in quattro

categorie.

A. T. Hutchison e Marc Blaug (1992) hanno difeso una posizione

neopopperiana. Si noti che Popper è stato considerato, non si sa se

correttamente, l’alter ego filosofico di F. von Hayek..Uno dei problemi

più imbarazzanti del popperismo è il fatto che normalmente una teoria

h è sottoposta al tribunale dell’esperienza insieme ad altre assunzioni

c1…cn, ragione per cui ciò che viene falsificato non è mai h ma la

congiunzione h & c1…cn. E’ stata accolta con favore quindi la

metodologia dei programmi di ricerca di Lakatos, che propone un

cocktail di Popper e Kuhn , ammorbidendo i criteri di falsificazione.

B. In fuga dalle difficoltà metodologiche, alcuni metodologi si sono

allontanati dalla filosofia della scienza, coltivando una

“antimetodologia” : l’attenzione va alla retorica del linguaggio

economico (Weintraub) e alle caratteristiche sociologiche della pratica

economica (D.W. Hands). D. McClosky (1985) ha detto che gli

economisti devono solo badare alla propria retorica, cioè al modo in cui

si influenzano reciprocamente. E’ la versione economica di Rorty.

C. Allo stesso modo in cui W. Salmon negli ultimi anni ha sviluppato la

tesi secondo cui al di sotto dei fenomeni esistono realmente

“meccanismi causali” che la scienza mira a scoprire, autori come Tony

Lawson (1997) e Uskali Maki (1990) hanno teorizzato un realismo

causale, che Maki riscontra nella storia del pensiero economico. N.

Cartwright difende l’importanza del ragionamento causale

91 91

nell’economia e nell’econometria, anche se con un atteggiamento non

realista

D. Un’altra corrente è quella che si rifà alla concezione strutturalista delle

teorie di Suppes, Sneed, Stegmuller. Recentemente A. Rosenberg vede

nell’ economia un amalgama di matematica applicata e filosofia

politica.

Stando a Hausman pare che si rilevi una schizofrenia metodologica per cui,

nonostante le professioni di fede, la metodologia seguita in pratica è

sostanzialmente quella di Mill. Se è così, la metodologia che di fatto viene

applicata, non quella che viene professata, non è incompatibile con quella delle

scienze naturali avanzate, e si apre il compito di formulare esattamente una

metodologia unificante.

Una seconda area in cui si incontrano filosofia ed economia è la trattazione

economica dei temi della preferenza e della scelta. Gli economisti adottano

spesso l’idealizzazione per cui si rappresentano le credenze di un soggetto come

quozienti di scommessa in condizioni di conoscenza completa o incompleta.. C’è

uno studio economico delle funzioni di utilità, dove l’utilità è il prodotto della

probabilità per il guadagno ottenuto. Questi studi si saldano con la teoria delle

decisioni razionali e con la teoria dei giochi, fondata da von Neumann e

Morgenstern e sviluppata da matematici come Nash. A parte la fecondità

dell’interscambio tra economia e matematica su questi temi, bisogna tener conto

che le strategie studiate da questi scienziati poggiano su alcune norme più o

meno esplicite come : “bisogna massimizzare l’interesse atteso”, “evita una

perdita certa in un sistema di scommesse” ecc. Questo riapre una questione che

inizialmente abbiamo dato per risolta accogliendo la tesi di Weber della

avalutatività delle scienze umano-sociali. In economia questo problema acquista

significato particolare data la sua interazione con la politica.. E’ quasi scontato

92 92

in economia identificare il benessere con la soddisfazione delle proprie

preferenze egoistiche. Apparentemente questo sembra neutro, ma di fatto implica

che non si ha benessere se non come perseguimento di preferenze egoistiche, il

che sembra avere una connotazione valutativa in quanto esclude altre definizioni

diverse di benessere che potrebbero essere oggetti di valutazioni diverse in certi

contesti politici. A volte, si potrebbe sostenere, le preferenze egoistiche non sono

garanzia di benessere né per sé né per altri. Si pensi a un ragazzo che vuole

andare in motorino senza casco perché tale è la sua preferenza e perché crede

che questo sia il suo vantaggio. Ma la sua credenza potrebbe essere falsa, anzi di

fatto lo è . Inoltre , il comportamento degli uomini reali non è invariabilmente

egoistico, anche se l’altruismo potrebbe essere calcolato . Ci sono animali, non

solo uomini, che si sacrificano per salvare la specie, e sembra che questo sia

scritto nel codice genetico (incidentalmente, in contrasto con la teoria di Darwin

secondo cui tutti i nostri geni sono funzionale al vantaggio individuale). Sarebbe

al proposito utile studiare il comportamento umano con l’ausilio delle scienze

della vita.

L’economia sembra dunque avere dei risvolti valutativi che mancano in altre

discipline umano-sociali (come la psicologia) e sono assenti dalle scienze

naturali. E’ un problema aperto sapere se questo aspetto comprometta o no la

sua legittima aspirazione a costituirsi come scienza.

BIBLIOGRAFIA ESSENZIALE

J. Hicks, Analisi causale e teoria economica, Il Mulino, Bologna, 1981

E. Nagel, La struttura della scienza, Feltrinelli, Milano, 1968,cap.xiii

G.H. von Wright, Spiegazione e comprensione, Il Mulino, Bologna, 1971

P.Barrotta e T.Raffaelli, Epistemologia ed Economia, UTET, Torino,1998

93 93

M.C.Galavotti e G.Gambetta (a cura di), Epistemologia ed economia, CLUEB,

Bologna, 1988

M.Weber, La metodologia delle scienze storico-sociali . Einaudi, Torino, 1958

94 94

VII. L’INTELLIGENZA ARTIFICIALE E LA SCIENZA COGNITIVA

§1. Si può iniziare con un breve excursus storico. Negli anni 30 un problema

sentito era quello di definire rigorosamente il concetto di algoritmo, cioè

(intuitivamente) di una procedura di calcolo che applicando in modo

deterministico un numero finito di istruzioni dà un risultato univoco in tempo

finito. Gõdel per aprire la strada al suo celebre teorema definì un insieme di

funzioni,dette ricorsive primitive, che rappresentavano algoritmi basilari da

considerare il nocciolo della teoria della computazione, nel senso che ogni

nuovo oggetto matematico dovrebbe essere computabile a partire da queste.

Negli anni 36-37 a Cambridge Alan Turing seguì un’altra via: quella di

definire una macchina calcolatrice ideale di elementare semplicità progettata per

il calcolo di funzioni aritmetiche, di cui tutte le macchine calcolatrici concrete

apparissero come casi specifici.

Per avere una macchina di Turing (MT) bisogna disporre di un linguaggio

con un alfabeto finito di simboli che sia in grado di generare un numero

infinito di formule. Queste formule, che la macchina è destinata a elaborare, sono

stampate su un nastro infinito che attraversa la macchina. Il nastro è diviso in

celle e la macchina esamina una cella alla volta. La macchina di Turing può fare

solo quattro cose: cancellare un simbolo su una casella e scriverne un altro al

suo posto; muovere la testina di un posto a destra. muovere la testina di un posto

a sinistra; fermarsi. La macchina memorizza le operazioni compiute e quindi ha

stati di memoria diversi Ogni macchina di Turing è caratterizzata dall’insieme di

istruzioni che descrivono il suo programma.

Queste istruzioni sono rappresentate come quadruple n1-n2-n3-n4 che si

leggono così: ”se sei nello stato n1 e leggi il simbolo n2, fai l’operazione n3 e vai

nello stato n4”. Il funzionamento della macchina è deterministico: la macchina

non procede per sorteggi o “a casaccio” in nessun punto del processo.

In termini concreti una MT si compone di un corpo centrale che può assumere

stati diversi, ha una unità di lettura e una unità di scrittura che possono anche

coincidere, poste in modo da ispezionare le caselle del nastro illimitato, e un

meccanismo capace di spostare il nastro a sinistra e a destra. Il calcolo è una

successione finita di applicazioni delle istruzioni partendo da una posizione

fissata.

Un esempio semplice di macchina di Turing è una macchina che partendo da

certe formule numeriche come input calcola come output il valore delle usuali

funzioni aritmetiche (addizione, moltiplicazione ecc). Quando un problema è

risolto –cioè quando è stato calcolato il valore della funzione- la MT si ferma,

mentre la mancata fermata (il preseguire all’infinito) indica la mancata soluzione

del problema.

95 95

La c.d. tesi di Church-Turing afferma che ogni funzione algoritmica (funzione

ricorsiva) è calcolabile da una macchina di Turing e, viceversa, ogni funzione

Turing-calcolabile è una funzione algoritmica. In particolare , ogni computer

costruibile è un esempio particolare di macchina di Turing. Questa tesi (che ha la

forma di una congettura) nonostante gli sforzi per trovare dei controesempi, è

considerata ancor oggi valida.

Secondo un punto di vista diffuso, le operazioni di un uomo che calcola si

possono pensare come operazioni eseguibili da una macchina di Turing. Cosa

implica questo asserto? Si vuole dire che il pensiero umano è meccanizzabile?

Oppure che tutti i calcolatori si possono considerare come oggetti “pensanti” di

tipo speciale? Possiamo dire che le macchine pensano? Turing a questo

proposito suggeriva un test (test di Turing) mirante a stabilire se una macchina

può imitare un uomo al punto di ingannare un interrogante che non sappia se

l’autore di una certa performance è un uomo o una macchina. Turing era

ottimista sul futuro della computer science; riteneva infatti che nel giro del XX

secolo il 70% della macchine avrebbero superato il test di Turing.

Ma il teorema di Gődel, secondo molti, suggerisce che esistano operazioni

razionali della mente umana che non sono rappresentabili in termini meccanici.

Nel 1938 Alonzo Church dimostrava che la logica dei quantificatori non è

decidibile, e cioè che c’è un numero arbitrariamente grande di formule di cui non

possiamo dire se sono o meno teoremi del calcolo. La logica assiomatizzata di

Frege quindi non è in grado di risolvere in modo meccanico tutti i problemi

esprimibili nel linguaggio. Il teorema di Church afferma che non è in linea di

principio possibile costruire una macchina che risponda a tutte le domande

esprimibili in linguaggio logico, il che sembra implicare una limitazione

intrinseca alle capacità delle macchine di Turing.

La macchina di Turing non è in grado di calcolare tutte le funzioni possibili,

come è chiaro da una semplice considerazione. Ciò che è interessante è che la

definizione astratta data della macchina di Turing consente di identificare una

speciale macchina di Turing, detta Macchina di Turing Universale (MTU), che

“simula”, per così dire, le altre macchine di Turing. Infatti ogni macchina di

Turing è identificata dall’insieme delle sue istruzioni, che sono quadruple di

simboli. In altre parole gli insiemi di istruzioni delle singole macchine di Turing

possono essere indicate da un numero naturale , e così diventare elementi

dell’input della MTU. Incidentalmente, questo vuol dire che la MTU può anche

parlare di se stessa, e acquista le virtù dell’autodipendenza. Incappa quindi in

difficoltà tipo mentitore. Poniamole questo problema : “Ti chiediamo se non ti

fermerai: ti fermerai sì o no?”. accade che , se la macchina si ferma, risponde

affermativamente a “non ti fermerai”, e se non si ferma , risponde positivamente

a “non ti fermerai”. Questo è il tipico esempio di un problema insolubile, cioè

di una funzione non computabile.

96 96

Questo risultato faceva fallire da un lato il sogno leibniziano di trovare una

macchina che risolva tutti i problemi, dall’altro gettava ombra su alcune vecchie

teorie filosofiche, come quella di Hobbes, secondo cui pensare è calcolare

Quando Hobbes scriveva, non c’erano né macchine sviluppate né una

psicologia sviluppata né una logica sviluppata. Ma tutti gli elementi per

un’analisi scientifica (extrafilosofica) della mente cominciavano ad essere

abbondantemente disponibili negli anni ‘80. Non c’è da stupirsi se nasceva in

questi anni un filone di studi sulla natura della mente umana che si collocava a

cavallo tra la filosofia tradizionale e altre discipline che in modi diverse

studiavano la mente . Negli anni 80-90 la continua interazione tra le discipline

che entravano in gioco nella c.d. “philosophy of mind” diventava così complessa

da configurare una disciplina autonoma, a cui è stato dato il nome di scienza

cognitiva. Altri preferiscono parlare di scienze cognitive (al plurale) perché al

momento sono un accorpamento di diverse discipline integrate , in particolar

modo la linguistica, la filosofia , la psicologia cognitiva e naturalmente

l’informatica. Non manca l’apporto di discipline a carattere tecnologico come la

robotica. L’elemento unificante della scienza cognitiva consiste nel concepire i

processi mentali come fatti computazionali e nella visione naturalistica della

mente. I confini non sono netti : ciò che conta è la sinergia interdisciplinare.

Basti pensare al modo in cui la robotica ha influenzato gli studi sulla percezione

visiva grazie alla creazione di apparecchi e protesi.

Può essere utile ritornare alla già vista influenza del neopositivismo sulla

psicologia, che ha portato allo sviluppo del comportamentismo, che riduceva

inizialmente ogni fenomeno alla coppia stimolo-risposta. Come abbiamo visto, il

comportamentismo liberalizzato ammetteva l’uso di termini teorici per dare un

senso agli stati interni. Nel 1948 Tolman, per render conto del comportamento

dei topi nei labirinti, introduceva la nozione di mappa cognitiva dell’ambiente,

cioè di qualcosa che va oltre il comportamento osservabile e al meccanismo

stimolo-risposta. In quegli anni cominciò ad affermarsi l’idea della mente

come sistema di elaborazione di informazioni, per cui le entità teoriche

descrivevano stati di un dispositivo di calcolo: è chiaro che la tesi di Church-

Turing, nonostante i limiti visti, suggeriva fortemente la costruzione di modelli

meccanici per ogni forma di calcolo anche non numerico , suggerendo una

concezione computazionale della mente Si noti: a) che l’impostazione

computazionale consente di sviluppare una nozione di mente compatibile con

la visione fisicalista del mondo. b)che i programmi implementati nei

calcolatori digitali possono funzionare come simulazione di processi cognitivi

Si noti che le spiegazioni computazionali della mente si allontanano dallo

schema di Hempel-Oppenheim. Un algoritmo o un programma non coincidono

con insiemi di leggi nel senso di Hempel. Siamo di fronte a modelli della

97 97

mente,e bisogna quindi modificare la concezione della spiegazione in modo da

dare legittimità all’idea di spiegazione mediante modelli.

Da queste idee si sviluppava molto naturalmente il cosiddetto funzionalismo

secondo cui ciò che identifica gli stati computazionali non è il supporto fisico

(hardware), ma il rapporto degli stati tra loro. Quindi la mente si può pensare

non come una sostanza materiale ma come base delle relazioni mentali tra stati

fisici. Questo è diventato il punto di vista “ufficiale” delle scienze cognitive,

banalizzato nello slogan: mente:software=cervello :hardware.

E’ ovvio che, alla luce dei limiti visti della tesi di Turing, ci sono state

opposizioni a questo punto di vista, che –per usare un vecchio linguaggio- nega

l’irruducibilità dello spirito alla materia. J.R.Lucas e R.Penrose hanno utilizzato

il teorema di Gödel per contrastare l’idea che la mente sia rappresentabile come

un computer. “C’è una formula che non è dimostrabile meccanicamente ma che

noi possiamo vedere essere vera”, dice Lucas. Ma qui secondo i funzionalisti ci

sono degli equivoci. Non è vero che noi possiamo produrre un enunciato vero

con le proprietà dell’enunciato di Gõdel . Il teorema di Gõdel può essere inteso

in due modi:1) dimostra che questo enunciato esiste, oppure - 2) dimostra che

per ogni teoria coerente e completa esiste un algoritmo che genera un

enunciato che è vero nel modello dei numeri naturali ma non è dimostrabile.

(Questo presuppone la tesi di Church che identifica funzioni ricorsive e funzioni

Turing-calcolabili). Se è cosi’, il procedimento di generazione dell’enunciato in

questione è meccanizzabile, contro quanto sostiene Lucas.

Torniamo dunque alla plausibilità del concepire la mente umana come un

computer. Come si vede leggendo il celebre “Gõdel , Escher, Bach” di

Hofstadter, questo è il punto di vista quasi ufficiale su questo argomento. Eppure

i dubbi sono legittimi e vanno presi in considerazione.

Si vuole allora dire che le macchine pensano? Una volta qualcuno chiese a

McCarthy – l’inventore del LISP - se un termostato avesse credenze. Lui rispose

si. Le credenze sono “qui fa troppo freddo “, “qui fa troppo caldo”, “qui si sta

bene”.

Ci sono due argomenti, quello della Terra Gemella di Hilary Putnam e quello

della Stanza Cinese di Ronald Searle, che sono stati elaborati per criticare la

tesi che gli stati mentali sono stati computazionali.

Terra Gemella. Immaginiamo un pianeta gemello della terra in cui tutto è come

da noi salvo che l’acqua non è H20 ma qualcos’altro (ossido di deuterio). Un mio

gemello identico vuole bere acqua simultaneamente a me nella terra gemella.

Siamo ambedue nello stesso stato computazionale, ma non nello stesso stato

mentale, perché il contenuto dei due stati è differente e potremmo essere delusi

bevendo deuterio anziché acqua.

Stanza Cinese. L’informatico Roger Schank ha creato programmi progettati per

simulare la lettura e la comprensione di un racconto. R. Searle nega che la

98 98

macchina possa comprendere e rispondere alle domande su un qualsiasi

racconto. Immaginiamo un soggetto chiuso in una stanza che ignora il cinese ma

riceve dei messaggi in cinese , riceve un foglio di domande in cinese ha un

insieme di regole per produrre scritti cinesi in risposta al secondo foglio. Lui si

comporta esattamente come un computer, e supera il test di Turing senza capire

nulla. Se le macchine pensano, mancano dei poteri causali della mente che

assicurano intenzionalità, comprensione ecc.. Questi stati sono però accessibili a

noi e vengono anche attribuiti, per la psicologia del senso comune, ad altre

menti. La psicologia del senso comune è quel corpo di conoscenze e di

generalizzazioni che si basa sull’attribuzione di credenze e desideri a se stessi e

agli altri, con lo scopo di spiegare i comportamenti umani,

La cosiddetta TCRM (Teoria Computazionale Rappresentazionale della Mente

) proposta da J. Fodor si propone come una mediazione tra funzionalismo e

psicologia del senso comune. L’idea di Fodor è che pensare vuol dire manipolare

un linguaggio speciale , il mentalese : ,.p.es. credere che p significa avere nella

mente una certa proposizione del mentalese che sta in certi rapporti definiti con

altre proposizioni del mentalese.

Avverso a Fodor è l’eliminativismo: una forma moderna del materialismo e

del comportamentismo, ma compatibile con il funzionalismo, che ritiene che la

psicologia del senso comune sia sbagliata e vada eliminata in una scienza matura

(Patricia Churchland).

Il dibattito sulle immagini mentali - essenzialmente pittoriche per alcuni,

essenzialmente proposizionali per altri- è significativo. Solo nel 1996 questa

controversia filosofica venne corroborata con dati derivati dalle neuroscienze

(Kosslyn). Nello stesso tempo le neuroscienze si avvicinavano alle scienze

cognitive, dando vita alle neuroscienze cognitive. Negli anni 80 c’ è stato un

revival di modelli connessionisti, in cui ci si allontana dai modelli

computazionali tradizionali per introdurre modelli computazionali ispirati

all’architettura neuronale. L’interazione tra scienze cognitive e scienze

biologiche è tuttora in pieno sviluppo.

Una tendenza emersa negli ultimi due decenni riguarda anche l’influenza di

fattori ambientali (sociali ma anche fisici e biologici); si parla di “cognizione

situata”, che riguarda anche la percezione derivata dall’ambiente. L’accento in

questo caso è più sulla ricezione che sull’ elaborazione; si guarda al

comportamento reattivo di animali molto semplici come gli insetti per costruire

robot (etologia cognitiva di Wilson e Keil 1999).

Accanto allo scambio interdisciplinare con la biologia e la zoologia abbiamo

anche l’interazione con l’antropologia. Il relativismo culturale degli anni 60-70

è stato chiaramente marginalizzato in quanto le scienze cognitive presuppongono

l’invarianza della mente umana rispetto ai fattori ambientali: valga al proposito

la tesi Chomskiana del carattere innato delle facoltà linguistiche. C’è stata una

99 99

ripresa del concetto, considerato fuori moda, di natura umana. Sulla stessa onda

si possono considerare le spiegazione evoluzionistiche dei comportamenti

cognitivi e si possono sviluppare anche modelli computazionali del processo

evolutivo (evolutionary computation e vita artificiale).

Si è avuto anche una ripresa di interesse per la coscienza e per le emozioni,

categorie dimenticate o trascurate nella fase iniziale. Si distingue tra coscienza

cognitiva e coscienza fenomenica. La seconda riguarda la capacità di un agente

di accedere ai propri stati qualitativi (qualia:” le qualità del mondo come ci

sembra”), mentre la prima riguarda la capacità di rappresentare gli stati mentali

ai fini della pianificazione delle proprie azioni.

Dal punto di vista metodologico, la coscienza cognitiva non è problematica.

Uno stato mentale è sempre caratterizzato dalle sue relazioni funzionali con gli

altri stati mentali, catturabili con gli strumenti del paradigma funzionalista. La

coscienza fenomenica invece sembra essere una proprietà intrinseca dello stato

stesso, irrelato con gli altri. Questo sembra evidenziato da esperimenti mentali

come quello della stanza cinese. Sembra quindi sfuggire alle prese della scienza

cognitiva. Potrebbe funzionare al proposito l’approccio del materialismo

eliminativista di Churchland. Secondo Daniel Dennett, considerato una figura di

massimo rilievo in questi studi emergenti, quello che chiamiamo coscienza

fenomenica è un coacervo di fenomeni eterogenei che di fatto non esiste, anche

se ciò rende difficile capire come è sperimentabile in prima persona.

Per la verità la sperimentabilità “in prima persona” è un problema che riguarda

qualsiasi spiegazione scientifica della mente. Thomas Nagel nega che in terza

persona si possa cogliere il fenomeno della coscienza. Secondo un estremista

come Colin McGinn c’è un’impossibilità di principio per la mente umana di

comprendere il fenomeno della coscienza e a fortiori di spiegarlo.

Dunque il funzionalismo sembra nonostante tutto il paradigma dominante nella

scienza cognitiva. Ma ritorniamo a valutare le alternative proposte al modello

della mente come macchina di Turing. Negli ultimi anni è nata una nuova

nozione di computazione non- Turing.

Gödel ha sostenuto a più riprese che la tesi di Turing secondo cui la mente è

rappresentabile come una TM è non conclusiva in quanto viene tralasciato il

fatto che la mente non è un oggetto statico ma in costante sviluppo. La rilevanza

attribuita alle osservazioni di Gödel dipende dall’indiscussa autorità di Gödel

stesso. Gödel coglie un aspetto di particolare rilevanza: nel comprendere e

nell’usare termini astratti entrano in gioco termini sempre più astratt. Sebbene a

ogni stadio il numero dei termini astratti possa essere finito (e anche il numero

degli stati mentali distinti, come asserisce Turing), nel corso dell’applicazione

della procedura esso potrebbe convergere all’infinito: “qualcosa del genere

sembra accadere nel processo di formazione di assiomi dell’infinito sempre più

100 10

forti nella teoria degli insiemi”. Si pensi del resto alla gerarchia dei numeri

transfiniti di Cantor.

Gödel sembra ritenere che questa procedura mentale non sia una procedura

meccanica, e non possa essere eseguita da un automa finito. Sembrano quindi

che possano esserci forme di intelligenza “non computazionale”, che vanno oltre

le procedure meccaniche finite di Turing. Nello stesso tempo, come abbiamo già

osservato a proposito di Lucas e Penrose, non si può negare un carattere

algoritmico a procedure siffatte.

Se è così chiediamoci:

i. Come descrivere il carattere di queste forme di intelligenza non meccanica?

ii. I processi mentali che vanno oltre le procedure meccaniche presentano una

forma di calcolo che va oltre una computazione meccanica effettiva?

iii. Come possiamo rimpiazzare la dicotomia “calcolo meccanico /non

meccanico” con la descrizione di procedure che includano sia la computazione

meccanica sia quella non meccanica?

La distinzione formulata da Gödel tra procedure meccaniche e procedure che

possono essere eseguite dalla mente umana suscita una domanda: “possiamo

immaginare procedure mentali che si possono considerare computabili senza

che siano meccaniche?”. Secondo Gödel alcune procedure mentali eseguite dalla

mente umana non soddisfano le condizioni di finitezza e determinazione

richieste dall’analisi di Turing sull’esecuzione di procedure meccaniche.

L’ipotesi di Gödel avvalora la tesi secondo cui ci possono essere funzioni non

Turing computabili, il che farebbe pensare all’ abbandono della tesi di Church-

Turing. Un primo esempio di tale sorta di funzioni sarebbe costituito da una

funzione che sia calcolabile dalla mente umana tramite una procedura che

comporta l’uso di termini astratti in base al loro significato, funzione che non

può essere computata mediante una procedura puramente meccanica. Se si

potesse esibire chiaramente una simile funzione, il risultato potrebbe essere usato

per sostenere una tesi anti-algoritmica e anti-meccanica sulla mente umana. Si

tratterebbe infatti di una funzione definibile costruttivamente, computabile dalla

mente umana, ma non Turing-computabile.

Una spinta ad andare oltre la nozione classica di calcolabilità dovuta a Gödel ,

Church e Turing,è stata ottenuto attraverso la descrizione delle proprietà della

cosiddetta 'computazione quantistica'. Com’è noto, Turing si proponeva di

mostrare che qualunque processo di calcolo può essere ricostruito nei termini di

una procedura simbolica eseguibile da un ‘calcolatore’I possibili passi del

calcolo sono interpretati come operazioni fisiche e ogni operazione come “un

cambiamento del sistema fisico costituito dal calcolatore e dal suo nastro”.

La tesi di Turing secondo cui “ciò che può essere calcolato da un essere

umano idealizzato che segua una routine di passi elementari è computabile”, può

essere affinata precisando la nozione stessa di calcolatore. Di qui la tesi di

101 10

Robert Gandy secondo cui “ciò che può essere calcolato da un dispositivo

meccanico deterministico è computabile”. Si tratta di una generalizzazione

dell’argomento di Turing, ottenuta eliminando ogni aspetto umano del computer.

Alle limitazioni legate alle ristrette capacità sensoriali degli esseri umani

subentrano limitazioni di carattere fisico: una condizione di finitezza (un limite

inferiore) sulle dimensioni delle componenti elementari (o atomiche) e una

condizione di località, cioè un limite superiore sulla velocità di propagazione dei

segnali, la velocità della luce. Ma le macchine di Gandy non sono ancora

dispositivi fisici, mentre lo sono i ‘calcolatori quantistici’. Sembra allora

ragionevole spingersi fino alla tesi secondo cui “ciò che può essere calcolato da

un dispositivo fisico è computabile”. Per poterlo fare, tuttavia, bisogna compiere

ancora due passi, dimostrare che:

(a) qualunque dispositivo fisico può essere rappresentato mediante un sistema

‘dinamico’ che soddisfi certe condizioni restrittive;

(b) ogni funzione fisicamente calcolabile è computabile. Inoltre, un calcolatore

quantistico, essendo un dispositivo fisico in grado di eseguire algoritmi

quantistici che non hanno analogo classico, potrebbe rappresentare un nuovo

modello di algoritmo.

Con questo ci spingiamo alle frontiere della ricerca, perché i calcolatori

quantistici stanno attualmente passando dalla fase di progettazione a quella

concreta. Il vantaggio dei calcolatori quantistici è la loro impressionante velocità,

dato che lavorano in parallelo e non linearmente. Il poco che possiamo dire si

condensa in una cauta congettura di Roger Penrose:

<<Il comportamento non computazionale del cervello umano potrebbe

dipendere da fenomeni di tipo quantistico>>

Restano aperti diversi interrogativi:

a) un calcolatore quantistico è ancora una macchina di Turing? Secondo

Deutsch, dal momento che tutti i processi paralleli possono essere in linea

di principio linearizzati, non si esce dalla tesi di Church-Turing.

b) Ci sono aspetti non computazionali nel pensiero umano: si tratta di

fenomeni quantistici?

c) un sistema fisico quantistico è simulabile da un computer quantistico?

Come vedremo, tra gli aspetti non computazionali del pensiero umano

dobbiamo porre un aspetto che secondo alcuni è ciò che caratterizza la

specie umana dalle altre specie animali: la creatività. Non è azzardato dire

che il tema della creatività è quello su cui tutte le concezioni

computazionaliste della mente hanno dovuto misurarsi, con esiti che

ancora oggi non sono completamente determinabili.

102 10

La centralità della scienza cognitiva è dovuta al fatto che l’ informatica è

diventata la disciplina trainante nei confronti delle cosiddette scienze formali.

La verità è che l’informatica ha cambiato il volto della stessa filosofia.

Dobbiamo a Paul Thagard la nascita della cosiddetta filosofia

computazionale.

Da un lato, la presenza di Internet è una novità di un certo rilievo perché

mette a disposizione un’enciclopedia infinita, e questo vale anche per i

materiali filosofici. Ogni filosofo americano oggi ha una sua pagina personale

e mette in rete i propri lavori scavalcando la distribuzione di materiale

cartaceo. Ci sono insegnamenti “virtuali” di filosofia ecc. Ma il problema è

sapere qual è il contributo effettivo che l’informatica ha dato alla discussione

filosofica. I computers, per quanto perfettamente stupidi, sono programmati

per fare cose che gli uomini non possono fare, o almeno non possono fare

con la stessa velocità e lo stesso grado di infallibilità. Prescindendo dalle

questioni poste dalla scienza cognitiva, i computers simulano la mente umana

e pertanto presentano elementi nuovi per la valutazione di classiche questioni

filosofiche.

Pensiamo ad alcuni problemi squisitamente metodologici , per esempio al

problema dell’abduzione. Come si ricorderà , l’abduzione è un tipo di

inferenza ampliativa (un tempo confusa con l’induzione), che consente in

passare dall’explanandum all’explanans, cioè da ciò che si deve spiegare ai

dati esplicativi. I dati esplicativi possono essere leggi ( come nel caso delle

leggi di Keplero, che spiegano le varie posizioni dei pianeti) oppure fatti

singolari - cause - rispetto all’effetto. L’ inferenza abduttiva è l’inferenza alla

miglior spiegazione e spesso viene classificata in due tipi : abduzione

creativa (che crea le ipotesi esplicative) e creazione selettiva ( che seleziona

tali ipotesi). Mentre l’abduzione selettiva è basata su metodi razionali

dominabili (si sceglie l’ipotesi più economica, più informativa ecc.),

l’abduzione creativa è stata in genere considerata intrattabile, se nona

ttraverso l’ applicazione di quello strumento matematico che è il teorema di

Bayes: Conoscendo la probabilità di E/C, di C e di E si calcola la probabilità

inversa, di C/E.

Dopodiché si sceglie la più probabile delle cause possibili. Purtroppo i calcoli

necessari per operare queste trasformazioni probabilistiche sono proibitivi.

A partire dagli anni 80 l’ingegneria ha offerto degli automi in grado di compiere

scoperte. DENDRAL (1980) scopriva la struttura molecolare del campione avendo

come input i dati spettroscopici e METADENDRAL scopriva qualcosa di più: le

regole che spiegano il processo di frammentazione dei campioni. Il programma

BACON 1, ha riscoperto, partendo da informazioni basilari, . Il programma

BACON 1 per esempio ha ri-scoperto la terza legge di Keplero, la legge di Ohm e

la legge di Boyle -Mariotte con una procedura data-driven, cioè confrontando le

103 10

formule con i dati empirici assunti come inputs.

C’è da aggiungere conclusivamente alle considerazioni fatte nelle

pagine precedenti che quanto detto sopra riguarda l’abduzione selettiva, cioè

il modo in cui si sottopongono a test le ipotesi. Poco o niente si è detto in

realtà sull’abduzione creativa, cioè sul modo in cui vengono prodotte le

ipotesi da sottoporre a test. Qui torniamo di fatto al punto di partenza, e cioè

alla domanda iniziale: può esistere uno stock di regole per generare insiemi di

ipotesi da sottoporre a test?

Sembra ci sia una contraddizione nell’idea stessa di un automa creativo, non

diversamente da come sembra ci sia una contraddizione nell’idea stessa di un

automa che produce sequenze casuali (random sequences): come può esserci un

insieme di regole per produrre una sequenza che per definizione è irregolare1? Ma la

cosiddetta Intelligenza Artificiale non poteva non raccogliere anche questa sfida.

Già nel 1987 venivano implementati programmi in grado di simulare le scoperte

scientifiche usando come spazio di ricerca tutte le possibile formule esprimenti

correlazioni tra variabili I tentativi in questa direzione sono ormai oggetto di

copiosa letteratura. Può essere utile ricordare qui che ci sono risultati recentissimi

anche per le scoperte che ormai vengono spesso chiamate serendipiane . Che

significa? Una scoperta è serendipiana quando è stata ottenuta in modo

preterintenzionale, quando cioè il ricercatore cercava qualcos’altro o addirittura

qualcosa di opposto (v. scoperta della penicillina da parte di Pasteur). In questi casi

è chiaro che la scoperta è impossibile senza l’intuito e le genialità del ricercatore

stesso.

Campos e Figueiredo (2002) hanno realizzato un software, MAX, che per quanto

non crei ipotesi serendipiane è uno strumento per la serendipidità. Per cogliere il

punto, si pensi alla distinzione tra la ricerca di informazione in Internet guidata da

uno scopo preciso - come si fa normalmente usando un motore di ricerca - e il

“navigare in Internet” a casaccio, che offre il terreno fertile per la scoperta

serendipiana. MAX si propone di offrire stimoli interessanti e inattesi al ricercatore:

il Modulo di Formulazione di Suggerimenti di MAX ha come scopo la ricerca

deliberata di occasioni per il lateral thinking. Il programma è in grado di definire

una misura di somiglianza tra documenti, in modo da assemblare documenti

divergenti. Gli autori concludono che “fare programmi per la serendipità è

possibile”.

Le procedure informatiche entrano in gioco a diversi stadi della ricerca abduttiva.

In primo luogo, anche se non sono in grado di produrre un ventaglio di ipotesi che

sia automaticamente candidato al successo, sono in grado di produrre

combinatoriamente, sulla base di informazioni predeterminate, un numero

estremamente alto di ipotesi, e in ogni caso più alto di quello che qualsiasi operatore

1

104 10

umano è in grado di formulare. In secondo luogo sono in grado di individuare

ipotesi logicamente equivalenti e di scegliere, a parità di contenuto, quelle

sintatticamente più semplici semplificando il repertorio delle ipotesi di base. In

terzo luogo, sono in grado di calcolare rapidamente le conseguenze delle ipotesi

assunte e di eliminare le ipotesi in conflitto rispetto ai dati empirici con una velocità

non consentita all’operatore umano.

Il ruolo della creatività umana non è stato finora messo in discussione dalla

programmazione abduttiva: anche perché qualunque programma si possa scrivere

per il più sofisticato dei computers è, in ultima analisi, un prodotto della stessa

creatività umana.

BIBLIOGRAFIA ESSENZIALE

R.Cordeschi e V.Somenzi (a cura di) La filosofia degli automi, Boringhieri,

Torino 1986

D. R Hostadter, Gõdel , Escher, Bach, Adelphi ,Milano, 1985

L.Magnani, Ingegnerie della conoscenza. Introduzione alla filosofia

computazionale, Marcos y Marcos, Milano, 1997

D. Marconi, Filosofia e scienza cognitiva, Laterza,Bari,2001.

S.Nannini, L’anima e il corpo. Un’introduzione storica alla filosofia della

mente, Laterza, Bari, 2002

P.Thagard, La mente. Introduzione alla scienza cognitiva (a cura di L. Magnani),

Guerini, Milano, 1996

105 10