Filosofia della scienza Corso 2013-2014
Transcript of Filosofia della scienza Corso 2013-2014
2 2
I. IL POSITIVISMO LOGICO.
§1. Dell' epistemologia contemporanea, a differenza che di altre discipline, si
puo indicare una data di nascita abbastanza precisa, il 1925. In quest’anno un
fisico viennese di grande cultura filosofica, Moritz Schlick (1882-1936),
cominciò a usare il salotto di casa sua per ospitare un gruppo di discussione a
cui partecipavano colleghi della generazione piu giovane, di varia estrazione
culturale. Al centro di molte discussioni erano le idee contenute in un testo di
recente pubblicazione, il Tractatus LogicoPhilosophicus.
L’autore di questo testo atipico, che si presentava come una serie di aforismi
numerati, era un giovane viennese, rampollo di una ricchissima e blasonata
famiglia, Ludwig Wittgenstein. Partito volontario per la Prima Guerra Mondiale,
Wittgenstein era stato fatto prigioniero dagli italiani a Monte Cassino, riuscendo
però a completare il manoscritto nella forma che sarebbe diventata definitiva.
E' singolare che l’autore del libro che era al centro di tanto interesse non
abbia mai preso parte alle riunioni del circolo pur mantenendo i contatti con
alcuni esponenti come Friedrich Waismann. Questo si puo spiegare con la
scontrosita del suo carattere, ma bisogna anche tener conto che Wittgenstein
riteneva di non aver niente da aggiungere a quanto scritto nel suo libro, con cui
pensava di aver risolto in modo definitivo tutti i problemi principali della
filosofia. Al termine di questa impresa filosofica, come lui stesso dichiarava alla
fine della sua trattazione, non poteva esserci altro che il silenzio.
Le riunioni del circolo – che prese il nome di Ernest Mach Verein – erano
molto animate. I filosofi nel senso tradizionale del termine erano per lo piu
assenti ma partecipavano matematici come Hans Hahn e saltuariamente Kurt
Gödel (che era boemo), sociologi come Otto Neurath e Felix Kaufmann, fisici
come Philipp Frank.
Nel 1926 Rudolf Carnap (1891-1970), che era docente a Jena, fu chiamato
all’Università di Vienna. Il contributo di Carnap, che sarebbe diventato in
seguito la figura dominante importante del movimento, fu importante anche per
la sua capacità di mantenere i contatti con gli ambienti tedeschi. Con qualche
anno di ritardo infatti a Berlino si era costituito un circolo ispirato alle stesse
idee, i cui maggiori esponenti furono Hans Reichenbach (1891-1953), Carl
Gustav Hempel (1903-1992), Richard von Mises (1885-1953), Walter Dusbislav
(1895-1937). Nel giro di pochi anni circoli analoghi vennero aperti in Polonia
(circolo di Leopoli – Varsavia), in Inghilterra, dove aveva lasciato il segno la
lezione di Russell, e in seguito negli Stati Uniti dove emerse rapidamente la
figura del matematico-filosofo W.V.O. Quine.
§2. La corrente di pensiero che nasceva in questo modo e stata battezzata in vari
modi : positivismo logico, neopositivismo, neoempirismo, empirismo logico,
empirismo scientifico. Comunque la si voglia chiamare, è unanime il
3 3
riconoscimento che le personalità che lo costituivano erano di statura eccezionale
e che altrettanto eccezionale fu la svolta che riusci a imprimere alla riflessione
sulla scienza. Tanto per cominciare, un punto caratterizzante della nuova
corrente di pensiero è che la filosofia non doveva essere concepita come un
corpo di dottrine o di principi ma come un’attività. Scopo di questa attività
doveva essere l’ analisi logica del linguaggio, cioè l’analisi del linguaggio
compiuta mediante lo strumento della logica. Oggetto primario della ricerca
erano le nozioni basilari della scienza (legge, teoria, esperimento, …), che
venivano sottoposte ad un esame che Carnap chiamava di esplicazione. Una
nozione vaga e intuitiva espressa nel linguaggio ordinario,p.es quella di teoria o
di probabilità, doveva essere esplicata, e cioe rimpiazzata da un suo sostituto
rigoroso espresso entro un linguaggio ideale, esente dalle impurità del
linguaggio ordinario. Lo strumento per condurre questa attività esplicativa era
una scienza rigorosa che era stata fondata pochi decenni addietro da matematici
come Boole, Frege e Russell, la logica matematica. Dunque qui vediamo un altro
elemento di novità. Per quanto fosse una metascienza, essendo un’ attività
esercitata mediante metodi scientifici, la filosofia cosi intesa si proponeva essa
stessa come una scienza.
Non c’e dubbio che l’origine di questa idea sia reperibile nel Tractatus
di Wittgenstein. Vediamo dunque per sommi capi che cosa si trova in questo
classico della filosofia. Apparso negli Annalen der Naturphilosophie di Ostwald
nel 1921, e poi in inglese nel 1922 con introduzione di Bertrand Russell, il
Tractatus consta di una serie di aforismi seguiti da commenti e sottocommenti,
numerati secondo il loro grado di importanza. Lo stile della presentazione,
lapidario e a volte criptico, è piu simile a quello della filosofia presocratica e
della filosofia orientale che a quello contemporaneo, caratteristica che contribuì
forse al suo successo editoriale. Il libro consta di sette aforismi principali seguiti
da commenti numerati in ordine di importanza.
1. Il mondo è tutto ciò che accade
2. Ciò che accade, il fatto è il realizzarsi di stati di cose
3. L’immagine logica dei fatti è il pensiero
4. La proposizione è il pensiero dotato di senso
5.La proposizione è una funzione di verità delle proposizioni elementari
6.La forma generale della proposizione è [ , ]
7.Di ciò di cui non si può parlare bisogna tacere
Il mondo reale viene presentato come la somma degli accadimenti o fatti, e
questi sono la realizzazione di alcuni degli infiniti “stati di cose”
combinatoriamente possibili. Questi fatti possono essere estremamente
complessi, ma per quanto complessi siano, essi non sono altro che combinazioni
di fatti atomici o elementari, e cioè di fatti che non possono essere scomposti in
altri fatti: p.es. il fatto che piove e che il cielo e coperto è un fatto molecolare ,
4 4
che è la composizione del fatto atomico che piove con il fatto atomico che il
cielo è coperto. Poichè tra linguaggio e mondo esiste una specularità fotografica,
il linguaggio nella sua forma ideale consta di enunciati molecolari che sono la
composizione di enunciati atomici. Il modo in cui gli enunciati si compongono
nel linguaggio ideale è offerto da alcuni semplici connettivi logici: negazione,
congiunzione, disgiunzione, condizionale e bicondizionale. L’uso di simboli
appositi (¬ , ˄ , v , ⊃ , ≡) sta a sottolineare che questi connettivi non sono
esattamente la traduzione dei loro corrispettivi nel linguaggio ordinario. Le
cosiddette tavole di verità, che sono una creazione originale di Wittgenstein,
ci danno le condizioni a cui un enunciato molecolare è vero o falso a seconda
della verità o falsità degli enunciati atomici componenti.
Vero e Falso sono detti i “valori di verità” degli enunciati.
Queste tavole di verità si possono descrivere sinteticamente in questo modo:
Se A e B sono enunciati qualsiasi, la congiunzione A & B è Vera se A e B sono
ambedue Vere, altrimenti Falsa; la disgiunzione A v B è Falsa se A e B sono
ambedue False, altrimenti Vera; il condizionale A ⊃ B è Falso se A e Vera e B
Falsa, altrimenti Vero ; il bicondizionale A ≡ B è Vero se A e B hanno lo stesso
valore di verità, altrimenti è falso; la negazione ¬A è vera se A è Falsa, e Falsa
se A è era.
Quando un enunciato e invariabilmente vero si dice tautologia: le tautologie
sono quelle che tradizionalmente venivano chiamate leggi logiche (p.es. il terzo
escluso). Applicando le tavole di verità si può stabilire in modo meccanico e in
un tempo finito se un enunciato è o non è una tautologia. Come si suol dire,
dunque, le tavole di verità forniscono una procedura di decisione per la logica
degli enunciati atomici e molecolari. Come si vedrà piu avanti, questa logica è
solo una porzione limitata della logica necessaria alla formalizzazione del
linguaggio scientifico, ma Wittgenstein riteneva che a tale frammento fosse
riducibile ogni ramo superiore della logica.
Su questa premessa fondamentale (in effetti una vera e propria metafisica)
Wittgenstein costruisce una teoria del significato che, in forma più sofisticata,
sarebbe stata ereditata dal Circolo di Vienna. L’idea basilare e che una
proposizione è dotata di senso quando si è in grado di definire una procedura per
stabilire se è vera o falsa, dove la verità consiste nel rispecchiamento di un fatto
atomico o molecolare. Nella sua prima formulazione il cosiddetto “criterio
empirico di significanza” prendeva questa forma, noto anche come principio di
verificabilita :
(PV)“Un enunciato è significante se e solo se è verificabile in linea di
principio”.
Altra variante
(PV*)“Il significato di un enunciato è il metodo della sua verifica”
Prendiamo p.es. due coppie di asserti tratti dalla filosofia tradizionale: “Un ente
5 5
onnipotente ha creato il mondo” e “l’Essere e in bilico sul Nulla”. Non
essendoci procedure per stabilire se sono veri o falsi, sono privi di senso, e lo
stesso vale per le loro negazioni. La funzione della logica (e della filosofia come
attivita di chiarificazione) è quella di parafrasare gli enunciati del linguaggio
ordinario nel linguaggio ideale, in modo tale da chiarire la loro forma logica
perfetta; una volta cosi tradotte, si stabiliscono le condizioni a cui sono vere o
false, e si stabilisce cosi la loro sensatezza. La conclusione di questa analisi, o
meglio le conclusioni che si propone di raggiungere questa analisi, è che le
proposizioni che costituiscono la metafisica tradizionale sono prive di senso,
mentre solo le proposizioni della scienza sono dotate di senso.
In Wittgenstein questa autolimitazione della filosofia si colora di una vena
mistica che non si trova negli altri filosofi neopositivisti. Le proposizioni
dell’etica e dell’estetica a suo giudizio sono a rigore prive di senso, anche se
esprimono sentimenti e passioni che, pur essendo ineffabili, hanno grande valore
per gli uomini. Lo stesso vale per il Trascendente: esso viene percepito come
qualcosa che si pone al di la del limite, che esiste (“si mostra”, dice W), ma e
inesprimibile.
La metafisica tradizionale e la sua compagna prossima –la teologia -- dunque
sono il campo di contese inconcludenti e infinite perchè constano di pseudo-
proposizioni prive di senso e discutono quindi pseudoproblemi.
Ma le discussioni che si aprirono immediatamente, in seno al Circolo, sul
criterio empirico di significanza, danno la misura di come lo stile filosofico del
circolo fosse antidogmatico e, in certo senso, ispirato al metodo sperimentale.
Ogni esplicazione di un concetto che veniva proposta in via tentativa non
pretendeva ad essere definitiva, ma solo perfettibile. La nozione piu importante
da esplicare in via preliminare era la nozione di significanza, ma il principio di
verificabilità si dimostrava immediatamente inaccettabile, almeno nella
formulazione sopra proposta. In primo luogo, anche trascurando che tutte le
proposizioni normative e valutative risultano prive di senso per tale criterio,
bisogna chiarire che la verificabilità “in linea di principio” deve applicarsi anche
a proposizioni per cui non esiste, nel momento in cui sono valutate, la
disponibilità tecnica di una verifica. Quando venne fondato il Circolo di Vienna
non c’era la possibilità tecnica di mandare una sonda sulla Luna, ma nessuno
dubitava della sensatezza dell’enunciato “ci sono montagne dall’altra parte della
luna”, per quanto avrebbe potuto risultare, a sorpresa, falso. La risposta che si
poteva dare circa la sua sensatezza era che esso risulta sensato “in linea di
principio”, e cioè, verificabile o falsificabile nei limiti in cui possiamo
descrivere senza contraddizione delle tecniche che consentirebbero la verifica.
Ma il problema più grave, come si vide immediatamente, era un altro.
Prendiamo una legge di natura come “Tutti i corvi sono neri”. E’ ovvio che
questa legge non asserisce qualcosa sui corvi effettivamente osservati, che sono
6 6
in numero finito, ma su tutti i corvi presenti, passati e futuri, i qualis sono in
numero infinito; anzi, come vedremo meglio, su tutti i possibili corvi, che sono
pure infiniti. Secondo una teoria suggerita dallo stesso Wittgenstein nel
Tractatus, un asserto come questo, che i logici simbolizzano nella forma "∀x (Cx
⊃ Nx) equivale a una congiunzione infinita di enunciati del tipo “a e un corvo
solo se a e nero”, “b e un corvo solo se b e nero”, “c e un corvo solo se c e nero “
ecc.. In questa analisi vediamo all’opera il ruolo della logica formale, che porta
a evidenziare una struttura che il senso comune e la logica del senso comune non
rendono trasparente. Per verificare una legge come questa dovremmo quindi
verificare infiniti enunciati, e quindi compiere infinite verifiche. Ma questo non
è possibile nemmeno in linea di principio: ammesso e non concesso che si
disponga di un nome per tutti gli oggetti dell'universo, dobbiamo fare i conti con
il fatto che il tempo disponibile per le verifiche è un tempo finito. Conclusione:
le leggi scientifiche, che sono gli enunciati che rendono possibile la ricerca e la
teorizzazione scientifica, sono prive di senso.
Gli anni ’30 furono caratterizzati dai tentativi di emendare il criterio empirico
di significanza salvando almeno la significatività delle leggi scientifiche. In
Testability and Meaning Carnap propose di sostituire la verificabilità con la
controllabilità (che presuppone l’ esistenza di strumenti di controllo) e poi con
il requisito più debole della confermabilità. Il criterio di significanza
liberalizzato asserirà dunque che un enunciato è significante se e solo se e
confermabile.
Che vuol dire “confermabile”? Per capirlo dobbiamo renderci conto del fatto
che il neopositivismo è l’erede dell’empirismo classico, cioè dell’ idea secondo
cui ogni conoscenza non a priori deriva in ultima analisi dall’esperienza. (il
sintetico a priori per un empirista è puramente contraddittorio). Ma l’ esperienza
ci dà solo approssimazioni alla certezza, e cioè gradi probabilità. Il probabilismo
quindi è l’esito naturale dell’empirismo. Assegnare a un enunciato un grado di
conferma sulla base dell’esperienza equivale ad assegnargli un grado di
probabilità. Se a un enunciato (p.es. a una legge) siamo in grado assegnare un
grado di probabilità sulla base dell’esperienza questo enunciato è significante,
altrimenti no.
La nuova riformulazione di Carnap poneva su basi più soddisfacenti il criterio
di significanza, ma guadagnava un problema nuovo, che era quello di proporre
un’analisi logica della stessa nozione di probabilità. Come vedremo più avanti,
Carnap produsse uno sforzo matematicamente poderoso per ricostruire il calcolo
delle probabilità come ramo specifico (assiomatico) della logica. Nella sua
prospettiva la logica della conferma, la logica induttiva e il calcolo della
probabilità costituiscono un’unica teoria. Non erano idee completamente nuove,
dato che Keynes le aveva già espresse nel suo “Treatise on Probability”. Ma la
differenza sostanziale è che Carnap usa come strumento di indagine non la
7 7
matematica ma la logica simbolica. Per tutti i neopositivisti è la logica, non la
matematica, che diventa strumento per la rigorizzazione del linguaggio
scientifico. Secondo Carnap, che da questo punto di vista proseguiva
l’insegnamento di Frege e Russell, la matematica si può ricostruire come un
ramo della logica (logicismo).
Come vedremo, oggi questa posizione è difficilmente sostenibile, ma l' idea
guida del logicismo ha avuto un’ enorme suggestione e ha dato slancio alle
ricerche del Circolo di Vienna.
§3. Torniamo per un momento alle vicende del Circolo, che dopo il 1925 nel giro
di pochi anni si trasformava in un vero e proprio movimento organizzato. Nel
1929 compariva il manifesto del gruppo Wissenschaftliche Weltauffassung: der
Wiener Kreis, un opuscolo di 60 pagine firmato da Hahn, Neurath, Carnap. Nel
1935 Neurath in una breve monografia enucleava quattro caposaldi che erano
condivisi da quanti aderivano al movimento: 1) antimetafisica 2) empirismo di
carattere generale 3) intervento metodico della logica 4) matematizzazione di
tutte le scienze. Tra i precursori delle nuove idee venivano indicati (a parte
Mach, che era il modello di scienziato-filosofo piu vicino al circolo) Comte,
Hume, Sesto Empirico, Leibniz. Filosofi come Democrito e Marx erano citati
insieme ad altri per il loro orientamento antimetafisico e antireligioso.
Era molto chiaro che la logica e la matematica agivano non solo come
strumenti di lavoro ma assolvevano una funzione superiore. Infatti, dal momento
che offrivano un linguaggio comune a tutte le scienze avanzate, assicuravano la
comunicazione tra queste e quindi diventavano agenti-chiave di un processo
che la filosofia doveva incoraggiare: quello verso l’unità della scienza. La
promozione dell’unità della scienza diventa quindi un obiettivo cardinale
dell' epistemologia. Nel 1935 si tenne a Parigi un congresso intitolato all’unità
della scienza, a cui Neurath partecipò con una prolusione in cui si richiamava
apertamente al programma degli enciclopedisti del 700. Neurath diventava
animatore di una collana di studi “International Encyclopedia of Unified
Science” di cui vennero pubblicati diversi fascicoli scritti dai migliori specialisti.
Le scienze non solo dovevano tendere all’unità ma di fatto erano avviate verso di
questa nella misura in cui una scienza avanzata, la fisica, tendeva
progressivamente a inglobare altre scienze, a partire dalla chimica, come suoi
rami specifici. A lungo andare le scienze della vita , e poi anche le scienze
umano sociali – così si pensava- si sarebbero ridotte a rami specializzati della
fisica (fisicalismo).
Mentre le idee del Circolo acquistavano vigore, le vicende umane dei suoi
componenti erano drammaticamente sfortunate. Nel 1936, anno dell’annessione
dell’Austria alla Germania, Schlick venne assassinato da uno studente nazista
sulle scale dell’Università di Vienna. Questo evento segnava la fine del
8 8
movimento organizzato in Europa e l’inizio della diaspora dei suoi membri.
Carnap, Reichenbach, Hempel, Weinberg, Feigl e altri trovarono posto in varie
università americane, dove incontrarono un ambiente molto favorevole.
Naturalmente, nonostante la mediazione di brillanti giovani come Quine, la
filosofia dominante negli USA era quella pragmatista, dominata dall’ influenza
di personalità come Dewey e C.I.Lewis, a cui tra l'altro non era estranea neppure
l’influenza dell’idealismo hegeliano importata nell’800 dagli immigrati di lingua
tedesca.
Fino al 1970 (morte di Carnap) il positivismo logico nella versione americana
– talvolta chiamato received view – fu la corrente epistemologica dominante
negli Stati Uniti. Da un lato questa corrente di pensiero, che non solo ammetteva
ma incoraggiava le divergenze interne come fattore di progresso, mostrava una
straordinaria capacità di crescita, dall’altro il successo era garantito dalla
mancanza di alternative credibili.
Negli anni ‘30, grazie soprattutto ad Hempel, il positivismo logico fu in grado
di sviluppare una concezione delle teorie scientifiche e della spiegazione
scientifica che non ha avuto rivali fino agli anni 70. Cominciamo a chiarire che
il pensiero dei neopositivisti poggiava su una serie di presupposti che non
venivano messi in discussione perche erano in un certo senso considerati
autoevidenti. Si trattava di alcune dicotomie concettuali e principalmente:
1) la distinzione analitico-sintetico
2) la distinzione tra contesto della giustificazione e contesto della scoperta
3)la distinzione teorico - osservativo.
1) La prima distinzione fa parte della tradizione filosofica derivata
dall’empirismo. Gli enunciati veri o sono tali per la loro forma o per il
significato dei termini (ex vi terminorum) oppure in virtù dell’osservazione e
dell’esperimento. Alla prima classe appartengono enunciati come “0=0”,
“2+2=4”, “Nessuno scapolo è sposato”, che vengono detti analitici. Altri
enunciati, come “ alcuni gatti sono neri”, sono derivati dall’esperienza e sono
detti sintetici. I primi non possono mai essere falsi per il loro stesso significato,
mentre i secondi possono essere veri o falsi a seconda delle circostanze.
2) La distinzione tra contesto della scoperta e contesto della giustificazione,
sottolineata da Reichenbach, indica che le qualità che rendono giustificato
inserire un enunciato nel corpo della scienza (p.es. coerenza interna, alto grado
di conferma ecc.) non hanno niente a che vedere con il modo in cui questo
enunciato e stato di fatto scoperto dagli scienziati. Che Newton sia arrivato alla
teoria della gravitazione osservando una mela cadere dall’albero è molto
interessante per la psicologia ma irrilevante per la epistemologia. Si osservi che
molte scoperte sono , come si dice oggi, serendipiane, cioe preterintenzionali, il
che nulla toglie alla loro validità.
3) La dicotomia osservativo-teorico e essenziale per capire la concezione
9 9
neopositivista delle teorie. Il linguaggio ideale della scienza deve distinguere
rigorosamente due insiemi di termini ; quelli che descrivono qualcosa che cade
sotto il dominio diretto dei sensi (rosso, mela, telescopio…) e quelli che non
hanno questa caratteristica, pur essendo impiegati correntemente nella scienza
(gravità, peso, inflazione, inconscio…). Grosso modo si tratta della vecchia
distinzione tra concreto e astratto che qui, ovviamente, viene riformulata
attraverso l’ esame rigoroso della logica. Non si nega che ci possono essere casi
di difficile attribuzione ( per esempio un peso di 90 Kg rilevato da una bilancia è
osservativo o teorico? ) ma si afferma che si può sempre tracciare una distinzione
abbastanza sicura tra ciò che viene rilevato dall’osservazioni o da semplici
operazioni di misura e ciò che non ha questa caratteristica.
Breve parentesi. Negli anni '20 e '30 i neopositivisti dedicarono molte energie a
stabilire la forma e la qualità delle informazioni basilari, derivate dai sensi, su cui
doveva poggiare l’intera costruzione della scienza (protocolli). Alcuni
sostenevano che i protocolli non erano enunciati ma resoconti neutri di
osservazioni del tipo “qui,ora, rosso”, mentre altri come Neurath sostenevano
che ogni enunciato va confrontato con altri enunciati , per cui non ha senso far
poggiare una costruzione linguistica come la scienza su dati extralinguistici.
Qui interessa osservare che, una volta accettata la dicotomia
osservativo/teorico” per gli enunciati singoli, questa si può estendere alle leggi
scientifiche (che per i neopositivisti sono enunciati di tipo particolare, e non
elementi della realtà) le quali possono essere classificate quindi in osservative
( es.:”tutti i cavalli hanno un cervello”) e teoriche (es::“tutti gli atomi sono
costituiti da elettroni in movimento”).
Qui dobbiamo subito chiederci se gli asserti teorici, non essendo derivati
dall’osservazione, non finiscano per cadere sotto i rigori del criterio empirico di
significanza al pari delle pseudoproposizioni metafisiche (già abbiamo visto che
questo pericolo insidiava le stesse leggi scientifiche). Qui le risposte sono state
diverse. La piu semplice, proposta dal fisico americano Bridgman, sta nel dire
che ogni termine teorico è definibile in termini della classe di operazioni e di
calcolo che consentono di precisare il loro valore. Per quanto suggestiva, questa
idea urta contro una difficoltà di fondo: dal momento che le operazioni di misura
e di calcolo di una stessa grandezza, poniamo della temperatura, sono diverse e
cambiano con gli sviluppi tecnologici, dovremmo concludere che ci sono diversi
concetti di temperatura e che che questi cambiano continuamente nel tempo.
Nessuno, in effetti, si sente di sostenere che il tempo misurato da una clessidra è
un oggetto diverso dal tempo misurato da un orologio elettronico, anche se
questo è ciò che segue dalle premesse operazioniste.
Per ovviare a questo problema i neopositivisti approdarono a una concezione
che divenne in un certo senso definitiva:
per ogni termine teorico t esistono delle regole che lo connettono ai dati
10 10
osservativi dandone una “interpretazione parziale”, che può arricchirsi
indefinitamente con lo sviluppo della scienza. Una regola di corrispondenza per
esempio e la seguente:
(RC)“se la colonnina di mercurio entro il termometro b raggiunge la tacca c, la
temperatura del corpo b e di 35°”.
Il complesso di tali regole (che, si noti, non sono equivalenze ma semplici
implicazioni) è in grado di interpretare, cioè assegnare un significato, in un dato
momento storico, a un termine teorico.
Una teoria scientifica si presenta come una costruzione piramidale di leggi
gerarchizzate secondo la loro generalità e secondo il loro carattere più o meno
teoric . Questo presuppone che si sappia distinguere una legge di natura da altri
enunciati che hanno struttura sintattica analoga (p.es. “Tutti i pianeti hanno il
nome di una divinità greca”), ma i neopositivisti ritenevano, almeno fino
all’inizio degli anni ’40, che tale distinzione non fosse problematica. Al livello
piu basso della gerarchia di leggi suddetta si trovano leggi che si appoggiano
direttamente all’esperienza osservativa. Per esempio dall’asserto vero “tutti i
corvi osservati sono neri” si inferisce la legge osservativa “tutti i corvi sono neri”
mediante una estrapolazione induttiva. L’induzione, come è noto, è il processo
inferenziale per cui da una proposizione vera della forma “Qualche A è B” si
inferisce “Tutti gli A sono B”.
Ci sono casi in cui una legge riceve sostegno induttivo dal basso, ma è anche
derivabile da leggi più generali e/o più astratte. Una legge del genere nel corpo
della teoria ha una posizione molto solida. Al vertice della piramide si trovano
nella scienza- modello (la fisica) leggi teoriche come F=ma. Leggi
completamente teoriche come queste ricevono un senso mediante le regole di
corrispondenza, ma sono giustificate dalla loro capacità di derivare innumerevoli
leggi di inferiore generalità e di minore astrazione che in forma diretta o indiretta
poggiano sull’esperienza.
Veniamo ora al concetto di spiegazione (si noti che la spiegazione non va
confusa con la esplicazione a cui si è gia accennato, anche se i termini in italiano
sembrano sinonimi). Un tema importante dell’espistemologia e stato fin dall’ 800
l’interrogativo: qual è lo scopo primario della scienza? Le risposte sono state
almeno tre : a) descrivere sinteticamente la natura; b) effettuare previsioni
corrette; c) spiegare i fenomeni sotto indagine.
Scartata come limitativa la prima, la terza risposta è stata quelle che i
neopositivisti hanno sottoscritto, anche perche si e affermata la convinzione
che fosse coincidente con la seconda. Hempel ha difeso con forza
fino agli anni 60 la cosiddetta “tesi della simmetria”, secondo la quale
spiegazione e previsione sono strutturalmente identiche. Su questo ci sarebbe
molto da discutere. Se è vero che la previsione razionale di un evento (p.es.
11 11
un’eclissi di luna, non certo una vincita al lotto) implica una sua spiegazione, è
più difficile sostenere che la spiegazione di un evento passato (p.es. il crollo di
Wall Street del 1929) implichi una sua previsione (il crollo si e verificato perchè
in quel momento ha colto gli operatori di sorpresa, altrimenti sarebbe stato forse
evitato).
Accettiamo per semplicità la tesi della simmetria. Spiegare significa dare una
risposta alla domanda “Perchè E”? E può essere una legge o un fatto singolo. Nel
caso di una legge la nozione neopositivista di teoria racchiude la risposta: Se
una legge si deriva da una legge più generale si considera spiegata da questa.
Naturalmente bisognerebbe caratterizzare la nozione di “più generale”. Se io mi
chiedo perchè tutti i cani italiani hanno un cervello e rispondo “ perchè tutti i
cani europei hanno un cervello” questa seconda legge è piu generale della
prima, ma darebbe una spiegazione ben misera del fatto su cui ci si interroga.
Viceversa “tutti i quadrupedi hanno un cervello” darebbe una spiegazione molto
migliore perche connette due proprieta strutturali suggerendo anche un nesso
causale tra di esse.
Ciò che è chiaro comunque è che spiegare significa derivare logicamente, e
che ogni spiegazione va presentata come una derivazione logica. Nel caso E sia
un evento singolare effettivamente accaduto la derivazione logica può essere
data da uno o più fatti noti come accaduti mediante una o più leggi di natura.
Seguendo Hempel, l’evento da spiegare E (explanandum) si deriva da un
explanans che consta di una classe di leggi L1 & …& Ln e di condizioni iniziali
C1….Ck.
Questa idea apparentemente banale, nota come teoria delle leggi di copertura o
schema di Hempel-Oppenheim, in realtà è una fonte di problemi. in primis
bisogna porre delle restrizioni su questa definizione iniziale. Supponiamo per
esempio che E e C1 siano identiche o logicamente equivalenti oppure due
descrizioni dello stesso fenomeno.
In questo caso avremmo che Ci e un elemento della spiegazione di E, cioe che E
spiega E. Questo può sembrare assurdo, ma nella storia della scienza si è
verificato più spesso di quanto non si pensi. Nella commedia di Molière “Il
Borghese Gentiluomo” si ironizza sugli aristotelici che spiegavano la capacità
dell’oppio di far dormire dicendo che possedeva un virtus dormitiva. Per un
neopositivista il significato di questo enunciato è indistinguibile
dall’explanandum (le procedure di verifica sono identiche!), per cui in questo
caso, nonostante le apparenze, si spiega E mediante E. Altre condizioni
restrittive hanno lo scopo di evitare altre banalizzazioni: per esempio, se A
spiega E, non bisogna permettere che E spieghi A, quindi bisogna garantire che
questa relazione non sia simmetrica.
Ma la più interessante difficoltà è stata vista da Hempel per il fatto che L1…
Ln possono essere non leggi ineccepibili ma leggi probabilistico-induttive
12 12
(p.es. il 99% dei fiammiferi sfregati si accende). Questo impone una correzione
dello schema iniziale perchè l’explanandum in questo caso non segue con la
probabilità del 100% ma con un grado di certezza inferiore. Stando così le cose,
dobbiamo precisare il grado di certezza (probabilità) della conclusione
specificandolo anche formalmente. Per Hempel –c he distingue questo schema
chiamandolo Statistico-Induttivo per distinguerlo da quello Nomologico-
Deduttivo- la probabilità della conclusione date le premesse deve comunque
essere molto alta (regola dell’alta probabilità) .
Il modello SI (StatisticoInduttivo) ha dei problemi propri che si aggiungono
ai problemi del modello con leggi ineccepibili, che viene chiamato ND
(Nomologico-Deduttivo).
Ci limitiamo ad accennare al fatto che un aumento di informazione nelle
premesse può far cadere saltare un rapporto stabilito tra premesse e conclusione
sulla base di una minore informazione. Per esempio: chiediamoci perche il Sig.
Rossi si è ristabilito da una recente operazione chirurgica.
Rispondiamo con l’explanans seguente: Rossi è stato operato di appendicectomia
e il 99% di questi interventi è seguito da una rapida guarigione. Ma supponiamo
di acquisire nuove informazioni su Rossi: da queste risulta che Rossi ha 95 anni
di età. La probabilità che a quest’età un’operazione di questo genera si risolva
con una rapida guarigione non è molto alta ma molto bassa, il che rende
l’inferenza illegittima . Si dice oggi che un’inferenza come questa è
nonmonotòna: e cioè che è sensibile all’ incremento di informazione nelle
premesse.
La risposta di Hempel al problema, che suscitò immediatamente obiezioni e
polemiche, fu che per evitare questo inconveniente la descrizione
dell’explanandum deve essere sempre massimamente specifica. Bisogna, cioè,E
deve essere descritto in modo tale da esplicitare tutte le informazioni che si
possiedono su E. Questo è un caso particolare della regola che i positivisti logici
chiamano di Evidenza Totale. In ogni spiegazione bisogna quindi tener conto di
tutta l’informazione disponibile tanto nell ‘explanans che nell’explanandum.
Certo si tratta di un ideale difficile da raggiungere, se non altro perché
esplicitare tutta l’informazione disponibile potrebbe esigere un tempo infinito o
comunque illimitatamente grande. Inoltre bisogna distinguere tra informazione
rilevante per il problema e informazione irrilevante per lo stesso. Ma
l’idealizzazione richiesta in questo caso non è peggiore di quella richiesta in altri
contesti, per esempio quando si richiede, in statistica, l’ impiego
di campioni quanto più possibile grandi e quanto più possibile randomizzati. Se
nella scienza si fa ampio uso di leggi ideali (come la legge ideale dei gas) non si
vede perché l’idealizzazione deva essere preclusa nel campo della metodologia
scientifica.
13 13
[Per una Bibliografia essenziale sul neopositivismo si veda L. Geymonat, “Storia
del pensiero scientifico e filosofico”; voll 6 e 7, Garzanti 1972, 1976]
14 14
II.LA SVOLTA RELATIVISTICA E IL PROBLEMA DEL REALISMO.
§1. Negli anni ’50 il positivismo logico dominava incontrastato le università di
tutti i paesi di lingua inglese. Allo stesso modo in cui si usa indicare per il
neopositivismo una data di nascita si potrebbe indicare una data di morte: in tal
caso una scelta appropriata sarebbe il 1970 (anno della scomparsa di Carnap). La
verità è il neopositivismo non è morto perche è stato superato da altre
correnti piu agguerrite o perche è ”passato di moda”, come accaduto p.es. al
marxismo o all’esistenzialismo. Il fatto è che per svariati motivi i suoi stessi
esponenti hanno smesso di riconoscersi negli assunti basilari condivisi dagli
esponenti del Circolo di vienna . Ricordiamo che per i neopositivisti la filosofia
non e un sistema di idee ma un’attività, e che tale attività portava i neopositivisti
a rimettere in discussione spregiudicatamente i presupposti di base. Alla fine le
divergenze su questi presupposti erano divenute troppo ampie perchè si potesse
parlare di un movimento di pensiero unitario, anche se estremamente articolato.
Alcuni di questi presupposti condivisi sono già stati indicati in alcune di quelle
opposizioni concettuali a cui si è gia accennato e che venivano accettate come, in
un certo senso, autoevidenti: in particolare la distinzione analitico-sintetico, la
distinzione osservativo-teorico, la distinzione tra contesto della scoperta e
ontesto della giustificazione.
Per quanto riguarda la prima opposizione va osservato che W.v.O.Quine in
“Due dogmi dell’empirsimo” (1946), pur ponendosi come il collega Nelson
Goodman nel solco del neopositivismo, criticava l’adesione dei positivisti logici
a due “non empirici dogmi dell’empirismo”: questi dogmi erano il riduzionismo
(la tesi per cui cio che è significante è riconducibile a qualcosa che deriva
dall’esperienza immediata) e la distinzione analitico-sintetico.
Quine si chiedeva: che significa dire affermando che un enunciato come “ogni
scapolo è maschio” è “analitico” anziché “sintetico”?. Quando si tenta di
esplicare l’analiticità secondo Quine si chiamano in causa nozioni imparentate
come quella di sinonimia, necessità, regola semantica, che non hanno un
significato chiaro (Quine ha sempre accusato di oscurità nozioni modali come
quelle di necessario e possibile) oppure rimandano circolarmente a quella di
analiticità.
Quanto al riduzionismo (che riporta al criterio empirico di significanza) Quine
osserva che in fondo esso riposa sul presupposto per cui si possono falsificare o
verificare degli enunciati atomici in stato di isolamento mediante dati sensoriali,
ciascuno dei quali dovrebbe essere espresso da qualche proposizione elementare.
Di fatto però questo non accade. La tesi di Quine, poi sviluppata da lui negli anni
50 con un impronta molto personale, è che gli enunciati di una teoria non
vengono sottoposti al vaglio dell’esperienza singolarmente ma in modo olistico,
15 15
cioè tutti insieme. Idee analoghe erano state proposte nei primi decenni del XX
secolo dal fisico francese Duhem, per cui si parla spesso di “tesi di Duhem-
Quine”. Per Quine è ingenuo pensare che una teoria venga confermata
confermando singolarmente tutti i suoi asserti, oppure che si abbandoni una
teoria semplicemente perchè si trova un controesempio a uno dei suoi singoli
enunciati. Quando una teoria “funziona” globalmente ai fini della spiegazione e
della previsione non è conveniente eliminarla, anche se per avventura dovesse
essere in conflitto con qualche dato sperimentale. Qui emerge il pragmatismo
della tradizione americana, che preferisce parlare di utilità o funzionalità delle
teorie piuttosto che di verità o falsità delle stesse. Per usare la sua immagine, una
teoria è come un campo di forza che tocca l’esperienza con uno sei suoi lati. Se
entra in conflitto con l’esperienza viene revisionata in modo da riprendere la sua
funzionalità.
Nella prospettiva di Quine ci sono proposizioni piu immuni da revisione e
altre meno immuni. Le proposizioni della logica e della matematica sono piu
immuni da revisione delle altre, e queste sono quelle che i neopositivisti di solito
classificano come analitiche. Ma esse non sono immuni per loro natura o per
qualche stipulazione che le rende tali, come i neopositivisti erano soliti pensare.
Un esempio per esempio e dato dalla legge del terzo escluso, che per la logica
matematica e una tautologia garantita dalle tavole di verità. A parte il fatto che
c’e una scuola di pensiero matematica, l’intuizionismo, che le nega la validità
del terzo escluso nelle stesse scienze formali, e accaduto che la meccanica
quantistica, cioe una scienza empirica, ha evidenziato una classe di fenomeni
sperimentali che si possono descrivere solo rinunciando ad una logica che
includa il terzo escluso e molte altre delle leggi logiche accettate dalla tradizione.
Dunque quello che è sempre stata citata come un esempio di verità analitica è
stato rimesso in discussione a fronte di dati sperimentali, proprio come
accadrebbe quando la scoperta di cigni neri in Australia ha portato a respingere
la presunta legge, universalmente creduta vera per secoli, espressa da “tutti i
cigni sono bianchi”.
Negli anni '50 il neopositivismo subiva attacchi anche da parte di una scuola
che per certi versi era agli antipodi di quella pragmatista a cui si ispirava
sostanzialmente Quine. Era la scuola che un filosofo di orgine viennese, Karl
Popper, aveva fondato in Inghilterra presso la London School of Economics, e
che tuttora è attiva in vari paesi del mondo (Agassi, Watkins, Fetzer).
Per molti anni, soprattutto in Italia, Popper (viennese della generazione di
Carnap) e stato considerato un neopositivista eretico e un personaggio
secondario nel panorama epistemologico. I punti di contatto con il
neopositivismo ovviamente non mancano: per esempio la concezione della
spiegazione scientifica di Popper anticipava quella di Hempel, al punto che si
parla di teoria della speigazione di Popper-Hempel.
16 16
Ma gli sviluppi del pensiero di Popper seguiti alla sua “Logica della scoperta
scientifica” (1936) hanno reso chiaro che la sua prospettiva era originale e
indipendente. Rapidamente, si puo osservare che gia negli anni ‘20 il problema
centrale di Popper non era quello della significanza (su cui si tormentavano i
neopositivisti) ma quello della demarcazione tra scienza e non-sceinza, e in
particolare quello della demarcazione tra scienza e pseudoscienza. Che cosa
distingue gli asserti della scienza da ciò che scienza non è, anche quando si
autoproclama scienza? Gli enunciati della scienza hanno una caratteristica
comune: sono tutti falsificabili. Anche se non siamo in grado di dire che sono
veri, siamo in grado di dire quale osservazione o quale esperimento li renderebbe
falsi. Si noti che questo risolve in modo diverso il problema di definire le leggi
di natura. “Tutti i corvi sono neri” fa parte della scienza non perche è vero ma
perchè è un’ ipotesi che ha resistito a vari tentativi di falsificazione. Noi siamo in
grado di enunciare che cosa lo renderebbe falso (l’osservazione di un corvo non-
nero) e l’etica scientifica impone di sottoporlo a tests severi in grado di
falsificarlo. Non ha senso raccogliere all’infinito esempi di corvi neri per
confermare questa presunta legge: essa avrà sempre il carattere di un’ipotesi, la
cui validità dipende dalla sua resistenza ai tentativi di falsificazione.
La metafisica e le pseudoscienze invece si autoimmunizzano rendendo
impossibile la falsificazione. In un famoso saggio del 1933 Popper cita la
psicoanalisi, il marxismo e l’astrologia come esempi di pseudoscienze formulate
in modo da non essere smentite da nulla. Per esempio le caratterizzazioni dei tipi
umani secondo i segni zodiacali è formulata in modo tale che ci sono sempre
scappatoie per evitare la falsificazione (per esempio il ricorso agli ascendenti,
alle cuspidi ecc.). Questo non accade – e non deve accadere – per la scienza.
Quando Einstein presentò la relatività in varie occasioni disse che il test
decisivo per la teoria sarebbe stato l’osservazione del pianeta Mercurio nel 1919
in posizione di massima vicinanza al Sole : “Se non dovesse esistere lo
spostamento verso il rosso delle linee spettrali dovute al potenziale
gravitazionale, la teoria generale della relatività sarebbe insostenibile”.
La scienza per Popper è un sistema di ipotesi che reggono fino a provacontraria,
proprio come l'accusa che porta alla condanna di un imputato viene
accettata da un tribunale fino a che non emergono eventuali elementi che la
falsifichino (si noti che Popper era figlio di un noto avvocato). L’induzione
quindi non ha alcun ruolo nella scienza. Tutt’al piu una teoria che sostiene molti
tests volti a falsificarla si puo dire piu o meno corroborata, dove il grado di
corroborazione non è esprimibile da un valore numerico perchè dipende dalla
severità dei tests.
La scienza è un edificio che non poggia sul terreno roccioso: per usare una
fortunata metafora di Popper, è come una palafitta piantata su un terreno
argilloso. Con il tempo una teoria si consolida, i pali della palafitta vengono
17 17
spinti piu a fondo, ma senza arrivare mai a un punto fermo. Una teoria T, se
falsificata, è sostituita da una nuova teoria T’ che recupera la parte sana di T. T’
verrà poi sostituita da una teoria migliore T e così via all’infinito”. Questo
sviluppo ci porta a teorie sempre piu verisimili, cioe sempre piu approssimate
alla verità, verità che resta un ideale a cui la scienza si avvicina asintoticamente.
Bisogna sottolineare ancora che Popper non si interessa della questione della
significanza. Criticare la metafisica non vuol dire negare la significanza dei suoi
enunciati. Sarebbe sciocco pensare che Aristotele o Cartesio dicessero cose prive
di senso (incidentalmente Popper negli ultimi anni ammise di essere sempre stato
un dualista cartesiano, cioe di aver sempre creduto nel dualismo di spirito e
materia). In realà non solo buona parte della metafisica è dotata di senso, ma è
accaduto che la metafisica ha preparato il terreno alla scienza o l’ha
accompagnata interagendo positivamente con questa. Il tema della c.d. Relevant
Metaphysics e stato sviluppato dopo il ‘60 soprattutto dalla sua scuola, che ne ha
fatto un motivo caratterizzante.
Quine e Popper rappresentano due modi diversi di criticare il positivismo
logico pur restando fedeli , in un certo senso, al suo spirito. Per quanto lontani,
ambedue hanno in comune il rifiuto di considerare la teoria come una
costruzione distillata, tramite qualche tipo di astrazione, dalle esperienze
osservative. Secondo Popper questa idea non fa che perpetuare il mito
baconiano secondo cui i concetti astratti, le teorie , le leggi ecc. sono derivati
dalle osservazioni così come il vino e derivato dalla spremitura dei chicchi di
uva. E’ stato facile obiettare a Popper che di fatto la sua concezione usa più
induzione di quanto lui miri a far apparire. Quella che Popper chiama “gradi di
corroborazione” – cioè gradi di resistenza ai test falsificanti – assomigliano ai
gradi di conferma carnapiani. Ma, soprattutto, accade che per effettuare un test
falsificante c’è bisogno di usare strumenti sicuri e collaudati p. es. telescopi,
barometri ecc. : e tale sicurezza può solo essere stabilita con ripetute esperienze,
cioè in fin dei conti con una procedura di tipo induttivo. Detto altrimenti,
dobbiamo presupporre la persistenza di certi oggetti e la stabilità di un certo
numero di loro qualità, cioè ammettere qualche variante del principio che una
volta veniva chiamato di Uniformità della Natura. In ogni caso, i tests verificanti
o falsificanti vanno ripetuti un certo numero di volte finchè non danno un
risultato che si giudica sicuro. E’ accaduto per esempio per l’esperimento di
Michelson-Morley, che è stato escogitato per refutare o confermare l’esistenza
dell’etere cosmico ed è stato ripetuto diverse volte con risultati alterni. Qui
Popper risponde alla critica proponendo un tipo speciale di convenzionalismo:
sono gli scienziati che, con un accordo tacito o esplicito, convengono che un
certo asserto (asserto-base) ha la caratteristica di un dato incontrovertibile è si
puo usare per la falsificazione di enunciati piu complessi.
18 18
Un problema di non facile soluzione per Popper era definire le condizioni a
cui sono falsificabili le leggi o le generalizzazioni probabilistiche, p.es. “il 51%
dei bambini è maschio alla nascita”. Quale campione di bambini osservato si
potrebbe considerare falsificante per la generalizzazione in questione? Anche in
questo caso entrano in gioco delle convenzioni più o meno tacite stabilite dalla
comunità scientifica.
Ci sono certi valori al di sotto della quale la devianza dei campioni osservati
dai valori enunciati nell’ipotesi si può considerare non-significativa e al di sopra
della quale vale l’opposto. Su un punto Popper mostrava un indubbio vantaggio
sui neopositivisti. Non hasenso chiedere a un osservatore “che cosa vedi nel
microscopio?” perché nessuno può descrivere in un tempo finito ciò che si vede
in un dato momento.
L’idea che esista un osservatore neutro che funziona come una macchina
fotografica perfettamente passiva è un mito empirista. Noi facciamo delle
osservazioni per rispondere a problemi che ci vengono posti (p.es. per sapere se
in una data posizione si trova o no una macchia rossa) e tali domande
dipendono dalla teoria che stiamo sottoponendo a test. L' apprendimento
procede per prove ed errori e non per ripetizioni cumulative di esperienze, come
ingenuamente pensavano gli empiristi. La teoria sotto indagine quindi guida ciò
che chiamiamo osservazione, anche se ovviamente potrebbe essere falsificata
dall’ osservazione stessa.
Negli anni cinquanta il rapporto teoria-osservazione – e quindi la dicotomia
teorico-osservativo – diventava un tema di sempre maggiore importanza, anche
perché c’era una disciplina, la psicologia della percezione, che poteva mettere a
disposizione dei filosofi una massa cospicua di risultati di cui era obbligatorio
tenere conto.
Nello stesso tempo si doveva registrare di un fatto che sicuramente giocava a
sfavore del neopositivismo. L’autore del Tractatus, dopo un periodo di silenzio
interrottosi con la sua chiamata a Cambridge nel 1928, aveva ripensato le idee
del suo capolavoro e proposto un punto di vista che appariva nuovo. Questo
“secondo Wittgenstein” ha lasciato un solo testo a stampa, le Ricerche
Filosfiche, apparse postume nel 1952 , ma anche un’ impressionante mole di
manoscritti sotto forma di diari e di appunti, a cui si devono aggiungere gli
appunti presi dai suoi studenti nel corso delle lezioni. Ciò che cambiava rispetto
19 19
al Tractatus primariamente era la teoria del significato. Nel Tractatus una
proposizione è significante se e solo se è vera o falsa, e la sua verità consiste
nell’essere rispecchiamento (immagine) di un fatto atomico o molecolare. Ma il
secondo Wittgenstein, influenzato forse dallo studio dell’etnoantropologia
(scrisse una recensione de “Il Ramo d'oro” di Frazer), vede ora che il significato
di un enunciato è dato dall’insieme di regole che ne governano l’uso. Allo stesso
modo in cui il significato della torre negli scacchi, poniamo, è dato non
dall’avere la forma di una torre ma dall’insieme di regole che ne governano l’uso
nel gioco degli scacchi, così il senso di una parola come, poniamo, “bellezza”
non è dato dal riferirsi a un oggetto chiamato “bellezza” ma dalle regole che ne
governano l’uso in una lingua come l’italiano (teoria dei giochi linguistici). Il
linguaggio comune, non il linguaggio perfetto della logica, diventa dunque
l’oggetto primario di indagine insieme allo slogan “non chiedete il significato,
chiedete l’uso”. I seguaci di Wittgenstein in Inghilterra (Strawson, Anscombe,
Ryle, Toulmin), che sono tuttora numerosi, trasformarono questa filosofia in una
“filosofia del linguaggio ordinario”, che dal loro punto di vista si riduceva di
fatto all’analisi della lingua inglese.
Wittgenstein aveva familiarità con la cosiddetta “teoria della Gestalt”,
secondo cui non esiste un vedere che non sia percezione strutturata di una forma.
Esempi famosi sono il cubo di Necker e l’immagine del duck-rabbit una figura
ambigua che può essere “letta” come un papero o un coniglio, e che Wittgenstein
riproduce nell Ricerche Filosofiche. La tesi di Wittgenstein è che la disponibilità
di un certo linguaggio condiziona la percezione stessa. Chi non ha mai visto la
neve, come certi popoli dell’Africa,non possiede nel suo linguaggio la parola
“neve” e non può riconoscere qualcosa come neve. Nello stesso tempo, come
osservava il linguista Benjiamin Lee Whorf, gli esquimesi che hanno venti
20 20
termini diversi per indicare tipi di neve, “vedono” diversi tipi di neve che noi
non siamo in grado di riconoscere come tali.
Il secondo Wittgenstein pone le basi per un rovesciamento del rapporto tra
linguaggio e osservazione. Applicata all’epistemologia, questa concezione
aveva alcune immediate implicazioni, colte con grande penetrazione già in un
libro di Norwood Russell Hanson, Patterns of Discovery (1958). La logica
simbolica e la matematica cessavano di fornire il linguaggio ideale della scienza.
Ciò che diventava importante erano gli usi che gli scienziati fanno dei termini
di cui dispongono e che determinano il loro senso. Teorie diverse comportano
giochi linguistici diversi, anche se i segni grafici o acustici coinvolti possono
essere identici. Il termine “terra” usato da Tolomeo non ha lo stesso senso del
termine “terra” usato da Keplero perché il suo senso è determinato dalle regole
che lo connettono ad altri termini come “sole”, “cielo” ecc. , e tali regole sono
diverse da teoria a teoria. Quindi le osservazioni descritte entro teorie diverse
sono osservazioni diverse. Quando Tolomeo e Keplero guardano il sole
“vedono” due cose diverse. Tolomeo “vede” un oggetto mobile, Keplero “vede “
un oggetto immobile, allo stesso modo in cui qualcuno può vedere un papero e
un altro un coniglio in una figura gestaltica. I dati empirici, si dirà sempre più
frequentemente, sono “carichi di teoria”. La teoria condiziona lo stesso livello
osservativo. Si tratta di idee non competamente nuove. Basta notare che intorno
al 1935 un medico polacco, Ludwig Fleck, aveva già evidenziato la natura
strutturata della percezione in un libro riscoperto anni dopo, “Genesi e sviluppo
di un fatto scientifico”, che ripercorreva la scoperta della reazione Wasserman.
Questo nuovo modo di intendere l’osservazione scientifica è stato proposto da
M.Polanyi all’inizio degli anni 50, anche se è stato il libro di Hanson già citato a
segnare una svolta nel campo epistemologico. Qui Hanson per la prima volta
presenta la scoperta scientifica come un’ impresa volta alla determinazione di
21 21
“modi di vedere”. Sono questi “modi di vedere” che hanno la funzione che
Hempel assegnava alle leggi e alle teorie nella spiegazione. Qualcosa è spiegato
quando trova un posto entro una Gestalt, una visione teorica dei fenomeni.
Negli stessi anni un filosofo inglese, Stephen Toulmin, introduceva la metafora
delle teorie come mappe, cioè rappresentazioni non-linguistiche della realtà. Si
tratta sempre di un allontanamento dalla concezione neopositivista in quanto le
teorie e le leggi cessano di essere entità linguistiche e la spiegazione cessa di
essere un tipo particolare di ragionamento. L’epistemologo ora non si occupa di
ricostruire razionalmente entro un linguaggio ideale i risultati della scienza, ma
si occupa del modo effettivo in cui gli scienziati giocano il gioco della scienza.
E’ chiaro allora che anche la dicotomia tra contesto della scoperta e contesto
della giustificazione viene sostanzialmente superata, e parallelamente viene
meno la distinzione (cara soprattutto a Popper) tra metodologia descrittiva e
metodologia normativa. Cade la distinzione netta tra epistemologia, psicologia
della scoperta, storia della scienza e sociologia della scienza.
Questo diverso orientamento, che era minoritario negli anni ‘50, guadagnò
lentamente terreno fino a diventare dominante negli anni ‘70 e ‘80. In mancanza
di un termine preciso, lo si è chiamato postpositivismo o, meno bene, “nuova
filosofia della scienza”. La popolarità arrivò sull’onda di un fortunato libro,
“La struttura delle rivoluzioni scientifiche”, il cui autore, Thomas Kuhn, era,
significativamente, uno storico della scienza prestato alla filosofia. Kuhn aveva
studiato per anni la rivoluzione copernica e si era convinto che il modo in cui si è
passati dalla concezione tolemaica del mondo a quella copernicana
esemplificava uno schema di sviluppo che si poteva applicare alla storia di tutte
le scienze indistintamente. Lo schema di sviluppo consiste in questo. La
comunità scientifica normalmente condivide in modo più o meno conscio un
linguaggio (inteso come insieme di regole per l’uso dei termini) e un insieme di
22 22
pregiudizi, dogmi, opinioni ereditate, che Kuhn non chiama teoria ma
paradigma. L’attività ordinaria degli scienziati consiste nella soluzione di
rompicapi (puzzles) che vengono generati dall’ impiego del paradigma stesso.
Questa attività è chiamata da Kuhn scienza normale.
Ci sono momenti in cui un paradigma entra in crisi perché cessa di proporre
problemi interessanti e presenta anomalie vistose che non si è in grado di
risolvere con gli strumenti interni al paradigma. Dopo un periodo di crisi viene
proposto da qualcuno un modo alternativo di vedere le cose, cioè un nuovo
paradigma. Si entra così in una fase rivoluzionaria, che può essere anche molto
lunga, e che si concluda quando il nuovo paradigma conquista il consenso della
generazione più giocane degli scienziati. Quando questo accade il vecchio
paradigma viene seppellito, si riscrivono i manuali scientifici e si reimposta la
ricerca creando un nuovo periodo di scienza normale.
Dal momento che i paradigmi condizionano il modo di vedere, rendono gli
scienziati ciechi rispetto ai dati empirici che potrebbero falsificarli. Con buona
pace di Popper, gli scienziati nella fase di scienza normale tendono a conservare
il paradigma vigente perché non “vedono”, né possono vedere con le lenti
offerte dal paradigma, i controesempi falsificanti. L’atteggiamento degli
scienziati non è molto diverso da quello degli artisti che seguono una corrente
estetica, degli uomini di fede che professano una religione o dei seguaci di un
partito che seguono un’ideologia. Il cambiamento di paradigma, che a volte è
dovuto alla genialità di un unico creatore (Galileo, Darwin, Einstein) è
paragonato ad una conversione religiosa, dopo la quale il problema è solo
convertire gli altri, cioè persuaderli a militare a favore del nuovo paradigma.
E’ da notare che nelle rivoluzioni scientifiche si ha una sostituzione di
paradigmi, il che non vuol dire affatto che nel cambiamento si registra un
progresso. Si può parlare di progresso entro un paradigma, ma non di un
23 23
progresso nel passaggio da un paradigma a un altro. Ciò che è giusto o sbagliato
è tale rispetto a un paradigma, ma non possiamo classificare un paradigma
come giusto o sbagliato rispetto a un altro paradigma: i paradigmi, come dice
Kuhn, sono incommensurabili.
Si attuava così nel campo dell’ epistemologia lo stesso passaggio al
relativismo che gli etno-antropologi avevano già introdotto nel campo delle loro
discipline. E’ chiara in particolare l’influenza che Kuhn ha ricevuto
dall'etnolinguista B.L. Whorf, che infatti Kuhn cita nella prefazione al suo libro.
Per Whorf gruppi etnici linguisticamente diversi vivono in realtà diverse perché
usano linguaggio diversi; per esempio gli indiani Hopi vivono in un mondo
diverso dal nostro perché la loro nozione di tempo, rappresentata in un
linguaggio diverso dal nostro e intraducibile con il nostro, è in realtà differente.
Chi crede nella intraducibilità dei linguaggi non fa fatica a passare alla tesi
kuhniana della intraducibilità delle teorie, anche se tanto gli aristotelici che
Copernico parlavano la stessa lingua, cioè il latino.
Allo stesso modo in cui non ha senso chiedersi se la cultura hopi è migliore o
peggiore della nostra, così non ha senso chiedersi se il paradigma tolemaico è
migliore o peggiore del nostro. Passando al nuovo paradigma perdiamo la
capacità di vedere che cosa c’è di buono nel vecchio paradigma. E’ errato
dunque dire che il vecchio paradigma è “superato” dal nuovo, anche se
ovviamente qualcosa del vecchio viene conservato e qualcosa di nuovo prende il
posto di quanto viene cancellato. Questo perché cambiare paradigma vuol dire
cambiare mondo: Galileo e Tolomeo vivono in realtà diverse, stante che la realtà
è qualcosa che viene percepito attraverso il filtro del paradigma.
Queste idee, come si può capire, ebbero un enorme risonanza. Facevano cadere
in un solo colpo il mito della superiorità della scienza rispetto ad altre forme di
rapporto con il mondo (letteratura, pittura, storia, ideologia) e mettevano in crisi
24 24
la convinzione che la scienza garantisse una conoscenza progressivamente
più profonda del mondo.
Nell’arco di pochi anni idee simili a quelle di Kuhn vennero sviluppate
da studiosi di formazione diversa le cui conseguenze si manifestavano in forme
che apparivano anche più radicali. “Contro il metodo” di Feyerabend (un fisico
passato alla filosofia) apparso nel 1975, portava l’antipositivismo di Kuhn alle
estreme conseguenze. Galileo – l’eroe positivo di questo libro – ottenne i suoi
successi non applicando i metodi codificati dagli epistemologi tradizionali ma
violando sistematicamente le regole di quello che sarebbe stato poi codificato
come un metodo scientifico. Ciò che Galileo poteva vedere nel suo famoso
telescopio era ben poco rispetto a quanto lui diceva di vedere e soprattutto
rispetto a quanto teorizzava di vedere. Ciò che importava a Galileo era catturare
il consenso alle sue teorie e rispetto a questo fine i dati sperimentali avevano
valore più che altro propagandistico. Si sa con certezza che, nonostante gli
venga ascritta la paternità del metodo sperimentali, Galileo non eseguì mai
alcuni degli esperimenti di cui si faceva promotore. Gli esperimenti che Galileo
prediligeva erano esperimenti mentali (cioè fatti con l’immaginazione) e in
questi si presupponeva spesso la teoria che gli esperimenti miravano a
corroborare.
Lo slogan “tutto è teorico”, che divenne popolare anche in Italia negli anni ‘70,
da Feyerabend veniva integrato con lo slogan dell’anarchismo
metodologico:”tutto va bene”. Le teorie scientifiche entrano in competizione tra
loro come i movimenti politici e, sul libero mercato, dominano per la loro
capacità di catturare il consenso. In questa prospettiva mon c’è neppure una
distinzione netta tra scienza e pseudoscienza: astrologia e magia nera possono
influenzare la scienza ed entrare in competizione con essa senza che ciò implichi
una svalutazione della scienza, comunque la si voglia definire.
25 25
L’anarchismo metodologico di Feyerabend, che andava di pari passo con la
deregulation che si affermava in quegli anni negli Stati Uniti, convinse
molti, inizialmente sedotti dalle idee di Kuhn, che il nuovo relativismo stava
spingendo in una direzione pericolosa. Veniva messa in crisi non soltanto la
capacità della scienza di descrivere un mondo oggettivo, ma la stessa distinzione
della scienza rispetto ad altre attività che non sono solo estranee alla scienza ma
giudicate di solito antiscientifiche. Che cosa distingue più, in una prospetiva
anarchica, la fisica dalle scienze occulte o dalla dianetica di Ron Hubbard?
Sulla strada indicata da Feyerabend pochi anni dopo si è sviluppata la
filosofia di Richard Rorty, un filosofo che, coerentemente con le proprie idee, si
è poi trasferito in un dipartimento di letteratura. In “La scienza e lo specchio
della natura”(1979) Rorty annulla la distinzione tra linguaggio e mondo.
L’ipotesi che esista un mondo speculare al linguaggio (metafisica del Tractatus)
o un mondo indipendente dal linguaggio, è giudicata superflua e insostenibile.
La verità non è la corrispondenza con un mondo “là fuori” ma l’asseribilità
garantita dal consenso, come peraltro era stato anticipato dai grandi pragmatisti
americani come Dewey.. “La razionalità scientifica – scrive Rorty- è solo
questione di essere aperti e curiosi, e di fare affidamento sulla ragione anziché
sulla forza” : con il che si può classificare per scienza più o meno tutto quello
che ottiene il consenso in una società non violenta.
Esiste una babele di linguaggi : il linguaggio della fisica, della sociologia, il
linguaggio ordinario, che hanno tra di loro rapporti complessi. Compito del
filosofo è mettere in comunicazione questi linguaggi operando delle traduzioni,
o meglio delle interpretazioni. Il lavoro del filosofo è un lavoro ermeneutico
volto ad assicurare il dialogo, ben lontano dalla ricostruzione logica richiesta dai
neopositivisti: incidentalmente, più simile al lavoro di comprensione storica che
26 26
Croce e Gentile proponevano come compito dell’intellettuale dopo la fine della
filosofia.
Può essere interessante osservare che le radici del postpositivismo si
trovavano già all’interno di alcuni orientamenti emersi all’interno del
positivismo logico. In particolare Neurath, in dura polemica con Schlick, negava
che la verità di un enunciato atomico (p.es. “il tavolo è rosso”) si potesse
stabilire confrontando il linguaggio con un mondo extralinguistico. Gli enunciati
si confrontano solo con altri linguaggi e non con dati sensoriali o “fatti” nel
senso del Tractatus di Wittgenstein. Che cosa allora rende un enunciato vero o
falso ?
Qui bisogna accennare al fatto che nella storia del pensiero si sono affacciate
diverse teorie della verità, ma qui importa menzionarne due di grande
importanza : quella corrispondentista e quella coerentista. Secondo i
corrispondentisti la verità di un enunciato consiste nel suo rispecchiare qualche
aspetto reale del mondo (Aristotele : “dire il vero significa dire di ciò che è, che è
e di ciò che non è, che non è”). Questo sembra ovvio, ma si pensi che ci sono
molti casi in cui saremmo imbarazzati ad indicare la porzione di realtà (il fatto o
i fatti, secondo il Tractatus) a cui gli enunciati veri corrispondono. A che fatto
corrisponde 2+2=4 ? A che fatto corrisponde l’enunciato vero che tutti i corvi
sono colorati? Le leggi di natura sono come questa sono congiunzioni
infinitarie: esistono allora fatti infinitari? A che fatto corrisponde l’enunciato
negativo che Milano non è in Vietnam?
I coerentisti aggirano queste difficoltà evitando di agganciare la verità alla
sfera dei fatti. In tal modo, rotti gli ormeggi con la realtà, resta aperta solo la
possibilità di valutare i rapporti degli enunciati tra di loro. Gli enunciati veri
formano un insieme accettato e coerente (cioè privo di contraddizioni) e la verità
di un enunciato consiste nel suo essere coerente con l’insieme degli enunciati
27 27
accettati. Questa concezione è quella tipica degli idealisti come Hegel o Croce,
che vedevano il mondo come una costruzione coerente dello spirito. Un
coerentista come Neurath in effetti anticipava da un lato l’olismo di Quine ,
dall’altro il rifiuto dei postpositivisti a vedere nella scienza una fotografia della
realtà.
In effetti un’ obiezione che venne immediatamente opposta al nuovo trend
postpositivista consisteva nell’accusare la nuova filosofia della scienze di essere
una forma di idealismo più o meno camuffato. Israel Scheffler e Karl Kordig in
particolare, con due libri tradotti anche in italiano, non avevano difficoltà a
mostrare i punti deboli delle nuove concezioni. Il coerentismo in particolare era
una fonte di problemi. Il problema principale è che non c’è un solo insieme
coerente di enunciati che può essere proposto come “accettato”. La coerenza può
essere stabilita in vari modi. ”Domani piove e “domani non piove” sono due
proposizioni coerenti con quanto sappiamo; eppure una sola della due sarà
l’alternativa vera.
Certo il consenso degli scienziati si dirige verso alcuni insiemi coerenti di
credenze piuttosto che verso altri. Ma, se è per quello, anche sistemi paranoici
di credenze come quello, per esempio nazista (che ebbe anche ricadute
importanti sula piano scientifico) hanno riscosso ampi consensi. Bisogna
distinguere tra un consenso qualsiasi e un consenso razionale, e su questa
distinzione i postpositivisti hanno detto ben poco di interessante.
Negli ultimi anni Kuhn (scomparso nel 1996) mostrava una maggiore cautela
nella difesa della sua tesi originaria, osservando che nel repertorio di argomenti
con cui gli scienziati difendono un paradigma o decidono tra due paradigmi in
conflitto hanno un peso maggiore le valutazioni basate sulla probabilità, sulla
valutazione dell’evidenza e via dicendo. Inoltre, riconosceva che era meglio
28 28
evitare di dire che paradigmi diversi determinano mondi diversi, cercando di
mettersi al riparo dall’accusa di propugnare una forma larvata di idealismo.
§3. Le posizioni più oltranziste nel postpositivismo non potevano non suscitare
delle reazioni vivaci ma anche, come spesso accade, avevano l'effetto di
stimolare dei tentativi di mediazione. Vale la pena di citarne due, che hanno
avuto giustamente fortuna: quello di Imre Lakatos e quello di Hilary Putnam.
Quando Lakatos conobbe in Inghilterra Popper e fu conquistato dal suo
pensiero, aveva alle spalle una vicenda umana e filosofica tormentata.
Ungherese, era stato un filosofo di impostazione marxista e anche esponente del
governo rivoluzionario dei Imre Nagy nel 1956, che venne poi travolto dalla
restaurazione filosovietica. Il suo popperismo si è associato, in una sintesi ben
riuscita, con l’intuizione di fondo hegeliana secondo cui la storia del pensiero
ha una razionalità intrinseca.
L’idea centrale di Lakatos è in estrema sintesi questa: una teoria accettata
dalla comunità ha un nucleo relativamente stabile, intorno al quale viene disposta
una cintura protettiva di ipotesi, assunti ausiliari ecc. che la difendono dalle
falsificazioni. Tra queste compaiono le ipotesi ad hoc non verificate, che per
Popper erano contrarie all’ etica falsificazionista o l’uso della clausola ceteris
paribus, che funziona come comodo ammortizzatore di fronte ad apparenti
controesempi. La teoria cresce su se stessa espandendosi in varie direzioni e
prende la forma di un programma di ricerca: un programma di ricerca non è una
singola teoria ma una successione di teorie ciascuna delle quali è un
aggiustamento della precedente. Esso nuota in un “oceano di anomalie” e se
queste sono intollerabili alla fine viene abbandonata: ma viene abbandonata solo
quando si rende disponibile un programma di ricerca migliore – cioè più ricco e
in grado di risolvere i problemi del primo. La metodologia dei programmi di
29 29
ricerca quindi cerca di coniugare il falsificazionismo popperiano con la visione
storico-dinamica delle teorie inaugurata dai postpositivisti.
Quanto a Putnam, è uno dei molti filosofi che hanno affrontato il problema più
difficile che è implicito nella visione postpositivista, ossia la questione del
realismo. Se le teorie scientifiche rispecchiano la realtà, bisognerebbe
concludere che il cambiamento delle teorie porti con sé un cambiamento della
realtà? Se questo non accade, allora dobbiamo abbandonare l’idea che le teorie
rispecchino la realtà e accettare l'idea che sono solo strumenti di previsione e di
calcolo, come si è sostenuto varie volte negli anni '30 (strumentalismo)? I
postpositivisti hanno complicato la questione facendo collassare la distinzione
tra osservativo e teorico, per cui la teoria influenzerebbe i dati osservativi e
quindi la stessa percezione della realtà. Hilary Putnam ha proposto una
ragionevole mediazione che ricorda la mediazione kantiana tra razionalismo ed
empirismo. Il “realismo interno” di Putnam consiste nel dire che le teorie
influenzano la descrizione del mondo e anche i problemi che vengono proposti
alla scienza, ma non le risposte ai problemi stessi.
Putnam comunque non vuole spingersi a concepire la realtà come un
“noumeno” kantiano in linea di principio inconoscibile. Indubbiamente c’è una
differenza tra il classificare una balena come un pesce o come un mammifero, e
questo naturalmente dipende da teorie presupposte. Ma, una volta descritta la
realtà nella cornice di una teoria, questa è in grado di falsificare o confermare la
stessa teoria da cui è descritta. Il mondo non è inconoscibile, ma conoscibile con
la mediazione di schemi concettuali storicamente determinati.
Si può connotare l’acqua come “l’unico liquido trasparente, incolore, inodore”
–come si faceva ai tempi antichi- oppure con H20, ma questo cambiamento
riguarda il modo in cui ci si riferisce alla stessa entità, e non la natura dell’entità
30 30
stessa. Invece di parlare di verità come corrispondenza a un mondo esterno,
parleremo di accettabilità razionale.
Di sicuro, per Putnam, il relativismo è una posizione sbagliata : se non altro
perché, come già aveva visto Socrate contro Protagora, il relativista deve
proporre suo relativismo come qualcosa di assoluto, e quindi negare
implicitamente il suo stesso relativismo nel momento in cui lo professa.
BIBLIOGRAFIA ESSENZIALE (reperibile in italiano)
Hanson,N.R. Patterns of Discovery (1958), Syndics of the CAmbridge
University Press, 1978 , trad.it “Modelli della scoperta scientifica”
Feltrinelli,Milano 1978
Feyerabend,P.K., Against Method, NLB, 1975, trad.it. “Contro il metodo”,
Feltrinelli,MI,1979
Kuhn, T. , The Structure of Scientific Revolutions, trad.it. “La struttura delle
Rivoluzioni Scientifiche”, Einaudi, Torino, 1978
Kuhn,T., Sneed J.D., Stegmuller,W., Paradigmi e Rivoluzioni nella Scienza,
a cura di M.Baldini, Armando, Roma, 1983
Rorty,R, Philosophy and the Mirror of Nature, Princeton U.P. 1979; trad.it. “La
filosofia e lo specchio della natura” Bompiani,MI, 1986
Lakatos,I.-Musgrave (a cura di), Criticism and the Growth of Knowledge,
Cambridge U.P. 1970, trad.it. “Critica e Crescita della conoscenza”, Feltrinelli,
MI, 1976
Popper ,K. Logik der Forschung, Springer, Vienna 1935, trad.it. in Logica della
Scoperta Scientifica,, Einaudi,TO, 1974,
Popper, K. Realism and the aim of Science from the Postscipt to the Logic of
Scientific Discovery, a cura di W.W.Bartley III (trad.it. Poscritto alla Logica
della Scoperta Scientifica,Il Saggiatore, MI, 1984
Quine,w.v.O From a Logical Point of View, Harvard U.P, 1961, trad.it. Il
problema del significato. Ubaldini, Roma, 1966
Quine W.V.O, Saggi Filosofici 1970-1981 , a cura di M.Leonelli, Armando,
Roma 1982
Wiitgenstein, Philosophical Investigations, 1951 trad.it Ricercehe Filosofiche
31 31
III. LA LOGICA MATEMATICA E LA FILOSOFIA DELLE SCIENZE
FORMALI
§1. Verso la metà dell’800 un geniale matematico tedesco, Georg Cantor, pose
le basi di una teoria che era destinata a diventare, secondo un modo di pensare
diffuso, non solo uno strumento concettuale prezioso ma il fondamento stesso
di tutto il corpo della matematica: la teoria degli insiemi.
Cantor non dava una definizione di insieme soddisfacente dal punto di vista
contemporaneo, ma definiva in modo sufficientemente chiaro le operazioni tra
insiemi e le relazioni tra insiemi. Le operazioni fondamentali tra insiemi sono :
complementazione (−), unione (∪), intersezione (∩).
Le relazioni sono invece di due tipi : appartenenza (∈) e inclusione, (⊆). E’
importante non confondere queste due relazioni. Ogni insieme A è incluso in se
stesso in quanto tutti gli elementi di A sono elementi di A (A ⊆ A), ma
normalmente, anche se non sempre, un insieme A non appartiene a se stesso (A
∉ A : l’insieme delle mele non è una mela). Se A ⊆ B e A e B sono insiemi
diversi, A si dice sottoinsieme proprio di B.
Esistono inoltre due insiemi speciali, il più piccolo di tutti o insieme vuoto (∅)
e il più grande di tutti o insieme totale (V).
32 32
Che cosa distingue un insieme finito da uno infinito? La risposta di Cantor si
appoggia a una proprietà paradossale degli insiemi infiniti, quella di avere la
stessa numerosità di alcuni dei loro sottoinsiemi propri. Per esempio, come aveva
già notato Galileo, l'insieme dei numeri naturali N ha la stessa numerosità
dell'insieme dei numeri pari, che è un insieme incluso in N ma diverso da N.
Tale equinumerosità si accerta definendo una corrispondenza biunivoca tra i
membri del primo insieme e i membri del secondo.
La maggior gloria di Cantor è stata la teoria del transifinito, cioè la scoperta
del fatto che ci sono diversi tipi di infinito: l’insieme dei numeri reali R per
esempio è più numeroso dell’insieme dei numeri naturali, e da R si può generare
per iterazione una gerarchia di insiemi di numerosità crescente. Quando un
insieme è infinito o arbitrariamente grande, come p.es. l’insieme dei numeri pari
o l’insieme dei corvi, non possiamo descriverlo enumerando i suoi elementi
(estensionalmente, come si dice) ma indicando la proprietà che gli elementi
hanno in comune, e cioè menzionando l' intensione, o concetto, che li accomuna.
C’è un principio basilare che collega l’aspetto intensionale all’aspetto
estensionale degli insiemi, il c. d. Principio di Comprensione:
(PC) Per ogni proprietà coerente P esiste l’ insieme di tutti e solo gli elementi
che godono di P.
Usando dei simboli il principio PC si può simbolizzare così: per ogni x, Px sse
x ∈x: Px
33 33
Per esempio, data la proprietà “rosso”, esiste l’insieme di tutte e solo le cose
rosse, mentre data la proprietà “essere un insieme infinito” esiste l’insieme di
tutti e solo gli insiemi infiniti. Con un passo ulteriore Cantor teorizzava che
possiamo rappresentare tutte i predicati relazionali come insiemi di insiemi
ordinati di tipo particolare (p.es. la relazione “essere padre di” come l’insieme
delle coppie ordinate di padri e figli). Le funzioni sono intese come relazioni di
tipo particolare, cioè relazioni della forma “molti-uno”.
La descrizione delle relazioni tra insiemi può essere operata entro una logica
con il linguaggio più complesso di quello che Wittgenstein definiva mediante le
tavole di verità. Se dico
(U) “tutti gli uomini sono mortali”
questo descrive una relazione tra insiemi, che potremmo anche descrivere
dicendo
(U*)“l’insieme degli uomini è incluso nell’insieme dei mortali”.
Alternativamente, invece di dire
(E) Qualche uomo è mortale
potremmo dire
(E*)L'intersezione tra l'insieme degli uomini quello dei mortali è diversa
dall'insieme vuoto.
Il linguaggio proposizionale i cui connettivi sono descritti dalle tavole di verità
contiene soltanto negazioni, disgiunzioni, congiunzioni, condizionali, ma la
34 34
proposizione (U) non rientra in nessuna di queste categorie. D’altro canto è
assurdo dire che si tratta di un enunciato atomico, della stessa forma di “piove”
perché non descrive un fatto atomico, ma semmai descrive una composizione di
infiniti fatti atomici. Per questo è necessario introdurre dei simboli appositi, i
quantificatori, che ci consentano non solo di rappresentare proposizioni
universali come U ma di distinguerle da altre più deboli come E.
Gottlob Frege, il padre della logica contemporanea, introdusse una notazione e
un insieme di regole per questi operatori (i quantificatori), in modo che U ed E
vengono rese rispettivamente da queste due formule: ∀x(Ux ⊃ Mx) e ∃ x(Ux ∧
Mx). In questo linguaggio con soggetti e predicati avremo un numero infinito di
predicati U, M, S…. e un numero infinito di variabili x,y,z… che sono, come si
dice, vincolate dai quantificatori.
I predicati possono essere semplici ma anche relazionali, come “avere un
padre”. Per esempio “ogni corvo ha un padre” diventa una formula complessa
come ∀x(Cx ⊃ ∃y Pyx). Come abbiamo visto, i neopositivisti sosterranno in
seguito che questo linguaggio standardizzato è il linguaggio ideale della scienza,
e che compito primario dello scienziato è parafrasare il linguaggio ordinario
in questo linguaggio perfetto.
Con Frege per la prima volta la logica riceve un’assiomatizzazione. Viene
cioè stabilito un insieme di enunciati fondamentali da cui, mediante regole
molto semplici, si è in grado di derivare la totalità delle leggi logiche,
35 35
proposizionali e quantificate, sotto forma di teoremi. Ma c’è di più: Frege ritiene
che dagli assiomi della logica si possa derivare, mediante la logica stessa, tutta la
teoria degli insiemi e tutta l’aritmetica. Si noti infatti che “essere un insieme” è
un predicato come un altro e le due relazioni di appartenenza e di inclusione
sono relazioni né più né meno come “padre di” e si possono quindi rappresentare
entro la logica dei quantificatori. Per il resto, è ovvio che intersezione, unione e
complementazione si possono rappresentare mediante i connettivi proposizionali
di congiunzione, disgiunzione e negazione rispettivamente (p.es. l’insieme delle
cose rosse e quadrate è l’intersezione dell’ insieme delle cose rosse con le cose
quadrate)
E' degno di nota che le funzioni tanto matematiche che extramatematiche
(p.es. quella che correla peso e statura di un individuo) si lasciano rappresentare
come relazioni di tipo particolare. Una particolare funzione, già menzionata, è la
corrispondenza biunivoca, che mette in correlazione insiemi della stessa
numerosità, p.es. l’ insieme formato da Romolo e Remo e quello formato da
Caino e Abele. Per stabilire questa corrispondenza non è necessario possedere il
concetto di numero. In compenso, possiamo definire la nozione di numero
cardinale mediante la nozione di corrispondenza biunivoca. Per capire la
procedura, possiamo creare l’insieme di tutti gli insiemi che possono essere
messi in corrispondenza con l’insieme formato da Romolo e Remo e chiamarlo
“Numero 2”. Allo stesso modo, possiamo formare l’insieme di tutti gli insiemi
36 36
che si possono mettere in corrispondenza biunivoca con l’insieme dei tre
moschettieri e chiamarlo “numero 3” e così via all’infinito. Lo zero sarà
ovviamente l’insieme vuoto.
Frege fece vedere come le operazioni dell’aritmetica - somma,
sottrazione,moltiplicazione, divisione - si possono definire in termini delle
operazioni insiemistiche.
In quegli anni un italiano, Giuseppe Peano, aveva formulato gli assiomi per
l’aritmetica (aritmetica di Peano) e Frege fece vedere che questi assiomi si
potevano derivare dalla teoria degli insiemi e quindi indirettamente dalla logica.
I rami superiori dell’aritmetica - calcolo delle probabilità, calcolo
infinitesimale, teoria dei numeri complessi, ecc. - per Frege erano costruibili
come rami dell’aritmetica, e quindi indirettamente come rami della logica.
Questa imponente costruzione concettuale, che Frege chiamava programma
logicista, rappresentava il primo tentativo di dare un fondamento alle scienze
formali assicurando nelle stesso tempo ad esse un linguaggio comune e un
insieme di regole di ragionamento perfettamente codificate, offerte per l'appunto
dalla logica.
E’ degno di nota che in questo programma veniva rovesciato il rapporto tra
logica e matematica che altri, come Gorge Boole, avevano esplorato con
successo. Secondo Boole la logica si poteva ricostruire come un ramo particolare
dell’algebra interpretando le variabili x,y,z… coma classi di oggetti e i segni x,
37 37
+, - come operazioni su classi. In tal modo Boole ricostruiva la parte valida
della sillogistica aristotelica, ma purtroppo non era in grado di rappresentare la
logica di enunciati più complessi come quelli relazionali.
Purtroppo l'ottimismo fondazionale uscitato dal programma logicista era
destinato a durare poco. Un giovane studioso inglese, Bertrand Russell, che
intratteneva, già a 18 anni, un fitto carteggio con Frege, rilevò che il principio di
comprensione, essenziale per la teoria degli insiemi fregeana, portava a una
contraddizione, o meglio ad una antinomia.
Abbiamo visto che normalmente gli insiemi non appartengono a se stessi,
anche se insiemi molto grandi, come l’insieme di tutti gli isnsiemi, godono di
questa proprietà. Chiamiamo dunque “normali” gli insiemi che non si si
autoappartengono. Per il principio di comprensione allora esiste l’insieme di
tutti e solo gli insiemi normali (cioè un insieme che contiene questi e solo
questi). Chiamiamo X questo insieme e chiediamo X ∈ X o X ∉ X? Tutte e
due le domande, come si può facilmente vedere, portano ad una contraddizione ,
nel senso che risulta che X ∈ X se e solo se X ∉ X.
E’ falso dunque che esiste l’insieme X, il che però mette in crisi il principio di
comprensione asserente che per ogni proprietà coerente esiste l'insieme di tutti e
solo gli oggetti che ne godono. Si noti che questa antinomia assomiglia
all’antinomia del mentitore: “Io mento” implica che dico la verità, ed è strano
che Frege non avesse visto la difficoltà.
38 38
Russell cercò di correggere la costruzione di Frege introducendo una
gerarchizzazione degli insiemi in insiemi, insiemi di insiemi, ecc. Ciascuno di
questi enti appartiene a un tipo diverso, e Russell introduce la convenzione che
si può parlare di appartenenza di X a Y sse il tipo di Y è di grado
immediatamente superiore al tipo di X. Non si può quindi mai fare sensatamente
un asserto della forma X ∈ X o X ∉ X. Le complicazioni della teoria dei tipi
furono però tali da far desistere lo stesso Russell dal continuare su questa strada.
E’ stato suo merito, comunque, se nei tre ponderosissimi volumi dei Principia
Mathematica (scritti insieme a A.N. Whitehead nel 1910) sono stati poste le basi
della logica contemporanea, anche nello stile notazionale che è diverso da quello
di Frege.
In quegli anni il programma logicista, per quanto sostenuto dal prestigio di
Frege, Russell e Whitehead, non era l’unica risposta al problema che in quel
momento era più avvertito, quello dei fondamenti della matematica. Due altri
orientamenti di pensiero si affermavano in quegli stessi anni: quello intuizionista
di Brouwer e quello formalista di Hilbert. L’intuizionismo è di fatto un ramo di
quello che oggi viene più genericamente chiamato costruttivismo. Si tratta
dell’idea per cui un enunciato A è vero quando esiste una dimostrazione di A, e
falso quando esiste una dimostrazione di non-A, cioè una refutazione di A. Per
qualche A potrebbe non esserci né una dimostrazione né una refutazione: così
accade per esempio per la congettura di Goldbach (ogni numero pari è la somma
39 39
di due numero primi), che è stata verificata dai computers per numeri
astronomicamente grandi, ma non è mai stata dimostrata né refutata dagli
assiomi di Peano. Brouwer ci metteva di suo una forma particolare di
mentalismo, per cui la matematica è una costruzione della mente umana,
sganciata dal linguaggio. I numeri naturali secondo lui sono oggetto di
un’intuizione primaria che genera la successione numerica, e il problema per
Brouwer e il suo più importante continuatore (H. Heyting) diventava
naturalmente quello di spiegare la natura dei numeri irrazionali e complesso e
introdurre metodi dimostrativi in grado di sopperire alla perdita di quello
strumento fondamentale di ragionamento che è il terzo escluso. Nonostante
l’avversione di Brouwer per i formalismi, la logica intuizionista proposta da
Heyting è oggi studiata con i metodi della logica simbolica.
David Hilbert si collocava agli antipodi di Brouwer escludendo completamente
la componente psicologica. I vari rami della matematica per lui sono solo sistemi
formali, intesi come giochi di segni governati da assiomi e regole che ne
consentono la manipolazione concreta. Il significato associabile a questi simboli
(la cosiddetta dimensione semantica) non ha così alcun ruolo essenziale nella
costruzione di un sistema formale. La matematica diventa quindi lo studio
generale dei sistemi formali, come poi dirà il più importante formalista post-
hilbertiano, H.B. Curry. Un sistema di segni è accettabile quando è privo di
contraddizioni (consistente), e il problema della consistenza diventa allora il
40 40
problema cardinale del formalismo. Una volta dimostrato che il problema della
consistenza della geometria e di altre teoria formali si riduceva la problema della
consistenza dell’aritmetica, si trattava di studiare il problema della consistenza
dell’aritmetica di Peano restando, per così dire, al suo interno. Secondo Hilbert
questo si poteva fare escludendo operazioni infinitarie e operando con metodi
“finitisti”. Le totalità infinite vengono trattate come finzioni, cioè “come se “
esistessero realmente alla stregua delle totalità finite. In particolare dobbiamo
operare senza ricorrere al cosiddetto principio di induzione matematica (da non
confondersi con l'induzione empirica), che entra in gioco quando ci proponiamo
di dimostrare che infiniti oggetti godono di una stessa proprietà. Siano a(0)…..
a(n),a(n+1)….. infiniti oggetti dello stesso genere la cui classe abbia la stessa
numerosità dell'insieme dei numeri naturali. Se voglio dimostrare, p.es. ,che tali
oggetti sono tutti divisibili per due, dimostro in primo luogo che a(0) è divisibile
per 2 e poi, ipotizzando che un qualsiasi a(n) sia divisibile per due, dimostro che
il successivo a (n+1) è pure divisibile per 2.
Senza questo principio, che è introdotto da Peano tra gli assiomi
dell'aritmetica, diventa problematico dimostrare teoremi anche molto semplici,
per es. Per ogni x,y,z : x +(y +z) = (x +y) + z.
Nella visione di Hilbert la logica opera come “teoria della dimostrazione” o
“metamatematica”, cioè come insieme di metodi finitisti atti a dimostrare dagli
assiomi le proposizioni matematiche anche intuitivamente semplici, come a=a, e
41 41
a stabilire la consistenza dei sistemi formali. Con i metodi ristretti richiesti da
Hilbert si conseguirono inizialmente alcuni limitati successi.
Von Neumann riuscì a dimostrare la consistenza di un sistema più debole
dell’aritmetica di Peano, l’aritmetica con induzione limitata a proprietà non
infinitarie. Era lecita quindi la speranza che si potesse arrivare in pochi anni a
dimostrare lo stesso risultato per l’aritmetica di Peano. Le speranze erano
incoraggiate anche dal fatto che un risultato analogo si raggiunse anche per la
c.d. “aritmetica di Presburger”, che è l'aritmetica senza l' operazione di
moltiplicazione. Per questa aritmetica debole venne dimostrata anche una
proprietà essenziale nel programma finitista, la decidibilità. Un sistema è
decidibile quando in un tempo finito si può stabilire se un enunciato gli
appartiene oppure no. Come disse Hilbert a un famoso convegno, il problema
della decisione è il problema fondamentale delle scienze formali.
Purtroppo nel giro di pochi anni le aspettative riposte nella capacità dei sistemi
formali di catturare i contenuti del pensiero formale ricevevano una serie di dure
smentite. In primo luogo Alfred Tarski dimostrava che il predicato di verità non
può essere definito entro il linguaggio di una teoria consistente che contenga l‘
aritmetica, ma solo entro il metalinguaggio della stessa. In altre parole non si
può dimostrare in una teoria di questo genere l’enunciato: “A è vera se e solo se
A” o “A è falsa se e solo se non-A” (altrimenti avremmo, per un certo A,
42 42
l’enunciato “questo enunciato è falso”, che risulta tanto vero che falso per la ben
nota antinomia del mentitore).
Tarski comunque riusciva a dare un senso rigoroso alla parola “vero” entro il
metalinguaggio della logica dei quantificatori, associando ad ogni predicato
l’insieme degli enti che ne godono e parafando, p.es., “la neve è bianca” in
“l’oggetto designato dalla parola “neve” appartiene all’insieme delle cose
designato dal predicato “bianco””
Kurt Gödel nel 1933 dimostrava un doppio risultato limitativo di enorme
portata tecnica e filosofica. Il c.d. “primo teorema di Gödel ” si può esprimere
così :”Ogni teoria consistente che contenga l’aritmetica di Peano è incompleta,
cioè non contiene tutti gli enunciati aritmetici veri”.
Ci sono dunque enunciati aritmetici veri che non possono essere dedotti da un
sistema assiomatico contenente l’aritmetica di Peano. Questo sorprendente
risultato è reso possibile da un metodo, scoperto dallo stesso Gödel, che consente
di codificare in linguaggio matematico tutti gli asserti esprimibili nel linguaggio
logico (Gödelizzazione). Qualunque successione finita di simboli che sia una
formula, p. es. A ⊃ A, viene associata univocamente a un numero di codice –il
suo numero di Gödel – che la rappresenta. Viceversa, dato un qualsiasi numero
di codice di una formula o di una sequenza di fomule, possiamo risalire alla
formula o alla seqeunza di formule che gli corrisponde.
43 43
Supponiamo ora di costruire una formula logica S che dica:” S è
indimostrabile” (cioè dica di se stessa che è indimostrabile, allo stesso modo in
cui il mentitore dice di se stesso “io sto mentendo”).
Le dimostrazioni sono sequenze di formule, quindi la relazione Dim(x,y) è vera
quando x è il numero di Gödel di una sequenza di righe di una dimostrazione
che termina con una formula avente numero di Gödel y.
Questa relazione, come Gödel mostra, è decidibile, cioè si può sempre
decidere se è vero o no che Dim(x,y). Infatti Gödel dimostra che se R è una
relazione decidibile e R(m,n) è vera, allora si dimostra nell’aritmetica R(m°,n°),
dove m°,n° sono le cifri numeri che rappresentano m,n ; mentre se R(m,n,) è
falsa allora si dimostra non-R(m°, n°). Questo vale per ogni R, quindi anche se R
è il predicato Dim.
Prendiamo ora la formula logica che asserisce, mediante opportuno impiego
dei numeri di Gödel, (G) “io non ho la relazione Dim con me stessa”. Se per
assurdo G si potesse dimostrare, G sarebbe vera. Ma in tal caso essa sarebbe
indimostrabile per quanto essa asserisce, il che porta a una contraddizione.
Quindi G è indimostrabile. Ma di fatto G è anche vera! Infatti essa asserisce la
propria indimostrabilità, quindi asserisce qualcosa di vero.
Quindi ci sono asserti matematici veri che sono, per quanto essi stessi
asseriscono, indimostrabili. A questo risultato Gödel aggiunge un’ importante
corollario, e cioè dimostra che per enunciati come G, non solo G ma anche la
44 44
negazione di G è indimostrabile. Quindi l’aritmetica è non solo incompleta ma
anche indecidibile, perché la verità o falsità di certi enunciati come G non può
essere stabilita con i metodi interni al sistema di riferimento.
Il secondo teorema di Gödel, corollario del primo, consiste nel far vedere che
se un sistema come l’aritmetica di Peano potesse dimostrare la formula che
esprime la sua stessa consistenza, allora potrebbe dimostrare anche G. Ma
poiché G non è dimostrabile, la formula che esprime la consistenza
dell’aritmetica non è neppure dimostrabile entro l’aritmetica di Peano. Il
programma di Hilbert, che aspirava a dimostrare la consistenza dell’aritmetica
usando il frammento finitista della stessa, si rivelava quindi infondato.
La portata filosofica dei due teoremi di Gödel è stata a vasto raggio.
Un’implicazione che si è voluto ravvisare, incoraggiata peraltro dallo stesso
Gõdel , è quella per cui che nessun dispositivo che applichi sistemi meccanici di
dimostrazione è in grado di dimostrare un certo numero di asserti veri, che però
la mente umana è evidentemente in grado di catturare ponendosi a un livello
diverso. Di qui il riaccendersi di discussioni, del resto mai sopite sopite, sul
dualismo animo-corpo e sulla rappresentabilità della mente come un particolare
tipo di computer.
45 45
BIBLIOGRAFIA ESSENZIALE
C.Mangione e S. Bozzi, Storia della logica.Da Boole ai nostri giorni, Garzanti,
Milano 1993
J.Crossley e altri, What is Mathematical Logic?, Oxford U.P. 1972, trad.it.
Boringhieri, Torino, 1976
G. Lolli, Filosofia della matematica, Il Mulino, Bologna, 2002
S.G. Shankar (a cura di) Il teorema di Gödel , Muzzio, Padova, 1991
C.Toffalori e P. Cintoli, Logica Matematica, McGraw-Hill, Milano, 2000
46 46
IV. Il problema dell’induzione e i fondamenti della probabilità
Secondo la dottrina tradizionale la differenza tra inferenza deduttiva e
induttiva si lascia tracciare dicendo che la prima va dal generale al
particolare, mentre l’altra in direzione opposta. Per esempio da “tutti i corvi
sono neri” si deriva deduttivamente “tutti i corvi osservati sono neri ”, mentre il
ragionamento induttivo sarebbe quello per cui da “tutti i corvi osservati sono
neri” si deriva (con un rischioso azzardato salto logico) “tutti i corvi sono neri”.
L’idea che l'induzione si riduca a questo è però criticabile per vari motivi.
Uno importante è che ci sono inferenze induttive che non rientrano nello
schema sopra offerto. Per esempio l’inferenza da “tutti i corvi osservati sono
neri” a “il prossimo corvo è nero” (a volte chiamata eduzione) non rientra
nello schema visto, eppure è chiaramente un tipo particolare di induzione.
Un modo più generale e più semplice per caratterizzare, almeno in prima
approssimazione, la differenza tra i vari tipi di ragionamenti si ha dicendo che
nella transizione dalle premesse alle conclusioni alcuni ampliano la nostra
conoscenza (ampliativi) mentre altri non godono di questa proprietà.
Volendo, potremmo caratterizzare come induttivi i ragionamenti ampliativi, e
deduttivi quelli non ampliativi. Ma qui è opportuno fare una distinzione
all’interno della classe dei ragionamenti ampliativi. Prendiamo questi due
enunciati:
(sa)“ se il fiammifero è stato sfregato si è acceso”
(as)“se il fiammifero si è acceso, allora è stato sfregato”.
sa e as sono ambedue ampliativi, ma il loro senso è diverso. Il primo ci
permette di passare da una causa all’effetto, il secondo da un effetto a una
presunta causa (più generalmente: dall’explanans all’explanandum). Anche il
grado di attendibilità del ragionamento è diverso. Infatti nel primo caso
47 47
possiamo ritenere che la conclusione sia altamente attendibile, purchè
ovviamente il fiammifero si trovi in condizioni ottimali (sia abbastanza
asciutto, con sufficiente ossigeno ecc.). Nell’altro caso invece la conclusione è
più aleatoria. Infatti ci sono diversi modi per accendere un fiammifero: lo si
può sfregare, ma anche mettere vicino a una sorgente di calore o surriscaldarlo
con un fascio di luc concentrato. Il motivo per concludere, dal fatto che un
fiammifero si è acceso, che è stato sfregato, dipende dalle informazioni di cui
disponiamo. Se per esempio vediamo che mancano superfici ruvide o carta
vetrata che c’è una candela accesa, la conclusione migliore da trarre è che il
fiammifero è stato acceso mettendolo nella fiamma della candela.
Per distinguere queste due forme di inferenza ampliative chiameremo
induzione la prima e abduzione la seconda, recuperando una bipartizione
teorizzata dal filosofo americano Peirce.
Il discorso sull’abduzione in questa sede si può solo accennare. Secondo
Peirce c’è una sorta di istinto abduttivo che ci porta a lanciare congetture
esplicative e a selezionare l’ ipotesi migliore. E’ questo istinto che guidava
Sherlock Holmes nella sua ricerca del colpevole e uno scienziato come
Keplero nella ricerca della traiettoria dei pianeti. Ci sono in effetti due fasi del
procedimento abduttivo: la prima creativa (che consiste nel lanciare ipotesi ), la
seconda selettiva, che consiste nel selezionare l’ ipotesi migliore eliminando
una dopo l’altra le ipotesi peggiori. Mentre la selezione può essere effettuata in
modo razionale, e quindi è codificabile come una logica governata da regole, è
dubbio che l’abduzione creativa – come la creatività in generale – possa essere
eseguita in base a un qualsiasi sistema di regole: il che riporta alla dicotomia tra
logica della giustificazione e logica della scoperta, della quale illustri
epistemologi come Popper e Reichenbach hanno negato l'esistenza.
48 48
L’induzione è stata all’origine di problemi non solo logici ma strettamente
filosofici. Il problema di Hume, come è noto, è il seguente: non c’è nessuna
garanzia logica che il futuro sia simile al passato, o più generalmente che la
parte nota dell'universo sia simile a quella nota. In termini statistici: l’inferenza
induttiva consiste nel passare da un campione all’universo, ma non c’è nessuna
garanzia logica del fatto che le proprietà riscontrate nel campione si
manifestino anche nell’universo. Ovviamente il campione deve rispettare dei
requisiti ben noti agli statistici: in primo luogo deve essere randomizzato ,
omogeneo -cioè non sbilanciato a favore di qualche componente- e
sufficientemente ampio (si pensi alla scelta accurata dei campioni nei cosiddetti
exit polls, che consentono di anticipare i risultati elettorali nel giro di pochi
minuti con buona approssimazione). Anche così, però, non c’ è nessuna
garanzia che l’inferenza ci porti infallibilmente a conclusioni vere. Basti
pensare al fatto che dopo aver osservato un numero enorme di cigni bianchi si
era convinti, verso il 1600, che fosse vero che tutti i cigni sono bianchi. La
scoperta dell’Australia, di cui prima non si sospettava neppure l’esistenza,
portò invece una sorpresa, perché si scopri l’esistenza di una tribù di cigni neri.
Verso il 1945 Nelson Goodman presentò un argomento logico per mostrare
che nel passare dal campione all’universo siamo legittimati a inferire tutte le
conclusioni che ci piacciono. Immaginiamo di aver osservato fino a oggi (anno
2014) milioni di smeraldi verdi e nessuno smeraldo di altro colore.
Introduciamo ora un predicato perfettamente definito che è
Verdlù: verde e osservato prima del 3000 oppure blu e osservato dopo il 3000.
Per la logica, se uno smeraldo è verde e osservato prima del 3000 allora a
fortori è verdlù (basta infatti che un disgiunto sia vero perché la disgiunzione è
vera) e tali sarà dopo il 3000 per un ragionamento induttivo. Ma che accade
dopo il 3000? Gli smeraldi non saranno certo “verdi e osservati prima del
49 49
3000”, quindi varrà l’altro corno del dilemma: saranno blu e osservati dopo il
3000, quindi saranno blu.
Le soluzione proports per il rompicapo sono state diverse. Secondo alcuni
dovremmo porre dei limiti ai predicati usati. Questo sembra la morale da trarre
anche da un altro paradosso, quello di Hempel.
(C )“Tutti i corvi sono neri” equivale a
(C*)“Tutti gli oggetti non-neri sono non-corvi”.
Secondo la teoria della conferma di Hempel C, cioè che tutti i corvi sono neri, è
confermato da “a è corvo & a è nero, b è un corvo & b è nero “ ecc. e il grado
di conferma aumenta con l’aumentare dell’evidenza confermante. A parità di
ragionamento, C* è confermata da “a non è nero e a non è un corvo” ecc. .
Questa seconda evidenza confermerà però anche che tutti i corvi sono neri,
dato che C e C* sono equivalenti. Basta allora l’osservazione di una scarpa
gialla o di un tavolo verde per confermare che tutti i corvi sono neri.
Eliminando (ma è difficile dire con quale criterio) predicati non-standard
come “non- corvo”, “non-nero”, verdlu’ ecc. sembra che i paradossi della
conferma in queste formulazioni spariscano. Ma non sparisce il problema
basilare di Hume, che aveva puntato il dito sul fatto che ogni inferenza
induttiva è logicamente errata: si può benissimo immaginare un mondo
“miracoloso” in cui il fiammifero sfregato non si accenda, gli smeraldi
addirittura un mondo in cui a partire da questa notte spariscano tutti i
fiammiferi e tutti gli smeraldi.
Il problema principale dunque è la giustificazione dell’induzione.
L’induzione, come si è detto più di una volta, è la gloria della scienza e lo
scandalo della filosofia. Quindi dobbiamo trovare motivi che non solo ci
dicano che cosa rende valida l’induzione ma ci diano criteri per scegliere tra
conclusioni induttive diverse ed eventualmente incompatibili.
50 50
Il problema dell’induzione è strettamente connesso a un altro: infatti noi
siamo alla ricerca anche di criteri per distinguere tra generalizzazioni vere per
accidente e generalizzazioni nomiche, cioè che che costituiscono leggi di
natura. P.es i due enunciati:
(a)Tutti i pianeti hanno un nome di un dio greco
(b) Tutti i pianeti ruotano in ellissi
hanno la stessa forma e sono ben confermate, eppure il primo non esprime una
legge, il secondo sì.
Dal punto di vista di Popper non c’è nessun problema dell’induzione perché
l’induzione non ha alcun ruolo nella scienza. Le leggi secondo Popper non
sono in qualche misura confermate (cioè non è appropriato conferire loro un
valore di probabilità) ma sono in alta misura corroborate: in altri termini sono
solo ipotesi che hanno resistito a tests elaborati con la sincera intenzione di
scalzarle. La corroborazione “assomiglia” alla conferma ma si distingue
soprattutto perchè non ha senso misurare i suoi gradi mediante valori numerici.
Le risposte al problema della giustificazione sono state molteplici ma qui
distingueremo solo quelle che hanno dominato il campo nel ‘900.
a. Teorie presupposizionali dell’induzione (Mill, Keynes, Burks). Oggi poco
popolare, questa concezione ha un enorme merito: quella di cercare di ridurre
l’induzione alla deduzione, negando l'esistenza di una dicotomia tra due tipi di
ragionamento diversi. Si parte dall’osservazione che spesso i ragionamenti
deduttivi sono espressi in modo ellittico, di solito per il fatto di non esplicitare
alcune delle premesse: come quando si dice,.p.es. “Bilbo è un gatto, quindi è un
felino”, che sottace la premessa “tutti i gatti sono felini”. Argomenti incompleti
di questo genere sono chiamati entimemi da Aristotele. Un argomento induttivo
come “tutti i corvi osservati sono neri, quindi tutti i corvi sono neri” sono
entimemi in quanto sottintendono qualche principio esprimente l’invarianza dei
51 51
nessi accertati con l’osservazione. Di solito si chiama principio di Uniformità
della Natura l’idea per la quale un nesso associativo o causale accertato in una
zona limitata dello spazio-tempo vale in tutte le zone dello spazio-tempo. E’
indubbio che questo principio è applicato consciamente o inconsciamente dagli
scienziati nella ricerca scientifica
Come Hume aveva visto acutamente, il problema è sapere da dove proviene
la nostra fiducia nell’ Uniformità della Natura. Se tale principio è stabilito
induttivamente cadiamo in un circolo vizioso, e d’altro canto è ovvio che non
viene stabilito deduttivamente. Una via d’uscita al dilemma a cui spesso si
ricorre è la categoria del sintetico a priori kantiano: si tratterebbe di un principio
che, come il principio di causalità, riguarda il mondo ma è qualcosa che rende
l’esperienza possibile e quindi a priori rispetto ad essa.
Gli empiristi tuttavia rifiutano il sintetico a priori, che dal loro punto di vista è
una contraddizione in termini. Carnap ha proposto una diversa riduzione
dell’induzione alla deduzione ed elaborato una logica induttiva come estensione
assiomatica della logica deduttiva (ponendosi quindi nel solco del programma
logicista). In questa prospettiva I ragionamenti induttivi sono ragionamenti
incompleti perché manca un’ informazione non nelle premesse ma nella
conclusione. Se si specifica che il grado di probabilità dell’asserto che il
prossimo corvo è nero è, p.es. 90%, allora il ragionamento che porta da “tutti i
corvi osservati sono neri” a “il prossimo corvo è nero con probabilità del 90%” è
deduttivamente valido.
Il problema naturalmente è quello di calcolare correttamente tale grado di
probabilità. Nel 1951 Carnap proponeva, ne “Il continuo dei metodi induttivi”
non uno ma infiniti metodi di calcolo, ottenuti dando valori numerici diversi a
due parametri che misurano il peso dato a due fattori che Carnap chiama fattore
logico (λ, dipendente dal numero dei predicati del linguaggio) e fattore empirico
52 52
(ε, dipendente dalla frequenza relativa m/n). Purtroppo Carnap non dice come si
deve scegliere λ o ε, introducendo quindi un elemento di arbitrarietà che apre la
strada a una certa dose di soggettivismo. Inoltre, per citare un apparente difetto
tecnico del suo lavoro, accade che la probabilità che la legge infinitaria “tutti i
corvi sono neri” riceve da “tutti i corvi osservati sono neri” è espresso da una
frazione con un numeratore finito e un denominatore infinito, frazione che ha
valore 0. C’è qualcosa di controintuitivo nell’assegnare valore di probabilità zero
alle leggi di natura, anche se questa conclusione si potrebbe difendere dicendo
che le leggi hanno valore informativo massimo in quanto, in un mondo che è per
ipotesi casuale, le regolarità persistenti sono improbabili e sorprendenti (come
peraltro ha sottolineato Popper). Carnap difende il suo schema asserendo che ciò
che importa è stabilire il grado di probabilità (conferma) non di “tutti i corvi
sono neri” ma della limitata previsione “il prossimo corvo sarà nero” (inferenza
eduttiva). La difficoltà comunque è stata risolta da Hintikka inserendo nel
continuo carnapiano un terzo parametro esprimente il numero di individui
dell’universo, modifica che comunque porta a valori che tendono verso zero per
universi molto grandi.
b. Giustificazione pragmatica dell’induzione. Reichenbach, considerato il più
grande empirista del XX secolo, ha aggirato il problema di Hume
evidenziando il fatto che “giustificare” significa solo valutare positivamente i
mezzi rispetto ai fini. Prendiamo la regola induttiva più semplice (regola
diretta), quella che trascura il peso del fattore logico e asserisce, sulla base
della frequenza osservata di m/n A che sono B nel campione, che il limite a
cui tende tale percentuale al crescere di n è esattamente m/n. A prescindere dal
fatto, dimostrato poi da Salmon, che è l’unica tra le regole più importante a
evitare lo stabilirsi di contraddizioni da premesse consistenti, per Reichenbach
questa regola è la migliore di tutte le regole alternative per il fatto che non
53 53
abbiamo nulla da perdere a seguirla. Se la natura è uniforme, vuol dire che
esiste un limite a cui tende la frequenza, e se tale limite esiste, la regola diretta
è in grado di calcolarlo meglio di qualsiasi altra regola. Se il limite non esiste,
cioè la natura non è uniforme, non ci sono regole in grado di calcolare un limite
che non c'è. Per usare una metafora: se un cieco segue una strada nel bosco, la
cosa più razionale da fare per lui è continuare sul sentiero seguito con successo,
anche se per ipotesi dovesse esserci un baratro.
c. Giustificazione induttiva dell’induzione. Una piccola minoranza di filosofi
(Braithwaite, Black) ha difeso il carattere autoapplicativo dell’induzione. Sia R
la regola:“la maggior parte degli A esaminati sono B” � “ Il prossimo A è B”.
Secondo questi filosofi “R per lo più ha funzionato � R funzionerà nel
prossimo caso” contiene una circolarità solo apparente perché non presuppone
la validità di R. La cosa però è dubbia perché “R ha per lo più funzionato”
sembra indicare per l’appunto che R è una regola valida.
Il ragionamento induttivo nella sua forma più generale ha la forma della
cosiddetta induzione proporzionale, cioè di un ragionamento la cui premessa
esprime una frequenza osservata nella forma “m/n A sono B”. Ora dire che il
51% dei bambini sono maschi alla nascita significa, secondo l’uso comune,
dire che la probabilità di avere una nascita di maschi è del 51%. Si tratta
dunque di un asserto probabilistico. Inoltre, le conclusioni di qualsiasi
ragionamento ampliativo hanno un certo grado di probabilità rispetto alle
premesse, quindi il nesso stesso tra le premesse e la conclusione ha natura
probabilistica. Ma cosa sono le probabilità e come si calcolano? Secondo una
scuola di pensiero che ha avuto una certa fortuna, il metodo assiomatico è
sufficiente a dare una definizione implicita dei concetti assiomatizzati: secondo
Hilbert, per esempio, concetti come quelli di punto, linea, retta sono
sufficientemente determinati dagli assiomi che li contengono, ovviamente
54 54
purchè siano coerenti. Lo stesso dovrebbe valere per le probabilità, per la quale
a partire dal 1933 è disponibile un’assiomatizzazione rigorosa dovuta al russo
A. Kolmogorov. Secondo Kolmogorov la probabilità è semplicemente la
misura della dimensione di un evento. Un evento va inteso come un insieme di
esiti di qualche esperimento: per esempio “uscita del 2 alla roulette” oppure
“pioggia domani, che è un esperimento fatto dalla Natura. Un evento certo
avrà probabilità 100%, uno impossibile 0 e uno incerto avrà un valore variabile
tra 0 e 100%. Essendo la misura numerica di una grandezza come lo è la misura
del peso o della statura, la probabilità avrà la caratteristica di essere additiva:
Pr (A ∪ B) = Pr(A) + Pr(B) – Pr(A ∩ B) (Principio delle probabilità totali).
Gli eventi costituiscono un’algebra di insiemi, il che significa che il
complemento e l’intersezione di eventi è ancora un evento.
Un concetto fondamentale è quello di probabilità condizionata o
subordinata
(PC) Pr(B|A) = Pr (A ∩ B) Pr(A)≠0
Pr(A)
Questa nozione è importantissima perchè ci consente di esprimere
l’indipendenza tra due eventi in questo modo: A e B sono indipendenti quando
Pr(B/A) = Pr B (viceversa, sono dipendenti quando in luogo della identità
abbiamo la disuguaglianza).
Grazie alla nozione di indipendenza riusciamo a stabilire, per un' elementare
applicazione della definizione (PC), la probabilità di una congiunzione di
eventi indipendenti:
Se Pr(B|A)= PrB, Pr(A ∩ B) = Pr A x Pr(B) (principio delle probabilità
composte).
55 55
Il problema filosofico aperto con l'assiomatizzazione di Kolmogorov è quello
di sapere se è sufficiente possedere assiomi per la probabilità per rispondere
alla domanda “che cos’ è la probabilità?”. Ammesso che la risposta sia
positiva, il calcolo delle probabilità è un meccanismo per calcolare probabilità
a partire da altre probabilità, ma non consente di dare criteri per assegnare le
probabilità che funzionano come input del calcolo (probabilità iniziali). Il
problema principale della filosofia della probabilità è per l’appunto questo.
Uno dei padri fondatori del calcolo delle probabilità, Laplace, ha formulato
una definizione di probabilità che ha dato una risposta al problema
considerata soddisfacente per molto tempo. La probabilità è il rapporto tra i
casi favorevoli all’evento e i casi possibili, purchè egualmente possibili.
Questa definizione è facilmente applicabile al tavolo da gioco, dove il calcolo
delle probabilità è sostanzialmente nato nel ‘600 per impulso soprattutto di
nobili sfaccendati come il Principe de Mereè. Nei giochi d’azzardo ci troviamo
di fronte a problemi quali: se lanciamo un dado, qual è la probabilità che esca
un numero pari? I casi possibili sono sei , i casi favorevoli 3, quindi la risposta
è ½. Ma la risposta si può dare solo se si sa che i casi sono equipossibili , e qui
cominciano ad apparire le difficoltà: perché equipossibile sembra uguale ad
equiprobabile, quindi devo già applicare la nozione di probabilità per stabilire
la equiprobabilità.
Laplace applica allora il c.d. Principio di Indifferenza: due casi sono
equipossibili quando non abbiamo motivo di aspettarci una piuttosto dell’altra.
Questa clausola funziona molto spesso senza grossi problemi; ma è chiaro
che introduce una relativizzazione alle conoscenze dei soggetti , che può essere
variabile nel tempo. Keynes nel Treatise on Probability (1921) ha dedicato
molte pagine al principio di indifferenza, formulando una sua correzione che
56 56
consiste essenzialmente nel chiedere che le alternative non siano
decomponibili in sottoalternative.
Keynes, Carnap, Jeffreys ed altri negli anni Trenta in realtà si proponevano
di salvare il nocciolo della concezione classica cercando di rendere applicabile
non solo al caso delle alternative indifferenti ma a tutti i casi. La probabilità per
questi filosofi logicisti è un rapporto logico tra una evidenza e una ipotesi.
Carnap ne parla come grado di conferma, e quindi fa coincidere il grado di
conferma, la logica induttiva e il calcolo delle probabilità. La forma corretta di
un enunciato probabilistico non è Pr(A)=r ma Pr(h|e)=r.Se vere, questi asserti
sono veri logicamente, e se falsi, logicamente falsi.
Per esempio la probabilità che il prossimo corvo è nero dato che sono stati
osservati 4 corvi neri e un corvo albino è un certo valore determinato ( sotto
certe premesse 4/5). Per stabilire questi valori Carnap introduce diversi gruppi
di assiomi oltre a quelli strettamente matematici (assiomi di regolarità, di
invarianza, di rilevanza di significato). Nel continuo dei metodi induttivi, come
già accennato, vengono introdotti due parametri (uno logico e uno empirico)
che rendono più complesso e soprattutto non univoco, il ristulato di questi
calcoli.
Mentre Laplace sviluppava la sua concezione aprioristica della probabilità,
faceva rapidi progressi una disciplina con un vasto spettro di applicazioni, la
statistica. Nata per gli interessi delle compagnie di applicazioni, la statistica
diventava uno strumento indispensabile nell’epidemiologia e quindi nella
fisica, soprattutto per lo studio dei gas (Boltzmann). Le affermazioni
probabilistiche gli statistici sono pure di forma Pr(B|A) = r, ma si leggono :la
percentuale di A che sono B è m/n (per se. La percentuale di cigni che sono
bianchi è 90%). Questi enunciati sono non analitici ma sintetici, non a priori
57 57
ma a posteriori, perché dipendono da informazioni derivate dall’esperienza
circa le frequenze osservate (frequentismo).
Il primo frequentista da citare è stato John Venn (1886), ma è stato
Reichenbach a dare al frequentismo la massima dignità filosofica facendone
l’unico punto di vista compatibile con l’empirismo (per il quale, come è noto,
qualunque conoscenza non logica deriva dall’esperienza). Si noti che il
frequentismo risolve immediatamente la difficoltà del principio di indifferenza.
Per un frequentista gli enunciati probabilistici riguardano il mondo ed
esprimono conoscenza sintetica del mondo. Per un empirista non ci sono
conoscenza a priori, a parte quelle logico-matematiche, quindi il principio di
indifferenza non è lecito perchè è basato su una forma di conoscenza a priori.
C’ è un unico modo per sapere se un dado non è truccato e se, quindi, le
alternative sono equiprobabili, e consiste nel lanciarlo un numero molto grande
di volte. Se le frequenze osservate di tutte le facce tendono , a lungo andare, a
stabilizzarsi su un certo valore – poniamo 1/6 – ciò vuol dire che la probabilità
dell’uscita di ciascuna delle facce è 1/6.
Per fare un’assegnazione di probabilità bisogna quindi prendere in
considerazione una sequenza (o un campione ordinato) le cui dimensioni sono
illimitatamente grandi. Non si può quindi identificare la probabilità
semplicemente con la percentuale osservata in un campione finito.
Secondo la formulazione di Reichenbach la probabilità di A entro una
classe B (PrA|B) è il limite a cui tendono le frequenze osservate di A in un
campione di n elementi tratti da B con il crescere di n.
E’ chiaro che c´ é una difficolta’ del concetto di limite usato dai frequentisti,
che non e´sicuramente uguale a quello usato in matematica. Il limite non puo’
essere calcolato con qualche algoritmo, anche perche’ non c´ e’ nessuna
garanzia logica che tale limite esista. Asserire che il limite esiste significa
58 58
asserire, in buona sostanza, il postulato dell’ uniformita’ della natura che, per
quanto si e’ gia’ detto, e’ controverso. In termini probabilistici l’asserto che la
frequenza tende alla probabilita’ teorica e´detto postulato empirico del caso, e
non e’ affatto un teorema del calcolo delle probabilita’. Sfortunatamente a volte
viene confuso con la legge dei grandi numeri, cioe’ con il c.d. teorema di
Bernoulli
Lim (n � °°) Pr [ | s/n –p| < ε ] =1
Se il campione osservato deve essere rappresentativo della sequenza, come
abbaimo già detto, deve inoltre avere delle proprietà di perfezione, prima di tutto
la “casualità” o “irregolarità”. Questo è stato oggetto di varie speculazioni
matematiche. Si e’ cercato, a partire da von Mises, di definire le proprieta’ di un
insieme regolare. Ma sembra che ci sia qualcosa di paradossale nel trovare un
insieme di regole per generare una sequenza irregolare. Si sono trovati in
compenso buoni risultati empirici per la generazione di sequenze
“pseudocasuali” (si noti che la sequenza dei decimali di π non puo’ dirsi
irregolare in senso tecnico, anche se di fatto nessuno ha trovato una regolarita’
nel modo in cui si succedono questi decimali).
Il frequentismo e´diventato il punto di vista dominante presso gli statistici,
dato che la nozione di probabilita’ che essi usano e’ di fatto quella frequentista.
Le difficolta’ comunque non mancano. Ci limitiamo a citare queste:a) la
definizione statistica di probabilita’ non soddisfa gli assiomi di Kolmogorov per
tutti i valori. b) per i frequentisti la probabilita’ descrive una frequenza entro una
classe di riferimento: quindi non ha senso assegnare un valore di probabilita’ a
eventi singoli ma solo a tipi di evento, p.es. “uscita del 2” . Non ha senso parlare
di probabilita’ dell’ evento “uscita del 2 al terzo lancio”. Una variante del
59 59
frequentismo detta “propensionismo” ha cercato di dare una risposta a questo
problema tenendo conto delle condizioni in cui si verificano i singoli eventi. Se
per esempio al terzo lancio il dado e’ zavorrato , ha un senso chiedersi qual e’ la
probabiilita’ dell’uscita di 2 al terzo lancio. In questa visione la probabilita’
diventa una propensione di un dato dispositivo a produrre certi risultati in
condizioni date.
La corrente di filosofia della probabilita’ che ha avuto maggiori e crescenti
consensi negli ultimi anni e’ quella soggettivista , dovuta a F.P. Ramsey e soprattutto al
matematico italiano Bruno de Finetti. I soggettivisti ritengono che ci sono tante
probabilita’ quanti sono i soggetti, dato che la probabilita’ e’ solo misura del grado di
credenza soggettiva. Le probabilita’ iniziali vengono accettate osservando il
comportamento dei soggetti nello scommettere. Supponiamo che il soggetto, trattando con
un allibratore, accetti di scommettere 10 euro sulla vittoria di un cavallo per ricevere in
cambio 100 euro. Vuol dire che considera rischiosa questa scommessa: il c.d. “quoziente
di scommessa” 10/100 misura il grado di fiducia nel verficarsi dell’evento, e precisamente
la probabilita’ del 10% ad esso assegnato.
In questa prospettiva, tutte le scommesse sono legittime salvo quelle che portano a
perdita certa. Per esempio, supponiamo di scommettere 10 euro su Testa e 10 euro su
Croce dopo aver fissato un quoziente di scommessa di 1,5. In tal caso si guadagnano in
ogni caso 15 euro, ma la scommessa ne costa 20. Scommesse del genere vengono dette
incoerenti. Il requisito della coerenza e’ pertanto l’unico che va rispettato, in quanto
requisito di razionalita’. Un sistema di scommessa incoerente (Dutch Book) puo’ essere
anche estremamente complesso, e sta allo scommettitore manifestare la sua razionalita’
rifiutandolo.
Si puo’ dimostrare che questa concezione della probabilita’ soddisfa gli
assiomi di Kolmogorov. I vantaggi del soggettivismo sono innegabili. Si puo’
60 60
scommettere tanto su eventi singoli che su eventi ripetuti, si puo’ tenere in conto
le frequenze osservate ma anche non tenerne alcun conto. Si puo’ assegnare una
probabilita’ anche un evento completamente nuovo, sulla base di convizioni che
non c’ é’ bisogno di giustificare. Il giocatore di borsa opera spesso in questo
modo , anche perche’ non dispose di statistiche sui titoli ma si fida di
informazioni riservate cha sta a lui valutare, o semplicemente al suo fiuto. La
fortuna del soggettivismo presso glie economisti e’ facile da spiegare, anche
perche’ i valori di probabilita’ vengono ricondotti a rapporti tra somme di
denaro.
Questa semplicita’ naturalmente ha un prezzo. Le osservazioni principali da fare
sono queste
1)Il quoziente di scommessa, poniamo del 10/100, vale tanto quando si scommettono 10
euro per averne 100 e quando si scommettono 1000 euro per averne 100.000. A parita’ di
reddito, la seconda scommessa e’ molto piu’ rischiosa. Per ovviare a questa difficolta’ si
potrebbe ricorrere (Ramsey) alla nozione di preferenza tra beni, che pero’ sembra
presupponga una conoscenza delle probabilita’.
2) Ci sono leggi probabilistiche che sono accettate dalla scienza perche’ hanno valore
intersoggettivo.
3)I soggettivisti non sono in grado di dire che signiifca “apprendere dall’
esperienza”, e cioe’ fare valutazioni probabilistiche razionali che siano
proporzionali all’esperienza accumulata. Secondo wittgensteiniani come
Strawson essere ragionevoli significa per definizione (cioe’ per gli usi del
linguaggio ordinario) avere delle credenze commisurate all’evidenza, ossia
ragionare induttivamente., mentre la razionalita’ intesa come coerenza nello
scommettere non fa parte del repertorio concettuale ordinario, anche perche’ si
61 61
puo’ vivere benissimo senza fare l’esperienza dello scommettere, che tra l’altro
presuppone l’esistenza di denaro circolante, sconosciuta in alcune culture
tropicali.
Negli ultimi anni l’attenzione degli epistemologi si e’ concentrata su uno
strumento matematico che i soggettivisti hanno avuto il merito di porre al centro
dell’attenzione in quanto dal loro punto di vista esprime l’unico senso preciso in
cui si puo’ parlare di “inferenza dal noto all’ígnoto”. Dimostrato nel 700 da un
matematico inglese, il torema di Bayes esprime la probabilita’ di A dato B in
termini della probabiilita’ di B dato A ( per questo e’ chiamato anche teorema
della probabilita’ inversa.)
Pr A| B = `Pr A x Pr(B|A)
Pr(B)
Se chiamiamo Pr(B|A) verosimiglianza , la verosimiglianza ha normalmente
valori diversi dalla probabilita’ . Per esempio la probabilita’ che tutti i corvi
siano neri (A) dati che 100 corvi sono neri e” diversa dalla probabilita’ che 100
corvi sono neri dato che tutti i corvi sono neri, che e’ esattamente del 100%. In
tal caso anche un soggettivista puo’ calcolare la probabilita’ della
generalizzazione induttiva una volta che conosca la verosiniglianza (che qui e’
ovviamente 1), e faccia un’assegnazione (eventualmete soggettiva) ad A e a B.
Il teorema di Bayes, prediletto daí soggettivsiti, e’ stato valorizzato come
strumento inferenziale daí filosofi detti bayesiani, che non necessariamente
sono soggettivisti (si parla di bayesianismo oggettivo). Esso pare fortemente
adeguato soprattuto nel campo della cosiddetta abduzione, che nel caso piu’
ovvio e’ l’ ínferenza da gli effetti alle cause. Se ci sono due ipotesi causali h1 e
62 62
h2, il teorema di Bayes consente di calcolare quale delle due cause e’ la piu’
probabile (cioe’ Pr h1|e) e Pr h2|e) uma volta che si sappia valutare qual e’ Pr
e|h1 e Pre|h2 e si sia assegnato un valore a Pr(h1),Pr(h2) e Pr(e)
BIBLIGRAFIA ESSENZIALE
.Boniolo e P.Vidali, Filosofia della scienza, cap.4 e App2 , Ed. Bruno
Mondadori, Milano,1999
J.Hintikka: Induzione, accettazione , informazione, (a cura di P. Parlavecchia e
M.Mondadori) Il Mulino,Bologna, 1974.
L.J.Cohen : Introduzione alla filosofia dell'Induzione e della probabilità,
Giuffrè, Milano 1998
M.C.Galavotti: Probabilità, La Nuova Italia, Firenze, 2000
C. Pizzi: Teorie della probabilità e teorie della causa, CLUEB, Bologna, 1983
P.Suppes: La logica del probabile: un approccio bayesaino alla probabilità,
CLUEB, Bologna, 1984
B.Skyrms, Introduzione alla logica induttiva, Il Mulino, Bologna, 1966
63 63
V.MORTE E RESURREZIONE DELLA CAUSALITA’
Ci sono due principi che nella filosofia tradizionale hanno avuto il ruolo di
caposaldi del pensiero: il cosiddetto “principio di causalità”, cioè l’assunto che
ogni evento ha una causa - e la sua variante più debole, il “principio di ragion
sufficiente”, asserente che ogni cosa ha una ragion d’essere o fondamento , dove
il fondamento è qualcosa che spiega l’effetto ma a, differenza della causa, non è
necessitante per questo.
In un celebre articolo scritto nel 1913 (ora in “Logica e Misticismo”), Bertrand
Russell esprimeva l’opinione che il principio di causalità è “il relitto di un’era
tramontata, il quale viene lasciato sopravvivere, come la monarchia,
nell’opinione errata che non produca danni”.
Con questa battuta Russell esprimeva un punto di vista che era corrente in
ambienti scientifici influenzati dal positivismo e anticipava le posizioni di quello
che sarebbe poi stato chiamato neopositivismo. Russell infatti non solo asseriva
la fine del principio di causalità, ma profetizzava anche che qualunque scienza
avanzata il linguaggio causale era destinato a sparire, e che le cosiddette leggi
causali sarebbero state formulate come equazioni differenziali in cui si
esprimeva la variazione concomitante di determinate grandezze da determinate
altre. Le variabili dipendenti avrebbero preso il posto degli effetti e le variabili
indipendenti avrebbero preso il posto delle cause.
La concezione di Russell presupponeva la fiducia nel primato della fisica
(dove era per l’appunto in corso il processo di purificazione linguistica sopra
descritto) e in realtà sottintendeva una completa fiducia in una futura confluenza
di tutte le scienze nella fisica. Come è noto, dopo la prima guerra mondiale il
fisicalismo avrebbe istituzionalizzato questo ruolo dominante nella fisica con il
c.d. fisicalismo e, per quanto riguarda la causalità, avrebbe assunto un
64 64
atteggiamento analogamente riduttivo. Wittgenstein nel Tractatus esprimeva in
modo tagliente questi umori con l’aforisma “la credenza nel nesso causale è
superstizione”. Quanto all’idea secondo cui ogni evento ha una causa,
Wittgenstein osservava (6.16) che “se ci fosse un principio di causalità potrebbe
suonare ‘Ci sono leggi di natura’”. Che cosa sono le leggi di natura?
Wittgenstein e i suoi allievi più diretti come Schlick le intendono come regole
che ci mettono in grado di prevedere i fenomeni o calcolare i valori delle loro
proprietà misurabili. L’esistenza di leggi di natura dunque non è altro che
l’esistenza di regole di inferenza o di calcolo di questo tipo.
Tuttavia l’eclissi della causalità non aveva ancora completato la sua parabola
se il più fedele portavoce di Wittgenstein, F. Waissmann, poteva scrivere nel
secondo dopoguerra un lungo saggio intitolato “Tramonto e fine della causalità”.
Secondo Waismann questo crollo definitivo della causalità sarebbe stato prodotto
dal principio di indeterminazione di Heisenberg (1927) . Come è noto, in questo
si afferma che è impossibile misurare simultaneamente due grandezze coniugate
(p.es. la posizione e la velocità di un elettrone), e quindi anche di fare predizioni
esatte circa i fenomeni del mondo subatomico. Possiamo parlare di cause senza
effetti e di effetti senza cause.
Con tutto ciò si arrivava alla dissoluzione del determinismo causale di Laplace
. Come è noto, Laplace postulava la possibilità di un demone onnisciente in
grado di calcolare in linea di principio tutte le qualità degli eventi passati e futuri
conoscendo in modo completo lo stato di cose presente. Il caso è semplicemente,
in questa prospettiva, l’ignoranza delle cause. Dopo Heisenberg il caso diventa
un ingrediente ineliminabile della realtà stessa. In tutte le scienze emergenti,
dalla sociologia alla biologia molecolare, leggi probabilistiche e statistiche
sostituivano le leggi deterministiche, che si potevano in ogni caso presentare
come casi limite delle prime.
65 65
A quasi un secolo di distanza da quella che pareva una crisi irreversibile
siamo in grado di fare un quadro della situazione completamente diverso da
quello pronosticato da Russell e condiviso dai neopositivisti. Da un lato l’
attuazione del programma fiscalista sembra oggi addirittura più remota di
quanto fosse ai tempi di Russell, e questo soprattutto per l’enorme rilievo che
hanno assunto le scienze umano-sociali. Dall’altro è un fatto che gli scienziati,
fisici compresi, non hanno certo abbandonato il linguaggio causale nell’ attività
di ricerca e dell’esposizione ufficiale dei loro risultati. I medici continuano a
parlare di eziologia delle malattie, e a fare della ricerca della cause di queste il
loro obiettivo fondamentale (una buona diagnosi è per tutti una questione di vita
o di morte) e anche i fisici usano un gergo causale, anche se in modo più
implicito che esplicito. Si pensi infatti che la maggior parte dei verbi transitivi
attivi (“urtare”,”espellere”, “distruggere” ecc.) sono essenzialmente verbi di
causazione in quanto descrivono un determinato rapporto tra evento causante ed
evento causato. Anche nell’ipotesi che si possa eliminare il gergo causale dalla
formulazione delle leggi, sembra che questo sia impossibile nella descrizione
della cosiddetta realtà fenomenica.
Quanto precede forse basta da solo a spiegare il moltiplicarsi impressionante
di saggi filosofici sulla causalità a partire dal 1960 circa, quando viene
pubblicato “Causation in Law” di Hart & Honorè, due filosofi del diritto
consapevoli dell’importanza che hanno le considerazioni causali
nell’accertamento delle responsabilità penali. Certo questo trend è in parte
motivato dall’esaurirsi del positivismo logico alla fine degli anni 50. Ma sarebbe
un errore pensare che questa fioritura sia legata al postpositivismo, cioè al filone
di pensiero della linea Hanson-Kuhn-Feyerabend. In realtà questa corrente
filosofica è ben poco interessata all’analisi concettuale e si è limitata a mettere
l’accento sul ruolo che hanno le teorie scientifiche nel rispondere alla domanda
66 66
“qual è la causa del fenomeno x”? Di che cosa si tratti si può vedere facilmente
da un esempio. Supponiamo che si verifichi un incidente stradale conclusosi con
la morte di un conducente che in stato di ubriachezza passava con il rosso.
Supponiamo di chiedere a un vigile urbano, a un medico, a un sociologo qual è la
causa del decesso. Avremo verosimilmente delle risposte diverse. L’uno dirà che
l’evento si è prodotto perché l’autista è passato con il rosso, l’altro indicherà la
causa in un’emorragia inarrestabile, il terzo nel fatto che il guidatore era un
alcolista. I tre soggetti sono influenzati da paradigmi diversi e individuano cause
diverse. Individuare una causa significherebbe dunque usare un certo insieme di
presupposti di sfondo (una teoria, un insieme di pregiudizi) per distinguere ciò
che è rilevante da ciò che non è rilevante. Tutto ciò è indubbiamente vero sul
piano della psicologia della ricerca scientifica, ma elude uno dei problemi
centrali della filosofia della scienza, e cioè che esistono catene causali
“oggettive”, cioè che i vari soggetti possono riconoscere come tali
indipendentemente dal peso che ciascuno può voler assegnare ai singoli membri
della catena? Questo problema è solo uno dei molti che sono stati recentemente
oggetto di dibattito nella filosofia della causalità, dove con questo termine
intendo rifermi a una nuova area di ricerca su temi comuni spesso scollegati,
che attualmente vengono perseguite con strumenti diversi (logici, linguistici,
algebrici, statistici) da studiosi di diversa estrazione che parlano linguaggi
diversi.
Vediamo insieme alcuni temi importante da esaminare con la massima
attenzione.
Gli studi sulla genesi del concetto di cause non sono, a rigore, filosofici.
Tuttavia ha una grande importanza per la ricerca filosofica sapere come si
sviluppano nel bambino le nozioni causali ,e confrontare questo sviluppo con
67 67
quello subito da queste nozioni nella storia della cultura. Il riferimento obbligato
qui è naturalmente alle ricerche di Jean Piaget e della sua scuola ginevrina.
Il bambino ha coscienza prima di tutto della propria capacità produttiva,
generativa e manipolativa, e in base a questo passo ad attribuire analoghi poteri
agli oggetti che riconosce come esterni al proprio corpo. Il linguaggio ordinario
è abbondantemente percorso da questa concezione produttivistica della causa.
Noi diciamo infatti che il fuoco ha prodotto la scottatura, che il sedativo agisce
sul sistema nervoso, che le scariche elettriche hanno generato un campo
magnetico.
Tutto questo è in accordo anche con l’animismo, cioè con la credenza comune
ai popoli primitivi secondo cui tutti gli oggetti possiedono un’anima. Questa
convinzione, o almeno i suoi residui, sono rintracciabili anche agli albori del
pensiero occidentale,e precisamente nella dottrina aristotelica secondo cui
esistono poteri occulti nelle sostanze, come il potere dell’oppio di causare il
sonno o il potere del diamante di tagliare il vetro. Ebbene, nell’ambito della
filosofia della causalità anche questa posizione filosofica ha ripreso vigore. Due
filosofi inglesi influenzati da Wittgenstein, Harrè e Madden, hanno
recentemente pubblicato un volume in cui si rilancia l’idea che l’ontologia
adeguata alla scienza moderna sia quella che contempla una realtà formata da
individui dotati di poteri.
E’ difficile credere che una filosofia di questo genere (si direbbe una filosofia
Lockeana aggiornata) sia presentabile agli albori del terzo millennio.
Supponiamo di dire che il digiuno di un certo deputato radicale ha causato il
dimagrimento dello stesso. Qual è l’oggetto dotato di poteri che causa tale
fenomeno? Non certo il cibo, a meno che non sia più una battuta dire “lo
zucchero rende il caffè amaro, se non ce lo metti” . Alternativamente, possiamo
dire che il digiuno è una sostanza dotata di poteri? Ma questo significa dilatare
68 68
tropo il ventaglio di ciò che gli aristotelici intendono per sostanza. Non
dimentichiamo che Don Ferrante di fronte alla peste di Milano osservava,
seguendo Aristotele, che la peste non era né sostanza né accidente, e quindi che
non poteva esistere. Un sostenitore di una teoria simile a quella di Harrè e
Madden, Mario Bunge, ha liquidato il problema sostenendo che enunciati del
genere necessitano di una complessa parafrasi, ma non dice quale.
Una nozione di causa simile a questa, ma più accettabile per un fisico, sta nel
ridurre la relazione di causa-effetto a quella di trasmissione di una grandezza
(forza, momento, accelerazione…) da un corpo all’altro. Ma il tipo di
controesempio da invocare è sempre lo stesso. Premendo l’interruttore la stanza
da luminosa diventa buia, ma questo si ottiene non con la trasmissione del flusso
di elettricità ma con l’interruzione dello stesso.
Anche le ricerche sulla genesi del concetto di causa non hanno ottenuto un
risultato univoco. Un conto infatti è la genesi nella mente del bambino, altra è
la genesi nella storia della cultura umana. Già nel 1940 il grande giurista
austriaco Hans Kelsen evidenziava che l’origine culturale della nozioni causali è
di tipo etico- giuridico. La parola “causa” (cfr. l’espressione “far causa a uno”)
indica “il responsabile”. I primitivi vedono nella natura una lotta tra gli elementi
della natura in cui viene perturbato l’equilibrio naturale. Il principio di causalità
non è altro che una proiezione sulla natura del principio del contrappasso (cioè
che la pena deve essere una vendetta proporzionata alla colpa): allo stesso modo
in cui la vendetta adeguata ripristina l’equilibrio sociale, l’effetto adeguato
ripristina l’equilibrio naturale.
Ora quest’idea della natura come sistema in equilibrio sotto spinte differenti è
vicina all’immagine che gli economisti danno oggi dei sistemi economici. Essi
sono rappresentabili come modelli (sistemi di equazioni) in cui alcune variabili
(p.es. salari) sono da considerare non influenzate da altre che dipendono dalle
69 69
prime, e quindi ne sono l’effetto. Grazie a particolari espedienti matematici
(studiati p.es. da Blalock e Simon) si riesce inoltre a dare un senso preciso
all’idea di feed-back, cioè alla retroazione delle variabili-effetto sulle variabili-
causa, che tende a riportare un sistema all’equilibrio. In tal modo la teoria dei
sistemi rientra nel filone dei molti tentativi volti a purificare l’idea di causa dai
suoi connotati antropomorfi e metafisici.
Questi tentativi, che nel 900 sono stai sviluppate con tecniche sofisticate,
hanno un precedente illustre nel pensiero di David Hume. Erroneamente si è
voluto vedere in questo filosofi uno scettico distruttivo che mirava a negare un
senso agli asserti causali. In realtà Hume, come ogni empirista, si rifiuta di
attribuire realtà a ciò che non è osservabile, e tali non sono i poteri causali e il
nesso causa-effetto. La tesi di Hume è che quando asseriamo che c è causa di e
stiamo semplicemente asserendo
1) che c ed e si sono realmente verificati
2) che eventi simili a c sono spazialmente contigui e regolarmente seguiti da
eventi simili ad e.
E’ solo per associazione ingannevole di idee, secondo Hume, che riteniamo che
ci sia un legame occulto tra la causa e l’effetto o un potere causale della sostanza
(regularity view).
All’analisi di Hume sono state opposte diverse obiezioni ma le due principali
sono le seguenti:
I). Ci sono casi in cui si può stabilire un nesso causale con una sola
osservazione, e quindi senza passare attraverso l’osservazione di esempi ripetuti.
Thomas Reid, un contemporaneo di Hume, osservava per esempio che l’effetto
della propria volontà sulle proprie azioni si può stabilire in modo immediato
senza passare attraverso osservazioni ripetute. Non essendo un fenomeno
pubblicamente osservabile, questo a rigore non è qualcosa che interessi un
70 70
empirista. Comunque si possono escogitare altri esempi analoghi: p.es. si inietta
un nuovo farmaco a una cavia e questa immediatamente muore: In mancanza di
altre ipotesi causali secondo alcuni è lecito concludere che l’iniezione è stata
causa della morte.
II). Ci sono successioni regolari che rispecchiano i requisiti di Hume e tuttavia
non sono causali.
Reid osservava che il giorno è regolarmente seguito dalla notte e viceversa,
senza che nessuno si possa dire causa dell’altro. La prima dentizione è
regolarmente seguita dalla seconda, ma non si può dire causa di questa. In molti
processi deterministici linerari un certo tipo di evento è seguito da un altro senza
che si possa dire che ne è la causa.
Controesempi di questo genere si potrebbero considerare non decisivi. Si
potrebbe argomentare che in effetti non si parla di nesso causa- effetto, ma che
nemmeno lo si esclude (dopo tutto , il giorno rende possibile la notte e la prima
dentizione rende possibile la seconda9. E’ dunque un caso di vaghezza
semantica, in cui c’è una certa arbitarietà nella scelta del linguaggio.
Ma casi di successioni regolari non causali esistono e sono all’ordine del
giorno. Kant, come si sa, aveva l’abitudine di compiere una passeggiata
quotidianamente nella piazza di Konigsberg con un puntualità cronometrica.
Quindi ogni giorno la sua presenza nella piazza era seguita da una certa
posizione delle lancette dell’orologio (orologio tanto tedesco quanto il filosofo).
Nessuno però potrebbe dire che la presenza di Kant era la causa della posizione
delle lancette, nonostante fosse a questa contigua anche spazialmente.
Perché è possibile produrre controesempi di questo genere? Una risposta
potrebbe essere che si tratta di generalizzazioni accidentali, non di leggi di
natura. Se Kant fosse mancato un giorno all’appuntamento o l’orologio si fosse
fermato per un guasto questo avrebbe creato sorpresa ma nessuno avrebbe
71 71
gridato al miracolo, come quando Giosuè fermò il sole durante la battaglia di
Gerico.
E’ sufficiente che chiedere che sussistano leggi di successione regolare per
parlare di relazioni causali? Con ciò siamo tornati al riduzionismo di
Wittgenstein, cioè all’idea che l’esistenza di nessi causali altro non sia che
l’esistenza di leggi di natura.
La riposta però è ancora negativa. Noi sappiamo che l’abbassarsi della lancetta
del barometro è regolarmente seguita dal maltempo (così si dice): abbiamo
quindi una regola che ci consente di inferire, dall’abbassamento del barometro,
l’avvicinarsi del maltempo. Eppure siamo anche sicuri che l’abbassarsi del
barometro non è causa del maltempo ma solo un indizio di questo. Altrimenti
detto, si tratta di una causa spuria, e il motivo per cui sembra una causa genuina
è che esiste una causa genuina antecedente (l’abbassamento della pressione
atmosferica) da cui dipende tanto la variazione barometrica quanto l’effetto vero
e proprio .
E’ difficile quindi accettare l’analisi regolarista senza almeno questa
correzione: c1 e’ causa di e se e segue nomicamente da c, a meno che non esista
una terza causa antecedente e2 da cui dipende tanto ci che e.
Negli anni ‘30 i neopositivisti hanno proposto. soprattutto per merito di
Hempel, un tentativo ancora più radicale di eliminare la nozione di causa. E’
sufficiente al proposito ricordare la teoria della spiegazione di Hempel-
Oppenheim. Molto semplicemente, se C è un elemento dell’explanans ed E è
l’explanandum, diremo che C è causa di E (C , si direbbe è ragione sufficiente,
una volta congiunta ad altre informazioni), per credere ad E. Parleremo di teoria
“esplicazionista della causa” in quanto le cause vengono ridotte a fattori
esplicativi.
72 72
Rispetto alla teoria neohumeana, p.es. di Schlick, l’ esplicazionismo elimina il
requisito della precedenza temporale delle cause. Supponiamo di chiedere:
“perché quel passero costruisce il nido?” (explanandum) e che la risposta sia
“perché disporrà in un momento successivo le uova nel nido”. Qui l’explanans è
posteriore all’explanandum. Lo diremmo una causa? Aristotele diceva di sì e
parlava al proposito di cause finali o posteriori all’effetto. Gli empiristi negano
l’esistenza di questa causalità retroattiva e preferiscono dire in questo caso che il
passero è stato programmato a mettere le uova nel nido, dove la programmazione
genetica è una causa antecedente, non posteriore.
Problema analogo è quello delle cause simultanee. Anche qui gli empiristi
sono
scettici e di solito sottoscrivono il principio di azione ritardata, secondo cui ogni
azione “prende tempo” , fosse anche l’azione delle onde più veloci, che sono
quelle luminose. La velocità altissima della luce spiga alcuni apparenti esempi di
causalità simultanea. Per esempio se premo il pulsante ho l’impressione che si
accenda “simultaneamente la lampadina”, ma in realtà ciò che accade perché il
lasso di tempo intercorso è impercettibile.
Per concludere, un neohumeano potrebbe definire una causa C1 come una
delle condizioni iniziali C1…Cn che fanno parte dell’explanans dell’effetto E
(explanandum) che si verifica in un momento successivo. Si potrebbe anche dire
che C1 è ceteris paribus sufficiente per E.
dove l’espressione “ ceteris paribus” indica le condizioni di contorno preesistenti
compatibili con E. . Questo concezione è assai elegante, ma il controesempio del
barometro ci fa riflettere sulla sua insufficienza. L’abbassarsi del barometro
rende prevedibile la tempesta, ma non la spiega e tanto meno ne è causa. Sono
stati fatti dei tentativi probabilistici molto sofisticati per distinguere le cause
genuine dalle cause spurie, che è un problema di vitale importanza soprattutto
73 73
quando sono in gioco delle correlazioni statistiche di eventi non facilmente
ordinabili temporalmente . Per esempio risulta una correlazione positiva tra le
variabili c ( check up) e e m ( mortalità) , anche se è difficile credere che i check
up diminuiscano la speranza di vita. Tecniche molto raffinate per lo
smascheramento delle cause spurie sono state introdotte nell’ impiego dei
modelli matematici come quelli di Blalock e Simon.
Ma sembra che non si sia dato rislato all’intuzione più semplice. Si può
osservare che l’abbassarsi del barometro è sì condizione ceteris paribus
sufficiente per l’effetto ma non è una condizione cegteris paribus necessaria o,
come si suol dire, una conditio sine qua non per lo stesso. Se, per esempio, non
ci fosse stato l’abbassamento del barometro per mancanza del barometro, ci
sarebbe stata egualmente tempesta, come avveniva prima dell’invenzione dei
barometri.
Qualcuno può sostenere che questo “esperimento mentale” è l’unico vero test
per la genuinità delle correlazioni causali. Si ipotizza in altre parole che un certo
evento C non si sia verificato e ci si chiede che cosa ne sarebbe dell’evento
successivo E.
Un asserto come “se non ci fosse stato c non si sarebbe verificato e” è un
periodo ipotetico della irrealtà, che i logici oggi chiamano condizionale
controfattuale. Max Weber ha teorizzato l’essenzialità di questo metodo in un
ben noto saggio sulla metodologia delle scienze storico-sociali. Non solo
riusciamo così ad eliminare le cause spurie, ma anche a dare un peso alle cause
genuine. Che cosa ha causato la I guerra Mondiale? Se non fossero stati sparati i
colpi di pistola di Sarajevo la guerra si sarebbe comunque verificata anche se in
modi leggermente diversi, quindi quell’evento (casus belli) si può qualificare
come causa occasionale.
74 74
Purtroppo la distinzione tra condizione sufficiente e condizione necessaria non
è mai stata chiara nella letteratura filosofica fino all’ultimo secolo, e la
confusione è presente in molti autori. Un esempio clamoroso è fornito dallo
stesso Hume, che in un passo celebre definisce la causa così: un oggetto seguito
da un altro, dove tutti gli oggetti simili al primo sono seguiti da oggetti simili al
secondo. O, in altri termini dove, se il primo non ci fosse stato, il secondo non
sarebbe mai esistito (Enquiry). Questo passo ha fatto versare fiumi di inchiostro
perché appare che nella prima parte del passo Hume definisce la causa come
condizione ceters paribus sufficiente, mentre nella seconda usa un condizionale
controfattuale.
Questa ambivalenza è stata incorporta da J.L.Mackie in una delle più
complesse e interessanti teorie della causa oggi disponibili. Secondo Macie le
cause sono una via dimezzo tra cause necessarie e sufficienti. Più precisamente
sono INUS-condizioni (: sono cioè parti insufficienti ma necessarie di una
condizione più ampia che è sufficiente ma non necessaria per l’effetto.
L’esempio del barile pieno di polvere è tipico. Il fatto che le polveri siano
asciutte è insufficiente per l’effetto, ma necessario entrop una condizione
complessiva che è in sé sufficiente ma non necessaria (il barile potrebbe
esplodere per cause diverse, per esempio un aumento anormale di temperatura).
La teoria controfattuale della causa è sostanzialmente condivisa da Mackie nel
suo ultimo libro, The Cement of Universe. Bisogna sottolineare che questa
concezione è ormai una delle più condivise, anche per il fondamentale contributo
di David K.Lewis.
Va subito detto che anche questa concezione ha le sue difficoltà. La principale
difficoltà è che possono esserci due o più cause che sono sufficiente per l’effetto
ma non necessarie. L’esempio standard è quello dei due killers che colpisono un
uomo con colpi egualmente mortali. Se il primo non avesse sparato –possiamo
75 75
dire- la vittima sarebbe comunque morta, e los tesso potrebbe dirsi del secondo
killer. Allora nessuno dei due è colpevole?
Un altro esempio spesso citato, perché tratto dalla letteratura giudiziaria, è
quello del viaggiatore nel deserto. Due delinquenti vogliono uccidere uno stesso
viaggiatore che si appresta ad attraversare il deserto. All’insaputa uno dell’altro
,uno gli pratica un foro nella borraccia, l’altro riempe la borraccia di veleno. La
vittima muore disidratata: ma se avesse bevuto dalla borraccia sarebbe
comunque morta, questa volta per avvelenamento. Questo esempio è
leggermente diverso da quello dei due Pistoleros perché nel primo caso i due
danno luogo a un caso di sovradeterminazione: qui invece i due malviventi
mettono in moto due catene causali una delle quali sopravanza l’altra.
Nonostante le difficoltà, la teoria della conditio sine qua non è quella che ha
una tradizione più solida in campo giuridica, e che si mostra più promettente.
Noi ci sentiamo in colpa per una certa azione quando possiamo dire che, se non
avessimo agito in quel modo , non ne sarebbe seguito quel particolare danno.
La cosa importante è riconoscere che sono diverse nozioni di causa di diversa
forza, che però hanno come nocciolo comune quello di conditio sine qua non. La
nozione più forte è probabilmente quella di “essere la causa” (cioè l’unica causa
determinante). Per fare un esempio, quando diciamo
1- La perdita al gioco è stata la causa della rovina di Filippo
Intendiamo dire che “Se Filippo non avesse subito la perdita al gioco non ci
sarebbe stata la sua rovina”, ma anche altro e precisamente:
(*) che la perdita al gioco era sufficiente a prevedere la rovina di Filippo
(**) che nessun altro evento noto antecedente si può considerare condizione
necessaria e sufficiente della rovina di Filippo,
Non c’è nessun problema comunque ad accettare l’idea che le nozioni causali
hanno un grado diverso di complessità. Pur avendo come base comune un
76 76
condizionale controfattuale, si può indicare come compito della filosofia della
causalità precisamente l’analisi di tali diverse nozioni, eventualmente in
linguaggi con un diverso grado di potenza espressiva. Il riferimento ai linguaggi
è essenziale perché, p.es., la teoria probabilistica della causa esige un linguaggio
più potente del linguaggio che consente di esprimere i condizionali
controfattuali.
Reichenbach, Salmon e Suppes ci hanno lasciato teorie probabilistiche della
causa molto interessanti. Quella di Suppes è la più nota agli economisti.
Definiamo una causa prima facie C di E come un evento che incremente la
probaibilità di E (Pr(E|C) > Pr(E)). Una causa prima facie può essere spuria o
genuina. Per essere considerata genuina bisogna far vedere che non esiste nessun
evento precedente che incrementa la probabilità di E in misura uguale superiore
a quello di C. L’esempio del barometro è un tipico esempio di causa non
genuina, perché la depressione antecedente aumenta da sola la probabilità di E in
misura maggiore, facendo scomparire il peso di C. Su questa base Suppes si
mostra capace di tracciare distinzioni molto sottile, come quella tra causa diretta
e causa indiretta, causa supplementare, causa sufficiente ecc..
Questa notevole flessibilità della teoria probabilistica della causa ha un prezzo.
Prima di tutto la teoria di Suppes assegna probabilità a eventi, non a fatti che
sono a loro volta relazioni causali. Eppure la causalità sussiste spesso tra fatti che
sono a loro volta relazioni causali. Io potrei dire per esempio che Tizio è stato
causa dell’avvelenamento mediante stricnina di Caio da parte di Sempronio. Per
trattare probabilisticamente questa relazione dovremmo assegnare un valore di
probabilità a una relazione probabilistica, il che oggi non è tecnicamente
possibile a meno di agiugngere assiomi molto problematici agli assiomi di
Kolmogorov.
77 77
Questo problema non si pone nelle teorie non probabilistiche, e in particolare
in quella controfattuale. E’ più che legittimo dire, per esempio, “se Tizio non
avesse aiutato Sempronio allora, se Sempronio non avesse usato la stricnina
contro Caio, Caio non sarebbe morto” : tutto ciò è equivalente a dire che se Tizio
non avesse aiutato Sempronio allora Caio non sarebbe morto per usato la
stricnina usata contro di lui da Sempronio. Si noti che in base allo stesso schema
si può trattare senza problemi anche la sovradeterminazione (se il primo killer
non avesse sparato il secondo sarebbe causa della morte di Kennedy) che
viceversa risulta difficoltosa anche dal punto di vista probabilistico.
Tutto questo fa pensare che la pluralità dei linguaggi non garantisca
automaticamente la traducibilità di un linguaggio nell’altro, e quindi sia
necessario operare una scelta radicale tra i linguaggi. In questo momento quello
controfattuale appare, nonostante le apparenze, più adeguato di quello
probabilistico.
BIBLIOGRAFIA ESSENZIALE
Benzi,M., Scoprire le cause, Franco Angeli, Milano,2003
Bunge,M., La causalità, Boringhieri,Torino, 1963
Blalock.H. , L'analisi causale in Sociologia, Marsilio.Padova,1967
Galavotti M.C.e Gambetta,G (a cura di) , Causalità e modelli probabilistici,
CLUEB, Bologna, 1983
Pizzi,C, Eventi e cause, Giuffrè,Milano,1997
78 78
VI. LA FILOSOFIA DELLE SCIENZE UMANO-SOCIALI.
Le discipline che studiano l’uomo (medicina, economia, sociologia,
psicologia, antropologia, etnologia) sono state per gli epistemologi una fonte di
diverse difficoltà, come si può desumere dal fatto stesso che è stato a volte
negato loro lo status di scienze. E’ chiaro, infatti, che non è sufficiente chiamare
qualcosa scienza perché sia tale effettivamente, come è evidente dal fatto che si
parla, per esempio, di scienze occulte e scienze motorie, che con la scienza
hanno poco a che spartire. Per non entrare qui nel merito di questa controversa
discussione ne parlerò come di discipline scientifiche, e non di scienze,
conservando però la dizione corrente “scienze umane” – “scienze sociali”. Sono
discipline di recente formazione, anche se forse la più antica delle scienze è la
medicina, che ha per oggetto primario il corpo umano e le sue patologie.
Qualcosa va detto sulla medicina per la sua singolarità e per l’importanza che
riveste per la vita di tutti. Nella misura in cui si interessa alle malattie non di un
singolo individuo ma di un’intera popolazione la medicina si può classificare tra
le scienza sociale. L’epidemiologia è lo studio della distribuzione dei
determinanti delle malattie nelle popolazioni umane. Ha inizio verso la fine del
‘500, quando si cominciano a fare elenchi dei decessi indicando la presunta
causa di morte. Dopo due secoli la epidemiologia si coniuga con la statistica e
raggiunge risultati sempre più esatti. E’ chiaro che il problema basilare che
interessa gli epidemiologi è partire dalla statistiche per individuare le cause
dell’epidemia.
Nel 1849 e nel 1853 due epidemie di colera colpirono l’Inghilterra.
Osservando che nelle aree a livello del Tamigi si aveva una concentrazione della
malattia più alta che nelle altre, raffinando progressivamente le osservazioni
anche con i dati circa le singole strade J.Snow arrivò a individuare nell’acqua
79 79
potabile inquinata dalle fogna la causa dell’epidemia. Era un grande progresso,
che faceva piazza pulita del vecchio pregiudizio per cui la causa del colera erano
dei miasmi o contaminazioni dell’aria. Nel 1883 Koch isolò il vibrione colerico e
quindi scoprì la causa batteriologica del colera, rendendo possibile la
prevenzione e la guarigione di singoli malati e non di popolazioni. Con
ragionamenti e rilevazioni di tipo analogo Semmelweiss scoprì la causa della
febbre puerperale nella mancanza di precauzioni igieniche da parte del personale
ospedaliero, introducendo la prassi della disinfezione delle mani con soluzione
clorurata.
Se la batteriologia è un ramo della medicina comunicante con la biologia,
ci sono rami della medicina come la psichiatria e la neurologia che sono al
confine con la psicologia, una disciplina che si è staccata dalla medicina negli
ultimi due secoli e ora ha caratteristiche autonome. Nel momento in cui entra
in gioco la sfera dei fenomeni che una volta erano chiamati spirituali (volontà,
pensiero, immaginazione, sogno ecc.) ci si imbatte nell’elemento principale
che separa le discipline in oggetto dalle scienze fisiche. La differenza tra
scienze umano-sociali e scienze fisiche ha una pluralità di aspetti.
In primo luogo, nelle scienze umane l’uomo si trova a dover riflettere e
capire non un oggetto esterno, ma in un certo senso se stesso. Per quanto
oggettiva e spassionata possa essere l’ osservazione di un uomo da parte di un
uomo, il medico o lo psichiatra si trova a cercare di capire qualcosa che lui
stesso conosce in quanto li ha sperimentati personalmente : da un lato (per i
fenomeni corporei) le sensazioni dolorose, il senso di sazietà o di fame ecc. ,
dall’altro (per i fenomeni psichici) i fenomeni dell’attenzione, della memoria
ecc. e le innumerevoli sfumature delle emozioni – odio, amore, paura, ira,
insoddisfazione ecc.
80 80
In secondo luogo, la complessità dei comportamenti umani non ha reso
possibile elaborare un corpo di leggi generali ben fondate paragonabile a
quello di cui si dispone nella fisica o nella biologia. Le generalizzazioni su
sui ci si appoggia sono più ristrette e meno precise di quelle delle scienze
naturali, quindi meno affidabili ai fini della previsione e della spiegazione. A
ragione di questo e non solo di questo, per comune ammissione, non esiste
nelle scienze sociali l’unanimità che si raggiunge nelle scienze naturali.
Inoltre, rispetto alle scienze naturali, le divergenze epistemologiche e
metodologiche di fondo condizionano la ricerca in un modo enormemente
più rilevante rispetto alle scienze naturali.
Una divergenza metodologica di lunga data riguarda la stessa opportunità
di prendere a modello per le scienze umane le scienze naturali mature e in
particolare la scienza regina, che è la fisica. Abbiamo già visto che i
neopositivisti erano accomunati dal fisicalismo, cioè dall’idea che ogni
scienza era destinata a diventare un ramo della fisica. Anche le scienze
umano-sociali per loro andavano quindi trattate come rami della fisica, e
Neurath propose una <<sociologia fiscalista>>. In primo luogo, nelle scienze
umane fiscaliste non c’è posto per valutazioni del tipo buono/cattivo,
giusto/ingiusto (ideale della Wertfreiheit: avalutatività, evidenziato da Max
Weber) che non competono allo scienziato. In secondo luogo - ciò che più
conta - non ci deve essere posto per asserti circa fenomeni per loro natura
inosservabili , come le intenzioni, i ricordi, i sogni, i pensieri e le menti di
altri soggetti. Ciò che è osservabile sono semplicemente i comportamenti: non
il pensiero ma il linguaggio, non le emozioni ma gli atti in cui tali emozioni si
esprimono , non i sogni ma i resoconti che di questa esperienza vengono
riferiti. In psicologia questo orientamento prende la forma del cosiddetto
comportamentismo (Pavlov, Watson, Skinner), che consiste nell’osservare
81 81
l’uomo alla stessa stregua di quanto si fa con in animali di un certo livello di
intelligenza. Allo stesso modo in cui il cane lascia prevedere certi
comportamenti prodotti da certi stimoli (per esempio la salivazione in
presenza del cibo) , così il bambino piccolo e l’uomo adulto hanno
comportamenti comprensibili secondo lo schema stimolo-risposta, e lo
psicologo non deve occuparsi di nient’altro.
Ma se il comportamentismo poteva avere qualche plausibilità nello studio
di individui in stato di isolamento, diventava problematico nello studio di
essere umani in stato di aggregazione. La fisica, a differenza dell’astronomia,
è una scienza sperimentale e deve il suo progresso al metodo sperimentale di
Galileo. Un esperimento, come è noto, è un’interferenza deliberata con il
corso della natura che consente di stabilire per induzione le leggi di
comportamento dei corpi e lo stesso dovrebbero fare, secondo i
comportamentisti, gli psicologi.
Ma, mentre su un bambino possiamo compiere esperimenti come quello di
Pavlov sui cani, come è possibile fare esperimenti su aggregati sociali? Al
proposito si osserva che, anche se non si possono fare esperimenti di
laboratorio, si possono costruire esperimenti che in qualche modo sono loro
surrogati. Per esempio fu ideato un esperimento di laboratorio per
determinare se i votanti vengano influenzati dalla conoscenza della
confessione religiosa dei candidati (si crearono associazioni con membri che
non si conoscevano precedentemente e si fecero elezioni a cariche interne. A
metà degli affiliati venne rivelata la confessione religiosa dei candidati,
all’altra metà venne nascosta; si vide che c’era una differenza significativa).
Ma purtroppo non tutti i fenomeni sociali si prestano a queste esperimenti, e
questo fa capire la scarsità o l’inaffidabilità delle leggi su cui può contare una
disciplina come la sociologia.
82 82
Un problema che è citato come un ostacolo alla formulazione di leggi
generali riguarda il “condizionamento culturale” dei fenomeni sociali. Per
esempio il rapporto tra tasso di natalità e status sociale si può determinare
con una certa precisione in una certa comunità in un certo periodo storico,
ma può essere completamente diverso in comunità diverse o in periodi storici
diversi. Possiamo parlare in questo caso di leggi? Salvo eccezioni, gli
epistemologi concordano sul fatto che le leggi sono spazio-temporalmente
invarianti.
Possiamo dire che ci sono leggi, se non intraculturali, transculturali? Si è a
volte sostenuto che se la funzione delle leggi è fare previsioni corrette, queste
leggi non possono esserci perché non garantirebbero previsioni sicure circa
ogni periodo futuro di tempo, all’opposto come l’astronomia ci permette di
predire le eclissi che avverranno tra milioni anni. Ma questo non è possibile
per la mutevolezza delle società umane e di fatto, come si osserva , previsioni
esatte sono rare anche nel breve periodo. Possono esserci previsioni inesatte:
p.es. si sa con certezza che la diffusione di certe notizie sui mass media –p.es.
certi tipi spettacolari di crimini – producono effetti imitativi, ma non si sa
prevedere la dimensione di questi, la qualità e il tempo in cui si possono
verificare.
Come controbiezione si potrebbe osservare che in fisica le previsioni
esatte sono garantite solo dal soddisfacimento di certe condizioni che possono
essere anche estremamente complesse: per esempio la costante gravitazionale
nella legge di Galileo per la caduta dei gravi (s= gt2/2) non ha lo stesso valore
a tutte le latitudini perché dipende dalla distanza dal centro della terra, per cui
le previsioni sono esatte purchè tale valore venga reso preciso applicando la
legge ai casi specifici. Questa risposta però non viene giudicata sufficiente.
Ci sono infatti casi in cui le previsioni nelle scienze sociali disturbano il
83 83
processo stesso che pretendono di prevedere,e questo a ragione del fatto che
nelle scienze umane il soggetto della conoscenza e l’oggetto conosciuto
hanno delle interdipendenze dovute alla natura comune. Si pensi alle
previsioni di borsa: se queste vengono rese pubbliche, possono disturbare
l’andamento della borsa. La previsione di un crollo in borsa potrebbe
scatenare il panico e provocare esattamente ciò che esso predice (predizioni
autoadempienti). In altri casi le predizioni possono essere autofalsificanti (si
parla di previsioni “suicide”). Se si prevede p. es. un aumento di azioni
terroristiche in una certa area questo porterà a un aumento delle misure di
prevenzione e quindi a una falsificazione della previsione stessa.
Questa difficoltà riguarda non previsione singole ma la portata conoscitiva
di teorie complesse. Si è sostenuto per esempio che la predizioni di Marx del
crollo del capitalismo ha messo in moto dei processi (p.es. concessioni
sindacali, misure previdenziali ecc.) che hanno disinnescato i motivi che
secondo Marx avrebbero inevitabilmente provocato la fine del capitalismo.
Il fenomeno dell’interferenza non deve stupire perchè si riscontra in
medicina, con il c.d.”effetto camice bianco”: la presenza del medico può
alterare i valori della pressione in soggetti particolarmente emotivi. Si noti
peraltro che gran parte delle informazioni di base in certe scienze è basato sui
sondaggi o sulle interviste, e – al di là degli errori che si possono commettere
solo per il fatto di usare metodi statistici errati (campioni non rappresentativi
o non randomizzati) – il modo in cui il sondaggio viene fatto (p.es. la stessa
formulazione delle domande) può modificare il comportamento stesso della
persona intervistata. Questa difficoltà è stata spesso sottovalutata dagli
antropologi, che interferiscono con i processi studiati in modi che non sono in
grado di valutare date le differenze culturali tra loro e i soggetti con cui
vengono a contatto.
84 84
Si può osservare che anche nelle scienze naturali si manifesta pure
un’interazione tra strumento di osservazione/misura e oggetto osservato: fatto
ben noto nel mondo sottomicroscopico (che seconda una certa scuola di
pensiero spiega il principio di indeterminazione di Heisenberg) ma anche nel
mondo macroscopico, in cui un termometro freddo può modificare la stessa
temperatura del liquido in cui viene immerso a scopo di misurazione. Accade
però che queste modificazioni o sono trascurabili o possono essere calcolate
in modo esatto e invariabile, cosa che non accade nella sfera dei fenomeni
sociali.
Infatti c’è un alto grado di imprevedibilità negli sviluppi degli organismi
sociali. Anzi un fenomeno ben noto e sempre osservato, soprattutto quando è
in gioco l’applicazione di utopie (p.es. l’abolizione della famiglia o della
proprietà privata) è quello della controfinalità: ciò che si ottiene non solo è
diverso da quanto ci si propone di realizzare ma è agli antipodi di questo. Si
pensi che gli ideali di libertà, eguaglianza e fraternità hanno portato al Terrore
della Rivoluzione Francese e quindi a risultati esattamente opposti da quelli
che si cercava di conseguire.
Fin qui abbiamo dato per scontato che l’obiettivo distintivo delle scienze
sia quello di garantire previsioni o retrodizioni esatte. Ma si potrebbe
obiettare che vedere nella previsione l’obiettivo fondamentale della scienza è
da un lato riduttivo, dall’altro troppo pretenzioso. Secondo Hempel c’è una
simmetria tra spiegazione e previsione, nel senso che ogni previsione può
essere convertita in una spiegazione hempeliana e viceversa (tesi della
simmetria). Ma Hempel stesso ha avuto dei ripensamenti sulla tesi della
simmetria. In questa sede è meglio sostenere che scopo primario della
scienza non è la previsione ma la spiegazione, eventualmente fatta col senno
di poi. Il crollo di Wall Street è stato un evento in quel momento
85 85
imprevedibile – se fosse stato prevedibile non si sarebbe verificato – ma oggi
siamo in grado di darne una spiegazione, così come spieghiamo incidenti
aerei che non erano umanamente prevedibili nel momento in cui si
verificavano.
Ritornando alla questione dell’interferenza, bisogna prendere atto che, pur
rendendo problematiche le previsioni, anche le interferenze sono oggetto di
conoscenza e possono essere descritti in leggi sufficientemente affidabili.
Dunque si può sostenere che è possibile stabilire alcune leggi del
comportamento di individui isolati e di gruppi sociali e che leggi possono
essere usate , se non per la previsione, sicuramente per la spiegazione.
Qui però interviene un’altra difficoltà, dovuta al fatto che le leggi in
questione, e le spiegazioni che esse autorizzano, non possono essere leggi
descrittive di comportamenti come i comportamentismi hanno richiesto. Le
azioni umane sono mosse da intenzioni, aspettative, timori, speranze, illusioni
ecc. . tali stati interni non possono osservati come si osserva la caduta di una
mela dall’albero. Ma un comportamentista potrebbe non aderire a una forma
di rozzo riduzionismo che vieti di parlare di stati interni. Allo stesso in cui
“massa” e “peso” sono termini teorici che vengono agganciati al piano
osservativo mediante acconce regole di corrispondenza, così termini come
“”paura”, “attenzione” “ambizione”,… designano stati interni che però
esistono nella misura in cui hanno delle manifestazioni osservabili.
Nonostante questo garantisca un grande ampliamento di prospettive, è chiaro
comunque che l’introspezione però viene esclusa come metodo di
conoscenza, perché non si può ricondurre a comportamenti pubblicamente
osservabili. Con buona pace degli psicoanalisti, dovremmo rinunciare a
considerare, per esempio, i sogni come elementi che producono conoscenza,
per il semplice fatto che ciascuno sogna sempre i propri sogni e non i sogni
86 86
altrui (e tra l’altro ne diventa consapevole al risveglio, con una dubbia
anamnesi)
Ci sono alternative al comportamentismo più o meno liberalizzato? Un’
alternativa è questa: noi possiamo capire gli eventi storici, sociali, e
psicologici perché noi , in quanto uomini, sperimentiamo stati interni simili a
quelli degli agenti che vengono studiati. Possiamo in altre parole dire, p.es. :
“se fossi stato un calvinista del 500 in un paese come l’Olanda avrei
partecipato a quel fenomeno sociale descritto come capitalismo nascente”
(questo è implicito nella tesi di Weber che vede una connessione tra nascita
del capitalismo e etica protestante). Non si possono, in altre parole, capire i
fenomeni umano-sociali senza una certa dose di empatia (il “mettersi nei
panni degli altri”). A questo punto però si può fare a meno della spiegazione
mediante leggi e puntare esclusivamente sulla comprensione dei fenomeni
(Verstehen contrapposto a Erklaren).
Nell’800 la distinzione tra spiegazione mediante leggi e comprensione è
stata più volte teorizzata insieme alla distinzione tra scienze nomotetiche
(come le scienze naturali) e scienze idiografiche (come la storiografia) che
hanno come obiettivo la descrizione esauriente di fatti, o complessi di fatti,
che hanno una loro fisionomia irripetibile, e quindi non possono essere
soggetti a leggi. Se è difficile trovare due individui che hanno malattie simili
in circostanze simili (si pensi che ci sono malattie, p.es. allergie rarissime, che
colpiscono sono poche persone al mondo) a maggior ragione sarà difficile
trovare situazioni storiche simili in cui accadono eventi simili (p.es. guerre o
rivoluzioni). Se dico “Luigi XIV morì impopolare perché fece una politica
nociva per gli interessi nazionali” dove si può trovare una legge che funziona
come spiegazione del fatto che Luigi XIV morì impopolare? Dovrei trovare
casi simili nella storia, ma di fatto di simile a Luigi XIV c’è solo Luigi XIV.
87 87
Secondo il filosofo della storia W.Dray lo schema di Hempel non si applica
alle scienze umane: l’ azione umana A si spiega solo facendo vedere che nelle
date circostanze era la cosa più razionale da fare.
Secondo von Wright il comportamento intenzionale o finalistico va
compreso con metodi diversi da quelli che fanno ricorso a leggi associative o
causali. Quello che von Wright chiama “sillogismo pratico” ha questa forma:
x intende provocare E
x ritiene di non poter provocare E se non fa l’azione A
x si dispone a fare A
Secondo von Wright la conclusione descrive un fatto che si può conoscere
solo comprendendo le intenzione di x.
La storiografia è la più controversa delle discipline umano-sociali, al punto
che si è più volte negato la citttadinanza nel dominio della scienza (secondo
una versione benevola, è a metà strada tra scienza ed arte). Il motivo
principale è che non ci sono leggi propriamente storiche, e se si possono
formulare queste vengono spesso assegnate ad altre scienze (p.es. può essere
vero che periodi di costumi sessuali rilassati si succedono a periodo di
costumi sessuali restrittivi, ma se questa è una legge può essere una legge
sociologica, non squisitamente storica).
Agli antipodi rispetto alla storiografia si colloca l’economia, che si è
sviluppata come disciplina scientifica dal tronco della filosofia nell’800,
anche se il capolavoro di Adam Smith è del 1776. Rispetto ad altre discipline
è stata la prima ad usare strumenti matematici anche molto complessi (che a
qualcuno, come Norbert Wiener, sono sembrati un modo per camuffare la sua
arretratezza rispetto alle scienze naturali).Ciò che è sembrato fin dall’inizio
metterla sullo stesso piano delle scienze naturali è il fatto che l’esito di una
miriade di comportamenti individuali volontari può essere un comportamento
88 88
collettivo involontario (p.es. un aumento generalizzato dei prezzi). In tal
modo il comportamento della collettività non si può paragonare a quello dei
singoli e non dipende dalla considerazione di stati interni, il che fa pensare
che questi fenomeni siano trattabili come fenomeni naturali.
Rispetto alle scienze naturali colpisce la distanza che separa le teorie
economiche dai fatti, soprattutto macroeconomici, a cui si riferiscono. Per
citare le parole di Daniell Hausman, fondatore della rivista Economics and
Philosophy,”con un po’ di esagerazione si potrebbe concludere che
l’economia contemporanea possiede tutti i segni distintivi di una scienza
matura, tranne il successo empirico”. Ci sono cinque temi principali che
impegnano la metodologia della scienza economica.
1) Molti principi economici contengono asserzioni sul mondo dal punto di
vista soggettivo di un agente individuale. E’ un freno alla vera scienza?
2) I principi centrali dell’economia (p.es. “tutti preferiscono maggiore
ricchezza a minore benessere”) sono inesatti, cioè devono far fronte a un
numero esorbitante di controesempi. Come si può costruire una scienza in
tali condizioni?
3) Gli economisti contemporanei esitano a parlare di “teorie” o “leggi” e
preferiscono operare con “modelli”.
4) Le relazioni causali sono difficili da identificare perché i fenomeni
economici sono interdipendenti. In termini di variabili, è normale essere
costretti a dire che x influenza y, y influenza z, ma z influenza a volte x.
5) Qual è il fondamento empirico della fiducia nei modelli, dato il loro scarso
aggancio con i fatti?
Le prime considerazioni metodologiche si trovano in Nassau Senior
(1836) e J. S. Mill (1836). Mill distingue metodo a posteriori a metodo a
priori. I famosi metodi di Mill per scoperta delle cause sono metodi a
89 89
posteriori, ma sfortunatamente inapplicabili. Il più importante di questi
metodi è il metodo della differenza. Per sapere, per esempio, se i dazi
doganali favoriscono o no lo sviluppo economico dovrei confrontare
nazioni che li applicano con nazioni che non li applicano, ma non ci sono
mai nazioni che sono diverse solo per questa caratteristica. Anche il
ragionamento controfattuale è problematico per questo motivo. Dunque
bisogna ricorrere al metodo a priori. Si fissano alcune leggi generali
valide inattaccabili e le si usano per fare previsioni attendibili in
circostanze date, che possono essere sbagliate senza inficiare le leggi
prestabilite. In tal modo possiamo accettare l’economia come scienza
inesatta e separata, cioè sviluppata ignorando deliberatamente le
informazioni fornite da altre discipline. Anche se non parla di modelli,
Milll prefigura l’importanza dei modelli e anticipa la metodologia degli
ultimi decenni.
Questo orientamento incontrò critiche severe da economisti più o meno
influenzati dal neopositivismo. P.es. Terence Hutchison negli anni ‘30
osservò che le clausole ceteris paribus che si associavano gli asserti
teorici erano così numerose da rendere inapplicabili (e quindi prive di
senso empirico) le teorie economiche. Negli anni 50 Fritz Machlup e
Milton Friedman argomentarono che gli economisti devono predire con
esattezza solo i prezzi e le quantità, cioè i dati di mercato, ignorando tutto
ciò che esorbita da questi. In questo strumentalismo esasperato ogni
ipotesi che non venga ricondotta all’econometria viene giudicata
irrilevante. Ma questo sembra in contrasto con la prassi corrente, inclusa
quella di Friedman, in cui molte ipotesi, anche nel linguaggio causale che
Friedman rifiuta, vengono mantenute anche quando sono falsificate dai
dati di mercato. Non c’è da stupirsi se questa pluralità di atteggiamenti ha
90 90
portato a una proliferazione di studi metodologici, che occupano orami
quasi una metà della letteratura economica. Seguendo la classificazione di
Hausman, gli orientamenti emersi si possono classificare in quattro
categorie.
A. T. Hutchison e Marc Blaug (1992) hanno difeso una posizione
neopopperiana. Si noti che Popper è stato considerato, non si sa se
correttamente, l’alter ego filosofico di F. von Hayek..Uno dei problemi
più imbarazzanti del popperismo è il fatto che normalmente una teoria
h è sottoposta al tribunale dell’esperienza insieme ad altre assunzioni
c1…cn, ragione per cui ciò che viene falsificato non è mai h ma la
congiunzione h & c1…cn. E’ stata accolta con favore quindi la
metodologia dei programmi di ricerca di Lakatos, che propone un
cocktail di Popper e Kuhn , ammorbidendo i criteri di falsificazione.
B. In fuga dalle difficoltà metodologiche, alcuni metodologi si sono
allontanati dalla filosofia della scienza, coltivando una
“antimetodologia” : l’attenzione va alla retorica del linguaggio
economico (Weintraub) e alle caratteristiche sociologiche della pratica
economica (D.W. Hands). D. McClosky (1985) ha detto che gli
economisti devono solo badare alla propria retorica, cioè al modo in cui
si influenzano reciprocamente. E’ la versione economica di Rorty.
C. Allo stesso modo in cui W. Salmon negli ultimi anni ha sviluppato la
tesi secondo cui al di sotto dei fenomeni esistono realmente
“meccanismi causali” che la scienza mira a scoprire, autori come Tony
Lawson (1997) e Uskali Maki (1990) hanno teorizzato un realismo
causale, che Maki riscontra nella storia del pensiero economico. N.
Cartwright difende l’importanza del ragionamento causale
91 91
nell’economia e nell’econometria, anche se con un atteggiamento non
realista
D. Un’altra corrente è quella che si rifà alla concezione strutturalista delle
teorie di Suppes, Sneed, Stegmuller. Recentemente A. Rosenberg vede
nell’ economia un amalgama di matematica applicata e filosofia
politica.
Stando a Hausman pare che si rilevi una schizofrenia metodologica per cui,
nonostante le professioni di fede, la metodologia seguita in pratica è
sostanzialmente quella di Mill. Se è così, la metodologia che di fatto viene
applicata, non quella che viene professata, non è incompatibile con quella delle
scienze naturali avanzate, e si apre il compito di formulare esattamente una
metodologia unificante.
Una seconda area in cui si incontrano filosofia ed economia è la trattazione
economica dei temi della preferenza e della scelta. Gli economisti adottano
spesso l’idealizzazione per cui si rappresentano le credenze di un soggetto come
quozienti di scommessa in condizioni di conoscenza completa o incompleta.. C’è
uno studio economico delle funzioni di utilità, dove l’utilità è il prodotto della
probabilità per il guadagno ottenuto. Questi studi si saldano con la teoria delle
decisioni razionali e con la teoria dei giochi, fondata da von Neumann e
Morgenstern e sviluppata da matematici come Nash. A parte la fecondità
dell’interscambio tra economia e matematica su questi temi, bisogna tener conto
che le strategie studiate da questi scienziati poggiano su alcune norme più o
meno esplicite come : “bisogna massimizzare l’interesse atteso”, “evita una
perdita certa in un sistema di scommesse” ecc. Questo riapre una questione che
inizialmente abbiamo dato per risolta accogliendo la tesi di Weber della
avalutatività delle scienze umano-sociali. In economia questo problema acquista
significato particolare data la sua interazione con la politica.. E’ quasi scontato
92 92
in economia identificare il benessere con la soddisfazione delle proprie
preferenze egoistiche. Apparentemente questo sembra neutro, ma di fatto implica
che non si ha benessere se non come perseguimento di preferenze egoistiche, il
che sembra avere una connotazione valutativa in quanto esclude altre definizioni
diverse di benessere che potrebbero essere oggetti di valutazioni diverse in certi
contesti politici. A volte, si potrebbe sostenere, le preferenze egoistiche non sono
garanzia di benessere né per sé né per altri. Si pensi a un ragazzo che vuole
andare in motorino senza casco perché tale è la sua preferenza e perché crede
che questo sia il suo vantaggio. Ma la sua credenza potrebbe essere falsa, anzi di
fatto lo è . Inoltre , il comportamento degli uomini reali non è invariabilmente
egoistico, anche se l’altruismo potrebbe essere calcolato . Ci sono animali, non
solo uomini, che si sacrificano per salvare la specie, e sembra che questo sia
scritto nel codice genetico (incidentalmente, in contrasto con la teoria di Darwin
secondo cui tutti i nostri geni sono funzionale al vantaggio individuale). Sarebbe
al proposito utile studiare il comportamento umano con l’ausilio delle scienze
della vita.
L’economia sembra dunque avere dei risvolti valutativi che mancano in altre
discipline umano-sociali (come la psicologia) e sono assenti dalle scienze
naturali. E’ un problema aperto sapere se questo aspetto comprometta o no la
sua legittima aspirazione a costituirsi come scienza.
BIBLIOGRAFIA ESSENZIALE
J. Hicks, Analisi causale e teoria economica, Il Mulino, Bologna, 1981
E. Nagel, La struttura della scienza, Feltrinelli, Milano, 1968,cap.xiii
G.H. von Wright, Spiegazione e comprensione, Il Mulino, Bologna, 1971
P.Barrotta e T.Raffaelli, Epistemologia ed Economia, UTET, Torino,1998
93 93
M.C.Galavotti e G.Gambetta (a cura di), Epistemologia ed economia, CLUEB,
Bologna, 1988
M.Weber, La metodologia delle scienze storico-sociali . Einaudi, Torino, 1958
94 94
VII. L’INTELLIGENZA ARTIFICIALE E LA SCIENZA COGNITIVA
§1. Si può iniziare con un breve excursus storico. Negli anni 30 un problema
sentito era quello di definire rigorosamente il concetto di algoritmo, cioè
(intuitivamente) di una procedura di calcolo che applicando in modo
deterministico un numero finito di istruzioni dà un risultato univoco in tempo
finito. Gõdel per aprire la strada al suo celebre teorema definì un insieme di
funzioni,dette ricorsive primitive, che rappresentavano algoritmi basilari da
considerare il nocciolo della teoria della computazione, nel senso che ogni
nuovo oggetto matematico dovrebbe essere computabile a partire da queste.
Negli anni 36-37 a Cambridge Alan Turing seguì un’altra via: quella di
definire una macchina calcolatrice ideale di elementare semplicità progettata per
il calcolo di funzioni aritmetiche, di cui tutte le macchine calcolatrici concrete
apparissero come casi specifici.
Per avere una macchina di Turing (MT) bisogna disporre di un linguaggio
con un alfabeto finito di simboli che sia in grado di generare un numero
infinito di formule. Queste formule, che la macchina è destinata a elaborare, sono
stampate su un nastro infinito che attraversa la macchina. Il nastro è diviso in
celle e la macchina esamina una cella alla volta. La macchina di Turing può fare
solo quattro cose: cancellare un simbolo su una casella e scriverne un altro al
suo posto; muovere la testina di un posto a destra. muovere la testina di un posto
a sinistra; fermarsi. La macchina memorizza le operazioni compiute e quindi ha
stati di memoria diversi Ogni macchina di Turing è caratterizzata dall’insieme di
istruzioni che descrivono il suo programma.
Queste istruzioni sono rappresentate come quadruple n1-n2-n3-n4 che si
leggono così: ”se sei nello stato n1 e leggi il simbolo n2, fai l’operazione n3 e vai
nello stato n4”. Il funzionamento della macchina è deterministico: la macchina
non procede per sorteggi o “a casaccio” in nessun punto del processo.
In termini concreti una MT si compone di un corpo centrale che può assumere
stati diversi, ha una unità di lettura e una unità di scrittura che possono anche
coincidere, poste in modo da ispezionare le caselle del nastro illimitato, e un
meccanismo capace di spostare il nastro a sinistra e a destra. Il calcolo è una
successione finita di applicazioni delle istruzioni partendo da una posizione
fissata.
Un esempio semplice di macchina di Turing è una macchina che partendo da
certe formule numeriche come input calcola come output il valore delle usuali
funzioni aritmetiche (addizione, moltiplicazione ecc). Quando un problema è
risolto –cioè quando è stato calcolato il valore della funzione- la MT si ferma,
mentre la mancata fermata (il preseguire all’infinito) indica la mancata soluzione
del problema.
95 95
La c.d. tesi di Church-Turing afferma che ogni funzione algoritmica (funzione
ricorsiva) è calcolabile da una macchina di Turing e, viceversa, ogni funzione
Turing-calcolabile è una funzione algoritmica. In particolare , ogni computer
costruibile è un esempio particolare di macchina di Turing. Questa tesi (che ha la
forma di una congettura) nonostante gli sforzi per trovare dei controesempi, è
considerata ancor oggi valida.
Secondo un punto di vista diffuso, le operazioni di un uomo che calcola si
possono pensare come operazioni eseguibili da una macchina di Turing. Cosa
implica questo asserto? Si vuole dire che il pensiero umano è meccanizzabile?
Oppure che tutti i calcolatori si possono considerare come oggetti “pensanti” di
tipo speciale? Possiamo dire che le macchine pensano? Turing a questo
proposito suggeriva un test (test di Turing) mirante a stabilire se una macchina
può imitare un uomo al punto di ingannare un interrogante che non sappia se
l’autore di una certa performance è un uomo o una macchina. Turing era
ottimista sul futuro della computer science; riteneva infatti che nel giro del XX
secolo il 70% della macchine avrebbero superato il test di Turing.
Ma il teorema di Gődel, secondo molti, suggerisce che esistano operazioni
razionali della mente umana che non sono rappresentabili in termini meccanici.
Nel 1938 Alonzo Church dimostrava che la logica dei quantificatori non è
decidibile, e cioè che c’è un numero arbitrariamente grande di formule di cui non
possiamo dire se sono o meno teoremi del calcolo. La logica assiomatizzata di
Frege quindi non è in grado di risolvere in modo meccanico tutti i problemi
esprimibili nel linguaggio. Il teorema di Church afferma che non è in linea di
principio possibile costruire una macchina che risponda a tutte le domande
esprimibili in linguaggio logico, il che sembra implicare una limitazione
intrinseca alle capacità delle macchine di Turing.
La macchina di Turing non è in grado di calcolare tutte le funzioni possibili,
come è chiaro da una semplice considerazione. Ciò che è interessante è che la
definizione astratta data della macchina di Turing consente di identificare una
speciale macchina di Turing, detta Macchina di Turing Universale (MTU), che
“simula”, per così dire, le altre macchine di Turing. Infatti ogni macchina di
Turing è identificata dall’insieme delle sue istruzioni, che sono quadruple di
simboli. In altre parole gli insiemi di istruzioni delle singole macchine di Turing
possono essere indicate da un numero naturale , e così diventare elementi
dell’input della MTU. Incidentalmente, questo vuol dire che la MTU può anche
parlare di se stessa, e acquista le virtù dell’autodipendenza. Incappa quindi in
difficoltà tipo mentitore. Poniamole questo problema : “Ti chiediamo se non ti
fermerai: ti fermerai sì o no?”. accade che , se la macchina si ferma, risponde
affermativamente a “non ti fermerai”, e se non si ferma , risponde positivamente
a “non ti fermerai”. Questo è il tipico esempio di un problema insolubile, cioè
di una funzione non computabile.
96 96
Questo risultato faceva fallire da un lato il sogno leibniziano di trovare una
macchina che risolva tutti i problemi, dall’altro gettava ombra su alcune vecchie
teorie filosofiche, come quella di Hobbes, secondo cui pensare è calcolare
Quando Hobbes scriveva, non c’erano né macchine sviluppate né una
psicologia sviluppata né una logica sviluppata. Ma tutti gli elementi per
un’analisi scientifica (extrafilosofica) della mente cominciavano ad essere
abbondantemente disponibili negli anni ‘80. Non c’è da stupirsi se nasceva in
questi anni un filone di studi sulla natura della mente umana che si collocava a
cavallo tra la filosofia tradizionale e altre discipline che in modi diverse
studiavano la mente . Negli anni 80-90 la continua interazione tra le discipline
che entravano in gioco nella c.d. “philosophy of mind” diventava così complessa
da configurare una disciplina autonoma, a cui è stato dato il nome di scienza
cognitiva. Altri preferiscono parlare di scienze cognitive (al plurale) perché al
momento sono un accorpamento di diverse discipline integrate , in particolar
modo la linguistica, la filosofia , la psicologia cognitiva e naturalmente
l’informatica. Non manca l’apporto di discipline a carattere tecnologico come la
robotica. L’elemento unificante della scienza cognitiva consiste nel concepire i
processi mentali come fatti computazionali e nella visione naturalistica della
mente. I confini non sono netti : ciò che conta è la sinergia interdisciplinare.
Basti pensare al modo in cui la robotica ha influenzato gli studi sulla percezione
visiva grazie alla creazione di apparecchi e protesi.
Può essere utile ritornare alla già vista influenza del neopositivismo sulla
psicologia, che ha portato allo sviluppo del comportamentismo, che riduceva
inizialmente ogni fenomeno alla coppia stimolo-risposta. Come abbiamo visto, il
comportamentismo liberalizzato ammetteva l’uso di termini teorici per dare un
senso agli stati interni. Nel 1948 Tolman, per render conto del comportamento
dei topi nei labirinti, introduceva la nozione di mappa cognitiva dell’ambiente,
cioè di qualcosa che va oltre il comportamento osservabile e al meccanismo
stimolo-risposta. In quegli anni cominciò ad affermarsi l’idea della mente
come sistema di elaborazione di informazioni, per cui le entità teoriche
descrivevano stati di un dispositivo di calcolo: è chiaro che la tesi di Church-
Turing, nonostante i limiti visti, suggeriva fortemente la costruzione di modelli
meccanici per ogni forma di calcolo anche non numerico , suggerendo una
concezione computazionale della mente Si noti: a) che l’impostazione
computazionale consente di sviluppare una nozione di mente compatibile con
la visione fisicalista del mondo. b)che i programmi implementati nei
calcolatori digitali possono funzionare come simulazione di processi cognitivi
Si noti che le spiegazioni computazionali della mente si allontanano dallo
schema di Hempel-Oppenheim. Un algoritmo o un programma non coincidono
con insiemi di leggi nel senso di Hempel. Siamo di fronte a modelli della
97 97
mente,e bisogna quindi modificare la concezione della spiegazione in modo da
dare legittimità all’idea di spiegazione mediante modelli.
Da queste idee si sviluppava molto naturalmente il cosiddetto funzionalismo
secondo cui ciò che identifica gli stati computazionali non è il supporto fisico
(hardware), ma il rapporto degli stati tra loro. Quindi la mente si può pensare
non come una sostanza materiale ma come base delle relazioni mentali tra stati
fisici. Questo è diventato il punto di vista “ufficiale” delle scienze cognitive,
banalizzato nello slogan: mente:software=cervello :hardware.
E’ ovvio che, alla luce dei limiti visti della tesi di Turing, ci sono state
opposizioni a questo punto di vista, che –per usare un vecchio linguaggio- nega
l’irruducibilità dello spirito alla materia. J.R.Lucas e R.Penrose hanno utilizzato
il teorema di Gödel per contrastare l’idea che la mente sia rappresentabile come
un computer. “C’è una formula che non è dimostrabile meccanicamente ma che
noi possiamo vedere essere vera”, dice Lucas. Ma qui secondo i funzionalisti ci
sono degli equivoci. Non è vero che noi possiamo produrre un enunciato vero
con le proprietà dell’enunciato di Gõdel . Il teorema di Gõdel può essere inteso
in due modi:1) dimostra che questo enunciato esiste, oppure - 2) dimostra che
per ogni teoria coerente e completa esiste un algoritmo che genera un
enunciato che è vero nel modello dei numeri naturali ma non è dimostrabile.
(Questo presuppone la tesi di Church che identifica funzioni ricorsive e funzioni
Turing-calcolabili). Se è cosi’, il procedimento di generazione dell’enunciato in
questione è meccanizzabile, contro quanto sostiene Lucas.
Torniamo dunque alla plausibilità del concepire la mente umana come un
computer. Come si vede leggendo il celebre “Gõdel , Escher, Bach” di
Hofstadter, questo è il punto di vista quasi ufficiale su questo argomento. Eppure
i dubbi sono legittimi e vanno presi in considerazione.
Si vuole allora dire che le macchine pensano? Una volta qualcuno chiese a
McCarthy – l’inventore del LISP - se un termostato avesse credenze. Lui rispose
si. Le credenze sono “qui fa troppo freddo “, “qui fa troppo caldo”, “qui si sta
bene”.
Ci sono due argomenti, quello della Terra Gemella di Hilary Putnam e quello
della Stanza Cinese di Ronald Searle, che sono stati elaborati per criticare la
tesi che gli stati mentali sono stati computazionali.
Terra Gemella. Immaginiamo un pianeta gemello della terra in cui tutto è come
da noi salvo che l’acqua non è H20 ma qualcos’altro (ossido di deuterio). Un mio
gemello identico vuole bere acqua simultaneamente a me nella terra gemella.
Siamo ambedue nello stesso stato computazionale, ma non nello stesso stato
mentale, perché il contenuto dei due stati è differente e potremmo essere delusi
bevendo deuterio anziché acqua.
Stanza Cinese. L’informatico Roger Schank ha creato programmi progettati per
simulare la lettura e la comprensione di un racconto. R. Searle nega che la
98 98
macchina possa comprendere e rispondere alle domande su un qualsiasi
racconto. Immaginiamo un soggetto chiuso in una stanza che ignora il cinese ma
riceve dei messaggi in cinese , riceve un foglio di domande in cinese ha un
insieme di regole per produrre scritti cinesi in risposta al secondo foglio. Lui si
comporta esattamente come un computer, e supera il test di Turing senza capire
nulla. Se le macchine pensano, mancano dei poteri causali della mente che
assicurano intenzionalità, comprensione ecc.. Questi stati sono però accessibili a
noi e vengono anche attribuiti, per la psicologia del senso comune, ad altre
menti. La psicologia del senso comune è quel corpo di conoscenze e di
generalizzazioni che si basa sull’attribuzione di credenze e desideri a se stessi e
agli altri, con lo scopo di spiegare i comportamenti umani,
La cosiddetta TCRM (Teoria Computazionale Rappresentazionale della Mente
) proposta da J. Fodor si propone come una mediazione tra funzionalismo e
psicologia del senso comune. L’idea di Fodor è che pensare vuol dire manipolare
un linguaggio speciale , il mentalese : ,.p.es. credere che p significa avere nella
mente una certa proposizione del mentalese che sta in certi rapporti definiti con
altre proposizioni del mentalese.
Avverso a Fodor è l’eliminativismo: una forma moderna del materialismo e
del comportamentismo, ma compatibile con il funzionalismo, che ritiene che la
psicologia del senso comune sia sbagliata e vada eliminata in una scienza matura
(Patricia Churchland).
Il dibattito sulle immagini mentali - essenzialmente pittoriche per alcuni,
essenzialmente proposizionali per altri- è significativo. Solo nel 1996 questa
controversia filosofica venne corroborata con dati derivati dalle neuroscienze
(Kosslyn). Nello stesso tempo le neuroscienze si avvicinavano alle scienze
cognitive, dando vita alle neuroscienze cognitive. Negli anni 80 c’ è stato un
revival di modelli connessionisti, in cui ci si allontana dai modelli
computazionali tradizionali per introdurre modelli computazionali ispirati
all’architettura neuronale. L’interazione tra scienze cognitive e scienze
biologiche è tuttora in pieno sviluppo.
Una tendenza emersa negli ultimi due decenni riguarda anche l’influenza di
fattori ambientali (sociali ma anche fisici e biologici); si parla di “cognizione
situata”, che riguarda anche la percezione derivata dall’ambiente. L’accento in
questo caso è più sulla ricezione che sull’ elaborazione; si guarda al
comportamento reattivo di animali molto semplici come gli insetti per costruire
robot (etologia cognitiva di Wilson e Keil 1999).
Accanto allo scambio interdisciplinare con la biologia e la zoologia abbiamo
anche l’interazione con l’antropologia. Il relativismo culturale degli anni 60-70
è stato chiaramente marginalizzato in quanto le scienze cognitive presuppongono
l’invarianza della mente umana rispetto ai fattori ambientali: valga al proposito
la tesi Chomskiana del carattere innato delle facoltà linguistiche. C’è stata una
99 99
ripresa del concetto, considerato fuori moda, di natura umana. Sulla stessa onda
si possono considerare le spiegazione evoluzionistiche dei comportamenti
cognitivi e si possono sviluppare anche modelli computazionali del processo
evolutivo (evolutionary computation e vita artificiale).
Si è avuto anche una ripresa di interesse per la coscienza e per le emozioni,
categorie dimenticate o trascurate nella fase iniziale. Si distingue tra coscienza
cognitiva e coscienza fenomenica. La seconda riguarda la capacità di un agente
di accedere ai propri stati qualitativi (qualia:” le qualità del mondo come ci
sembra”), mentre la prima riguarda la capacità di rappresentare gli stati mentali
ai fini della pianificazione delle proprie azioni.
Dal punto di vista metodologico, la coscienza cognitiva non è problematica.
Uno stato mentale è sempre caratterizzato dalle sue relazioni funzionali con gli
altri stati mentali, catturabili con gli strumenti del paradigma funzionalista. La
coscienza fenomenica invece sembra essere una proprietà intrinseca dello stato
stesso, irrelato con gli altri. Questo sembra evidenziato da esperimenti mentali
come quello della stanza cinese. Sembra quindi sfuggire alle prese della scienza
cognitiva. Potrebbe funzionare al proposito l’approccio del materialismo
eliminativista di Churchland. Secondo Daniel Dennett, considerato una figura di
massimo rilievo in questi studi emergenti, quello che chiamiamo coscienza
fenomenica è un coacervo di fenomeni eterogenei che di fatto non esiste, anche
se ciò rende difficile capire come è sperimentabile in prima persona.
Per la verità la sperimentabilità “in prima persona” è un problema che riguarda
qualsiasi spiegazione scientifica della mente. Thomas Nagel nega che in terza
persona si possa cogliere il fenomeno della coscienza. Secondo un estremista
come Colin McGinn c’è un’impossibilità di principio per la mente umana di
comprendere il fenomeno della coscienza e a fortiori di spiegarlo.
Dunque il funzionalismo sembra nonostante tutto il paradigma dominante nella
scienza cognitiva. Ma ritorniamo a valutare le alternative proposte al modello
della mente come macchina di Turing. Negli ultimi anni è nata una nuova
nozione di computazione non- Turing.
Gödel ha sostenuto a più riprese che la tesi di Turing secondo cui la mente è
rappresentabile come una TM è non conclusiva in quanto viene tralasciato il
fatto che la mente non è un oggetto statico ma in costante sviluppo. La rilevanza
attribuita alle osservazioni di Gödel dipende dall’indiscussa autorità di Gödel
stesso. Gödel coglie un aspetto di particolare rilevanza: nel comprendere e
nell’usare termini astratti entrano in gioco termini sempre più astratt. Sebbene a
ogni stadio il numero dei termini astratti possa essere finito (e anche il numero
degli stati mentali distinti, come asserisce Turing), nel corso dell’applicazione
della procedura esso potrebbe convergere all’infinito: “qualcosa del genere
sembra accadere nel processo di formazione di assiomi dell’infinito sempre più
100 10
forti nella teoria degli insiemi”. Si pensi del resto alla gerarchia dei numeri
transfiniti di Cantor.
Gödel sembra ritenere che questa procedura mentale non sia una procedura
meccanica, e non possa essere eseguita da un automa finito. Sembrano quindi
che possano esserci forme di intelligenza “non computazionale”, che vanno oltre
le procedure meccaniche finite di Turing. Nello stesso tempo, come abbiamo già
osservato a proposito di Lucas e Penrose, non si può negare un carattere
algoritmico a procedure siffatte.
Se è così chiediamoci:
i. Come descrivere il carattere di queste forme di intelligenza non meccanica?
ii. I processi mentali che vanno oltre le procedure meccaniche presentano una
forma di calcolo che va oltre una computazione meccanica effettiva?
iii. Come possiamo rimpiazzare la dicotomia “calcolo meccanico /non
meccanico” con la descrizione di procedure che includano sia la computazione
meccanica sia quella non meccanica?
La distinzione formulata da Gödel tra procedure meccaniche e procedure che
possono essere eseguite dalla mente umana suscita una domanda: “possiamo
immaginare procedure mentali che si possono considerare computabili senza
che siano meccaniche?”. Secondo Gödel alcune procedure mentali eseguite dalla
mente umana non soddisfano le condizioni di finitezza e determinazione
richieste dall’analisi di Turing sull’esecuzione di procedure meccaniche.
L’ipotesi di Gödel avvalora la tesi secondo cui ci possono essere funzioni non
Turing computabili, il che farebbe pensare all’ abbandono della tesi di Church-
Turing. Un primo esempio di tale sorta di funzioni sarebbe costituito da una
funzione che sia calcolabile dalla mente umana tramite una procedura che
comporta l’uso di termini astratti in base al loro significato, funzione che non
può essere computata mediante una procedura puramente meccanica. Se si
potesse esibire chiaramente una simile funzione, il risultato potrebbe essere usato
per sostenere una tesi anti-algoritmica e anti-meccanica sulla mente umana. Si
tratterebbe infatti di una funzione definibile costruttivamente, computabile dalla
mente umana, ma non Turing-computabile.
Una spinta ad andare oltre la nozione classica di calcolabilità dovuta a Gödel ,
Church e Turing,è stata ottenuto attraverso la descrizione delle proprietà della
cosiddetta 'computazione quantistica'. Com’è noto, Turing si proponeva di
mostrare che qualunque processo di calcolo può essere ricostruito nei termini di
una procedura simbolica eseguibile da un ‘calcolatore’I possibili passi del
calcolo sono interpretati come operazioni fisiche e ogni operazione come “un
cambiamento del sistema fisico costituito dal calcolatore e dal suo nastro”.
La tesi di Turing secondo cui “ciò che può essere calcolato da un essere
umano idealizzato che segua una routine di passi elementari è computabile”, può
essere affinata precisando la nozione stessa di calcolatore. Di qui la tesi di
101 10
Robert Gandy secondo cui “ciò che può essere calcolato da un dispositivo
meccanico deterministico è computabile”. Si tratta di una generalizzazione
dell’argomento di Turing, ottenuta eliminando ogni aspetto umano del computer.
Alle limitazioni legate alle ristrette capacità sensoriali degli esseri umani
subentrano limitazioni di carattere fisico: una condizione di finitezza (un limite
inferiore) sulle dimensioni delle componenti elementari (o atomiche) e una
condizione di località, cioè un limite superiore sulla velocità di propagazione dei
segnali, la velocità della luce. Ma le macchine di Gandy non sono ancora
dispositivi fisici, mentre lo sono i ‘calcolatori quantistici’. Sembra allora
ragionevole spingersi fino alla tesi secondo cui “ciò che può essere calcolato da
un dispositivo fisico è computabile”. Per poterlo fare, tuttavia, bisogna compiere
ancora due passi, dimostrare che:
(a) qualunque dispositivo fisico può essere rappresentato mediante un sistema
‘dinamico’ che soddisfi certe condizioni restrittive;
(b) ogni funzione fisicamente calcolabile è computabile. Inoltre, un calcolatore
quantistico, essendo un dispositivo fisico in grado di eseguire algoritmi
quantistici che non hanno analogo classico, potrebbe rappresentare un nuovo
modello di algoritmo.
Con questo ci spingiamo alle frontiere della ricerca, perché i calcolatori
quantistici stanno attualmente passando dalla fase di progettazione a quella
concreta. Il vantaggio dei calcolatori quantistici è la loro impressionante velocità,
dato che lavorano in parallelo e non linearmente. Il poco che possiamo dire si
condensa in una cauta congettura di Roger Penrose:
<<Il comportamento non computazionale del cervello umano potrebbe
dipendere da fenomeni di tipo quantistico>>
Restano aperti diversi interrogativi:
a) un calcolatore quantistico è ancora una macchina di Turing? Secondo
Deutsch, dal momento che tutti i processi paralleli possono essere in linea
di principio linearizzati, non si esce dalla tesi di Church-Turing.
b) Ci sono aspetti non computazionali nel pensiero umano: si tratta di
fenomeni quantistici?
c) un sistema fisico quantistico è simulabile da un computer quantistico?
Come vedremo, tra gli aspetti non computazionali del pensiero umano
dobbiamo porre un aspetto che secondo alcuni è ciò che caratterizza la
specie umana dalle altre specie animali: la creatività. Non è azzardato dire
che il tema della creatività è quello su cui tutte le concezioni
computazionaliste della mente hanno dovuto misurarsi, con esiti che
ancora oggi non sono completamente determinabili.
102 10
La centralità della scienza cognitiva è dovuta al fatto che l’ informatica è
diventata la disciplina trainante nei confronti delle cosiddette scienze formali.
La verità è che l’informatica ha cambiato il volto della stessa filosofia.
Dobbiamo a Paul Thagard la nascita della cosiddetta filosofia
computazionale.
Da un lato, la presenza di Internet è una novità di un certo rilievo perché
mette a disposizione un’enciclopedia infinita, e questo vale anche per i
materiali filosofici. Ogni filosofo americano oggi ha una sua pagina personale
e mette in rete i propri lavori scavalcando la distribuzione di materiale
cartaceo. Ci sono insegnamenti “virtuali” di filosofia ecc. Ma il problema è
sapere qual è il contributo effettivo che l’informatica ha dato alla discussione
filosofica. I computers, per quanto perfettamente stupidi, sono programmati
per fare cose che gli uomini non possono fare, o almeno non possono fare
con la stessa velocità e lo stesso grado di infallibilità. Prescindendo dalle
questioni poste dalla scienza cognitiva, i computers simulano la mente umana
e pertanto presentano elementi nuovi per la valutazione di classiche questioni
filosofiche.
Pensiamo ad alcuni problemi squisitamente metodologici , per esempio al
problema dell’abduzione. Come si ricorderà , l’abduzione è un tipo di
inferenza ampliativa (un tempo confusa con l’induzione), che consente in
passare dall’explanandum all’explanans, cioè da ciò che si deve spiegare ai
dati esplicativi. I dati esplicativi possono essere leggi ( come nel caso delle
leggi di Keplero, che spiegano le varie posizioni dei pianeti) oppure fatti
singolari - cause - rispetto all’effetto. L’ inferenza abduttiva è l’inferenza alla
miglior spiegazione e spesso viene classificata in due tipi : abduzione
creativa (che crea le ipotesi esplicative) e creazione selettiva ( che seleziona
tali ipotesi). Mentre l’abduzione selettiva è basata su metodi razionali
dominabili (si sceglie l’ipotesi più economica, più informativa ecc.),
l’abduzione creativa è stata in genere considerata intrattabile, se nona
ttraverso l’ applicazione di quello strumento matematico che è il teorema di
Bayes: Conoscendo la probabilità di E/C, di C e di E si calcola la probabilità
inversa, di C/E.
Dopodiché si sceglie la più probabile delle cause possibili. Purtroppo i calcoli
necessari per operare queste trasformazioni probabilistiche sono proibitivi.
A partire dagli anni 80 l’ingegneria ha offerto degli automi in grado di compiere
scoperte. DENDRAL (1980) scopriva la struttura molecolare del campione avendo
come input i dati spettroscopici e METADENDRAL scopriva qualcosa di più: le
regole che spiegano il processo di frammentazione dei campioni. Il programma
BACON 1, ha riscoperto, partendo da informazioni basilari, . Il programma
BACON 1 per esempio ha ri-scoperto la terza legge di Keplero, la legge di Ohm e
la legge di Boyle -Mariotte con una procedura data-driven, cioè confrontando le
103 10
formule con i dati empirici assunti come inputs.
C’è da aggiungere conclusivamente alle considerazioni fatte nelle
pagine precedenti che quanto detto sopra riguarda l’abduzione selettiva, cioè
il modo in cui si sottopongono a test le ipotesi. Poco o niente si è detto in
realtà sull’abduzione creativa, cioè sul modo in cui vengono prodotte le
ipotesi da sottoporre a test. Qui torniamo di fatto al punto di partenza, e cioè
alla domanda iniziale: può esistere uno stock di regole per generare insiemi di
ipotesi da sottoporre a test?
Sembra ci sia una contraddizione nell’idea stessa di un automa creativo, non
diversamente da come sembra ci sia una contraddizione nell’idea stessa di un
automa che produce sequenze casuali (random sequences): come può esserci un
insieme di regole per produrre una sequenza che per definizione è irregolare1? Ma la
cosiddetta Intelligenza Artificiale non poteva non raccogliere anche questa sfida.
Già nel 1987 venivano implementati programmi in grado di simulare le scoperte
scientifiche usando come spazio di ricerca tutte le possibile formule esprimenti
correlazioni tra variabili I tentativi in questa direzione sono ormai oggetto di
copiosa letteratura. Può essere utile ricordare qui che ci sono risultati recentissimi
anche per le scoperte che ormai vengono spesso chiamate serendipiane . Che
significa? Una scoperta è serendipiana quando è stata ottenuta in modo
preterintenzionale, quando cioè il ricercatore cercava qualcos’altro o addirittura
qualcosa di opposto (v. scoperta della penicillina da parte di Pasteur). In questi casi
è chiaro che la scoperta è impossibile senza l’intuito e le genialità del ricercatore
stesso.
Campos e Figueiredo (2002) hanno realizzato un software, MAX, che per quanto
non crei ipotesi serendipiane è uno strumento per la serendipidità. Per cogliere il
punto, si pensi alla distinzione tra la ricerca di informazione in Internet guidata da
uno scopo preciso - come si fa normalmente usando un motore di ricerca - e il
“navigare in Internet” a casaccio, che offre il terreno fertile per la scoperta
serendipiana. MAX si propone di offrire stimoli interessanti e inattesi al ricercatore:
il Modulo di Formulazione di Suggerimenti di MAX ha come scopo la ricerca
deliberata di occasioni per il lateral thinking. Il programma è in grado di definire
una misura di somiglianza tra documenti, in modo da assemblare documenti
divergenti. Gli autori concludono che “fare programmi per la serendipità è
possibile”.
Le procedure informatiche entrano in gioco a diversi stadi della ricerca abduttiva.
In primo luogo, anche se non sono in grado di produrre un ventaglio di ipotesi che
sia automaticamente candidato al successo, sono in grado di produrre
combinatoriamente, sulla base di informazioni predeterminate, un numero
estremamente alto di ipotesi, e in ogni caso più alto di quello che qualsiasi operatore
1
104 10
umano è in grado di formulare. In secondo luogo sono in grado di individuare
ipotesi logicamente equivalenti e di scegliere, a parità di contenuto, quelle
sintatticamente più semplici semplificando il repertorio delle ipotesi di base. In
terzo luogo, sono in grado di calcolare rapidamente le conseguenze delle ipotesi
assunte e di eliminare le ipotesi in conflitto rispetto ai dati empirici con una velocità
non consentita all’operatore umano.
Il ruolo della creatività umana non è stato finora messo in discussione dalla
programmazione abduttiva: anche perché qualunque programma si possa scrivere
per il più sofisticato dei computers è, in ultima analisi, un prodotto della stessa
creatività umana.
BIBLIOGRAFIA ESSENZIALE
R.Cordeschi e V.Somenzi (a cura di) La filosofia degli automi, Boringhieri,
Torino 1986
D. R Hostadter, Gõdel , Escher, Bach, Adelphi ,Milano, 1985
L.Magnani, Ingegnerie della conoscenza. Introduzione alla filosofia
computazionale, Marcos y Marcos, Milano, 1997
D. Marconi, Filosofia e scienza cognitiva, Laterza,Bari,2001.
S.Nannini, L’anima e il corpo. Un’introduzione storica alla filosofia della
mente, Laterza, Bari, 2002
P.Thagard, La mente. Introduzione alla scienza cognitiva (a cura di L. Magnani),
Guerini, Milano, 1996