INDICE
Introduzione
Premesse
Capitolo 1: Il comportamento ottimizzante: massimizzazione dell‟utilità
1.1 Funzione di utilità
1.2 Preferenze
1.3 Curve di indifferenza: alcuni esempi di rappresentazione delle preferenze
Capitolo 2: Il principio di equilibrio nella teoria economica e nella teoria dei giochi
2.1 Equilibrio fra domanda e offerta: efficienza allocativa
2.2 Equilibri di Nash e pareto-efficienza
2.3 La teoria dei giochi nei modelli economici
Capitolo 3: Assunzioni classiche sui modelli economici
3.1 Simmetria delle curve dei costi
3.2 Asimmetria: apprendimento e vantaggi di costo
3.3 Simmetria informativa
3.4 Asimmetria: la teoria della razionalità limitata
Capitolo 4: L‟ambiente economico e la teoria dei sistemi
4.1 L‟ambiente come sistema aperto
4.2 La complessità nei sistemi
4.3 Classificazione dei sistemi
Capitolo 5: Informazione e conoscenza nei sistemi economici
5.1 Teoria della conoscenza
5.2 Gli effetti delle lacune informative sul comportamento ottimizzante
Capitolo 6: Dal determinismo alla probabilità
6.1 Stima delle preferenze
6.2 Stime dell‟utilità con informazione limitata
6.3 La ricerca delle scelte ottime: dalla probabilità all‟euristica
6.4 Limiti dei metodi dall‟approccio ortodosso all‟euristica
Capitolo 7: Evoluzione dell‟approccio deterministico allo studio dei sistemi complessi: scienze
esatte e socio-economiche a confronto
7.1 Dal determinismo della meccanica classica al principio di indeterminazione della
meccanica quantistica
7.2 Lo spazio-tempo
7.3 I principi di indeterminazione, dualità e complementarietà nella struttura
dell‟ambiente economico
7.4 I limiti della conoscenza: trattazione comparata dei concetti di informazione ed
entropia
Conclusioni
INTRODUZIONE
In questa sede si vuole trattare il tema dell‟incertezza nel contesto economico attraverso un
approccio comparativo della teoria economica dominante e dei suoi riscontri empirici.
In particolare si esamina come il mancato soddisfacimento delle ipotesi classiche di conoscenza e
razionalità perfette degli operatori economici comporti il verificarsi dei cosiddetti fallimenti di
mercato, intesi come lo scostamento dal suo punto di equilibrio a cui la teoria ortodossa associa
l‟efficienza allocativa. Un concetto da leggersi in chiave del paradigma di ottimo paretiano e pareto-
efficienza. Ciò significa che nel punto di equilibrio la combinazione dei fattori produttivi sarà tale
che il risultato dell‟attività economica sia quello massimizzante l‟utilità di tutti gli operatori
economici nei termini in cui essi non desidereranno più modificare le proprie scelte di consumo o di
produzione, poiché qualsiasi modifica in tal senso non potrebbe apportare un maggiore beneficio a
nessun operatore senza intaccare quella di un altro.
Si ricostruiranno i passaggi salienti della derivazione dell‟equilibrio nel mercato attraverso una
trattazione che va dai fondamentali meccanismi microeconomici a quelli dei diversi livelli di
aggregazione che compongono il sistema economico. A questo scopo, se ne studieranno le varie
componenti e le loro interazioni in termini di teoria dei sistemi, evidenziando la complessità, il
dinamismo e la variabilità del sistema “mercato” e come il suo comportamento tenda a sfuggire a
previsioni di tipo squisitamente deterministico.
Le osservazioni in merito saranno interpretate in termini di teoria dei giochi, a partire dalla sua
formulazione tradizionale per arrivare ai suoi sviluppi successivi i cui risultati diventano funzionali
a componenti motivazionali e psico-sociali, che esulano quelle classiche del comportamento
ottimizzante della teoria ortodossa.
Tenendo conto dei limiti delle ipotesi classiche relative alla conoscenza e razionalità degli operatori
economici, si cercherà di sviluppare un approccio alternativo di compromesso fra il determinismo
scientifico della tradizione e il probabilismo verso cui si muovono i più recenti sviluppi sia delle
scienze esatte che socio-economiche.
In particolare si confronteranno li metodi di studio proposti dalla teoria delle comunicazioni, della
meccanica quantistica e della cibernetica al problema della perdita o mancanza di informazione
(detta entropia), che nella teoria economica “obbliga” gli individui a scendere a compromessi quasi
sempre sub ottimali, cioè a comportamenti non ottimizzanti a causa della sostanziale situazione di
incertezza, informazione imperfetta e razionalità limitata in cui essi operano.
La più recente formulazione del concetto di “spazio-tempo” fornite dalla meccanica quantistica,
infine, sarà la chiave di lettura di un‟analisi multidimensionale della teoria dei giochi
comportamentale e del sistema economico coerente con il secondo principio della termodinamica,
che in economia si traduce negli effetti delle lacune informative (o entropie) sui fallimenti o
successi del mercato.
PREMESSE
I modelli della teoria economica dominante a livello globale si ergono sull‟ipotesi di razionalità
degli operatori economici che agiscono nel mercato secondo i principi di ottimizzazione e di
equilibrio.
Un individuo che si comporta in modo ottimizzante sceglie le migliori combinazioni fra quelle
possibili, per raggiungere in modo soddisfacente il suo obiettivo. In parole tecniche, il
comportamento ottimizzante è quello che spinge un individuo a massimizzare la sua funzione di
utilità, scegliendo le migliori combinazioni di consumo (o produzione) possibili sotto il vincolo di
bilancio, dato dai mezzi che il consumatore ha a disposizione per effettuare i suoi acquisti
(approssimabile, per rendere l‟idea, col suo reddito).
CAPITOLO 1: IL COMPORTAMENTO OTTIMIZZANTE E LA MASSIMIZZAZIONE
DELL‟UTILITA‟
1.1 Funzione di utilità
Prima dell‟affermazione della scuola di pensiero classica, il concetto di utilità era associato al
livello di soddisfazione che una determinata scelta economica avrebbe comportato. È facile dedurre
quanto fosse arbitraria e approssimativa la misurazione della “felicità” di un consumatore a seguito
di un acquisto di una determinata quantità di uno o più beni. L‟utilità assegnata a scelte diverse
avrebbe assunto valori diversi da individuo a individuo, a seconda delle preferenze soggettive,
precludendo pressoché ogni rigoroso confronto fra funzioni di utilità. L‟economia classica rivede il
concetto di utilità come una descrizione delle preferenze del consumatore, espresse o dedotte dal
suo comportamento. La funzione di utilità associa un valore ad ogni paniere di consumo, cioè ai
beni cui il consumatore ha accesso, ed ordina tali valori in modo crescente o decrescente: il paniere
X composto dai beni x1 e x2 sarà preferito a quello composto dai beni y1 e y2 se e solo se l‟utilità
associata a X sarà maggiore di quella associata a Y.
Cioè, dato un vincolo di bilancio della forma px(x1, x2) + py(y1, y2) ≤ m, dove i termini della
disequazione sono rispettivamente i prezzi del paniere X e Y e l‟ammontare che il consumatore ha a
disposizione per effettuare i suoi acquisti, si ha una relazione del tipo: (x1, x2) > (y1, y2) ↔ u(x1, x2)
> u(y1, y2).
1.2 Preferenze
Più che i valori dell‟utilità, è importante l‟ordinamento tra utilità associate a panieri diversi, che
fornisce informazioni circa le preferenze dei consumatori.
L‟ipotesi sottostante l‟ordinamento delle preferenze si rifà all‟assunzione di base dei modelli
economici, cioè quella della razionalità degli operatori economici, in questo caso quindi dei
consumatori. Tale ridondanza si manifesta nell‟assunzione di coerenza nelle preferenze dei
consumatori, intuitivamente data dall‟impossibilità di avere una situazione in cui un paniere di beni
è contemporaneamente preferito e scartato dallo stesso consumatore (razionale) sotto le stesse
condizioni. Se per il consumatore vale la disequazione u(x1, x2) > u(y1, y2), allora egli sceglierà il
paniere (x1, x2), salvo che i due panieri siano uguali, in qual caso il consumatore sarebbe
indifferente fra essi. A quanto appena illustrato, cioè l‟assioma di completezza delle preferenze, si
aggiungono gli assiomi di riflessività (cioè un paniere è desiderabile almeno quanto se stesso) e di
transitività (se il paniere X è preferito ad Y ed Y è preferito a Z, allora il paniere X è preferito a Z).
Le preferenze sono rappresentate graficamente dalle curve di indifferenza, costituite da tutti i
panieri per cui un consumatore non esprime una preferenza, cioè dalle diverse combinazioni di beni
che si associano ad uno stesso livello di utilità. Per gli assiomi sulle preferenze, diverse curve di
indifferenza non possono intersecarsi fra loro.
1.3 Curve di indifferenza: alcuni esempi di rappresentazione delle preferenze.
I punti “a” ed “e” rappresentano
combinazioni delle quantità del
bene A e del bene B per cui l‟utilità
del consumatore sarebbe la
maggiore possibile rispetto agli altri
punti “b”, “c” e “d”, che giacciono
su curve di indifferenza inferiori
(salvo il vincolo di bilancio). Per
ipotesi, infatti, si preferisce
consumare una quantità simile di
due beni, piuttosto che o solo il
bene A (come nel punto “b”) o solo
il bene B. La combinazione in
corrispondenza del punto “d” invece
si trova sulla curva d‟indifferenza
più bassa, cui corrisponde la minore
utilità del consumatore. Il punto c è
l‟unico che soddisfa il vincolo di
bilancio, cioè per la combinazione
di beni A e B in corrispondenza del
punto c, la curva di indifferenza e la retta di bilancio sono tangenti in c, che individua quindi la
scelta ottima. La condizione di ottimo non richiede in generale la tangenza della curva di
indifferenza a quella di bilancio; è sufficiente che esse non si intersechino in corrispondenza della
scelta ottima.
Source: http://ingrimayne.com R. Schenk©
Dalle curve di indifferenza si può desumere la relazione che intercorre tra i due beni considerati.
Si dicono perfetti complementi quei beni che il consumatore desidera avere in proporzioni fisse; per
esempio, il suo paniere può essere composto per metà dal bene Y e per l‟altra metà dal bene X. I
perfetti sostituti sono caratterizzati da un‟inclinazione delle curve di indifferenza uguale a -1, poiché
il consumatore è disposto a sostituirli l‟un l‟altro, solitamente in questa proporzione.
L‟approssimarsi a tale saggio di sostituzione, porta le curve di indifferenza a deviare leggermente la
loro forma (quasi sostituti). Se le curve di indifferenza hanno inclinazione positiva rappresentano
dei beni non desiderabili (cioè “mali”), mentre se sono delle rette verticali significa che si è in
presenza di beni neutrali (il consumatore è interessato solo ad uno dei due beni ed è neutrale nei
confronti dell‟altro). La forma generale delle curve di indifferenza ha inclinazione negativa, sotto
l‟ipotesi di monotonicità (per cui una combinazione di beni caratterizzata da una quantità maggiore
degli stessi, quindi su una curva d‟indifferenza più alta, sarà la scelta preferibile), e si discosta da
quelle viste finora. L‟ipotesi di monotonicità vale solo se non si è ancora raggiunto il punto di
sazietà, in corrispondenza del paniere preferito a tutti gli altri. Più le curve di indifferenza si
avvicinano a questo punto, maggiore sarà l‟utilità del consumatore data dalla scelta di una
combinazione di beni in corrispondenza di tale punto.
Esempi di curve di indifferenza. Source: H. Varian, 2007
CAPITOLO 2: IL PRINCIPIO DI EQUILIBRIO NELLA TEORIA ECONOMICA E NELLA
TEORIA DEI GIOCHI
2.1 Equilibrio fra domanda e offerta: efficienza allocativa.
Riguardo al principio di equilibrio, invece, basterà per ora tenere presente il suo effetto generale sul
livello prezzi: si assume che essi varino fino al punto in cui la quantità domandata di un bene
eguaglierà quella offerta. (H. Varian – Microeconomia, 2007) In parole più classiche e in termini
aggregati, il mercato adotta dei meccanismi di aggiustamento automatici o indotti (meccanismi che
A. Smith, uno dei padri della scuola classica e dell‟economia politica, battezzò con l‟emblematico
termine di “mano invisibile”, XVIII sec.), generati dall‟interazione fra le sue forze, fino a
raggiungere il punto in cui domanda e l‟offerta si incontrano in corrispondenza della quantità di
output di equilibrio scambiata nel mercato al prezzo di equilibrio.
A livello microeconomico, le quantità ottime di ogni paniere di consumo in funzione del loro
prezzo, sotto il vincolo di bilancio (il reddito del consumatore), vanno a costruire la funzione di
domanda del consumatore. A livello aggregato, date le domande individuali di tutti i consumatori,
la domanda di mercato (D) ne è la sommatoria.
La domanda individuale è una funzione di prezzo del o dei beni e reddito del consumatore, mentre
quella aggregata dipende dalla distribuzione dei redditi, oppure, in alternativa è derivata dalla
funzione di domanda di un consumatore “rappresentativo”, cioè che in media rispecchia le
caratteristiche di reddito e consumi di tutti i consumatori. In generale, la curva di domanda ha
inclinazione negativa, cioè la quantità domandata di un bene aumenta se il suo prezzo diminuisce e
viceversa. I beni caratterizzati da una funzione di domanda di questo tipo sono detti “beni normali”.
La loro domanda, inoltre, si assume crescente all‟aumentare del reddito, tradotto agli occhi del
consumatore come un equivalente abbassamento del prezzo dei beni del suo paniere. Al contrario, i
Source: http://infofellow.com
beni cosiddetti inferiori subiscono un calo nella domanda quando aumenta il reddito o ne
diminuisce il prezzo (si pensi, per esempio, ai beni di lusso, per cui una variazione a ribasso del
prezzo potrebbe facilmente essere percepita dai consumatori come un difetto di qualità, e quindi
ridurre la domanda di quel bene).
Generalmente la domanda è sensibile alle variazioni di prezzo e tale sensibilità è misurata
dall‟elasticità. La domanda cioè subisce delle variazioni, positive o negative, dovute all‟effetto
reddito (variazioni del potere d‟acquisto, ovvero del reddito dei consumatori, restando costante il
livello dei prezzi) e all‟effetto di sostituzione (variazioni del prezzo di un bene quando i prezzi degli
altri beni e il reddito rimangono costanti).
In genere, reddito e consumi sono direttamente proporzionali. La curva reddito-consumo è quindi
inclinata positivamente: a maggiori livelli di reddito si associano maggiori livelli di consumo, sotto
l‟ipotesi di costanza dei prezzi.
L‟effetto di sostituzione si riferisce al mutamento nella combinazione del paniere del consumatore
quando varia il prezzo di uno dei beni che lo compongono ma quello degli altri beni e il reddito
rimangono costanti.
In entrambi i casi il potere di acquisto del consumatore viene modificato, il che comporta una
variazione nella composizione della sua domanda.
Per la stima della variazione complessiva della domanda, bisogna considerare congiuntamente gli
effetti di sostituzione e di reddito, a seconda che si stia trattando la domanda di beni normali o
inferiori (a seconda che la quantità domandata sia proporzionale direttamente o inversamente). In
sintesi si hanno tre possibilità nello studio delle variazioni della domanda, a seconda che, al variare
dei prezzi, si mantenga fisso il reddito (curva di domanda standard); o il potere d‟acquisto (effetto
di sostituzione di Slutzky); o il livello di utilità (effetto di sostituzione di Hicks, per cui la retta di
Source: http://ingrimayne.com R. Schenk©
bilancio shifta lungo la curva di indifferenza su cui giaceva la scelta ottimale precedente alla
variazione dei prezzi).
Similmente alla costruzione della domanda aggregata, la curva di offerta (S) di mercato può
ottenersi dall‟aggregazione delle curve di offerta individuali, che fanno corrispondere a ciascun
prezzo una quantità del bene da scambiare sul mercato.
Perché tale scambio avvenga, le curve di offerta e di domanda devono incontrarsi in corrispondenza
di un certo livello di prezzi (prezzo di mercato) a una data quantità. Poiché le curve di domanda e
offerta si assumono rappresentative delle scelte ottimali a livello aggregato di tutti gli operatori
presenti nel mercato, la loro intersezione si avrà in corrispondenza di prezzo e quantità di
equilibrio, cioè nel punto in cui il mercato è in equilibrio (per opera dei meccanismi automatici
innescati dall‟interazione delle forze agenti nel mercato, ovvero della “mano invisibile”, esso
tenderà sempre a tale condizione di equilibrio).
Nel punto di equilibrio, il prezzo di equilibrio EP corrispondente alla quantità di equilibrio EQ
all‟intersezione delle curve di domanda e di offerta aggregata, l‟economia si trova in una condizione
di efficienza paretiana. In tale situazione, si ha l‟allocazione ottima delle risorse nel mercato
(efficienza allocativa) e non è possibile accrescere l‟utilità di un operatore economico senza
intaccare quella di un altro, perciò il mercato si stabilizzerà dove si incontrano domanda e offerta, in
quanto non sarebbe conveniente che gli operatori economici modificassero a questo punto le proprie
scelte deviando dall‟equilibrio.
Image: Demand-Pupply Equilibrium. Source: http://en.wordpress.com
2.2 Equilibri di Nash e pareto-efficienza.
I risultati ottenuti sono coerenti con quelli forniti dalla teoria dei giochi. La condizione di efficienza
paretiana è l‟equivalente di un equilibrio di Nash, che identifica la combinazione ottima di strategie
attuate dai giocatori di un gioco tale che nessuno dei due desideri, in corrispondenza del punto di
equilibrio, modificare la propria scelta. Si noti che il raggiungimento dell‟equilibrio di Nash, che è
pareto-efficiente (rispetta cioè la condizione di efficienza paretiano, per cui nessun agente coinvolto
desidera modificare le proprie scelte, una volta effettuate, indipendentemente da quelle degli altri),
non implica che tutti i giocatori abbiano massimizzato la propria utilità; avranno semplicemente
effettuato la scelta migliore possibile, data la strategia dell‟altro giocatore.
Per chiarire questo concetto si cita brevemente il gioco cooperativo noto come “dilemma del
prigioniero” che rispecchia la maggior parte delle situazioni economiche che si verificano nel
mercato. Secondo la formulazione originaria, due individui vengono fatti prigionieri poiché
complici di un delitto. Essi vengono quindi interrogati separatamente e gli si offrono due possibilità:
collaborare confessando il delitto per ottenere uno sconto della pena, o non collaborare, cioè tacere
nella speranza di ripercussioni minime a causa della mancanza di prove qualora il complice non
confessasse, ma col rischio di avere la massima sanzione qualora il complice scegliesse invece di
collaborare. I due complici sono i giocatori A e B e le strategie che essi possono scegliere sono
“Confessare” o “Negare”. Ad ogni combinazione possibile di strategie si associano dei payoff
indicativi dell‟utilità conseguente ad ogni scelta a fronte della scelta dell‟avversario (in questo caso,
i payoff sono gli anni di prigione da scontare, cioè rappresentano un‟utilità negativa per i giocatori).
Analogamente alla costruzione delle funzioni di utilità individuali sulla base delle preferenze, i
payoffs associati ad ogni combinazione possibile (questa non si tratta della composizione di un
paniere di beni (x1, x2), bensì della strategia da giocare, cioè cooperare con l‟altro giocatore o meno)
determinano la scelta della curva di reazione di ogni giocatore. Le curve di reazione, o curve di
risposta ottimale, rappresentano le risposte ottimali (che soddisfano il principio di ottimizzazione
visto precedentemente) di ogni giocatore a fronte di quelle degli avversari.
La matrice dei payoffs è della forma:
Cooperate Defect
Cooperate -1, -1 -6, 0
Defect 0, -6 -3, -3
L‟equilibrio di Nash si ha quando entrambi i giocatori scelgono la strategie “defect” ottenendo la
combinazione di payoffs (-3, -3). Si ottiene tramite l‟eliminazione delle strategie strettamente
dominate, cioè di quelle a cui corrisponde sempre un payoff inferiore in corrispondenza di ogni
scelta possibile dell‟avversario. Per esempio il giocatore B non preferirà mai giocare la strategia
“cooperate” poiché ad essa si associano sempre, per ogni possibile strategia di A, payoff inferiori a
quelli che otterrebbe giocando “defect”: se A scegliesse anch‟egli la strategia “cooperate”, B
avrebbe un payoff di -1 < 0; se A scegliesse invece “defect”, B avrebbe un‟utilità di -6, che è
Player B
Player A
comunque strettamente minore (cioè dominata) di quella che avrebbe avuto se avesse giocato
“defect”, cioè -3.
Una rappresentazione del gioco alternativa alla matrice dei payoffs è quella a forma estesa, cioè
tramite un diagramma ad albero che ne evidenzia le fasi decisionali, detto albero decisionale.
La soluzione del gioco è data dunque dall‟equilibrio di Nash in corrispondenza della combinazione
di strategie “defect, defect”, cioè in cui entrambi i giocatori si tradiscono e confessano il crimine
ottenendo una condanna a 3 anni di carcere. Si nota subito che questo è una soluzione sub ottimale
in quanto la pena sarebbe stata per entrambi minore se avessero scelto di cooperare fra loro:
avrebbero infatti scontato solo un anno di carcere. Tuttavia, la teoria dei giochi dimostra con
l‟applicazione del metodo di eliminazione delle strategie strettamente dominate che l‟equilibrio in
cui entrambi i giocatori trarrebbero la massima utilità, cioè in corrispondenza dei payoff (-1, -1),
sarebbe instabile, in quanto i giocatori tenderebbero a voler modificare la loro strategie, qualora il
gioco venisse ripetuto, secondo la logica dell‟eliminazione delle strategie strettamente dominate
sopra enunciata.
2.3 La teoria dei giochi nei modelli economici.
È possibile avere un esito del gioco diverso dall‟equilibrio di Nash solo nei casi in cui il gioco è
sequenziale (i giocatori implementano le loro strategie non più in simultanea ma l‟uno dopo l‟altro)
o se viene ripetuto un certo numero di volte e i giocatori si accordano per giocare sempre una
determinata strategia. All‟ultima ripetizione del gioco, però, entrambi i giocatori perderanno
l‟interesse nel mantenere l‟accordo poiché non rischierebbero più alcuna ritorsione per aver violato
l‟accordo, in quanto il gioco finisce lì.
(-3, -3)
(0, -6)
(-1, -1)
(-6, 0)
A Defects
B Defects
A Cooperates
B Cooperates
B Cooperates
B Defects
Prisoner’s Dilemma – extended
representation
Questo è quanto può accadere quando due o più imprese concorrenti colludono. Cioè esse si
accordano su determinate strategie da tenere per un determinato periodo di tempo, in modo da
mantenere costante la loro posizione nel mercato. L‟oggetto della collusione potrebbe essere un
certo livello di prezzi, o una determinata quantità di output o una qualsiasi altra variabile strategica
che modificherebbe la suddivisione del potere di mercato o della quota di mercato fra le imprese
concorrenti. La collusione, oltre ad essere perseguita dalle autorità antitrust in quanto lesiva della
concorrenza, è anche una posizione difficilmente difendibile, qualsiasi sia il numero di imprese
concorrenti nel mercato poiché ve ne sarà sempre una o più che trarrebbe giovamento violando
l‟accordo battendo sul tempo le altre. È appunto la situazione del dilemma del prigioniero
contestualizzata in un mercato oligopolistico concorrenziale. Un ragionamento analogo vale
indipendentemente dalla concentrazione del mercato, sia che vi sia concorrenza perfetta, un
oligopolio, un duopolio o un monopolio dove i potenziali entranti fanno le veci dei concorrenti (per
esempio si può avere la situazione in cui il monopolista può minacciare i potenziali concorrenti di
adottare dei prezzi predatori, cioè qualora questi decidessero di entrare nel mercato; sta al
potenziale entrante valutare la credibilità della minaccia. Si tratta in questo caso di un gioco di
deterrenza all‟entrata).
Si supponga che un mercato con più imprese concorrenti (oligopolio) possa essere rappresentato
dall‟interazione tra due imprese, A e B che producono lo stesso bene. La loro scelta strategica
verterà o sul livello di output da produrre (modello di Stackelberg, se la scelta è sequenziale, di
Cournot per gioco in simultanea) o sul prezzo di vendita dell‟output (scelta simultanea del livello
dei prezzi nel duopolio à la Bertrand).
Se la scelta è sequenziale, cioè si parla del modello di Stackelberg, chi sceglie per primo
detiene la leadership di quantità (o di prezzo), e il concorrente è un follower, cioè dovrà basare la
decisione circa il livello di produzione su quello del leader, una volta che la sua scelta è stata
effettuata. Tuttavia il leader può prevedere a priori la reazione del follower conseguente alla propria
scelta e quindi tenerne conto al momento di decidere.
Se invece la scelta del livello di
output da produrre è simultanea, allora vale
il modello di Cournot: date funzioni di
domanda lineari e costi marginali nulli per
tutte le imprese, ognuna sceglierà il livello di
output (ya, yb) che massimizza il suo profitto
(secondo il principio di ottimizzazione)
tenendo conto della strategia attesa del
rivale. La sua curva di reazione di A sarà
costruita in funzione di quella che A si
aspetta sia la curva di reazione di B:
ya=fa(ybe), yb=fb(ya
e). L‟equilibrio EQ di un
oligopolio à la Cournot si ha nel punto in cui
le curve di reazione che verificano le
aspettative si intersecano: ya = yae
= yb = ybe,
Source: H. Varian, 2007
ovvero EQ=ya*=yb*.
Qualora il mercato si trovi in una condizione diversa da quella di equilibrio, i concorrenti
modificheranno i propri livelli di produzione fino a raggiungere l‟equilibrio di Cournot. Una volta
raggiunto, essi riterranno conveniente non modificare ulteriormente la propria strategia. Per questo
motivo, l‟equilibrio di Cournot è detto stabile.
Nel caso di un modello di concorrenza à la Bertrand, il ragionamento è analogo. Trattandosi
questa volta di una concorrenza di prezzo, le imprese dovranno scegliere la propria strategia di
prezzo a seconda di quella che si aspettano sarà la scelta del concorrente, col vincolo che il prezzo
non potrà essere inferiore al costo marginale, poiché in tal caso sarebbe conveniente produrre
quell‟unità addizionale cui si riferisce il costo marginale (MC).
L‟equilibrio è dato dall‟intersezione delle curve di
reazione delle due imprese nel punto in cui il
prezzo fissato da entrambe eguaglia il costo
marginale. Tale condizione è detta “paradosso di
Bertrand”: partendo da un mercato di concorrenza
imperfetta come un oligopolio o un duopolio, si
giunge alla condizione di equilibrio caratteristica
dei mercati perfettamente concorrenziali con n
concorrenti: p1* = p2* = p* = MC.
Il prezzo di mercato che verifica l‟eguaglianza p* =
MC è l‟unico al di sotto del quale ogni concorrente
riterrà sconveniente scendere, poiché una scelta in
tal senso innescherebbe una reazione a catena del o
dei concorrenti che finirebbe per logorare il
mercato (con l‟uscita dei concorrenti meno competitivi, qualora vi fosse un‟asimmetria nella forma
della funzione di produzione, come una disparità nella tecnologia a disposizione) e riportarlo infine
all‟equilibrio.
Siano: MR = curva dei ricavi marginali, AC
= curva dei costi medi, D = curva di
domanda aggregata (per tutte le imprese), p
= livello dei prezzi, Q = quantità di output.
Confrontando i punti di equilibrio dei vari
tipi di mercato si avrà un prezzo di mercato
più alto alla quantità più bassa in monopolio,
una situazione intermedia data dal modello
di Cournot, ed una in cui i consumatori
hanno accesso alla maggior quantità di
output al prezzo più basso grazie al
funzionamento del mercato perfettamente
concorrenziale e à la Bertrand.
Source: H. Varian, 2007
CAPITOLO 3: ASSUNZIONI CLASSICHE SUI MODELLI
I risultati della teoria dei giochi applicata ai mercati sono da considerarsi validi se di verificano
certe ipotesi, dette assunzioni di base, sulle funzioni di costo, la razionalità del comportamento e in
genere sulla conoscenza degli operatori detti giocatori.
3.1. Simmetria delle curve dei costi
Si è accennata la condizione necessaria di simmetria nella funzione di produzione delle imprese
presenti nel mercato, ovvero delle loro funzioni di costo. La funzione di produzione di un‟impresa
indica la combinazione di fattori produttivi quali capitale, lavoro, e tecnologia (e/o capacità
manageriale; determina la produttività dei fattori, cioè in che misura contribuiscono a produrre
un‟unità di output), per trasformare un determinato ammontare di input in una certa quantità di
output. Essa è solitamente espressa nella forma Y = A f(K, L), dove Y è l‟output prodotto, A
rappresenta la produttività dei fattori produttivi capitale K inteso in senso ampio (stock di
macchinari, materie prime, mezzi finanziari, …) e lavoro umano L. La variazione più comunemente
usata è la funzione di produzione Cobb-Douglas: Y = A Ka L
1-a, con 0 < a < 1 che è il ritorno di
share ai proprietari del capitale K. Per differenza si ottiene il ritorno dei risultati della produzione al
capitale lavoro, dato dall‟esponente di L, (1-a). In questi questi casi le curve sono concave e quasi-
concave, entrambe inclinate positivamente.
Si supponga che un‟impresa in un mercato disponga di una produttività dei fattori più elevata
rispetto a quella delle altre. La sua funzione di produzione sarà tale da consentirgli di ottenere un
maggior ammontare di output agli stessi costi sostenuti dai concorrenti, oppure lo stesso livello di
output ma a costi di produzione inferiori. Questo si traduce in un vantaggio competitivo che
l‟impresa caratterizzata da tale funzione di produzione potrà usare per rafforzare la sua posizione
nel mercato. Avrà per esempio maggiore potere contrattuale rispetto ai suoi concorrenti, che
potrebbero tentare di colludere per reggere la competizione. In una situazione del genere la
collusione potrebbe rivelarsi un equilibrio più stabile rispetto a quanto ci si aspetterebbe
dall‟applicazione della teoria dei giochi sotto il vincolo di simmetria delle curve dei costi. Le
imprese che colludono infatti non avrebbero interesse a rompere l‟accordo fintanto che non
modifichino esse stesse la loro funzione di produzione in modo da poter competere da sole con
quella che ha costi di produzione minori. Solo a quel punto potrebbero voler violare l‟accordo
collusivo.
“Companies achieve competitive advantage through acts of innovation. They approach innovation
in its broadest sense, including both new technologies and new ways of doing things.” (M. E.
Porter, 1990)
3.2. Asimmetria: apprendimento e vantaggi di costo
Anche supponendo una condizione di partenza in cui si verificata l‟ipotesi di simmetria delle curve
di costo delle imprese, gli equilibri di Nash pareto-efficienti dei modelli precedentemente descritti
potrebbero comunque rivelarsi instabili in tempi successivi nel caso in cui i concorrenti avessero
curve di apprendimento.
“Ciò che dobbiamo imparare a fare, lo impariamo facendolo” (Aristotele, IV sec. a.C.)
L‟osservazione aristotelica è stata rivisitata e diffusa con il mantra del “learning by doing” proposto
da K. Arrow nella formulazione della teoria della crescita endogena in merito agli effetti delle
innovazioni (e degli investimenti in questo senso) sui sistemi produttivi (1962).
L‟idea di fondo esplicitata dalla curva di apprendimento è che il learning by doing diventa un
processo sempre più semplice col passare del tempo. Vale a dire che l‟apprendimento è strettamente
legato all‟esperienza, nel senso che assimilare un‟unità di informazione diviene via via più facile,
veloce e meno costoso. (Cohen e Levinthal, 1990)
Questo suggerirebbe un andamento di tipo esponenziale della curva di apprendimento, con due
possibilità: in mancanza di esperienza, la curva di apprendimento può assumere anch‟essa valori
prossimi allo zero, secondo la ratio del learning by doing, oppure tendere ad infinito, poiché ogni
esperienza insegna qualcosa di nuovo, mentre col passare del tempo, un sistema produttivo diventa
noto, quindi l‟acquisizione di nuove unità di conoscenza diviene un processo che va scemando.
Tuttavia, generalmente si ritiene
verosimile che un sistema, per
quanto intelligente, abbia dei
limiti fisiologici che ne limitano
l‟apprendimento ad un livello
massimo, perciò la curva sarà più
comunemente rappresentata come
una sigmoide, più o meno piatta a
seconda della relazione, che parte
da valori attorno allo zero,
accelera esponenzialmente per
poi decelerare fino ad
approssimarsi al limite massimo
di apprendimento. (Henderson‟s
Law, 1968)
Source: Wikipedia
In ogni caso, un‟impresa che abbia una curva di apprendimento, se ne può avvalere per crearsi un
vantaggio competitivo dato da un vantaggio di costo ottenibile sui concorrenti:
La disparità nelle curve di apprendimento dei diversi concorrenti avrebbero sull‟equilibrio di
mercato effetti analoghi a quelli dovuti all‟asimmetria delle curve di costo.
3.3 Simmetria informativa.
Un altro pilastro su cui si erge la teoria dei giochi è la simmetria informativa. Per esempio, è
concretamente molto difficile che ad un‟impresa sia nota la forma esatta della funzione di costo dei
suoi concorrenti e di certo non è nei suoi interessi rivelare loro la propria. Spesso è difficile per
l‟impresa perfino conoscere la propria funzione di produzione, a causa della difficoltà nella stima
puntuale della produttività dei fattori produttivi, soprattutto del capitale lavoro. Non è sufficiente
infatti conoscere l‟ammontare ottimale di lavoro tale che i costi di produzione siano minimizzati e
massimizzati i profitti. Anche qualora questa stima fosse esatta, l‟introduzione nel processo
produttivo dell‟ammontare ottimo di capitale lavoro potrebbe non portare i risultati attesi, a causa
della variabilità della sua produttività. Potrebbe essere richiesta una quantità addizionale di
lavoratori, qualora la loro produttività fosse stata sovrastimata. Brevemente Oppure, si potrebbe
avere un esubero di forza lavoro, dovuto, per esempio, ad una sottostima della produttività di altri
fattori produttivi (macchinari, innovazioni tecnologiche, …).
Un‟interessante teoria sulla produttività dei fattori è quella battezzata da H. Leibenstein come
“efficienza X” (1966). Egli osserva una mancata realizzazione empirica dell‟efficienza allocativa
(che si ha in corrispondenza di un punto di ottimo paretiano e coincide quindi con la pareto-
efficienza) che i modelli classici e neoclassici si aspetterebbero in mercati in cui gli operatori
economici agiscono razionalmente secondo i principi di ottimizzazione ed equilibrio. La razionalità
per le imprese significa che esse sceglieranno di operare alla frontiera del proprio vincolo
Source: Wikipedia
tecnologico, rappresentato dalla tecnologia disponibile. Un‟impresa che sia in tale condizione di
efficienza tecnica sceglierà nel lungo periodo una combinazione di input e output (cioè una
funzione di produzione) tale da posizionarsi sul punto di minimo della sua curva dei costi medi
totali (si dice quindi che nel lungo periodo l‟impresa implementa la “best practice technology”). I
mercati poco concorrenziali in particolare rivelano che invece le imprese operano sovente al di sotto
del proprio vincolo tecnologico. Leibenstein individua tre principali cause di questa inefficienza
allocativa (o tecnica) che egli chiama “inefficienza X”: contratti di lavoro incompleti; assenza di un
mercato per ogni input (con riferimento alla capacità manageriale in particolare); difetti di
conoscenza della funzione di produzione. La condizione di inefficienza allocativa diventa più
evidente al diminuire dell‟impellenza di raggiungere il punto di minimo nella curva dei costi,
ovvero, man mano che la concorrenza degenera verso il monopolio.
3.4 Asimmetria informativa: la teoria della razionalità limitata.
L‟espressione “contratto incompleto” ricorre anche nella teoria di H. Simon (1916 – 2001) circa
quelle che lui chiama “razionalità limitata” e “razionalità olimpica”. Egli sostiene che solo individui
con razionalità “olimpica” possano stipulare dei contratti completi, in quanto, disponendo entrambi
di una conoscenza perfetta, essi possono valutare e includere nel contratto ogni situazione che
potrebbe verificarsi, in quanto dispongono di tutte le informazioni necessarie a prevederle. I
contratti incompleti invece sono quelli sottoscritti in difetto di razionalità olimpica: il livello di
informazione dei contraenti è al di sotto di quello che consentirebbe loro di prevedere ogni possibile
scenario da includere nel contratto. C‟è dunque bisogno di un terzo partito che verifichi che i
vincoli del contratto siano rispettati da entrambe le parti (per esempio, un‟autorità pubblica), in
quanto le scelte sottoscritte si potrebbero rivelare non efficienti in senso paretiano e quindi uno o
tutti i contraenti potrebbero volersi svincolare dagli obblighi contrattuali (cioè cambiare la loro
strategia, come nel caso della collusione o di qualsiasi equilibrio instabile).
La scelta lessicale di Simon del termine “olimpica” in riferimento alla razionalità che l‟economia
ortodossa pretende dagli operatori economici, suggerisce senza troppi indugi la difficoltà che tale
pretesa abbia dei riscontri empirici. Infatti Simon osserva che gli agenti economici sono soggetti a
vincoli, o limiti, particolarmente stringenti: essi sono chiamati ad effettuare una scelta data una
quantità incompleta di informazione circa il ventaglio effettivo delle loro possibilità; oltre alla
menomazione conoscitiva, devono compiere la loro scelta in un certo intervallo di tempo. Se la
teoria dei giochi tiene conto solo dello spazio (i giocatori di un gioco sono concorrenti nello stesso
mercato) e guarda al tempo come ad una successione di circostanze che si ricreano (l‟approccio
cambia a seconda che il gioco sia in simultanea o sequenziale, ripetuto più volte o una sola), Simon
non trascura l‟effetto che la componente tempo ha sul procedimento decisionale dei giocatori. Egli
individua quindi una ratio non più di ottimizzazione ma di soddisfazione nella scelta strategica.
Ogni giocatore dovrà quindi accontentarsi di scegliere una strategia associata ad un‟utilità
soddisfacente, che non è detto sia la massima ottenibile, dati i limiti alla sua razionalità, ovvero i
suoi difetti conoscitivi.
Le osservazioni riguardo la razionalità degli operatori economici sono strettamente relazionate
all‟ambiente in cui essi sono inseriti. In genere nella letteratura economica si valuta la razionalità
degli individui in base al loro grado di comprensione del sistema in cui sono inseriti, ovvero
dell‟ambiente circostante.
È necessario dunque approfondire il contesto sistemico in cui si svolge e analizza la razionalità.
L‟approccio che in questa sede si ritiene più funzionale alla trattazione è quello dato dalla teoria dei
sistemi, in particolare di quelli complessi e dinamici, le cui caratteristiche corrispondono in maniera
sufficientemente adeguata a quelle dell‟ambiente economico, uno spazio composito, vario e
variabile.
CAPITOLO 4: L‟AMBIENTE ECONOMICO E LA TEORIA DEI SISTEMI
4.1 L‟ambiente come sistema aperto
Simon osserva che la razionalità limitata dei soggetti tuttavia non preclude loro la possibilità di
fronteggiare situazioni complesse dal punto di vista decisionale sfruttando la struttura dell‟ambiente
e le regolarità di essa e dei modelli noti. In parafrasi, l‟ambiente nella teoria economica e lo spazio
in cui gli operatori economici svolgono la loro attività di produzione o di consumo, cioè, in genere,
il mercato.
La definizione più esaustiva circa il concetto di “ambiente” è data forse dalla termodinamica che
identifica l‟ambiente esterno (a cui ci si è riferiti finora), in termini di insiemistica, nella differenza
fra l‟insieme universo (U) e l‟oggetto di studio (xi): U \ {xi}. La loro unione invece costituisce un
sistema detto chiuso e isolato, nel senso che ingloba già tutti i possibili elementi che avrebbero
potuto entrare nei sistemi aperti U \ {xi} e {xi} stesso.
In altre parole, un sistema si dice chiuso se è impermeabile all‟azione di agenti esterni ed
impenetrabile da essi. Questi sono i sistemi in cui si svolge la meccanica newtoniana classica, come
si vedrà in seguito. Sono estremamente rari da osservare, poiché quasi tutti i sistemi ad esclusione
dell‟universo nella sua totalità, subiscono o attivano una qualche interazione con elementi non
direttamente inclusi nel loro dominio, se non altro per il fatto che qualsiasi sistema, per poter
funzionare così come per mantenersi in vita, ha bisogno di un certo quantitativo di energia. Un
esempio di sistema chiuso, indipendente dall‟apporto di energia dall‟esterno nel senso che è in
grado di autoalimentarsi, potrebbe essere una botte per la fermentazione del vino, sigillata
ermeticamente in quanto il processo che vi si svolge è alimentato dall‟energia fornita dagli zuccheri
del succo d‟uva. (C. H. Waddington, 1977)
I sistemi aperti invece sono quelli che si osservano in natura: sono sostanzialmente sistemi parziali,
poiché permettono ad elementi esterni di penetrare e interagire con quelli interni e viceversa. Vi è
uno scambio reciproco di energia e informazione, tramite cui elementi esterni e interni al sistema di
riferimento (o sistemi diversi, che dir si voglia) interagiscono fra loro.
I più recenti sviluppi della fisica hanno completato la vecchia dicotomia che vedeva gli scambi di
informazione relazionarsi a scambi di energia arbitrariamente piccoli. Uno scambio di informazione
fra sistemi, per esempio comunicativi, richiede un energia tale che il segnale inviato non vada
distrutto a casa di eventuali interferenze o disturbi. Dunque vi è un minimo livello di energia
necessario allo scambio di informazioni che coincide con il quanto di luce (la misura minima di
radiazione di energia) ma ciò non impone restrizioni ulteriori circa l‟accoppiamento energetico e
quello informativo. (N. Wiener, 1950)
È proprio sulla classificazione dei sistemi aperti e chiusi che si articola la teoria di Simon circa la
capacità di apprendimento delle organizzazioni economiche con razionalità limitata. Egli osserva
che i sistemi organizzati quali quelli economici hanno sostanzialmente due possibilità di
apprendimento: per via endogena, cioè tramite la capacità apprendimento degli elementi del
sistema, e per via indotta, cioè inglobando nel sistema nuovi membri che vi apportino nuove
informazioni, cioè colmino le lacune informative precedenti alla loro entrata. Un processo di questo
tipo, senza che vi sia un‟espulsione equivalente di unità dal sistema, innesca una crescita del
sistema in termini quantitativi (il caso opposto è quello della decrescita, data dalla perdita di
elementi del sistema che non vengono sostituiti). Si noti che, come confermato dalla teoria
dell‟efficienza X, un aumento delle dimensioni di un sistema non significa che vi sia una crescita
qualitativa ad esempio nell‟efficienza dei processi svolti dal sistema.
Il modello di crescita più semplice (e quello a cui di solito si cerca o si spera di ricondursi) è quello
lineare, espresso cioè da una funzione del tipo: Yt = x0 + kt, dove x0 è la dimensione del sistema allo
stato iniziale e k è la quantità che vi si aggiunge al tempo t. Per quanto desiderabili siano le
caratteristiche e le proprietà matematiche di un modello lineare, è raro trovare un sistema vivente
che segua questo tipo di crescita.
La più comune è la crescita esponenziale, che ad ogni intervallo di tempo t fa corrispondere la
dimensione del sistema data da x = x0 ekt
dove k è detta costante di proporzionalità.
Una popolazione biologica per esempio crescerà a ritmo esponenziale, fermo restando il vincolo
dato dalle risorse disponibili ovvero dall‟ambiente, finché questo si trasformerà in un fattore di
freno del tasso di crescita (dato da dx/dt = k x). Dunque si può desumere che un tipo di crescita
esponenziale sia possibile soltanto qualora si disponga di uno spazio infinito in cui il sistema si può
sviluppare e di risorse infinite per il sostentamento della crescita e del sistema stesso.
Oltre ai limiti spaziali e di disponibilità delle risorse, la crescita, di qualsiasi tipo, deve fare i conti
con i rifiuti che il funzionamento del sistema produce, soprattutto se in espansione, e con il logorarsi
delle sue parti. Si tenga presente che le componenti dei sistemi viventi sono soggette
all‟invecchiamento, cioè ad una perdita di efficienza col passare del tempo, così come le
componenti di un sistema meccanico lo sono al logorio. (C. H. Waddington, 1997)
Da questa osservazione si deriva la forma forse più diffusa di curva di crescita, la logistica o curva
ad S (come la curva di apprendimento vista precedentemente).
Un fenomeno simile alla crescita è quello dell‟evoluzione, che può essere vista come una crescita
qualitativa, innescata però da un processo di erosione, ovvero di eliminazione o espulsione dal
“sistema specie vivente” di quegli individui che non si trovino in equilibrio con il “sovra sistema
ambiente”. (N. Wiener, 1950)
Vari economisti hanno proposto il paragone dell‟evoluzione dei mercati con la teoria darwiniana.
Tuttavia va osservato che l‟evoluzione biologica è lineare e segue un andamento crescente, più o
meno lento a seconda della specie, ma quella economica sembrerebbe invece ciclica. In un mondo
ideale senza imperfezioni (malattie/fallimenti di sistema/errori genetici etc), l‟evoluzione non
esisterebbe (Herbey’s Hypothesis), così come se l‟ipotesi di conoscenza perfetta fosse anche solo
idealmente valida, non avrebbe senso parlare di curve di apprendimento, né forse di funzioni di
massimizzazione, poiché le soluzioni non ottimali verrebbero via via eliminate dai meccanismi
automatici del mercato.
4.2 La complessità nei sistemi
Come un qualsivoglia organismo vivente composto da apparati, organi, tessuti, cellule che
interagiscono e si aggregano fra loro determinando il funzionamento dell‟aggregato “finale”, il
mercato può essere visto come un sistema complesso aperto, formato da sub-sistemi di livelli
inferiori, anch‟essi caratterizzati da diversi gradi di complessità e apertura, a loro volta composti da
aggregati via via più elementari.
La complessità è un‟astrazione che ancora manca di una definizione soddisfacente e condivisa. In
genere è associata al numero di variabili che intervengono in un sistema e alle interrelazioni o
correlazioni fra esse. Se un sistema caratterizzato da relazioni gerarchiche fra i suoi elementi, come
una catena di comando, e rappresentabile con un diagramma ad albero (come quello del il gioco del
dilemma del prigioniero) risulta di complessità relativamente bassa, uno in cui vi sono anche
interrelazioni per esempio biunivoche fra elementi dello stesso livello gerarchico, diventa piuttosto
complesso, se non altro per il numero di relazioni (cioè variabili da studiare) che cresce
esponenzialmente nel secondo caso rispetto al primo.
Il corpo umano per esempio è una sovrastruttura sistemica complessa, il cui funzionamento può
essere analizzato dalla sua disaggregazione in sistemi aperti di dimensioni e complessità
relativamente inferiori (apparati, organi, tessuti, cellule…) fino ad isolare la sua unità fondamentale,
cioè l‟atomo.
Example of a complex system, the human body, deconstructed on its fundamental particles, the
quarks.
Source: http://generalcuestar.com
Qui si fermerebbe lo studio della meccanica classica, ma la fisica delle particelle sarebbe invece
ancora interessata a scendere a livello subatomico.
L‟atomo è infatti un microcosmo, nel senso che costituisce a sua volta un sistema, la cui
complessità è inferiore rispetto a quella delle sovrastrutture da cui è stato “estratto”.
Esso è comunque scomponibile in altri
sistemi aperti, formati dal nucleo e
dagli elettroni orbitanti attorno ad esso,
che interagiscono fra loro e con lo
spazio circostante. Nucleo ed elettroni
sono un esempio piuttosto immediato di
sistemi accoppiati, cioè la cui somma
dà il sistema atomo. È possibile
zoomare ancora all‟interno del nucleo
atomico, le cui costituenti, protoni e
neutroni, sono a loro volta formati
ciascuno da tre quark di diverso tipo
tenuti assieme dalla cosiddetta forza
forte.
4.3 Classificazione dei sistemi
Un sistema è dato da un ordinamento di oggetti costruito e quindi classificato in modo funzionale
all‟osservazione. Per esempio, il corpo umano, con la sua complessità intrinseca appena descritta, è
un sistema concluso che tende ad uno stato stazionario, cioè mantiene costanti in media le proprie
caratteristiche attraverso una serie di processi. Per esempio il livello della glicemia è mantenuto
costante, salvo disfunzioni patologiche, dall‟attività di secrezione di insulina da parte di uno dei
suoi organi. Il processo mediante cui un sistema ritorna al suo stato stazionario (o al suo equilibrio)
dopo che è stato disturbato (come il pancreas che riprende il suo normale funzionamento dopo aver
secreto un livello straordinario di insulina per compensare un improvviso picco glicemico) è detto
omeostasi.
Un sistema si dice concluso invece quando oscilla perpetuamente fra dei valori estremi, secondo
una funzione armonica, ondulatoria che si ripete nel tempo senza soluzione di continuità. La natura
ondulatoria è insita del sistema, è la sua configurazione finale, non il risultato di perturbazioni
temporanee del suo stato stazionario che verranno compensate da reazioni uguali e contrarie. (C. H.
Waddington, 1977)
In un sistema vivente tutte le unità elementari sono funzionali all‟auto-sostentamento e al
funzionamento del livello superiore di cui fanno parte, così come la microeconomia interpreta il
comportamento degli individui come ottimizzante, sia in relazione all‟utilità propria che collettiva
(cioè della sovrastruttura “mercato” formata dai singoli individui). La funzione di utilità della
Carbon atom sub-atomic structure. Source: http://generalcuestar.com
particella elementare è dunque la sua stessa sopravvivenza, da cui segue il continuum nel
funzionamento dei sovra-sistemi via via più complessi. La particella elementare può essere ignara
del funzionamento dell‟organo di cui fa parte, ma è costretta da leggi fisico-chimiche ben precise ad
agire in un determinato modo per tutto il suo ciclo vitale. Naturalmente, gli operatori economici che
compongono il mercato non sono stretti con altrettanta forza nella morsa delle reazioni fisico-
chimiche. Il loro comportamento è comunque ottimizzante, nel senso che la ratio dell‟operatore
economico è la massimizzazione della sua utilità, ma questa non è inquadrata in modo immutabile
dalle stesse leggi che regolano il funzionamento dei sistemi biologici e delle loro parti. E questo
vale sia a livello individuale che aggregato.
Ora, il mercato è invero una sovrastruttura composta da un numero pressoché indefinito di
organismi che interagiscono fra loro a livelli diversi, proprio come un sistema biologico. La scuola
di pensiero ortodossa potrebbe inquadrare il mercato nel gruppo dei sistemi conclusi, in quanto esso
tende sempre al punto di equilibrio, cioè allo stato stazionario.
Inoltre il mercato è un sistema dinamico, se visto in quest‟ottica, poiché conoscendone lo stato al
tempo zero, è possibile conoscerne la conformazione in tutti gli altri momenti precedenti o
successivi applicando un opportuno algoritmo di evoluzione, con un errore relativamente piccolo.
Questa è sostanzialmente l‟anima del meccanicismo laplaciano che ha pervaso e guidato la ricerca
scientifica dai suoi albori nell‟età moderna ai tempi odierni.
D‟altro canto, il mercato potrebbe anche essere visto come un sistema progressivo, poiché è
difficile prevederne precisamente le trasformazioni finali, mentre è possibile prevederne lo stato
finale. Per esempio, ci si può aspettare che un consumatore spenderà il suo reddito disponibile, ma
in mancanza di informazioni sulle sue preferenze non si può essere certi del modo in cui le
spenderà.
CAPITOLO 5: INFORMAZIONE E CONOSCENZA NEI SISTEMI ECONOMICI
In genere si può dire che il sistema economico sia impostato in modo tale che i suoi operatori siano
spinti a trascurare il futuro in modo inversamente proporzionale al tasso di crescita esponenziale.
Questo fa si che il comportamento degli elementi del sistema sia determinato dalle loro aspettative
sull‟immediato futuro, piuttosto che sul lungo termine. La dimensione prospettica temporale dunque
risulta enormemente ridotta. Si crea dunque un‟ulteriore disfunzione nel processo di scelta delle
strategie ottime, poiché la loro valutazione dipenderà in modo variabile e vario dalla percezione
soggettiva dell‟importanza del tempo. In ultima analisi, questo non è altro che un problema di
ordinamento di preferenze circa l‟utilità associata ai diversi scenari temporali in cui il soggetto può
agire. Questo per il semplice motivo che le previsioni in ambito economico a lungo periodo sono
più difficili da effettuare in quanto potenzialmente soggette a un numero incalcolabile di variabili.
Si tratta quindi, ancora una volta, di un problema dovuto alla razionalità limitata o informazione
imperfetta.
D‟altro lato, la conoscenza o informazione perfetta più volte menzionata finora è un concetto molto
ampio.
Alla base del funzionamento di un qualsiasi modello infatti vi è l‟assunzione che ogni individuo
coinvolto ne conosca il funzionamento esatto, in modo che possa “giocare secondo le regole”. Ogni
giocatore che voglia massimizzare il suo payoff (cioè ogni giocatore razionale), dovrà scegliere una
strategia ottima, come visto, o una combinazione ottima di strategie miste, nel caso ad esempio dei
giochi a somma zero, in cui il payoff guadagnato da un giocatore è esattamente uguale alla perdita
di utilità dell‟avversario (situazione tipica dei giochi d‟azzardo, in cui la vincita di un giocatore
equivale alla perdita dell‟altro), in cui un equilibrio è possibile soltanto qualora si giochi una
strategia per un certo numero di volte, per poi cambiarla, a seconda della probabilità della scelta
dell‟avversario.
In relazione alle strategie miste, va precisato che, se esse possono risolvere situazioni irrisolvibili in
termini di strategie pure (la strategia resta costante), non è detto che a livello empirico portino a
soluzioni soddisfacenti. Infatti nella realtà vanno considerati i cosiddetti switching costs, costi di
transazione (R.H. Coase, 1937) nella loro accezione più varia (per esempio, nel caso di un mercato
collusivo, giocare una strategia mista quasi sicuramente avrebbe degli effetti negativi in termini di
credibilità e immagine per il giocatore che facesse questa scelta, tanto da comprometterne la
permanenza nel gioco), e di accesso all‟informazione (verosimilmente, reperire le informazioni
necessarie a costruire una curva di reazione ottima è dispendioso sia in termini monetari che di
tempo e sforzi, con il conseguente insorgere di costi-opportunità per le risorse impiegate).
In ogni caso, per poter effettuare la scelta ottima, ogni giocatore deve innanzitutto conoscere il
ventaglio delle possibili scelte e le regole del gioco. In difetto di queste informazioni, nessun
giocatore è in grado di crearsi delle aspettative né sulla reazione dell‟avversario a una determinata
mossa, né sull‟esito del gioco. Inoltre, ogni giocatore deve disporre di queste informazioni e deve
inoltre assumere che anche l‟altro o gli altri giocatori ne siano in possesso. Questa condizione è
detta di “simmetria informativa” o di informazione o conoscenza perfetta. Si tratta di una
condizione necessaria ma non sufficiente per una scelta della strategia ottima in risposta ad ogni
possibile strategia avversaria. Infatti, per poter stimare le curve di reazione attese è necessario
affiancare all‟assunzione di conoscenza perfetta quella di razionalità dei giocatori: ogni giocatore è
razionale e sa che anche gli altri hanno un comportamento ottimizzante, cioè sono anch‟essi
razionali e faranno le proprie scelte in funzione della conoscenza comune del funzionamento del
gioco. La conoscenza, oltre che perfetta, deve essere anche condivisa equamente da tutti i giocatori
(è quindi simmetrica).
5.1 Teoria della conoscenza
La teoria della conoscenza e l‟epistemologia indagano la natura stessa della conoscenza, le sue
fonti, il confronto fra esperienza e aspettative in funzione delle informazioni acquisite e come
questo condizioni la percezione dell‟ambiente in cui il soggetto dell‟apprendimento opera. Gli
autori della letteratura sul tema della conoscenza finiscono quasi sistematicamente per interrogarsi
sull‟effettiva esistenza di una “conoscenza” in termini assoluti. Ci si chiede, in altre parole, se sia
davvero possibile conoscere effettivamente qualcosa.
Al di là della trattazione metafisica dell‟argomento, una descrizione di che cosa sia la conoscenza
condivisa fra gli studiosi in materia è quale convinzione giustificata da riscontri empirici.
Il problema conseguente è che non esiste una definizione puntuale di “fatti”, né di “aspettative” né
di che cosa renda la loro relazione “giustificata”. (B. Russel, 1948) La conoscenza, dunque, deriva
sì da una relazione causale tra fatti e esperienze passate e aspettative future (teoria moderna della
conoscenza), ma tale relazione è percettiva, personale e non assoluta, come già osservavano
Leonardo Da Vinci nel XV secolo: “ogni nostra convinzione, principia dai sentimenti”, e F.
Nietzsche, 1869: “Che cosa può soltanto essere la conoscenza? „Interpretazione‟. Non
„spiegazione‟.”
Ad ogni modo, la questione d‟interesse è che la conoscenza – intesa come un insieme di condizioni
che inducono la formazione di una certa interpretazione della realtà – determina le aspettative sulle
dinamiche del sistema in cui si opera. Secondo la teoria moderna della conoscenza, è proprio
sull‟interpretazione esperienziale della realtà che si ergono i criteri di scelta delle risposte ottimali
agli stimoli esterni. In altri termini, per capire i meccanismi di interazione fra le unità sistemiche,
bisogna capire la relazione che intercorre tra la loro conoscenza e il loro comportamento. (F.
Knight, 1929)
È piuttosto chiaro che tale conoscenza, nella sua accezione più ampia, sia comunque limitata e
imperfetta, lungi dall‟onniscienza alla base dei modelli teorici finanziari, macro e microeconomici.
Una confutazione empirica sta nel concetto stesso di equilibrio: se l‟assunzione di conoscenza
perfetta fosse corretta – e quindi tutte le sinergie fossero prevedibili e meccaniche – allora, il
mercato non avrebbe motivo di discostarsi dal suo punto di equilibrio, una volta raggiunto, salvo,
ovviamente, il vincolo ambientale (per esempio il verificarsi di eventi imprevedibili e incontrollabili
come le calamità naturali). Ma anche sotto tale vincolo, un sistema dotato di una razionalità
olimpica dovrebbe sapersi destreggiare nello sfruttamento ottimale delle risorse limitate.
Invece gli scostamenti dallo stato stazionario dell‟economia, i cosiddetti fallimenti del mercato,
avvengono pressoché per cause endogene.
5.2 Gli effetti delle lacune informative sul comportamento ottimizzante.
La ratio ottimizzante degli operatori economici si riferisce a un comportamento auto-interessato,
coerente coi principi della microeconomia e della teoria dei giochi classica (Von Neumann e
Morgensten – Theory of Games and Economic Behavior, 1947) per cui ogni individuo agisce in
funzione della massimizzazione della propria utilità. (Tondini e Zarri, 2004) Sebbene i concorrenti
sono legati tra loro all‟interno di un gioco, sia esso cooperativo, competitivo o conflittuale, da
relazioni di interdipendenza strategica (la strategia di ognuno dipende da quella attesa degli altri),
ciascuno di essi a livello individuale persegue la massimizzazione del profitto o comunque della
propria funzione di utilità. Gli strumenti forniti dalla teoria economica classica e dalla teoria dei
giochi sono in questo caso funzionali al raggiungimento di tale obbiettivo. In un‟ottica del genere,
coerentemente alla dottrina neoclassica, attraverso la massimizzazione dell‟utilità individuale si
massimizza automaticamente anche quella collettiva, risultante dalla somma delle utilità individuali.
La validità di questo tipo di relazione fra i diversi livelli di aggregazione degli operatori economici
è garantita proprio dal loro comportamento auto-interessato. Tuttavia, anche l‟ipotesi di “egoismo
universale” appare empiricamente smentita dal verificarsi di soventi comportamenti anti o pro-
sociali, che si discostano dalla classica ratio di massimizzazione del payoff individuale a causa di
strutture motivazionali disomogenee nel mercato. (Sacco e Zarri, 2004) Ciò significa che i giocatori
non costruiscono necessariamente le proprie preferenze attorno al self-interest, ma potrebbero
piuttosto essere interessati al grado di benessere di uno o più fra gli altri giocatori o dell‟intera
collettività, espresso dalla somma dei payoffs di tutti i giocatori. Si parla in tal caso di “meta
preferenze motivazionali”, derivate comunque dalle scelte individuali, ma condizionate
dall‟orientamento motivazionale dei singoli giocatori.
(-3, -3)
(0, -6)
(-1, -1)
(-6, 0)
A Defects
B Defects
A Cooperates
B Cooperates
B Cooperates
B Defects
Prisoner’s Dilemma: change in
outcome throughout the social
utility maximization (-3) + (-3) = -6
(-1) + (-1) = -2
La soluzione migliore a livello
di somma di payoffs, cioè
collettivo, coincide con
l‟equilibrio instabile dato dalle
strategie che erano state escluse
poiché strettamente dominate:
CAPITOLO 6: DAL DETERMINISMO ALLA PROBABILITA‟
Alla luce delle osservazioni fatte finora, si può cercare di tamponare le falle della formulazione
originaria della costruzione della funzione di utilità secondo l‟approccio ortodosso, ricorrendo a
strumenti di compromesso fra determinismo e probabilismo, come le preferenze rivelate e la
funzione di utilità attesa.
6.1 Stima delle preferenze.
Qualora non si disponga di informazioni circa le preferenze degli operatori economici, è possibile
desumerle dall‟osservazione del loro comportamento. Si tratta sostanzialmente di una raccolta di
dati circa le scelte osservabili dei consumatori per ottenerne le cosiddette preferenze rivelate. Il
principio sotteso è il seguente: sia (x1, x2) il paniere scelto in corrispondenza dei prezzi (p1, p2) e
(y1, y2) un altro paniere tale che p1x1 + p2x2 ≥ p1y1 + p2y2; allora, se è vero che il consumatore
sceglie il paniere preferito tra quelli che può acquistare dato il suo vincolo di bilancio, si deve avere
che (x1, x2) è preferito a (y1, y2). In altre parole, l‟osservazione a posteriori delle scelte effettuate è
informativa delle preferenze che le hanno determinate. (H. Varian, 2007) In tal caso vale la regola
statistica per cui un incremento sufficientemente consistente della numerosità campionaria fornisce
un‟informazione maggiore sul fenomeno osservato. Più sono le osservazioni sulle scelte effettuate,
più ci si avvicinerà alla comprensione delle preferenze da cui esse hanno avuto origine.
Anche per le preferenze rivelate si
assume valida l‟ipotesi di transitività
vista in precedenza.
Siano i segmenti AB e CD le rette di
bilancio; se il paniere (x1, x2) si rivela
direttamente preferito a (y1, y2) e
questo a sua volta si rivela
direttamente preferito ad un altro
paniere (z1, z2), allora (x1, x2) si
rivela indirettamente preferito a (z1,
z2). (H. Varian, 2007)
A sostegno del principio delle preferenze rivelate sopra enunciato, si hanno gli assiomi debole e
forte delle preferenze rivelate (rispettivamente, WARP e SARP).
Il WARP stabilisce che se un paniere X si rivela direttamente preferito ad un altro Y ed essi non
sono uguali, allora non può essere che Y si riveli direttamente preferito ad X. Ovvero, se X giace
sulla retta di bilancio e Y è in corrispondenza di un punto di essa tale che, se venisse acquistato X,
sarebbe ancora comunque possibile acquistare Y, si deve verificare che, se la scelta di consumo
verte su Y, allora la possibilità di acquistare X si viene a precludere.
Preferenze e vincoli di bilancio – H. Varian, 2007
Il SARP invece fa riferimento sia alle preferenze direttamente rivelate che a quelle rivelate
indirettamente. Si tratta dunque di una condizione necessaria e sufficiente del comportamento
ottimizzante. Se le scelte osservate sono concordi con l‟assioma forte, significa che esistono con
ogni probabilità un ordinamento di preferenze che le ha originate, secondo il principio di
ottimizzazione (alla scelta effettuata, il consumatore associa la maggiore utilità, che deriva
dall‟ordinamento delle sue preferenze in tal senso).
L‟assioma forte delle preferenze rivelate è quindi un passaggio obbligato nella costruzione delle
preferenze sottese alle scelte effettuate dagli operatori. Si tratta comunque di una stima e in quanto
tale non è detto che conduca a comprendere l‟effettivo ordinamento preferenziale che ha originato
tali scelte di consumo. È comunque un punto di partenza per la costruzione di una funzione di utilità
in mancanza di informazione precisa.
6.2 Stime dell‟utilità con informazione limitata.
La funzione di utilità attesa è nota anche come utilità di Von Neumann-Morgenstern, dai scuoi
ideatori, il matematico J. Von Neumann (fra le altre cose, uno dei padri della teoria dei giochi) e
l‟economista O. Morgenstern, che collaborarono a diversi studi.
Una curva di utilità di questo tipo è espressa come somma delle funzioni di consumo di ogni stato
di natura (cioè ogni esito probabile di qualche fenomeno di tipo aleatorio, ovvero incerto)
considerato, ponderate per la loro probabilità di verificarsi: u(c1, …, cn; P1, …, Pn) = P1 f(c1) + … +
Pn f(cn).
Qualsiasi trasformazione monotona della funzione di utilità così espressa descriverà le stesse
preferenze.
Dai consumi corrispondenti ad ogni stato di natura, si avrà il cosiddetto consumo condizionato, che
specifica le funzioni di consumo condizionate (dipendenti) dall‟esito del processo aleatorio. (H.
Varian, 2007)
In altre parole, l‟espressione in termini probabilistici della funzione di utilità fa riferimento ai
consumi attesi, cioè al loro livello medio. Questo rimanda ad una delle osservazioni fatte in
precedenza circa le preferenze: si era osservato che nella maggioranza dei casi i consumatori
preferiscono appropriarsi di quantità relativamente proporzionali di beni diversi, piuttosto che
esaurire il proprio vincolo di bilancio in corrispondenza di una quantità elevata di un solo bene.
Anche in questo caso, quindi, si può dire per analogia che la media sia preferita agli estremi.
In alternativa a questo approccio, H. Dixon propose di trascurare l‟analisi minuziosa del
ragionamento “limitato”, sulla base della considerazione per cui le scelte di ogni soggetto
tenderanno comunque a quella di ottimo. Ciò si traduce nella disequazione U* - ≤ U(s), dove U* è
la scelta ottima in condizione di razionalità piena o informazione perfetta ed è detto epsilon-
ottimizzatore in quanto determina quanto la scelta effettuata da una razionalità limitata su un
ventaglio di possibili strategie s si discosta da quella ottima. In condizioni di conoscenza perfetta si
avrebbe un valore nullo di
6.3 La ricerca delle scelte ottime: dalla probabilità all‟ euristica.
A livello empirico si possono verificare delle situazioni in cui non è possibile stimare quanto delle
scelte si discostino da quella ottima, né di ordinare le preferenze sottese. Si pensi per esempio al
mercato di servizi sanitari, dei quali è possibile verificare l‟utilità solo a posteriori, cioè anche molto
tempo dopo che il servizio (la cura) sia stato erogato. In casi come questo, lo studio dei casi
empirici dell‟economia sperimentale sembra suggerire che l‟ordinamento delle preferenze non
faccia affidamento né sul determinismo classico (a funzioni matematiche utili a svolgere delle
previsioni puntuali, partendo dal presupposto che a cause uguali corrispondano effetti uguali sulle
stesse condizioni iniziali), né sul probabilismo (stime statistiche), ma verta piuttosto ad un
approccio euristico, cioè intuitivo, che verifica la bontà dei risultati a posteriori. Si tratta di un
processo simile a quello di apprendimento, in genere del tipo “trial and error”, come suggerisce
l‟etimologia del termine, che deriva dal termine greco “”, “scopro”). La logica di base non
è un algoritmo di ottimizzazione bensì quella introdotta da Simon della soddisfazione per cui i
soggetti che operano la scelta si accontentano di limitati coerenti o funzionali al perseguimento dei
propri fini, anche qualora questi risultati non siano i massimi ottenibili. L‟allievo di Simon, J. G.
March fornisce la seguente definizione delle euristiche: “(…) sono regole pratiche per calcolare
determinati tipi di numeri o per risolvere certi tipi di problemi. Sebbene le euristiche psicologiche
per la soluzione di problemi siano normalmente sviluppate nell‟ambito della discussione sulla
razionalità limitata come risposta a limiti cognitivi, esse possono venir interpretate altrettanto
facilmente come versioni di un comportamento basato su regole che segue una logica diversa da
quella della conseguenza.”
Vari studi hanno evidenziato anche che l‟uomo ha una base biologica tipica caratterizzata da
elasticità ed educabilità, funzionali alla continuità storica del sistema in cui egli è inserito. La
memoria storica del sistema risiede nel grado di educazione con cui gli individui adulti tramandano
i propri costrutti mentali alla generazione successiva che entra nel sistema.
Purtroppo gli studi hanno rivelato anche che l‟uomo è una forma neotèinica, cioè secondo la
zoologia, a confronto con le altre specie animali, la durata del periodo di immaturità dell‟essere
umano è indefinitamente lunga. Tenere conto di queste osservazioni empiriche, fatte su un
campionamento casuale abbastanza ampio sulla popolazione umana e animale, rende difficile
affermare con sicurezza che l‟operatore economico medio di riferimento dei modelli economici sia
da considerarsi adulto e quindi più prevedibile, se non razionale, rispetto ad esemplari che non
hanno ancora stabilizzato il loro comportamento in quello tipico della maturità della specie.
Inoltre, anche un operatore con un grado di razionalità ed una capacità di massimizzazione elevate
potrebbe trovarsi a fare scelte di consumo che si discostano dall‟ottimo. Questo potrebbe facilmente
succedere qualora il suo potere decisionale fosse subordinato a quello di un individuo con una
razionalità significativamente più limitata, come quella di un bambino. Si pensi alle campagne
pubblicitarie diffuse sotto le feste, che non suggeriscono di certo scelte ottime per i consumatori
medi, ma la cui efficienza strategica è indubbia in quanto fanno leva proprio sulla componente
motivazionale, che in questo caso è quella col maggiore peso.
L‟economia sperimentale e la teoria dei giochi comportamentale hanno rivisitato la nozione classica
di comportamento ottimizzante, contestualizzandola negli schemi comportamentali e motivazionali
dei giocatori, cioè in condizioni di razionalità limitata.
Così anche la psicologia sociale rivede il concetto economico di “gioco” (così come inteso dai
teorici della teoria dei giochi) secondo la chiave di lettura motivazionale, ridefinendolo come
“un‟interazione fra soggetti governata da determinate regole apparentemente condivise e accettate
da tutti, ma che nascondono in realtà un‟interpretazione “latente” che conferisce ai vari momenti
dell‟interazione un significato diverso da quello evidente.” (Berne, 1964)
Rispetto ai classici e più diffusi modelli razionalistici, quelli sperimentali sembrano fornire una
descrizione più verosimile della realtà, poiché il comportamento della maggioranza degli operatori
economici deriva dalle loro esperienze pregresse – e dall‟assunzione che aggregati simili, in
circostanze simili, si comporteranno in modo simile (F. Knight, 1929) costruendo delle euristiche –
piuttosto che da ragionamenti razionali, logici o matematici. (teoria classica della conoscenza).
Inoltre, il concetto stesso di equilibrio è statico e stabile e non rispecchia appieno la natura dinamica
e mutevole, progressiva ed evolutiva della realtà. Le deviazioni dell‟economia dal punto di
equilibrio sono da attribuirsi alle lacune informative che limitano la capacità predittiva e reattiva del
sistema. (F. Knight, 1929) Da qui, la necessità di individuare un meccanismo flessibile di risposta a
stimoli vari e variabili, che sia possibilmente caratterizzato da un alto grado di adattabilità.
Invece di insistere nell‟attesa che l‟ipotesi di conoscenza perfetta sia verificata, potrebbe essere più
ragionevole prendere atto dello stato di incertezza e ignoranza degli operatori economici e
computarne gli effetti nei modelli, almeno come costi fisso. (F. Knight, 1929)
6.4 Limiti dei metodi dall‟approccio ortodosso all‟euristica.
Anche l‟euristica, per quanto fondata su un processo per così dire “spontaneo” o istintivo, quale
l‟intuizione, non è immune alle degenerazioni patologiche. Così come le stringenti assunzioni
deterministiche (conoscenza perfetta, razionalità, libera concorrenza nei mercati,…) vincolano i
modelli così costruiti ad una componente erratica più o meno importante, il processo euristico può
essere affetto dall‟effetto dei cosiddetti eurismi. Essi sono dei costrutti mentali a cui i soggetti sono
vincolati (possono essere dovuti a modelli educativi, costrutti sociali o culturali, esperienze
pregresse, …) che limitano il processo creativo-intuitivo entro i confini tracciati da tali schemi.
(Kahneman, 2002)
Infatti, secondo la psicologia cognitiva, che studia il processo tramite cui un soggetto reperisce ed
acquisisce dall‟ambiente esterno delle informazioni per memorizzazione e recuperarle
all‟occorrenza (in parole povere, il processo di apprendimento), le euristiche vengono generalmente
costruite da processi computazionalmente più semplici di quelli deterministici e di norma non del
tutto consci. Per esempio, si confrontano le similarità (Wason e Johnson-Laird, Tversky e
Kahneman), cioè si recuperano le informazioni precedentemente memorizzate che possano
somigliare ad una situazione attuale, oppure le frequenze, in riferimento ad eventi simili pregressi
accaduti il maggior numero di volte; l’eurisma potrebbe fuorviare tali processi qualora gli schemi
mentali, derivati da cause inconsce, facessero percepire al soggetto come simili situazioni in realtà
diverse.
La logica della conseguenza (J. G. March) del processo euristico standard si riferisce la principio di
causalità attorno a cui orbitano le leggi deterministiche dei modelli classici. Il determinismo è una
nozione talmente ampia che non è possibile fornirne un‟unica definizione, ma se ne descriverà il
processo storico-evolutivo nei paragrafi successivi per darne una collocazione congrua al contesto
della trattazione.
CAPITOLO 7: EVOLUZIONE DELL‟APPROCCIO DETERMINISTICO ALLO STUDIO DEI
SISTEMI COMPLESSI: SCIENZE ESATTE E SOCIO-ECONOMICHE A CONFRONTO
7.1 Dal determinismo della meccanica classica al principio di indeterminazione della
meccanica quantistica
In ambito scientifico il determinismo coincide o meglio origina il meccanicismo tipico della
concezione laplaciana (dall‟ideatore P. S. Laplace) per cui, disponendo di una conoscenza completa
dello stato si un sistema in un dato momento (detto tempo zero) è possibile ottenere
un‟informazione altrettanto completa relativa a qualsiasi altro momento, precedente o successivo al
tempo zero.
“Dobbiamo dunque considerare lo stato presente dell‟universo come effetto del suo stato anteriore e
come causa del suo stato futuro.” (P. S. Laplace, 1814)
La concezione meccanicistica ha a sua volta origine dal modello di ricerca scientifica proposto da
Newton nei suoi “Principia”, 1687. Dalla formulazione della teoria della gravitazione universale e
delle leggi di moto di Newton, messe in discussione solo quasi tre secoli dopo dalla relatività
ristretta di Einstein (che rivede il movimento dei corpi non più contestualizzati nello spazio e nel
tempo lineari e unidimensionali conosciuti da Newton, bensì in una multidimensionalità detta
spazio-tempo), la scienza ha condensato i suoi sforzi proprio nella prospettiva di smembrare i
sistemi nelle loro parti elementari, in modo da studiarne il comportamento individuale e derivarne
una comprensione dei meccanismi regolatori del sistema stesso. Nel suo modello, i corpi si
attraevano fra loro con una forza, detta gravitazionale, direttamente proporzionale alla loro massa e
inversamente proporzionale al quadrato della distanza a cui si trovavano l‟uno dall‟altro. Come
Napoleone osservò riferendosi alla grande efficacia dei suoi piani di battaglia talmente lineari da
risultare imprevedibili, la semplicità della formulazione newtoniana fu in grado di prevedere i moti
dei pianeti con una precisione molto elevata. Una tale condizione di prevedibilità matematica e
conoscenza perfette sono però possibili soltanto nei sistemi senza attrito, proprio come quelli
astronomici osservati da Newton.
In campo economico il ragionamento sotteso ai processi deterministici è analogo. Data la
conoscenza delle condizioni iniziali (cioè l‟informazione completa circa le caratteristiche del
sistema al tempo zero), si esclude la possibilità di un‟evoluzione di natura aleatoria, cosicché sarà
possibile prevedere tale evoluzione come conseguenza di leggi precise, cioè dei meccanismi di
funzionamento. Il parallelo tra la procedure delle scienze sociali e di quelle esatte è significativo. Si
tratta in entrambi i campi di costruire una modellizzazione della realtà, scomponendola in entità più
controllabili nel senso che le loro caratteristiche, le interrelazioni e in genere il loro comportamento
siano più facilmente osservabili proporzionalmente al grado di disaggregazione apportato al sistema
originario.
I limiti dei modelli economici descritti nei capitoli precedenti hanno origine nella natura stessa della
modellizzazione. Essa nasce dalla necessità di costruire degli strumenti per orientarsi in un
ambiente sempre più complesso e diversificato, ricco di interazioni non sempre di facile
individuazione, che esulano dal semplice principio di causa-effetto. Si rende quindi necessario
ricorrere a delle rappresentazioni semplificate della realtà, detti modelli, strumentali alla
comprensione della stessa. È la forma stessa di un‟equazione a determinarne il grado di complessità.
(A. Vulpiani, 1994)
Le semplificazioni necessarie alla costruzione di un modello sono date dalla scrematura di tutti
quegli elementi la cui influenza sull‟oggetto dello studio o sulle sue componenti principali è ritenuta
trascurabile. Dopo l’eliminazione degli elementi superflui, quelli restanti vengono disposti nel
modello secondo un ordinamento che ne evidenzi alcune caratteristiche di interesse anziché la loro
struttura intrinseca. Il più delle volte si cerca di ricondursi a una relazione lineare fra gli
ordinamenti, o in alternativa ad una forma nota, che descriva nel modo più semplice possibile come
un dato oggetto si dispieghi nel tempo (come una composizione musicale) o nello spazio (la
riproduzione in scala di un dipinto). Due modelli sono tanto più simili quanto più il rapporto dei
loro ordinamenti si avvicina a una corrispondenza biunivoca. Allo stesso modo si può sviluppare
un‟aggregazione di modelli sovrapponibili, in modo tale da ottenerne uno che, scomposto, li
disponga ordinatamente rendendoli riconoscibili attraverso un processo detto modulazione. Un
esempio pratico di tale procedimento è dato dall‟uso delle correnti vettrici nella telefonia per
5trasmettere più dispacci su una sola linea: data un‟oscillazione su una linea elettrica, è possibile
spostare di un passo costante ciascuna delle vibrazioni elementari (note) che la compongono, in
modo da ottenere un modello in cui i diversi modelli componenti sarebbero altrimenti
indistinguibili, sovrapposti. Si tratta quindi di riordinare le vibrazioni elementari, cioè modularle, in
una sequenza che le mantenga separate. Il punto di partenza di questo procedimento è il teorema di
Fourier per cui si può rappresentare ogni movimento come una somma di oscillazioni semplici dello
stesso tipo, entro limiti piuttosto grandi. In questo modo, con un adeguato spostamento di passo, si
può inviare un messaggio su una linea che ne sta già trasmettendo un altro, senza che i due
interferiscano diventando indistinguibili. Il messaggio modulato viene infatti sottoposto a un
processo inverso alla modulazione per riportarlo alla sua forma originale. Analogamente, si possono
trasmettere sulla stessa linea più di due messaggi. Grazie ai sistemi delle correnti vettrici, le linee
telefoniche hanno aumentato la loro portata, senza che fosse necessario l‟aumento delle
installazioni per sostenere il crescente ammontare di messaggi trasmessi. (N. Wiener – The Human
Use of Human Beings, 1950)
Sostanzialmente ogni modello cerca di ricondurre la complessità del sistema ambiente target ad un
numero limitato di variabili esplicative, rappresentative del fenomeno nel senso che apportano la
massima informazione possibile.
I modelli in genere sono impostati in modo da essere il più informativi possibile. La loro funzione
cioè è quella di comunicare informazioni relative a un determinato fenomeno nel modo più
immediato possibile. Questo processo apparentemente banale nasconde dei punti cruciali
riguardanti il trasferimento effettivo di un‟unità di informazione da un mittente a un destinatario.
Si è parlato in precedenza dell‟eliminazione, nella costruzione di un modello, di quelle componenti
che ne influenzano la dinamica solo marginalmente, il cui effetto cioè è ritenuto trascurabile. È
proprio questo processo di scelta delle informazioni da omettere che determina la quantità di
informazione contenuta in un messaggio e trasmessa attraverso un canale di comunicazione in un
sistema comunicativo soggetto a elementi di disturbo, che ne modificano il significato originario. Si
può comunque anticipare che una comunicazione è qualsiasi procedimento attraverso cui un‟entità,
o per meglio dire un meccanismo, interagisce attivamente con un altro o più d‟uno, con lo scopo di
modificarne o condizionarne il comportamento tramite l‟informazione trasmessa.
Nonostante quello di comunicare sia un impulso innato e impellente nell‟essere umano come in
nessun‟altra specie vivente (si pensi alle varie lingue, linguaggi e forme espressive inventate
dall‟uomo per soddisfare il bisogno di comunicare), una teoria completa e consistente delle
comunicazioni è stata sviluppata soltanto alla fine degli anni ‟40, in seguito all‟affermazione in
campo scientifico della meccanica statistica. È stato necessario approfondire la conoscenza dei
fenomeni aleatori e liberarsi dei retaggi strettamente deterministici del vecchio approccio scientifico
che ignorava rifiutava di computare nei propri modelli tanto la componente erratica quanto,
sostanzialmente, il caso.
A spianare la strada prima alle teorie sui sistemi caotici, poi alla teoria dell‟informazione di
Shannon e Weaver fu in particolare il lavoro del matematico Poincarré che dimostrò come sistemi
squisitamente deterministici potessero adottare un comportamento caotico dopo un tempo
sufficientemente lungo (teoria del caos, 1908).
Questo succede quando la conoscenza delle condizioni iniziali del sistema dinamico non è
sufficientemente approfondita. Questo potrebbe succedere per esempio nel caso in cui nello stato
iniziale del sistema non sono osservabili delle variabili che interverranno sul funzionamento dello
stesso solo in un tempo successivo. O ancora il modello che dovrebbe spiegare e predire
l‟evoluzione dello stato iniziale del sistema in ogni sua fase potrebbe essere affetto da
multicollinearità (cioè una relazione lineare fra due o più variabili tale che esse risultano non
indipendenti) non individuata, che potrebbe quindi condizionare negativamente la bontà delle
previsioni. O ancora, potrebbero essersi verificati in fase preliminare alla costruzione del modello
dei banali errori di misurazione delle grandezze delle variabili coinvolte, o semplicemente delle
approssimazioni a un certo numero di decimali, che dopo un periodo sufficientemente lungo si
tradurrebbero in uno scostamento considerevole del valore stimato da quello realizzato. In generale,
minime variazioni delle condizioni iniziali, potrebbero portare al cosiddetto “butterfly effect”, cioè
ad una sostanziale imprevedibilità del comportamento del sistema in tempi successivi. (A. Vulpiani,
1994)
Questo si verifica anche qualora si scomponga un fenomeno complesso nelle sue componenti
fondamentali (unità non ulteriormente scomponibili) e lo si descriva come una sovrapposizione dei
loro comportamenti elementari che si comportino secondo leggi deterministiche. (Lorenz, 1960)
Per superare lo scoglio dei limiti delle predizioni deterministiche, fu necessario ricorrere agli
strumenti della meccanica statistica, sviluppata dalle idee di Bernoulli nella seconda metà
dell‟Ottocento da Clausius, Maxwell, Boltzmann e Gibbs.
Sfruttando la numerosità delle variabili normalmente coinvolte nei sistemi dinamici che
manifestano un comportamento caotico (come dei granelli di sabbia immersi in un fluido), fu
possibile descrivere il fenomeno in termini aleatori, non più deterministici. Il procedimento di stima
statistica, nonostante la sua natura “approssimativa”, si rivelò più accurato del rigore deterministico
nel prevedere il comportamento dei sistemi cosiddetti caotici. (A. Vulpiani, 1994)
L‟economia è invero un sistema complesso, dinamico ed estremamente numeroso in termini di
variabili coinvolte. Tutto ciò sembrerebbe giustificare un approccio probabilistico più che
deterministico. Invece, la scelta della scuola economica dominante si è orientata piuttosto verso
modelli lineari, forse perché più “trattabile”, o forse per un‟eccessiva fiducia nella teoria delle
perturbazioni, che costruisce un modello di tipo lineare per lo studio di un fenomeno, sperando che
la sua non linearità sia trascurabile. L‟eventuale effetto della non linearità del comportamento del
fenomeno viene poi trattata come componente erratica del modello.
Con l‟avvento della meccanica quantistica, il metodo probabilistico cessa di essere un mero
artefatto funzionale alla soluzione di problemi al di là delle possibilità del determinismo. La
probabilità è un aspetto insito nella natura stessa dei processi o delle leggi che regolano il cosmo, o
meglio il microcosmo, vero oggetto dello studio della fisica quantistica. Nonostante essa sia
permeata dei concetti probabilistici, conserva anche un retaggio deterministico nella sua
formulazione di teorie relative all‟evoluzione della funzione d‟onda (l‟equazione di Schrodinger)
nel tempo. (A. Vulpiani, 1994)
7.2 Lo spazio-tempo.
La relatività generale (che considerando anche la forza di gravità si distingue da quella ristretta) di
Einstein trasforma la struttura lineare dello spazio e del tempo senza inizio né fine enunciata nei
Principia di Newton da concetti separati ad uno unico, quadridimensionale e curvo, anziché piatto,
detto “spazio-tempo” (1912). Tale intuizione sulla forma dello spazio-tempo scaturì proprio dalle
osservazioni di Newton. Se lo spazio, o la Terra come vuole la tradizione, fosse stato piatto, sarebbe
stato fondato dire sia che la mela subì
un‟accelerazione verso la testa di Newton dovuta
alla forza di gravità, sia che Newton e la Terra
accelerarono verso l‟alto scontrandosi con la
mela. Tuttavia l‟equivalenza tra gravità e
accelerazione non è verificata qualora lo spazio
avesse forma sferica perché ne conseguirebbe
che le persone ai capi opposti del mondo
accelererebbero in direzioni opposte. Dunque
Einstein ne dedusse che lo spazio-tempo dovesse
avere una geometria tale che un corpo dotato di
massa (quantità di materia) incurva lo spazio-
tempo modificando (incurvando) di conseguenza
anche le traiettorie dei corpi in prossimità.
La rilettura di questi concetti in chiave multidimensionale, fa sorgere la necessità di una revisione
della teoria dei giochi funzionale al nuovo contesto detto “spazio-tempo”.
Come osservato dal matematico Georgescu-Roegen, la componente temporale ha un ruolo
fondamentale nell‟interazione strategica dei giocatori. È ragionevole supporre che individui soggetti
Curvatura dello spazio-
tempo per effetto della
massa dei corpi.
al pressing di tempi decisionali stretti, siano più soggetti a fallibilità che quelli che dispongono di
un arco di tempo infinito o molto lungo per valutare e scegliere la propria strategia.
Tuttavia un ragionamento analogo va fatto anche in termini spaziali in quanto anche e forse
soprattutto l‟ambiente in cui il soggetto si trova a decidere contribuisce al formarsi di quei costrutti
mentali che ne determinano la chiave motivazionale di ponderazione delle strategie da giocare e
delle preferenze stesse. In tal caso ci si rifà alla razionalità sistemica e al concetto di idiosincrasia,
per cui il sistema e i suoi elementi, oltre a condizionarsi, addirittura si determinano a vicenda.
Il soggetto economico prende il nome di “homo quanticus”; da un ambiente in cui lo spazio e il
tempo sono grandezze separate che insieme descrivono una realtà bidimensionale in termini
relativamente lineari (in cui si procede o in progressione o a ritroso), il soggetto quantico si trasla in
quello che la teoria relatività chiama “spazio-tempo”, un ambiente economico quadridimensionale,
curvo e sensibile alle azioni delle entità che vi operano. (A. Einstein, 1929) Nell‟età contemporanea
delle telecomunicazioni, il soggetto quantico dispone di una serie di strumenti high tech piuttosto
individualizzati che costituiscono un suo prolungamento, una proiezione nello spazio-tempo, le cui
caratteristiche sono se non altro ispirate a quelle degli oggetti quantistici. In particolare una
caratteristica è la non località, o entanglement, per cui due particelle sono legate (entangled) da una
“intricazione” tale che un‟azione su una si riflette automaticamente e istantaneamente su un‟azione
sull‟altra sua entangled, indipendentemente dalla distanza fra queste. Un‟altra caratteristica è
l‟atemporalità, cioè “l‟appartenenza ad una realtà non localizzabile né nel tempo né nello spazio”.
(S. Ortoli e J.P. Pharabod).
Degli esempi di questi concetti tradotti in ambito economico e più concreto possono essere i social
network, attraverso cui i soggetti creano delle loro estensioni chiamate “profili” caratterizzate da
non località e atemporalità. O ancora, l‟intero universo delle aspettative, così come inteso
tradizionalmente dai classici economici (si pensi agli studi di Lucas, o all‟interpretazione della
curva di Phillips secondo le aspettative razionali, o alla convinzione monetarista per cui nel lungo
periodo gli operatori imparino a prevedere le politiche economiche, neutralizzandone gli effetti),
Esempio di particelle entangled che cambiano comportamento al momento della misurazione.
Source: http://blogzero.it
che si svolgono in uno spazio e in un tempo immaginari, che dipendono dalla soggetto che svolge
l‟osservazione e ne elabora i risultati: la sola possibilità di un‟informazione cambia i termini del
problema. Ciò rimanda alla teoria delle storie multiple di R. Feynman (che associa una certa
probabilità di verificarsi a tutti i possibili scenari, detti storie, o esiti) e ancora una volta al principio
di indeterminazione.
L‟esperimento delle fenditure di Young, 1803,
dimostra che il solo fatto di avere a disposizione
un‟alternativa cambia il comportamento del
soggetto che si trova ad effettuare una scelta: dei
fotoni vengono fatti passare uno alla volta
attraverso due fenditure su una lastra oltre la quale
è posizionata una seconda lastra fotografica che ne
registra l‟impatto; l‟impatto del singolo fotone sulla
lastra fotografica ha forma corpuscolare, ma dopo
un numero sufficientemente grande di ripetizioni
dell‟esperimento, il pattern degli impatti
rassomiglia sempre più a quello tipico delle
interferenze, di forma ondulatoria. Questo significa
che ogni fotone, messo nelle stesse circostanze,
varierà il suo comportamento, anziché manifestarsi
sempre in forma corpuscolare scegliendo sempre la
stessa traiettoria per raggiungere la lastra
fotografica, per il solo fatto di avere a disposizione
un‟alternativa di scelta.
Questo punto di vista potrebbe giustificare
l‟affermazione aristotelica “il tutto è più della
somma delle parti” rivisitata dall‟economia del
benessere, che vede nell‟utilità collettiva qualcosa
di più elaborato ed essenzialmente diverso della
somma delle utilità individuali.
7.3 I principi di indeterminazione, dualità e complementarietà nella struttura
dell‟ambiente economico.
In questa sede, ha senso adottare il punto di vista della teoria dei quanti nello studio dei sistemi
economici, poiché essi, per quanto macroscopici, derivano il loro comportamento dalle dinamiche
interne allo spazio atomico, cioè all‟infosfera dell‟individuo.
Image: Esperienza di Young con due lastre.
Source: http://magazine.linxedizioni.it
L‟infosfera è lo spazio attorno all‟individuo da cui egli attinge informazioni. Essa può altresì essere
vista come una struttura atomica, il cui nucleo è costituito dall‟individuo, attorno a cui orbitano
delle fonti di informazioni (come gli elettroni) che interagiscono con esso.
Le prime interazioni degli individui avvengono a livello familiare, che costituisce il livello atomico.
Queste interazioni determinano e rendono possibili tutte le interazioni successive, a livello via via
crescente e più complesso. È comunque nello spazio atomico, cioè strettamente attorno al “nucleo-
individuo”, che si formano le sue aspettative, quindi il suo futuro comportamento; ed è dalla sua
infosfera che si dirama la rete di relazioni con cui esso interagirà con il resto del sistema.
Il modo in cui l‟individuo usa la sua infosfera per interagire col sistema di cui fa parte è spiegato
appunto dalla teoria delle comunicazioni e dalla cibernetica tramite il parallelo con i sistemi
costruiti dall‟uomo.
La cibernetica coniuga concetti tipici dei servomeccanismi autoregolantisi, della teoria
dell‟informazione e della meccanica statistica nel tentativo di ricondurre le interazioni uomo-
macchina o fra individui a campi formalizzabili in modi simili (N. Wiener, 1950); in altre parole si
applicano tecniche e nozioni note in campi affini nel tentativo che tramite l‟applicazione di queste
tecniche dette comandi, il sistema riesca ad autoregolarsi.
Questo parte dall‟assunzione che il comportamento degli individui possa essere confrontato a quello
delle macchine per le comunicazioni in base ad alcuni elementi comuni come gli organi sensori di
recezione, equivalenti ai cinque sensi umani, che attivano il primo stadio del ciclo di funzionamento
del sistema (reperimento di informazioni o raccolta di stimoli dall‟ambiente esterno, a bassi livelli
di energia). Questo da inizio al processo chiamato retroazione o feedback per cui il sistema
confronta il suo stato nelle varie fasi del suo ciclo di funzionamento con i risultati attesi e i comandi
o le istruzioni conseguenti (per esempio, le porte di un ascensore hanno il comando di aprirsi al
piano scelto; dei sensori verificano che l‟ascensore si trovi effettivamente collocato nello spazio
giusto per poi trasmettere al sistema l‟informazione che gli permetterà di passare al comando finale,
di aprire le porte, o di correggere il suo comportamento e ripetere poi il feedback fino al
raggiungimento dell‟obbiettivo). (N. Wiener, 1950)
Anche la cibernetica, come la teoria economica, si tratta di una semplificazione di situazioni varia e
sorgente trasmettitore
osservatore
ricevitore
Dispositivo
per la
correzione
destinatario
M M’ M
dati di correzione Sistema con correzione
(Shannon e Weaver, 1971)
complessa in funzione delle caratteristiche comuni, nel tentativo di trovare una struttura o un
meccanismo applicabile al modello in modo tale che esso sia grado di autoregolarsi.
Si tenga presente che la modellizzazione delle forme complesse nasce dalla descrizione della loro
apparenza, cioè delle caratteristiche con cui esse si manifestano all‟osservatore. Anche questo punto
è tutt‟altro che banale. Il matematico e fisico J. von Neumann (1903 – 1957) fu uno dei tanti uomini
di scienza che osservarono che “l‟universo è un mare di uniformità generalizzata, increspato qua e
là da provvisori scostamenti statistici costituenti i mondi individuali”. Da questa frase appare già
chiaro la cardinalità del ruolo dell‟osservatore nel processo di osservazione e conseguente
modellizzazione di un qualsiasi fenomeno osservabile.
D‟altra parte, il metodo scientifico newtoniano, o metodo sperimentale, si enuclea appunto
nell‟osservazione di un fenomeno, cui segue la scelta delle grandezze, la formulazione di un‟ipotesi
con il conseguente esperimento di verifica e l‟eventuale formulazione di una legge. Il metodo
scientifico si è sviluppato originariamente dall‟osservazione di fenomeni macroscopici,
caratterizzati da simmetrie evidenti e processi lenti (dal punto di vista dell‟osservatore), come il
moto dei pianeti. È proprio l‟astronomia la culla del metodo scientifico che ha spinto l‟uomo a
scegliere un approccio atomista nello studio del mondo che lo circonda.
Le origini di questa filosofia risalgono all‟antica Grecia di Democrito, che vedeva il mondo come
una composizione di “cose”, particelle elementari, cioè che si suppone non possano scomporsi
ulteriormente, simili agli atomi che compongono la materia.
La definizione odierna di atomo si riferisce all‟unità base della materia ordinaria, in cui un numero
di elettroni, di carica negativa, orbita attorno al nucleo formato da protoni e neutroni,
rispettivamente di carica positiva e privi di carica, tenuti insieme dalla forza forte (la più forte delle
quattro interazioni fondamentali che tengono insieme la materia).
Nonostante nel V sec. a.C. non si disponesse ancora della strumentazione necessaria allo studio
atomico e subatomico, Democrito aveva senz‟altro intuito la stratificazione sub-sistemica della
materia. Secondo la prospettiva democritea, ogni mutamento osservabile dipende in ultima analisi
dalle interazioni fra le cose.
Dall‟altro lato, si oppone la visione processuale di Eraclito, che descrive il mondo come un flusso
di processi, trasformazioni sempre in atto, movimenti e mutamenti; è possibile osservare le cose
originate da tali processi solo nei momenti di quiete in ciò che è essenzialmente movimento.
Dunque la caratteristica essenziale delle cose è l‟essere soggette sempre e comunque a tale processo
di mutamento, cristallizzato nella famosa massima (“panta rei”), tutto scorre. Questo
punto di vista incentrato sul dinamismo è abbracciato anche da Aristotele che indica nel suo trattato
sulla fisica (Fisica, IV sec. a.C.) quattro tipi di movimento che coinvolgono tutto l‟osservabile: 1)
sostanziale, cioè creazione e distruzione; 2) qualitativo (modificazioni dell‟essere); 3) quantitativo
(nella numerosità o grandezza, aumento o diminuzione); 4) locale (spostamento, traslazione nello
spazio). Tutti i tipi di movimento sono riconducibili a cause accidentali o volute, cioè dipendenti o
meno dall‟azione intenzionale dell‟uomo per modificare lo stato attuale delle cose o del processo.
La concezione atomista, seppure sia in grado di cogliere coerentemente i lenti mutamenti dei
sistemi astronomici e per quanto sia un‟apprezzabile intuizione delle più recenti scoperte
subatomiche e quantistiche, tende a sminuire la componente evolutiva dei sistemi viventi. Si
focalizza infatti sul funzionamento dei corpi “tipo”, cioè i soggetti osservati, ma ne trascura i
processi di crescita, invecchiamento, evoluzione della specie. (C. H. Waddington, 1977) Ancora, si
pone la questione sulla scelta dei “soggetti tipo” su cui effettuare le osservazioni. Se è relativamente
facile scegliere se osservare neutroni, protoni oppure elettroni in un esperimento sullo studio del
nucleo atomico, la scelta delle osservabili nei sistemi viventi è estremamente ardua. La fisica
classica chiama osservabile qualsiasi grandezza che possa essere oggetto di misurazione, diretta o
indiretta, in un esperimento scientifico (in riferimento al metodo sperimentale precedentemente
illustrato). Per esempio, grandezze direttamente misurabili possono essere la massa, il peso,
l‟energia, mentre si dovranno calcolare per via indiretta grandezze quali un campo elettromagnetico.
Con l‟avvento della meccanica quantistica la situazione si complica ulteriormente: l‟applicazione
del principio quantistico di Planck (secondo cui le onde elettromagnetiche e quelle luminose sono
emesse e assorbite in quanti discreti) e il principio di indeterminazione di Heisenberg (che sancisce
l‟impossibilità di una precisa misurazione di velocità e posizione in contemporanea) rendono
l‟osservabile un concetto dinamico se contestualizzato nel microcosmo (cioè a livello atomico e
subatomico, in cui indaga la meccanica quantistica).
7.4 I limiti della conoscenza: trattazione comparata dei concetti di informazione ed
entropia.
Ricapitolando quanto osservato finora, i punti deboli della teoria classica e neoclassica sono
principalmente le assunzioni sulla razionalità degli operatori economici e sulla condizione di
conoscenza simmetrica e perfetta, concetti comunque strettamente collegati. I limiti su questi due
fronti vanno conseguentemente ad intaccare il principio di massimizzazione dell‟utilità e quindi
anche il criterio di ordinamento delle preferenze.
Per poter costruire una funzione di utilità, individuale o aggregata, è necessario disporre di
informazioni precise circa le preferenze degli operatori di mercato, così come è necessario che
questi agiscano in modo razionale affinché il mercato agisca nel rispetto del principio di equilibrio,
tendendo cioè al punto in cui domanda e offerta aggregate si eguagliano. Ma in una condizione di
sostanziale incertezza circa il funzionamento esatto del mercato e la logica seguita dai suoi operatori
nella costruzione della propria funzione di utilità, si è costretti a deviare dai modelli deterministici
propugnati dalla teoria economica dominante e ragionare piuttosto in termini probabilistici o
euristici, correndo però il rischio che gli esiti del gioco effettivamente verificatisi differiscano in
misura imprecisa da quelli previsti.
Basti per il momento tenere presente che in una situazione incerta le cui conseguenze possibili e
rispettive probabilità di verificarsi sono note, si avrà un fattore di rischio; mentre se gli esiti
possibili sono noti ma le rispettive probabilità no, allora si avrà un fattore di incertezza. La
differenza sostanziale fra i due concetti sta nella suscettibilità a misura. (F. Knight, 1929)
Il rischio è misurabile in termini probabilistici, anche in modo relativamente preciso (come
testimonia il prolifero mercato assicurativo), nonostante invece resti un concetto piuttosto
soggettivo quello dell‟avversione al rischio da parte degli operatori economici, cioè la loro
propensione ad intraprendere manovre economiche, in genere investimenti, che potrebbero avere un
esito positivo o meno in termini di guadagni e perdite (o un valore attuale positivo, nullo o negativo,
qualora si trattasse della valutazione dell‟esito di un investimento).
L‟entità dell‟incertezza invece è tradizionalmente ritenuta non quantificabile. L‟incertezza rimanda
infatti al concetto di conoscenza imperfetta e non è misurabile proprio perché originata da lacune o
asimmetrie informative (F. Knight, 1929) o in altre parole dalla mancanza o perdita di
informazione, che si manifesta come incertezza e in ultimo disordine del sistema (anche se
inizialmente noto) nota in vari campi della scienza col come di entropia.
Nei sistemi fisici l‟entropia ne misura, in scala logaritmica, il grado di disordine (e/o di ordine, per
differenza), computando “il numero di diverse configurazioni microscopiche di un sistema che
lasciano immutato il suo aspetto macroscopico”. (S. Hawking, 2001)
Nella teoria delle comunicazioni l‟entropia (H) misura la quantità di informazione, quindi la
regolarità (o conseguentemente la mancanza di essa) in un sistema o modello. Per la seconda legge
della termodinamica, un sistema può perdere spontaneamente ordine e regolarità, ma non può mai
acquisirli, se non localmente ma solo nei sistemi aperti.
L‟entropia rappresenta l‟unica scelta “naturale” di misura dell‟incertezza di un esito e di
conseguenza l‟informazione media contenuta in un messaggio. Con il termine naturale ci si riferisce
al fatto che l‟entropia dipende dalla probabilità dell‟evento in modo continuo secondo la relazione:
𝐻 = −𝑘 𝑃𝑖 ln𝑃𝑖𝑀𝑖=1 .
Il valore massimo di H si ha in corrispondenza della probabilità Pi = 1/M.
Si noti che il segno negativo della costante k è un espediente matematico per rendere H una quantità
positiva poiché la probabilità di un evento è un numero compreso fra 0 e 1, il cui logaritmo sarà
quindi un numero negativo.
L‟entropia è anche una misura della libertà di scelta del messaggio da trasmettere ovvero
dell‟informazione da comunicare. Per esempio H assume valore unitario nella situazione in cui si
abbiano due messaggi “i” e “j” da trasmettere, egualmente probabili, cioè entrambi con probabilità
di essere scelti come oggetto della comunicazione Pi,j = ½, cioè quando il mittente è
completamente libero di scegliere. (Shannon e Weaver, 1971)
Se invece uno dei due messaggi avesse avuto probabilità 1 tipica dell‟evento certo, cioè se si fosse
certi che nella comunicazione sarà trasmesso per esempio il messaggio “i”, quindi Pi = 1, allora non
ci sarebbe nessuna possibilità di scelta da parte del mittente. Il destinatario saprebbe già che
riceverà il messaggio “j” con probabilità Pj = 0 (evento impossibile, non realizzazione di “j”),
perciò l‟entropia è nulla e l‟informazione che si riceverà col messaggio è anch‟essa nulla o scarsa.
Se tutti gli operatori che interagiscono (comunicano) nel mercato fossero razionali e dotati di
informazione completa e se questa è perfettamente simmetrica, allora, a rigor di logica, non vi
sarebbe motivo per produrre una quantità diversa da quella ottimale, né di scambiarla ad un prezzo
diverso da quello di equilibrio. Dunque in tal caso il mercato si troverebbe di fronte ad una “scelta
obbligata”: domanda e offerta sarebbero costrette a cristallizzarsi nel punto di equilibrio, in
corrispondenza di prezzi e quantità ottime. L‟entropia data da un‟interazione di questo tipo sarebbe
quindi nulla, poiché la comunicazione fra le parti non porterebbe nessuna informazione di cui esse
già non fossero a conoscenza prima di interagire, né comporterebbe nessuna variazione del loro
comportamento, né la razionalità degli operatori mittenti lascerebbe loro alcuna libertà di scelta del
messaggio da inviare.
CONCLUSIONI
La teoria dei giochi comportamentale fornisce una prima possibilità di interpretazione in chiave
motivazionale del funzionamento dei sistemi economici, quando le assunzioni classiche di
razionalità e conoscenza perfetta non sono soddisfatte, con tutte le ripercussioni che questo
comporta sul paradigma di comportamento ottimizzante ed efficienza allocativa.
L‟economia sperimentale e comportamentale e la teoria moderna della conoscenza supportano
questo tipo di analisi multidimensionale, in cui le funzioni matematiche di massimizzazione
dell‟utilità sopportano il peso della componente motivazionale individuale, ovvero si trasformano in
euristiche (ragionamenti intuitivi, per lo più basati su un processo di apprendimento del tipo trial
and error) determinate dai costrutti mentali che il soggetto eredita dal sistema in cui si trova ad
agire.
L‟immediata conseguenza di queste osservazioni si riflette nell‟incongruenza del tradizionale
individualismo metodologico con cui si costruisce l‟utilità aggregata come sommatoria o
produttoria semplice o ponderata (Nash, Bernoulli) delle utilità individuali piuttosto che ad una
funzione di esse (economia comportamentale).
Anche la nuova teoria del benessere sociale osserva che le preferenze collettive non vanno mai
sovrapposte a quelle individuali, come suggerisce anche il teorema dell‟impossibilità di Arrow, che
ritiene confrontabili le preferenze individuali solo qualora sussista una condizione di unanimità
(omogeneità delle preferenze). Ciò si scontra col punto di vista di Pareto, padre dei pilastri della
tradizione economica di efficienza, equilibrio e ottimo paretiani, per cui la collettività non ha
preferenze proprie, nel senso che le preferenze aggregate o collettive o sociali derivano
necessariamente da quelle individuali.
Tuttavia, i più recenti studi sembrano discostarsi dal determinismo dei modelli ortodossi e concordi
con l‟interpretazione paretiana, avvicinandosi invece a una lettura della realtà in cui le componente
soggettiva rappresentano il punto di partenza per la costruzione di modelli più complessi,
multidimensionali, in cui il comportamento individuale e quello collettivo non possono essere
rappresentati propriamente da una stessa funzione.
Si sviluppa quindi il parallelo con la meccanica quantistica. In particolare i principi di
complementarietà, dualità e indeterminazione vengono parafrasati nel linguaggio economico da un
nuovo approccio allo studio dei vari livelli di aggregazione degli elementi del sistema economico.
Il principio di complementarietà si riferisce all‟impossibilità di descrivere le entità quantistiche se
non per come esse si manifestano negli esperimenti, quindi per come si rivelano, non
necessariamente per come esse sono realmente. L‟analogia economica si ha con le preferenze
rivelate, cioè dedotte a posteriori dalle osservazioni empiriche sul comportamento degli operatori
economici una volta cioè che le loro scelte di consumo (o produzione) sono rese manifeste cioè
finalizzazione nel mercato in comportamenti di consumo o produzione.
N. Bohr formula il principio di complementarietà, 1927, sulla base dell‟osservazione che è il tipo di
esperimento, o meglio lo scopo dello studio, che costringe le entità quantistiche a manifestarsi in
corpuscoli piuttosto che con la forma di una funzione d‟onda. Allo stesso modo, gli operatori
economici manifestano ovvero esprimono le proprie preferenze come individuali o collettive a
seconda delle condizioni in cui si trovano ad esprimerle. Vari esperimenti empirici sulla
comparazione fra comportamenti individuali e dinamiche di gruppo hanno provato questa tesi e
smentito almeno in parte quella della teoria economica ortodossa secondo cui il comportamento
degli individui è caratterizzato da un predominante “self-interest” per cui essi saranno portati a
massimizzare l‟utilità individuale a prescindere da quella degli altri o da quella collettiva, che ne è
una mera conseguenza. Le strategie con cui i soggetti interagiscono nel sistema economico
rispecchiano tendenze sia pro-sociali che anti-sociali, derivate dai costrutti mentali ereditati o
assorbiti da stati precedenti del sistema o dalle altre componenti, da aspettative e prospettive che
determinano la chiave di lettura del sistema in termini relazionali da parte del soggetto e il suo
comportamento in funzione di tutto ciò.
Questo è coerente con il postulato dell‟indivisibilità del quanto d‟azione per cui si è obbligati a
ricorrere a descrizioni complementari dalla stretta interconnessione tra i fenomeni e la loro
osservazione (N. Bohr, 1931). La complementarietà nelle descrizioni è da intendersi nel senso che
“ogni applicazione di concetti classici preclude l‟uso simultaneo di altri concetti classici che in una
diversa connessione (tra fenomeno e osservazione sono egualmente necessari per la spiegazione del
fenomeno.” (N. Bohr, 1931) Si pensi per esempio ai corpuscoli come preferenze o utilità puntuali,
certe, manifeste e all‟onda come la loro stima a livello individuale o derivazione, a livello o
aggregato o come il comportamento di un sistema compiuto, che oscilla fra due estremi senza
soluzione di continuità, o di un sistema dinamico che tenda al suo stato stazionario attraverso
meccanismi continui di aggiustamento (come le forze di mercato che cercano di compensarsi fra
loro per raggiungere un equilibrio, o lo stato fondamentale, dove le oscillazioni sono minime).
Oltre alla natura corpuscolare o ondulatoria, la complementarietà si applica anche ai concetti di
posizione e velocità di corpi in movimento, coerentemente con il principio di indeterminazione che
osserva l‟impossibilità di definire simultaneamente e con precisione sia la posizione che la velocità
di un corpo. In campo economico, posizione e velocità possono tradursi nelle coordinate spaziali e
temporali attraverso cui gli operatori economici o i giocatori della teoria dei giochi si muovono
lungo l‟albero decisionale che rappresenta il “gioco” del mercato o lungo le proprie curve di
reazione nei vari stati del sistema. Si tratta in questo caso di una complementarietà conflittuale (B.
d‟Espagnat) che sottolinea il legame fondamentale fra la meccanica quantistica e l‟informazione.
Coerentemente alla teoria dei sistemi, il mercato è un sistema dinamico con tendenza al caos insita
nella natura stessa delle sue componenti e delle interrelazioni fra essi. Anche qualora si avesse una
conoscenza perfetta dello stato del sistema al tempo t e si conoscesse la funzione che esprime il
comportamento di ogni sua variabile in termini perfettamente deterministici, le previsioni
dell‟evoluzione del sistema in momenti successivi a t tenderebbero ad allontanarsi in modo
progressivo ma non definito dalle sue effettive realizzazioni. (A. Vulpiani, 1994, 2014) Ancora,
dunque, il principio di indeterminazione si traduce nell‟impossibilità di conoscere allo stesso tempo
sia lo stato che la legge di evoluzione del sistema economico in ogni momento simultaneamente.
Si consideri inoltre che nel sistema economico, gli elementi e i sotto-sistemi di cui è composto
interagiscono creando uno scambio più o meno volontario di informazioni (a fronte di uno scambio
minimo di energia e utilità, che origina e giustifica l‟informazione).
L‟indagine circa il ruolo delle interazioni e dello scambio di informazioni in un sistema si sviluppa
dall‟impalcatura costruita dalla teoria delle comunicazioni o dell‟informazione di Shannon
formulata negli anni ‟40. Le informazioni vengono scambiate sotto forma di trasmissioni di
messaggi, appropriatamente codificati (cioè in un linguaggio condiviso fra mittente e ricevente),
attraverso un canale di comunicazione da uno o più mittenti ad uno o più destinatari, con lo scopo di
influenzarne il comportamento. Tale processo è detto “comunicazione”.
Dalle scoperte della fisica quantistica, si è concluso che i messaggi vengono trasmessi ad una
velocità massima equivalente a quella della luce in una modalità che può essere o gerarchica
(rappresentabile da un diagramma ad albero come quello decisionale della teoria dei giochi) o
reticolare, con maglie sia verticali che orizzontali, più o meno fitte e numerose (ovvero più o meno
complessa) i cui nodi sono mobili. La geometria dei sistemi così descritti è profondamente diversa,
più complessa, di quella prevista dalle teorie classiche. (S. Ortoli e J.P. Pharabod, 2012)
Il soggetto economico prende il nome di “homo quanticus”; da un ambiente in cui lo spazio e il
tempo sono grandezze separate che insieme descrivono una realtà bidimensionale in termini
relativamente lineari (in cui si procede o in progressione o a ritroso), il soggetto quantico si trasla in
quello che la teoria relatività chiama “spazio-tempo”, un ambiente economico quadridimensionale,
curvo e sensibile alle azioni delle entità che vi operano. (A. Einstein, 1929) Nell‟età contemporanea
delle telecomunicazioni, il soggetto quantico dispone di una serie di strumenti high tech piuttosto
individualizzati che costituiscono un suo prolungamento, una proiezione nello spazio-tempo, le cui
caratteristiche sono se non altro ispirate a quelle degli oggetti quantistici. In particolare una
caratteristica è la non località, o entanglement, per cui due particelle sono legate (entangled) da una
“intricazione” tale che un‟azione su una si riflette automaticamente e istantaneamente su un‟azione
sull‟altra sua entangled, indipendentemente dalla distanza fra queste. Un‟altra caratteristica è
l‟atemporalità, cioè “l‟appartenenza ad una realtà non localizzabile né nel tempo né nello spazio”.
(S. Ortoli e J.P. Pharabod). Degli esempi di questi concetti tradotti in ambito economico e più
concreto possono essere i social network, attraverso cui i soggetti creano delle loro estensioni
chiamate “profili” caratterizzate da non località e atemporalità. O ancora, l‟intero universo delle
aspettative, così come inteso tradizionalmente dai classici economici (si pensi agli studi di Lucas, o
all‟interpretazione della curva di Phillips secondo le aspettative razionali, o alla convinzione
monetarista per cui nel lungo periodo gli operatori imparino a prevedere le politiche economiche,
neutralizzandone gli effetti), che si svolgono in uno spazio e in un tempo immaginari, che
dipendono dalla soggetto che svolge l‟osservazione e ne elabora i risultati: la sola possibilità di
un‟informazione cambia i termini del problema. Ciò rimanda alla teoria delle storie multiple di R.
Feynman (che associa una certa probabilità di verificarsi a tutti i possibili scenari, detti storie, o
esiti) e ancora una volta al principio di indeterminazione. L‟esperimento delle fenditure di Young,
1803, dimostra che il solo fatto di avere a disposizione un‟alternativa cambia il comportamento del
soggetto che si trova ad effettuare una scelta: dei fotoni vengono fatti passare uno alla volta
attraverso due fenditure su una lastra oltre la quale è posizionata una seconda lastra fotografica che
ne registra l‟impatto; l‟impatto del singolo fotone sulla lastra fotografica ha forma corpuscolare, ma
dopo un numero sufficientemente grande di ripetizioni dell‟esperimento, il pattern degli impatti
rassomiglia sempre più a quello tipico delle interferenze, di forma ondulatoria. Questo significa che
ogni fotone, messo nelle stesse circostanze, varierà il suo comportamento, anziché manifestarsi
sempre in forma corpuscolare scegliendo sempre la stessa traiettoria per raggiungere la lastra
fotografica, per il solo fatto di avere a disposizione un‟alternativa di scelta.
Questo punto di vista potrebbe giustificare l‟affermazione aristotelica “il tutto è più della somma
delle parti” rivisitata dall‟economia del benessere, che vede nell‟utilità collettiva qualcosa di più
elaborato ed essenzialmente diverso della somma delle utilità individuali.
D‟altra parte, se si paragona la funzione di utilità collettiva ad una funzione d‟onda che oscilla fra
due valori estremi (per esempio quelli dell‟intervallo entro cui si stima sia compresa l‟utilità
collettiva in un sistema dinamico), allora si avrà che tale funzione, la cui particella elementare
normalmente si evolve secondo l‟equazione di Schrodinger in funzione del tempo, collasserà in un
punto (forma corpuscolare) nel momento in cui si verifichi una misurazione. Questo sembrerebbe
giustificare la difficoltà, nonostante le numerose osservazioni empiriche in tal senso, nella
formulazione di una definizione coerente, completa ed esaustiva tanto di utilità individuale quanto
di utilità collettiva o sociale. Le preferenze si manifestano solo al momento e nella forma in cui
rilevano. Un soggetto che sia chiamato a scegliere un solo bene da acquistare, a parità di prezzo e
condizioni generali, in presenza di perfetti sostituti, manifesterà una sola preferenza, che deve per
forza essere o di carattere aleatorio (la scelta viene fatta a caso, poiché il consumatore è
perfettamente indifferente fra tutte le alternative possibili) o motivazionale, dettata da euristiche
esperienziali o emotivo/affettive.
Ecco dunque che si arriva al principio di dualità, che esprime la corrispondenza empirica tra teorie o
formulazioni diverse. In altri termini, è possibile che i corpuscoli si comportino come onde e
viceversa. (S. Hawking, 2001) Così è possibile che le preferenze individuali siano orientate in modo
da massimizzare l‟utilità collettiva (comportamenti pro-sociali) o che questa sia funzione dell‟utilità
individuale (come nell‟annoso problema a livello di impresa fra proprietà e management, per cui il
management potrebbe massimizzare l‟utilità dell‟impresa, cioè della collettività che la costituisce,
la propria, a seconda del tipo di contratto ovvero della sua componente motivazionale). Il problema
sta nella mancanza di informazione circa quando la dualità si verifichi.
L‟approccio al problema dal punto di vista della cibernetica parte dall‟osservazione che un qualsiasi
sistema complesso (tanto più se umano) per funzionare in modo coerente con le aspettative ha
bisogno di attuare un meccanismo di retroazione (feedback, una sorta di back-ward induction), cioè
di confronto tra le fasi del ciclo di funzionamento previste (aspettative) e quelle effettivamente
raggiunte (realizzazioni empiriche). Per poter svolgere la retroazione, si deve necessariamente avere
un certo ammontare di informazione relativa a target, strumenti e meccanismi per raggiungerli, cioè
il sistema deve conoscere il suo stesso funzionamento atteso e saperlo confrontare con quello
effettivo. Tale risultato si potrebbe raggiungere con politiche economiche che mirino a dare una
conoscenza comune di fondo che soddisfi la condizione sufficiente per l‟autoregolazione del
sistema coerentemente con gli obiettivi condivisi; in altre parole, istruendo il sistema circa i
meccanismi di funzionamento, gli obbiettivi attesi e gli strumenti per raggiungerli.
Sembrerebbe di dover trattare dunque un problema se non altro di individuazione e localizzazione
delle isole di entropia (ed eventualmente di azione su di essa) per poter poi fornire al sistema
informazioni e/o istruzioni circa i suoi stessi limiti o margini di fallibilità e quindi gli strumenti per
autoregolarsi tramite il feedback. Nei sistemi fisici l‟entropia ne misura, in scala logaritmica, il
grado di disordine (e/o di ordine, per differenza), computando “il numero di diverse configurazioni
microscopiche di un sistema che lasciano immutato il suo aspetto macroscopico”. (S. Hawking,
2001) Nella teoria delle comunicazioni l‟entropia misura la quantità di informazione, quindi la
regolarità (o conseguentemente la mancanza di essa) in un sistema o modello. Per la seconda legge
della termodinamica, un sistema può perdere spontaneamente ordine e regolarità, ma non può mai
acquisirli, se non localmente ma solo nei sistemi aperti.
Un esperimento in questa direzione è stato svolto di recente su un campione casuale di entrepeneurs
messicane, che sono state istruite sulle basi di business management tramite un corso gratuito della
durata di 48 ore. (“Business Literacy and Development: Evidence from a Randomized Controlled
Trial in Rural Mexico”, Calderon, Cunha, De Giorgi, 2013)
Le imprese soggette al trattamento hanno evidenziato sensibili miglioramenti nelle performances, in
termini di aumento di dimensioni del portfolio clienti e di rendimenti, nonché nell‟uso delle
tecniche contabili in conformità con le leggi. Nondimeno, quella parte del campione la cui attività
era caratterizzata da disfunzionalità importanti, si sono mostrate propense ad uscire dal mercato in
seguito al trattamento. L‟azione sulle lacune informative del gruppo campionario sembrerebbe aver
innescato un processo di retroazione che ha portato alcune imprese a migliorare le proprie
performances e quelle apparentemente meno competitive ad auto-espellersi dal mercato. Si sono
osservate reazioni collaterali anche sulle attività produttive e commerciali vicine o collegate a
quelle cui è stato somministrato il trattamento, anche in misura non meglio specificata.
Infine, coniugando i vari approcci delle teorie citate, si può concludere che, qualora le ipotesi
classiche di razionalità e conoscenza perfetta fossero soddisfatte, le curve di domanda e offerta
collasserebbero nel punto di equilibrio, con entropia nulla. In questo caso si intende l‟entropia come
misura dell‟informazione trasmessa da una comunicazione (Shannon e Weaver, 1971): se tutti gli
operatori che interagiscono (comunicano) nel mercato fossero razionali e dotati di informazione
completa e se questa è perfettamente simmetrica, allora, a rigor di logica, non vi sarebbe motivo per
produrre una quantità diversa da quella ottimale, né di scambiarla ad un prezzo diverso da quello di
equilibrio. Dunque in tal caso il mercato si troverebbe di fronte ad una “scelta obbligata”: domanda
e offerta sarebbero costrette a cristallizzarsi nel punto di equilibrio, in corrispondenza di prezzi e
quantità ottime. L‟entropia data da un‟interazione di questo tipo sarebbe quindi nulla, poiché la
comunicazione fra le parti non porterebbe nessuna informazione di cui esse già non fossero a
conoscenza prima di interagire, né comporterebbe nessuna variazione del loro comportamento, né la
razionalità degli operatori mittenti lascerebbe loro alcuna libertà di scelta del messaggio da inviare.
BIBLIOGRAFIA
S. Hawking, L‟universo in un guscio di noce, Oscar Mondadori, 2012
La grande storia del tempo, I Edizione Rizzoli, 2005
C. H. Waddington, Strumenti per pensare, Edizioni Scientifiche e Tecniche Mondadori, 1977
S. Ortoli, J. Pharabod, Metafisica quantistica, I Edizione I Timoni, 2014
N. Wiener, Introduzione alla cibernetica, Editore Boringhieri, 1966
A. Vulpiani, Determinismo e caos, Carrocci Editore, Roma, 1994
Caso, probabilità e complessità, 2014 (in corso di pubblicazione)
P.L. Sacco, L. Zarri, Teoria dei giochi comportamentale e preferenze sociali: predizioni teoriche ed
evidenza sperimentale, in Viale R. (a cura di), La Nuova Scienza Economica, Il Sole 24 Ore,
Milano, 2005.
H. Leibenstein, Teoria generale dell‟efficienza X, Cisalpino, Milano,1966
H. Varian, Intermediate Microeconomics. A Modern Approach, 2003
Microeconomia, Libreria Editrice Cafoscarina srl, 2007
L. Cabràl, Economia industriale, Carrocci Editore, Roma, 2002
F. Knight, Rischio e incertezza, 1929
J. R. Pierce, La teoria dell‟informazione, Edizioni Scientifiche e Tecniche Mondadori, Milano1972
C. E. Shannon, W. Weaver, La teoria matematica delle comunicazioni, Etaslibri, Milano, 1971
I. V. Arnol‟d, Teoria delle catastrofi, Bollati Boringhieri editore, 1983
Von Neumann e Morgenstern, Teoria dei giochi e neuro-economia, New York, Wiley, 1944
B. Russel, L‟analisi della materia, Giangiacomo Feltrinelli Editore, 1927
F. Capra, Il Tao della fisica, Adelphi, Milano,1987
R. Gibbons, Teoria dei giochi, Il Mulino, 2005
L. Maccone, L. Salasnich, Meccanica quantistica, caos e sistemi complessi, 2008
G. Calderon, J. M. Cunha, G. De Giorgi, “Business Literacy and Developmet: Evidence from a
Randomized Controlled Trial in Rural Mexico”, 2013
H. A. Simon, La razionalità in economia, in Talamona M. (a cura di), Tendenze e prospettive
dell‟economia politica, Cisalpino, Milano, 1989
Aristotele, Politica, Editore Laterza; Fisica, Carrocci Editore, Roma
Top Related