Il concetto di entropia nella teoria economica: limiti e prospettive

47
INDICE Introduzione Premesse Capitolo 1: Il comportamento ottimizzante: massimizzazione dell‟utilità 1.1 Funzione di utilità 1.2 Preferenze 1.3 Curve di indifferenza: alcuni esempi di rappresentazione delle preferenze Capitolo 2: Il principio di equilibrio nella teoria economica e nella teoria dei giochi 2.1 Equilibrio fra domanda e offerta: efficienza allocativa 2.2 Equilibri di Nash e pareto-efficienza 2.3 La teoria dei giochi nei modelli economici Capitolo 3: Assunzioni classiche sui modelli economici 3.1 Simmetria delle curve dei costi 3.2 Asimmetria: apprendimento e vantaggi di costo 3.3 Simmetria informativa 3.4 Asimmetria: la teoria della razionalità limitata Capitolo 4: L‟ambiente economico e la teoria dei sistemi 4.1 L‟ambiente come sistema aperto 4.2 La complessità nei sistemi 4.3 Classificazione dei sistemi Capitolo 5: Informazione e conoscenza nei sistemi economici 5.1 Teoria della conoscenza 5.2 Gli effetti delle lacune informative sul comportamento ottimizzante Capitolo 6: Dal determinismo alla probabilità 6.1 Stima delle preferenze 6.2 Stime dell‟utilità con informazione limitata 6.3 La ricerca delle scelte ottime: dalla probabilità all‟euristica 6.4 Limiti dei metodi dall‟approccio ortodosso all‟euristica Capitolo 7: Evoluzione dell‟approccio deterministico allo studio dei sistemi complessi: scienze esatte e socio-economiche a confronto 7.1 Dal determinismo della meccanica classica al principio di indeterminazione della meccanica quantistica 7.2 Lo spazio-tempo 7.3 I principi di indeterminazione, dualità e complementarietà nella struttura dell‟ambiente economico 7.4 I limiti della conoscenza: trattazione comparata dei concetti di informazione ed entropia Conclusioni

Transcript of Il concetto di entropia nella teoria economica: limiti e prospettive

INDICE

Introduzione

Premesse

Capitolo 1: Il comportamento ottimizzante: massimizzazione dell‟utilità

1.1 Funzione di utilità

1.2 Preferenze

1.3 Curve di indifferenza: alcuni esempi di rappresentazione delle preferenze

Capitolo 2: Il principio di equilibrio nella teoria economica e nella teoria dei giochi

2.1 Equilibrio fra domanda e offerta: efficienza allocativa

2.2 Equilibri di Nash e pareto-efficienza

2.3 La teoria dei giochi nei modelli economici

Capitolo 3: Assunzioni classiche sui modelli economici

3.1 Simmetria delle curve dei costi

3.2 Asimmetria: apprendimento e vantaggi di costo

3.3 Simmetria informativa

3.4 Asimmetria: la teoria della razionalità limitata

Capitolo 4: L‟ambiente economico e la teoria dei sistemi

4.1 L‟ambiente come sistema aperto

4.2 La complessità nei sistemi

4.3 Classificazione dei sistemi

Capitolo 5: Informazione e conoscenza nei sistemi economici

5.1 Teoria della conoscenza

5.2 Gli effetti delle lacune informative sul comportamento ottimizzante

Capitolo 6: Dal determinismo alla probabilità

6.1 Stima delle preferenze

6.2 Stime dell‟utilità con informazione limitata

6.3 La ricerca delle scelte ottime: dalla probabilità all‟euristica

6.4 Limiti dei metodi dall‟approccio ortodosso all‟euristica

Capitolo 7: Evoluzione dell‟approccio deterministico allo studio dei sistemi complessi: scienze

esatte e socio-economiche a confronto

7.1 Dal determinismo della meccanica classica al principio di indeterminazione della

meccanica quantistica

7.2 Lo spazio-tempo

7.3 I principi di indeterminazione, dualità e complementarietà nella struttura

dell‟ambiente economico

7.4 I limiti della conoscenza: trattazione comparata dei concetti di informazione ed

entropia

Conclusioni

INTRODUZIONE

In questa sede si vuole trattare il tema dell‟incertezza nel contesto economico attraverso un

approccio comparativo della teoria economica dominante e dei suoi riscontri empirici.

In particolare si esamina come il mancato soddisfacimento delle ipotesi classiche di conoscenza e

razionalità perfette degli operatori economici comporti il verificarsi dei cosiddetti fallimenti di

mercato, intesi come lo scostamento dal suo punto di equilibrio a cui la teoria ortodossa associa

l‟efficienza allocativa. Un concetto da leggersi in chiave del paradigma di ottimo paretiano e pareto-

efficienza. Ciò significa che nel punto di equilibrio la combinazione dei fattori produttivi sarà tale

che il risultato dell‟attività economica sia quello massimizzante l‟utilità di tutti gli operatori

economici nei termini in cui essi non desidereranno più modificare le proprie scelte di consumo o di

produzione, poiché qualsiasi modifica in tal senso non potrebbe apportare un maggiore beneficio a

nessun operatore senza intaccare quella di un altro.

Si ricostruiranno i passaggi salienti della derivazione dell‟equilibrio nel mercato attraverso una

trattazione che va dai fondamentali meccanismi microeconomici a quelli dei diversi livelli di

aggregazione che compongono il sistema economico. A questo scopo, se ne studieranno le varie

componenti e le loro interazioni in termini di teoria dei sistemi, evidenziando la complessità, il

dinamismo e la variabilità del sistema “mercato” e come il suo comportamento tenda a sfuggire a

previsioni di tipo squisitamente deterministico.

Le osservazioni in merito saranno interpretate in termini di teoria dei giochi, a partire dalla sua

formulazione tradizionale per arrivare ai suoi sviluppi successivi i cui risultati diventano funzionali

a componenti motivazionali e psico-sociali, che esulano quelle classiche del comportamento

ottimizzante della teoria ortodossa.

Tenendo conto dei limiti delle ipotesi classiche relative alla conoscenza e razionalità degli operatori

economici, si cercherà di sviluppare un approccio alternativo di compromesso fra il determinismo

scientifico della tradizione e il probabilismo verso cui si muovono i più recenti sviluppi sia delle

scienze esatte che socio-economiche.

In particolare si confronteranno li metodi di studio proposti dalla teoria delle comunicazioni, della

meccanica quantistica e della cibernetica al problema della perdita o mancanza di informazione

(detta entropia), che nella teoria economica “obbliga” gli individui a scendere a compromessi quasi

sempre sub ottimali, cioè a comportamenti non ottimizzanti a causa della sostanziale situazione di

incertezza, informazione imperfetta e razionalità limitata in cui essi operano.

La più recente formulazione del concetto di “spazio-tempo” fornite dalla meccanica quantistica,

infine, sarà la chiave di lettura di un‟analisi multidimensionale della teoria dei giochi

comportamentale e del sistema economico coerente con il secondo principio della termodinamica,

che in economia si traduce negli effetti delle lacune informative (o entropie) sui fallimenti o

successi del mercato.

PREMESSE

I modelli della teoria economica dominante a livello globale si ergono sull‟ipotesi di razionalità

degli operatori economici che agiscono nel mercato secondo i principi di ottimizzazione e di

equilibrio.

Un individuo che si comporta in modo ottimizzante sceglie le migliori combinazioni fra quelle

possibili, per raggiungere in modo soddisfacente il suo obiettivo. In parole tecniche, il

comportamento ottimizzante è quello che spinge un individuo a massimizzare la sua funzione di

utilità, scegliendo le migliori combinazioni di consumo (o produzione) possibili sotto il vincolo di

bilancio, dato dai mezzi che il consumatore ha a disposizione per effettuare i suoi acquisti

(approssimabile, per rendere l‟idea, col suo reddito).

CAPITOLO 1: IL COMPORTAMENTO OTTIMIZZANTE E LA MASSIMIZZAZIONE

DELL‟UTILITA‟

1.1 Funzione di utilità

Prima dell‟affermazione della scuola di pensiero classica, il concetto di utilità era associato al

livello di soddisfazione che una determinata scelta economica avrebbe comportato. È facile dedurre

quanto fosse arbitraria e approssimativa la misurazione della “felicità” di un consumatore a seguito

di un acquisto di una determinata quantità di uno o più beni. L‟utilità assegnata a scelte diverse

avrebbe assunto valori diversi da individuo a individuo, a seconda delle preferenze soggettive,

precludendo pressoché ogni rigoroso confronto fra funzioni di utilità. L‟economia classica rivede il

concetto di utilità come una descrizione delle preferenze del consumatore, espresse o dedotte dal

suo comportamento. La funzione di utilità associa un valore ad ogni paniere di consumo, cioè ai

beni cui il consumatore ha accesso, ed ordina tali valori in modo crescente o decrescente: il paniere

X composto dai beni x1 e x2 sarà preferito a quello composto dai beni y1 e y2 se e solo se l‟utilità

associata a X sarà maggiore di quella associata a Y.

Cioè, dato un vincolo di bilancio della forma px(x1, x2) + py(y1, y2) ≤ m, dove i termini della

disequazione sono rispettivamente i prezzi del paniere X e Y e l‟ammontare che il consumatore ha a

disposizione per effettuare i suoi acquisti, si ha una relazione del tipo: (x1, x2) > (y1, y2) ↔ u(x1, x2)

> u(y1, y2).

1.2 Preferenze

Più che i valori dell‟utilità, è importante l‟ordinamento tra utilità associate a panieri diversi, che

fornisce informazioni circa le preferenze dei consumatori.

L‟ipotesi sottostante l‟ordinamento delle preferenze si rifà all‟assunzione di base dei modelli

economici, cioè quella della razionalità degli operatori economici, in questo caso quindi dei

consumatori. Tale ridondanza si manifesta nell‟assunzione di coerenza nelle preferenze dei

consumatori, intuitivamente data dall‟impossibilità di avere una situazione in cui un paniere di beni

è contemporaneamente preferito e scartato dallo stesso consumatore (razionale) sotto le stesse

condizioni. Se per il consumatore vale la disequazione u(x1, x2) > u(y1, y2), allora egli sceglierà il

paniere (x1, x2), salvo che i due panieri siano uguali, in qual caso il consumatore sarebbe

indifferente fra essi. A quanto appena illustrato, cioè l‟assioma di completezza delle preferenze, si

aggiungono gli assiomi di riflessività (cioè un paniere è desiderabile almeno quanto se stesso) e di

transitività (se il paniere X è preferito ad Y ed Y è preferito a Z, allora il paniere X è preferito a Z).

Le preferenze sono rappresentate graficamente dalle curve di indifferenza, costituite da tutti i

panieri per cui un consumatore non esprime una preferenza, cioè dalle diverse combinazioni di beni

che si associano ad uno stesso livello di utilità. Per gli assiomi sulle preferenze, diverse curve di

indifferenza non possono intersecarsi fra loro.

1.3 Curve di indifferenza: alcuni esempi di rappresentazione delle preferenze.

I punti “a” ed “e” rappresentano

combinazioni delle quantità del

bene A e del bene B per cui l‟utilità

del consumatore sarebbe la

maggiore possibile rispetto agli altri

punti “b”, “c” e “d”, che giacciono

su curve di indifferenza inferiori

(salvo il vincolo di bilancio). Per

ipotesi, infatti, si preferisce

consumare una quantità simile di

due beni, piuttosto che o solo il

bene A (come nel punto “b”) o solo

il bene B. La combinazione in

corrispondenza del punto “d” invece

si trova sulla curva d‟indifferenza

più bassa, cui corrisponde la minore

utilità del consumatore. Il punto c è

l‟unico che soddisfa il vincolo di

bilancio, cioè per la combinazione

di beni A e B in corrispondenza del

punto c, la curva di indifferenza e la retta di bilancio sono tangenti in c, che individua quindi la

scelta ottima. La condizione di ottimo non richiede in generale la tangenza della curva di

indifferenza a quella di bilancio; è sufficiente che esse non si intersechino in corrispondenza della

scelta ottima.

Source: http://ingrimayne.com R. Schenk©

Dalle curve di indifferenza si può desumere la relazione che intercorre tra i due beni considerati.

Si dicono perfetti complementi quei beni che il consumatore desidera avere in proporzioni fisse; per

esempio, il suo paniere può essere composto per metà dal bene Y e per l‟altra metà dal bene X. I

perfetti sostituti sono caratterizzati da un‟inclinazione delle curve di indifferenza uguale a -1, poiché

il consumatore è disposto a sostituirli l‟un l‟altro, solitamente in questa proporzione.

L‟approssimarsi a tale saggio di sostituzione, porta le curve di indifferenza a deviare leggermente la

loro forma (quasi sostituti). Se le curve di indifferenza hanno inclinazione positiva rappresentano

dei beni non desiderabili (cioè “mali”), mentre se sono delle rette verticali significa che si è in

presenza di beni neutrali (il consumatore è interessato solo ad uno dei due beni ed è neutrale nei

confronti dell‟altro). La forma generale delle curve di indifferenza ha inclinazione negativa, sotto

l‟ipotesi di monotonicità (per cui una combinazione di beni caratterizzata da una quantità maggiore

degli stessi, quindi su una curva d‟indifferenza più alta, sarà la scelta preferibile), e si discosta da

quelle viste finora. L‟ipotesi di monotonicità vale solo se non si è ancora raggiunto il punto di

sazietà, in corrispondenza del paniere preferito a tutti gli altri. Più le curve di indifferenza si

avvicinano a questo punto, maggiore sarà l‟utilità del consumatore data dalla scelta di una

combinazione di beni in corrispondenza di tale punto.

Esempi di curve di indifferenza. Source: H. Varian, 2007

CAPITOLO 2: IL PRINCIPIO DI EQUILIBRIO NELLA TEORIA ECONOMICA E NELLA

TEORIA DEI GIOCHI

2.1 Equilibrio fra domanda e offerta: efficienza allocativa.

Riguardo al principio di equilibrio, invece, basterà per ora tenere presente il suo effetto generale sul

livello prezzi: si assume che essi varino fino al punto in cui la quantità domandata di un bene

eguaglierà quella offerta. (H. Varian – Microeconomia, 2007) In parole più classiche e in termini

aggregati, il mercato adotta dei meccanismi di aggiustamento automatici o indotti (meccanismi che

A. Smith, uno dei padri della scuola classica e dell‟economia politica, battezzò con l‟emblematico

termine di “mano invisibile”, XVIII sec.), generati dall‟interazione fra le sue forze, fino a

raggiungere il punto in cui domanda e l‟offerta si incontrano in corrispondenza della quantità di

output di equilibrio scambiata nel mercato al prezzo di equilibrio.

A livello microeconomico, le quantità ottime di ogni paniere di consumo in funzione del loro

prezzo, sotto il vincolo di bilancio (il reddito del consumatore), vanno a costruire la funzione di

domanda del consumatore. A livello aggregato, date le domande individuali di tutti i consumatori,

la domanda di mercato (D) ne è la sommatoria.

La domanda individuale è una funzione di prezzo del o dei beni e reddito del consumatore, mentre

quella aggregata dipende dalla distribuzione dei redditi, oppure, in alternativa è derivata dalla

funzione di domanda di un consumatore “rappresentativo”, cioè che in media rispecchia le

caratteristiche di reddito e consumi di tutti i consumatori. In generale, la curva di domanda ha

inclinazione negativa, cioè la quantità domandata di un bene aumenta se il suo prezzo diminuisce e

viceversa. I beni caratterizzati da una funzione di domanda di questo tipo sono detti “beni normali”.

La loro domanda, inoltre, si assume crescente all‟aumentare del reddito, tradotto agli occhi del

consumatore come un equivalente abbassamento del prezzo dei beni del suo paniere. Al contrario, i

Source: http://infofellow.com

beni cosiddetti inferiori subiscono un calo nella domanda quando aumenta il reddito o ne

diminuisce il prezzo (si pensi, per esempio, ai beni di lusso, per cui una variazione a ribasso del

prezzo potrebbe facilmente essere percepita dai consumatori come un difetto di qualità, e quindi

ridurre la domanda di quel bene).

Generalmente la domanda è sensibile alle variazioni di prezzo e tale sensibilità è misurata

dall‟elasticità. La domanda cioè subisce delle variazioni, positive o negative, dovute all‟effetto

reddito (variazioni del potere d‟acquisto, ovvero del reddito dei consumatori, restando costante il

livello dei prezzi) e all‟effetto di sostituzione (variazioni del prezzo di un bene quando i prezzi degli

altri beni e il reddito rimangono costanti).

In genere, reddito e consumi sono direttamente proporzionali. La curva reddito-consumo è quindi

inclinata positivamente: a maggiori livelli di reddito si associano maggiori livelli di consumo, sotto

l‟ipotesi di costanza dei prezzi.

L‟effetto di sostituzione si riferisce al mutamento nella combinazione del paniere del consumatore

quando varia il prezzo di uno dei beni che lo compongono ma quello degli altri beni e il reddito

rimangono costanti.

In entrambi i casi il potere di acquisto del consumatore viene modificato, il che comporta una

variazione nella composizione della sua domanda.

Per la stima della variazione complessiva della domanda, bisogna considerare congiuntamente gli

effetti di sostituzione e di reddito, a seconda che si stia trattando la domanda di beni normali o

inferiori (a seconda che la quantità domandata sia proporzionale direttamente o inversamente). In

sintesi si hanno tre possibilità nello studio delle variazioni della domanda, a seconda che, al variare

dei prezzi, si mantenga fisso il reddito (curva di domanda standard); o il potere d‟acquisto (effetto

di sostituzione di Slutzky); o il livello di utilità (effetto di sostituzione di Hicks, per cui la retta di

Source: http://ingrimayne.com R. Schenk©

bilancio shifta lungo la curva di indifferenza su cui giaceva la scelta ottimale precedente alla

variazione dei prezzi).

Similmente alla costruzione della domanda aggregata, la curva di offerta (S) di mercato può

ottenersi dall‟aggregazione delle curve di offerta individuali, che fanno corrispondere a ciascun

prezzo una quantità del bene da scambiare sul mercato.

Perché tale scambio avvenga, le curve di offerta e di domanda devono incontrarsi in corrispondenza

di un certo livello di prezzi (prezzo di mercato) a una data quantità. Poiché le curve di domanda e

offerta si assumono rappresentative delle scelte ottimali a livello aggregato di tutti gli operatori

presenti nel mercato, la loro intersezione si avrà in corrispondenza di prezzo e quantità di

equilibrio, cioè nel punto in cui il mercato è in equilibrio (per opera dei meccanismi automatici

innescati dall‟interazione delle forze agenti nel mercato, ovvero della “mano invisibile”, esso

tenderà sempre a tale condizione di equilibrio).

Nel punto di equilibrio, il prezzo di equilibrio EP corrispondente alla quantità di equilibrio EQ

all‟intersezione delle curve di domanda e di offerta aggregata, l‟economia si trova in una condizione

di efficienza paretiana. In tale situazione, si ha l‟allocazione ottima delle risorse nel mercato

(efficienza allocativa) e non è possibile accrescere l‟utilità di un operatore economico senza

intaccare quella di un altro, perciò il mercato si stabilizzerà dove si incontrano domanda e offerta, in

quanto non sarebbe conveniente che gli operatori economici modificassero a questo punto le proprie

scelte deviando dall‟equilibrio.

Image: Demand-Pupply Equilibrium. Source: http://en.wordpress.com

2.2 Equilibri di Nash e pareto-efficienza.

I risultati ottenuti sono coerenti con quelli forniti dalla teoria dei giochi. La condizione di efficienza

paretiana è l‟equivalente di un equilibrio di Nash, che identifica la combinazione ottima di strategie

attuate dai giocatori di un gioco tale che nessuno dei due desideri, in corrispondenza del punto di

equilibrio, modificare la propria scelta. Si noti che il raggiungimento dell‟equilibrio di Nash, che è

pareto-efficiente (rispetta cioè la condizione di efficienza paretiano, per cui nessun agente coinvolto

desidera modificare le proprie scelte, una volta effettuate, indipendentemente da quelle degli altri),

non implica che tutti i giocatori abbiano massimizzato la propria utilità; avranno semplicemente

effettuato la scelta migliore possibile, data la strategia dell‟altro giocatore.

Per chiarire questo concetto si cita brevemente il gioco cooperativo noto come “dilemma del

prigioniero” che rispecchia la maggior parte delle situazioni economiche che si verificano nel

mercato. Secondo la formulazione originaria, due individui vengono fatti prigionieri poiché

complici di un delitto. Essi vengono quindi interrogati separatamente e gli si offrono due possibilità:

collaborare confessando il delitto per ottenere uno sconto della pena, o non collaborare, cioè tacere

nella speranza di ripercussioni minime a causa della mancanza di prove qualora il complice non

confessasse, ma col rischio di avere la massima sanzione qualora il complice scegliesse invece di

collaborare. I due complici sono i giocatori A e B e le strategie che essi possono scegliere sono

“Confessare” o “Negare”. Ad ogni combinazione possibile di strategie si associano dei payoff

indicativi dell‟utilità conseguente ad ogni scelta a fronte della scelta dell‟avversario (in questo caso,

i payoff sono gli anni di prigione da scontare, cioè rappresentano un‟utilità negativa per i giocatori).

Analogamente alla costruzione delle funzioni di utilità individuali sulla base delle preferenze, i

payoffs associati ad ogni combinazione possibile (questa non si tratta della composizione di un

paniere di beni (x1, x2), bensì della strategia da giocare, cioè cooperare con l‟altro giocatore o meno)

determinano la scelta della curva di reazione di ogni giocatore. Le curve di reazione, o curve di

risposta ottimale, rappresentano le risposte ottimali (che soddisfano il principio di ottimizzazione

visto precedentemente) di ogni giocatore a fronte di quelle degli avversari.

La matrice dei payoffs è della forma:

Cooperate Defect

Cooperate -1, -1 -6, 0

Defect 0, -6 -3, -3

L‟equilibrio di Nash si ha quando entrambi i giocatori scelgono la strategie “defect” ottenendo la

combinazione di payoffs (-3, -3). Si ottiene tramite l‟eliminazione delle strategie strettamente

dominate, cioè di quelle a cui corrisponde sempre un payoff inferiore in corrispondenza di ogni

scelta possibile dell‟avversario. Per esempio il giocatore B non preferirà mai giocare la strategia

“cooperate” poiché ad essa si associano sempre, per ogni possibile strategia di A, payoff inferiori a

quelli che otterrebbe giocando “defect”: se A scegliesse anch‟egli la strategia “cooperate”, B

avrebbe un payoff di -1 < 0; se A scegliesse invece “defect”, B avrebbe un‟utilità di -6, che è

Player B

Player A

comunque strettamente minore (cioè dominata) di quella che avrebbe avuto se avesse giocato

“defect”, cioè -3.

Una rappresentazione del gioco alternativa alla matrice dei payoffs è quella a forma estesa, cioè

tramite un diagramma ad albero che ne evidenzia le fasi decisionali, detto albero decisionale.

La soluzione del gioco è data dunque dall‟equilibrio di Nash in corrispondenza della combinazione

di strategie “defect, defect”, cioè in cui entrambi i giocatori si tradiscono e confessano il crimine

ottenendo una condanna a 3 anni di carcere. Si nota subito che questo è una soluzione sub ottimale

in quanto la pena sarebbe stata per entrambi minore se avessero scelto di cooperare fra loro:

avrebbero infatti scontato solo un anno di carcere. Tuttavia, la teoria dei giochi dimostra con

l‟applicazione del metodo di eliminazione delle strategie strettamente dominate che l‟equilibrio in

cui entrambi i giocatori trarrebbero la massima utilità, cioè in corrispondenza dei payoff (-1, -1),

sarebbe instabile, in quanto i giocatori tenderebbero a voler modificare la loro strategie, qualora il

gioco venisse ripetuto, secondo la logica dell‟eliminazione delle strategie strettamente dominate

sopra enunciata.

2.3 La teoria dei giochi nei modelli economici.

È possibile avere un esito del gioco diverso dall‟equilibrio di Nash solo nei casi in cui il gioco è

sequenziale (i giocatori implementano le loro strategie non più in simultanea ma l‟uno dopo l‟altro)

o se viene ripetuto un certo numero di volte e i giocatori si accordano per giocare sempre una

determinata strategia. All‟ultima ripetizione del gioco, però, entrambi i giocatori perderanno

l‟interesse nel mantenere l‟accordo poiché non rischierebbero più alcuna ritorsione per aver violato

l‟accordo, in quanto il gioco finisce lì.

(-3, -3)

(0, -6)

(-1, -1)

(-6, 0)

A Defects

B Defects

A Cooperates

B Cooperates

B Cooperates

B Defects

Prisoner’s Dilemma – extended

representation

Questo è quanto può accadere quando due o più imprese concorrenti colludono. Cioè esse si

accordano su determinate strategie da tenere per un determinato periodo di tempo, in modo da

mantenere costante la loro posizione nel mercato. L‟oggetto della collusione potrebbe essere un

certo livello di prezzi, o una determinata quantità di output o una qualsiasi altra variabile strategica

che modificherebbe la suddivisione del potere di mercato o della quota di mercato fra le imprese

concorrenti. La collusione, oltre ad essere perseguita dalle autorità antitrust in quanto lesiva della

concorrenza, è anche una posizione difficilmente difendibile, qualsiasi sia il numero di imprese

concorrenti nel mercato poiché ve ne sarà sempre una o più che trarrebbe giovamento violando

l‟accordo battendo sul tempo le altre. È appunto la situazione del dilemma del prigioniero

contestualizzata in un mercato oligopolistico concorrenziale. Un ragionamento analogo vale

indipendentemente dalla concentrazione del mercato, sia che vi sia concorrenza perfetta, un

oligopolio, un duopolio o un monopolio dove i potenziali entranti fanno le veci dei concorrenti (per

esempio si può avere la situazione in cui il monopolista può minacciare i potenziali concorrenti di

adottare dei prezzi predatori, cioè qualora questi decidessero di entrare nel mercato; sta al

potenziale entrante valutare la credibilità della minaccia. Si tratta in questo caso di un gioco di

deterrenza all‟entrata).

Si supponga che un mercato con più imprese concorrenti (oligopolio) possa essere rappresentato

dall‟interazione tra due imprese, A e B che producono lo stesso bene. La loro scelta strategica

verterà o sul livello di output da produrre (modello di Stackelberg, se la scelta è sequenziale, di

Cournot per gioco in simultanea) o sul prezzo di vendita dell‟output (scelta simultanea del livello

dei prezzi nel duopolio à la Bertrand).

Se la scelta è sequenziale, cioè si parla del modello di Stackelberg, chi sceglie per primo

detiene la leadership di quantità (o di prezzo), e il concorrente è un follower, cioè dovrà basare la

decisione circa il livello di produzione su quello del leader, una volta che la sua scelta è stata

effettuata. Tuttavia il leader può prevedere a priori la reazione del follower conseguente alla propria

scelta e quindi tenerne conto al momento di decidere.

Se invece la scelta del livello di

output da produrre è simultanea, allora vale

il modello di Cournot: date funzioni di

domanda lineari e costi marginali nulli per

tutte le imprese, ognuna sceglierà il livello di

output (ya, yb) che massimizza il suo profitto

(secondo il principio di ottimizzazione)

tenendo conto della strategia attesa del

rivale. La sua curva di reazione di A sarà

costruita in funzione di quella che A si

aspetta sia la curva di reazione di B:

ya=fa(ybe), yb=fb(ya

e). L‟equilibrio EQ di un

oligopolio à la Cournot si ha nel punto in cui

le curve di reazione che verificano le

aspettative si intersecano: ya = yae

= yb = ybe,

Source: H. Varian, 2007

ovvero EQ=ya*=yb*.

Qualora il mercato si trovi in una condizione diversa da quella di equilibrio, i concorrenti

modificheranno i propri livelli di produzione fino a raggiungere l‟equilibrio di Cournot. Una volta

raggiunto, essi riterranno conveniente non modificare ulteriormente la propria strategia. Per questo

motivo, l‟equilibrio di Cournot è detto stabile.

Nel caso di un modello di concorrenza à la Bertrand, il ragionamento è analogo. Trattandosi

questa volta di una concorrenza di prezzo, le imprese dovranno scegliere la propria strategia di

prezzo a seconda di quella che si aspettano sarà la scelta del concorrente, col vincolo che il prezzo

non potrà essere inferiore al costo marginale, poiché in tal caso sarebbe conveniente produrre

quell‟unità addizionale cui si riferisce il costo marginale (MC).

L‟equilibrio è dato dall‟intersezione delle curve di

reazione delle due imprese nel punto in cui il

prezzo fissato da entrambe eguaglia il costo

marginale. Tale condizione è detta “paradosso di

Bertrand”: partendo da un mercato di concorrenza

imperfetta come un oligopolio o un duopolio, si

giunge alla condizione di equilibrio caratteristica

dei mercati perfettamente concorrenziali con n

concorrenti: p1* = p2* = p* = MC.

Il prezzo di mercato che verifica l‟eguaglianza p* =

MC è l‟unico al di sotto del quale ogni concorrente

riterrà sconveniente scendere, poiché una scelta in

tal senso innescherebbe una reazione a catena del o

dei concorrenti che finirebbe per logorare il

mercato (con l‟uscita dei concorrenti meno competitivi, qualora vi fosse un‟asimmetria nella forma

della funzione di produzione, come una disparità nella tecnologia a disposizione) e riportarlo infine

all‟equilibrio.

Siano: MR = curva dei ricavi marginali, AC

= curva dei costi medi, D = curva di

domanda aggregata (per tutte le imprese), p

= livello dei prezzi, Q = quantità di output.

Confrontando i punti di equilibrio dei vari

tipi di mercato si avrà un prezzo di mercato

più alto alla quantità più bassa in monopolio,

una situazione intermedia data dal modello

di Cournot, ed una in cui i consumatori

hanno accesso alla maggior quantità di

output al prezzo più basso grazie al

funzionamento del mercato perfettamente

concorrenziale e à la Bertrand.

Source: H. Varian, 2007

CAPITOLO 3: ASSUNZIONI CLASSICHE SUI MODELLI

I risultati della teoria dei giochi applicata ai mercati sono da considerarsi validi se di verificano

certe ipotesi, dette assunzioni di base, sulle funzioni di costo, la razionalità del comportamento e in

genere sulla conoscenza degli operatori detti giocatori.

3.1. Simmetria delle curve dei costi

Si è accennata la condizione necessaria di simmetria nella funzione di produzione delle imprese

presenti nel mercato, ovvero delle loro funzioni di costo. La funzione di produzione di un‟impresa

indica la combinazione di fattori produttivi quali capitale, lavoro, e tecnologia (e/o capacità

manageriale; determina la produttività dei fattori, cioè in che misura contribuiscono a produrre

un‟unità di output), per trasformare un determinato ammontare di input in una certa quantità di

output. Essa è solitamente espressa nella forma Y = A f(K, L), dove Y è l‟output prodotto, A

rappresenta la produttività dei fattori produttivi capitale K inteso in senso ampio (stock di

macchinari, materie prime, mezzi finanziari, …) e lavoro umano L. La variazione più comunemente

usata è la funzione di produzione Cobb-Douglas: Y = A Ka L

1-a, con 0 < a < 1 che è il ritorno di

share ai proprietari del capitale K. Per differenza si ottiene il ritorno dei risultati della produzione al

capitale lavoro, dato dall‟esponente di L, (1-a). In questi questi casi le curve sono concave e quasi-

concave, entrambe inclinate positivamente.

Si supponga che un‟impresa in un mercato disponga di una produttività dei fattori più elevata

rispetto a quella delle altre. La sua funzione di produzione sarà tale da consentirgli di ottenere un

maggior ammontare di output agli stessi costi sostenuti dai concorrenti, oppure lo stesso livello di

output ma a costi di produzione inferiori. Questo si traduce in un vantaggio competitivo che

l‟impresa caratterizzata da tale funzione di produzione potrà usare per rafforzare la sua posizione

nel mercato. Avrà per esempio maggiore potere contrattuale rispetto ai suoi concorrenti, che

potrebbero tentare di colludere per reggere la competizione. In una situazione del genere la

collusione potrebbe rivelarsi un equilibrio più stabile rispetto a quanto ci si aspetterebbe

dall‟applicazione della teoria dei giochi sotto il vincolo di simmetria delle curve dei costi. Le

imprese che colludono infatti non avrebbero interesse a rompere l‟accordo fintanto che non

modifichino esse stesse la loro funzione di produzione in modo da poter competere da sole con

quella che ha costi di produzione minori. Solo a quel punto potrebbero voler violare l‟accordo

collusivo.

“Companies achieve competitive advantage through acts of innovation. They approach innovation

in its broadest sense, including both new technologies and new ways of doing things.” (M. E.

Porter, 1990)

3.2. Asimmetria: apprendimento e vantaggi di costo

Anche supponendo una condizione di partenza in cui si verificata l‟ipotesi di simmetria delle curve

di costo delle imprese, gli equilibri di Nash pareto-efficienti dei modelli precedentemente descritti

potrebbero comunque rivelarsi instabili in tempi successivi nel caso in cui i concorrenti avessero

curve di apprendimento.

“Ciò che dobbiamo imparare a fare, lo impariamo facendolo” (Aristotele, IV sec. a.C.)

L‟osservazione aristotelica è stata rivisitata e diffusa con il mantra del “learning by doing” proposto

da K. Arrow nella formulazione della teoria della crescita endogena in merito agli effetti delle

innovazioni (e degli investimenti in questo senso) sui sistemi produttivi (1962).

L‟idea di fondo esplicitata dalla curva di apprendimento è che il learning by doing diventa un

processo sempre più semplice col passare del tempo. Vale a dire che l‟apprendimento è strettamente

legato all‟esperienza, nel senso che assimilare un‟unità di informazione diviene via via più facile,

veloce e meno costoso. (Cohen e Levinthal, 1990)

Questo suggerirebbe un andamento di tipo esponenziale della curva di apprendimento, con due

possibilità: in mancanza di esperienza, la curva di apprendimento può assumere anch‟essa valori

prossimi allo zero, secondo la ratio del learning by doing, oppure tendere ad infinito, poiché ogni

esperienza insegna qualcosa di nuovo, mentre col passare del tempo, un sistema produttivo diventa

noto, quindi l‟acquisizione di nuove unità di conoscenza diviene un processo che va scemando.

Tuttavia, generalmente si ritiene

verosimile che un sistema, per

quanto intelligente, abbia dei

limiti fisiologici che ne limitano

l‟apprendimento ad un livello

massimo, perciò la curva sarà più

comunemente rappresentata come

una sigmoide, più o meno piatta a

seconda della relazione, che parte

da valori attorno allo zero,

accelera esponenzialmente per

poi decelerare fino ad

approssimarsi al limite massimo

di apprendimento. (Henderson‟s

Law, 1968)

Source: Wikipedia

In ogni caso, un‟impresa che abbia una curva di apprendimento, se ne può avvalere per crearsi un

vantaggio competitivo dato da un vantaggio di costo ottenibile sui concorrenti:

La disparità nelle curve di apprendimento dei diversi concorrenti avrebbero sull‟equilibrio di

mercato effetti analoghi a quelli dovuti all‟asimmetria delle curve di costo.

3.3 Simmetria informativa.

Un altro pilastro su cui si erge la teoria dei giochi è la simmetria informativa. Per esempio, è

concretamente molto difficile che ad un‟impresa sia nota la forma esatta della funzione di costo dei

suoi concorrenti e di certo non è nei suoi interessi rivelare loro la propria. Spesso è difficile per

l‟impresa perfino conoscere la propria funzione di produzione, a causa della difficoltà nella stima

puntuale della produttività dei fattori produttivi, soprattutto del capitale lavoro. Non è sufficiente

infatti conoscere l‟ammontare ottimale di lavoro tale che i costi di produzione siano minimizzati e

massimizzati i profitti. Anche qualora questa stima fosse esatta, l‟introduzione nel processo

produttivo dell‟ammontare ottimo di capitale lavoro potrebbe non portare i risultati attesi, a causa

della variabilità della sua produttività. Potrebbe essere richiesta una quantità addizionale di

lavoratori, qualora la loro produttività fosse stata sovrastimata. Brevemente Oppure, si potrebbe

avere un esubero di forza lavoro, dovuto, per esempio, ad una sottostima della produttività di altri

fattori produttivi (macchinari, innovazioni tecnologiche, …).

Un‟interessante teoria sulla produttività dei fattori è quella battezzata da H. Leibenstein come

“efficienza X” (1966). Egli osserva una mancata realizzazione empirica dell‟efficienza allocativa

(che si ha in corrispondenza di un punto di ottimo paretiano e coincide quindi con la pareto-

efficienza) che i modelli classici e neoclassici si aspetterebbero in mercati in cui gli operatori

economici agiscono razionalmente secondo i principi di ottimizzazione ed equilibrio. La razionalità

per le imprese significa che esse sceglieranno di operare alla frontiera del proprio vincolo

Source: Wikipedia

tecnologico, rappresentato dalla tecnologia disponibile. Un‟impresa che sia in tale condizione di

efficienza tecnica sceglierà nel lungo periodo una combinazione di input e output (cioè una

funzione di produzione) tale da posizionarsi sul punto di minimo della sua curva dei costi medi

totali (si dice quindi che nel lungo periodo l‟impresa implementa la “best practice technology”). I

mercati poco concorrenziali in particolare rivelano che invece le imprese operano sovente al di sotto

del proprio vincolo tecnologico. Leibenstein individua tre principali cause di questa inefficienza

allocativa (o tecnica) che egli chiama “inefficienza X”: contratti di lavoro incompleti; assenza di un

mercato per ogni input (con riferimento alla capacità manageriale in particolare); difetti di

conoscenza della funzione di produzione. La condizione di inefficienza allocativa diventa più

evidente al diminuire dell‟impellenza di raggiungere il punto di minimo nella curva dei costi,

ovvero, man mano che la concorrenza degenera verso il monopolio.

3.4 Asimmetria informativa: la teoria della razionalità limitata.

L‟espressione “contratto incompleto” ricorre anche nella teoria di H. Simon (1916 – 2001) circa

quelle che lui chiama “razionalità limitata” e “razionalità olimpica”. Egli sostiene che solo individui

con razionalità “olimpica” possano stipulare dei contratti completi, in quanto, disponendo entrambi

di una conoscenza perfetta, essi possono valutare e includere nel contratto ogni situazione che

potrebbe verificarsi, in quanto dispongono di tutte le informazioni necessarie a prevederle. I

contratti incompleti invece sono quelli sottoscritti in difetto di razionalità olimpica: il livello di

informazione dei contraenti è al di sotto di quello che consentirebbe loro di prevedere ogni possibile

scenario da includere nel contratto. C‟è dunque bisogno di un terzo partito che verifichi che i

vincoli del contratto siano rispettati da entrambe le parti (per esempio, un‟autorità pubblica), in

quanto le scelte sottoscritte si potrebbero rivelare non efficienti in senso paretiano e quindi uno o

tutti i contraenti potrebbero volersi svincolare dagli obblighi contrattuali (cioè cambiare la loro

strategia, come nel caso della collusione o di qualsiasi equilibrio instabile).

La scelta lessicale di Simon del termine “olimpica” in riferimento alla razionalità che l‟economia

ortodossa pretende dagli operatori economici, suggerisce senza troppi indugi la difficoltà che tale

pretesa abbia dei riscontri empirici. Infatti Simon osserva che gli agenti economici sono soggetti a

vincoli, o limiti, particolarmente stringenti: essi sono chiamati ad effettuare una scelta data una

quantità incompleta di informazione circa il ventaglio effettivo delle loro possibilità; oltre alla

menomazione conoscitiva, devono compiere la loro scelta in un certo intervallo di tempo. Se la

teoria dei giochi tiene conto solo dello spazio (i giocatori di un gioco sono concorrenti nello stesso

mercato) e guarda al tempo come ad una successione di circostanze che si ricreano (l‟approccio

cambia a seconda che il gioco sia in simultanea o sequenziale, ripetuto più volte o una sola), Simon

non trascura l‟effetto che la componente tempo ha sul procedimento decisionale dei giocatori. Egli

individua quindi una ratio non più di ottimizzazione ma di soddisfazione nella scelta strategica.

Ogni giocatore dovrà quindi accontentarsi di scegliere una strategia associata ad un‟utilità

soddisfacente, che non è detto sia la massima ottenibile, dati i limiti alla sua razionalità, ovvero i

suoi difetti conoscitivi.

Le osservazioni riguardo la razionalità degli operatori economici sono strettamente relazionate

all‟ambiente in cui essi sono inseriti. In genere nella letteratura economica si valuta la razionalità

degli individui in base al loro grado di comprensione del sistema in cui sono inseriti, ovvero

dell‟ambiente circostante.

È necessario dunque approfondire il contesto sistemico in cui si svolge e analizza la razionalità.

L‟approccio che in questa sede si ritiene più funzionale alla trattazione è quello dato dalla teoria dei

sistemi, in particolare di quelli complessi e dinamici, le cui caratteristiche corrispondono in maniera

sufficientemente adeguata a quelle dell‟ambiente economico, uno spazio composito, vario e

variabile.

CAPITOLO 4: L‟AMBIENTE ECONOMICO E LA TEORIA DEI SISTEMI

4.1 L‟ambiente come sistema aperto

Simon osserva che la razionalità limitata dei soggetti tuttavia non preclude loro la possibilità di

fronteggiare situazioni complesse dal punto di vista decisionale sfruttando la struttura dell‟ambiente

e le regolarità di essa e dei modelli noti. In parafrasi, l‟ambiente nella teoria economica e lo spazio

in cui gli operatori economici svolgono la loro attività di produzione o di consumo, cioè, in genere,

il mercato.

La definizione più esaustiva circa il concetto di “ambiente” è data forse dalla termodinamica che

identifica l‟ambiente esterno (a cui ci si è riferiti finora), in termini di insiemistica, nella differenza

fra l‟insieme universo (U) e l‟oggetto di studio (xi): U \ {xi}. La loro unione invece costituisce un

sistema detto chiuso e isolato, nel senso che ingloba già tutti i possibili elementi che avrebbero

potuto entrare nei sistemi aperti U \ {xi} e {xi} stesso.

In altre parole, un sistema si dice chiuso se è impermeabile all‟azione di agenti esterni ed

impenetrabile da essi. Questi sono i sistemi in cui si svolge la meccanica newtoniana classica, come

si vedrà in seguito. Sono estremamente rari da osservare, poiché quasi tutti i sistemi ad esclusione

dell‟universo nella sua totalità, subiscono o attivano una qualche interazione con elementi non

direttamente inclusi nel loro dominio, se non altro per il fatto che qualsiasi sistema, per poter

funzionare così come per mantenersi in vita, ha bisogno di un certo quantitativo di energia. Un

esempio di sistema chiuso, indipendente dall‟apporto di energia dall‟esterno nel senso che è in

grado di autoalimentarsi, potrebbe essere una botte per la fermentazione del vino, sigillata

ermeticamente in quanto il processo che vi si svolge è alimentato dall‟energia fornita dagli zuccheri

del succo d‟uva. (C. H. Waddington, 1977)

I sistemi aperti invece sono quelli che si osservano in natura: sono sostanzialmente sistemi parziali,

poiché permettono ad elementi esterni di penetrare e interagire con quelli interni e viceversa. Vi è

uno scambio reciproco di energia e informazione, tramite cui elementi esterni e interni al sistema di

riferimento (o sistemi diversi, che dir si voglia) interagiscono fra loro.

I più recenti sviluppi della fisica hanno completato la vecchia dicotomia che vedeva gli scambi di

informazione relazionarsi a scambi di energia arbitrariamente piccoli. Uno scambio di informazione

fra sistemi, per esempio comunicativi, richiede un energia tale che il segnale inviato non vada

distrutto a casa di eventuali interferenze o disturbi. Dunque vi è un minimo livello di energia

necessario allo scambio di informazioni che coincide con il quanto di luce (la misura minima di

radiazione di energia) ma ciò non impone restrizioni ulteriori circa l‟accoppiamento energetico e

quello informativo. (N. Wiener, 1950)

È proprio sulla classificazione dei sistemi aperti e chiusi che si articola la teoria di Simon circa la

capacità di apprendimento delle organizzazioni economiche con razionalità limitata. Egli osserva

che i sistemi organizzati quali quelli economici hanno sostanzialmente due possibilità di

apprendimento: per via endogena, cioè tramite la capacità apprendimento degli elementi del

sistema, e per via indotta, cioè inglobando nel sistema nuovi membri che vi apportino nuove

informazioni, cioè colmino le lacune informative precedenti alla loro entrata. Un processo di questo

tipo, senza che vi sia un‟espulsione equivalente di unità dal sistema, innesca una crescita del

sistema in termini quantitativi (il caso opposto è quello della decrescita, data dalla perdita di

elementi del sistema che non vengono sostituiti). Si noti che, come confermato dalla teoria

dell‟efficienza X, un aumento delle dimensioni di un sistema non significa che vi sia una crescita

qualitativa ad esempio nell‟efficienza dei processi svolti dal sistema.

Il modello di crescita più semplice (e quello a cui di solito si cerca o si spera di ricondursi) è quello

lineare, espresso cioè da una funzione del tipo: Yt = x0 + kt, dove x0 è la dimensione del sistema allo

stato iniziale e k è la quantità che vi si aggiunge al tempo t. Per quanto desiderabili siano le

caratteristiche e le proprietà matematiche di un modello lineare, è raro trovare un sistema vivente

che segua questo tipo di crescita.

La più comune è la crescita esponenziale, che ad ogni intervallo di tempo t fa corrispondere la

dimensione del sistema data da x = x0 ekt

dove k è detta costante di proporzionalità.

Una popolazione biologica per esempio crescerà a ritmo esponenziale, fermo restando il vincolo

dato dalle risorse disponibili ovvero dall‟ambiente, finché questo si trasformerà in un fattore di

freno del tasso di crescita (dato da dx/dt = k x). Dunque si può desumere che un tipo di crescita

esponenziale sia possibile soltanto qualora si disponga di uno spazio infinito in cui il sistema si può

sviluppare e di risorse infinite per il sostentamento della crescita e del sistema stesso.

Oltre ai limiti spaziali e di disponibilità delle risorse, la crescita, di qualsiasi tipo, deve fare i conti

con i rifiuti che il funzionamento del sistema produce, soprattutto se in espansione, e con il logorarsi

delle sue parti. Si tenga presente che le componenti dei sistemi viventi sono soggette

all‟invecchiamento, cioè ad una perdita di efficienza col passare del tempo, così come le

componenti di un sistema meccanico lo sono al logorio. (C. H. Waddington, 1997)

Da questa osservazione si deriva la forma forse più diffusa di curva di crescita, la logistica o curva

ad S (come la curva di apprendimento vista precedentemente).

Un fenomeno simile alla crescita è quello dell‟evoluzione, che può essere vista come una crescita

qualitativa, innescata però da un processo di erosione, ovvero di eliminazione o espulsione dal

“sistema specie vivente” di quegli individui che non si trovino in equilibrio con il “sovra sistema

ambiente”. (N. Wiener, 1950)

Vari economisti hanno proposto il paragone dell‟evoluzione dei mercati con la teoria darwiniana.

Tuttavia va osservato che l‟evoluzione biologica è lineare e segue un andamento crescente, più o

meno lento a seconda della specie, ma quella economica sembrerebbe invece ciclica. In un mondo

ideale senza imperfezioni (malattie/fallimenti di sistema/errori genetici etc), l‟evoluzione non

esisterebbe (Herbey’s Hypothesis), così come se l‟ipotesi di conoscenza perfetta fosse anche solo

idealmente valida, non avrebbe senso parlare di curve di apprendimento, né forse di funzioni di

massimizzazione, poiché le soluzioni non ottimali verrebbero via via eliminate dai meccanismi

automatici del mercato.

4.2 La complessità nei sistemi

Come un qualsivoglia organismo vivente composto da apparati, organi, tessuti, cellule che

interagiscono e si aggregano fra loro determinando il funzionamento dell‟aggregato “finale”, il

mercato può essere visto come un sistema complesso aperto, formato da sub-sistemi di livelli

inferiori, anch‟essi caratterizzati da diversi gradi di complessità e apertura, a loro volta composti da

aggregati via via più elementari.

La complessità è un‟astrazione che ancora manca di una definizione soddisfacente e condivisa. In

genere è associata al numero di variabili che intervengono in un sistema e alle interrelazioni o

correlazioni fra esse. Se un sistema caratterizzato da relazioni gerarchiche fra i suoi elementi, come

una catena di comando, e rappresentabile con un diagramma ad albero (come quello del il gioco del

dilemma del prigioniero) risulta di complessità relativamente bassa, uno in cui vi sono anche

interrelazioni per esempio biunivoche fra elementi dello stesso livello gerarchico, diventa piuttosto

complesso, se non altro per il numero di relazioni (cioè variabili da studiare) che cresce

esponenzialmente nel secondo caso rispetto al primo.

Il corpo umano per esempio è una sovrastruttura sistemica complessa, il cui funzionamento può

essere analizzato dalla sua disaggregazione in sistemi aperti di dimensioni e complessità

relativamente inferiori (apparati, organi, tessuti, cellule…) fino ad isolare la sua unità fondamentale,

cioè l‟atomo.

Example of a complex system, the human body, deconstructed on its fundamental particles, the

quarks.

Source: http://generalcuestar.com

Qui si fermerebbe lo studio della meccanica classica, ma la fisica delle particelle sarebbe invece

ancora interessata a scendere a livello subatomico.

L‟atomo è infatti un microcosmo, nel senso che costituisce a sua volta un sistema, la cui

complessità è inferiore rispetto a quella delle sovrastrutture da cui è stato “estratto”.

Esso è comunque scomponibile in altri

sistemi aperti, formati dal nucleo e

dagli elettroni orbitanti attorno ad esso,

che interagiscono fra loro e con lo

spazio circostante. Nucleo ed elettroni

sono un esempio piuttosto immediato di

sistemi accoppiati, cioè la cui somma

dà il sistema atomo. È possibile

zoomare ancora all‟interno del nucleo

atomico, le cui costituenti, protoni e

neutroni, sono a loro volta formati

ciascuno da tre quark di diverso tipo

tenuti assieme dalla cosiddetta forza

forte.

4.3 Classificazione dei sistemi

Un sistema è dato da un ordinamento di oggetti costruito e quindi classificato in modo funzionale

all‟osservazione. Per esempio, il corpo umano, con la sua complessità intrinseca appena descritta, è

un sistema concluso che tende ad uno stato stazionario, cioè mantiene costanti in media le proprie

caratteristiche attraverso una serie di processi. Per esempio il livello della glicemia è mantenuto

costante, salvo disfunzioni patologiche, dall‟attività di secrezione di insulina da parte di uno dei

suoi organi. Il processo mediante cui un sistema ritorna al suo stato stazionario (o al suo equilibrio)

dopo che è stato disturbato (come il pancreas che riprende il suo normale funzionamento dopo aver

secreto un livello straordinario di insulina per compensare un improvviso picco glicemico) è detto

omeostasi.

Un sistema si dice concluso invece quando oscilla perpetuamente fra dei valori estremi, secondo

una funzione armonica, ondulatoria che si ripete nel tempo senza soluzione di continuità. La natura

ondulatoria è insita del sistema, è la sua configurazione finale, non il risultato di perturbazioni

temporanee del suo stato stazionario che verranno compensate da reazioni uguali e contrarie. (C. H.

Waddington, 1977)

In un sistema vivente tutte le unità elementari sono funzionali all‟auto-sostentamento e al

funzionamento del livello superiore di cui fanno parte, così come la microeconomia interpreta il

comportamento degli individui come ottimizzante, sia in relazione all‟utilità propria che collettiva

(cioè della sovrastruttura “mercato” formata dai singoli individui). La funzione di utilità della

Carbon atom sub-atomic structure. Source: http://generalcuestar.com

particella elementare è dunque la sua stessa sopravvivenza, da cui segue il continuum nel

funzionamento dei sovra-sistemi via via più complessi. La particella elementare può essere ignara

del funzionamento dell‟organo di cui fa parte, ma è costretta da leggi fisico-chimiche ben precise ad

agire in un determinato modo per tutto il suo ciclo vitale. Naturalmente, gli operatori economici che

compongono il mercato non sono stretti con altrettanta forza nella morsa delle reazioni fisico-

chimiche. Il loro comportamento è comunque ottimizzante, nel senso che la ratio dell‟operatore

economico è la massimizzazione della sua utilità, ma questa non è inquadrata in modo immutabile

dalle stesse leggi che regolano il funzionamento dei sistemi biologici e delle loro parti. E questo

vale sia a livello individuale che aggregato.

Ora, il mercato è invero una sovrastruttura composta da un numero pressoché indefinito di

organismi che interagiscono fra loro a livelli diversi, proprio come un sistema biologico. La scuola

di pensiero ortodossa potrebbe inquadrare il mercato nel gruppo dei sistemi conclusi, in quanto esso

tende sempre al punto di equilibrio, cioè allo stato stazionario.

Inoltre il mercato è un sistema dinamico, se visto in quest‟ottica, poiché conoscendone lo stato al

tempo zero, è possibile conoscerne la conformazione in tutti gli altri momenti precedenti o

successivi applicando un opportuno algoritmo di evoluzione, con un errore relativamente piccolo.

Questa è sostanzialmente l‟anima del meccanicismo laplaciano che ha pervaso e guidato la ricerca

scientifica dai suoi albori nell‟età moderna ai tempi odierni.

D‟altro canto, il mercato potrebbe anche essere visto come un sistema progressivo, poiché è

difficile prevederne precisamente le trasformazioni finali, mentre è possibile prevederne lo stato

finale. Per esempio, ci si può aspettare che un consumatore spenderà il suo reddito disponibile, ma

in mancanza di informazioni sulle sue preferenze non si può essere certi del modo in cui le

spenderà.

CAPITOLO 5: INFORMAZIONE E CONOSCENZA NEI SISTEMI ECONOMICI

In genere si può dire che il sistema economico sia impostato in modo tale che i suoi operatori siano

spinti a trascurare il futuro in modo inversamente proporzionale al tasso di crescita esponenziale.

Questo fa si che il comportamento degli elementi del sistema sia determinato dalle loro aspettative

sull‟immediato futuro, piuttosto che sul lungo termine. La dimensione prospettica temporale dunque

risulta enormemente ridotta. Si crea dunque un‟ulteriore disfunzione nel processo di scelta delle

strategie ottime, poiché la loro valutazione dipenderà in modo variabile e vario dalla percezione

soggettiva dell‟importanza del tempo. In ultima analisi, questo non è altro che un problema di

ordinamento di preferenze circa l‟utilità associata ai diversi scenari temporali in cui il soggetto può

agire. Questo per il semplice motivo che le previsioni in ambito economico a lungo periodo sono

più difficili da effettuare in quanto potenzialmente soggette a un numero incalcolabile di variabili.

Si tratta quindi, ancora una volta, di un problema dovuto alla razionalità limitata o informazione

imperfetta.

D‟altro lato, la conoscenza o informazione perfetta più volte menzionata finora è un concetto molto

ampio.

Alla base del funzionamento di un qualsiasi modello infatti vi è l‟assunzione che ogni individuo

coinvolto ne conosca il funzionamento esatto, in modo che possa “giocare secondo le regole”. Ogni

giocatore che voglia massimizzare il suo payoff (cioè ogni giocatore razionale), dovrà scegliere una

strategia ottima, come visto, o una combinazione ottima di strategie miste, nel caso ad esempio dei

giochi a somma zero, in cui il payoff guadagnato da un giocatore è esattamente uguale alla perdita

di utilità dell‟avversario (situazione tipica dei giochi d‟azzardo, in cui la vincita di un giocatore

equivale alla perdita dell‟altro), in cui un equilibrio è possibile soltanto qualora si giochi una

strategia per un certo numero di volte, per poi cambiarla, a seconda della probabilità della scelta

dell‟avversario.

In relazione alle strategie miste, va precisato che, se esse possono risolvere situazioni irrisolvibili in

termini di strategie pure (la strategia resta costante), non è detto che a livello empirico portino a

soluzioni soddisfacenti. Infatti nella realtà vanno considerati i cosiddetti switching costs, costi di

transazione (R.H. Coase, 1937) nella loro accezione più varia (per esempio, nel caso di un mercato

collusivo, giocare una strategia mista quasi sicuramente avrebbe degli effetti negativi in termini di

credibilità e immagine per il giocatore che facesse questa scelta, tanto da comprometterne la

permanenza nel gioco), e di accesso all‟informazione (verosimilmente, reperire le informazioni

necessarie a costruire una curva di reazione ottima è dispendioso sia in termini monetari che di

tempo e sforzi, con il conseguente insorgere di costi-opportunità per le risorse impiegate).

In ogni caso, per poter effettuare la scelta ottima, ogni giocatore deve innanzitutto conoscere il

ventaglio delle possibili scelte e le regole del gioco. In difetto di queste informazioni, nessun

giocatore è in grado di crearsi delle aspettative né sulla reazione dell‟avversario a una determinata

mossa, né sull‟esito del gioco. Inoltre, ogni giocatore deve disporre di queste informazioni e deve

inoltre assumere che anche l‟altro o gli altri giocatori ne siano in possesso. Questa condizione è

detta di “simmetria informativa” o di informazione o conoscenza perfetta. Si tratta di una

condizione necessaria ma non sufficiente per una scelta della strategia ottima in risposta ad ogni

possibile strategia avversaria. Infatti, per poter stimare le curve di reazione attese è necessario

affiancare all‟assunzione di conoscenza perfetta quella di razionalità dei giocatori: ogni giocatore è

razionale e sa che anche gli altri hanno un comportamento ottimizzante, cioè sono anch‟essi

razionali e faranno le proprie scelte in funzione della conoscenza comune del funzionamento del

gioco. La conoscenza, oltre che perfetta, deve essere anche condivisa equamente da tutti i giocatori

(è quindi simmetrica).

5.1 Teoria della conoscenza

La teoria della conoscenza e l‟epistemologia indagano la natura stessa della conoscenza, le sue

fonti, il confronto fra esperienza e aspettative in funzione delle informazioni acquisite e come

questo condizioni la percezione dell‟ambiente in cui il soggetto dell‟apprendimento opera. Gli

autori della letteratura sul tema della conoscenza finiscono quasi sistematicamente per interrogarsi

sull‟effettiva esistenza di una “conoscenza” in termini assoluti. Ci si chiede, in altre parole, se sia

davvero possibile conoscere effettivamente qualcosa.

Al di là della trattazione metafisica dell‟argomento, una descrizione di che cosa sia la conoscenza

condivisa fra gli studiosi in materia è quale convinzione giustificata da riscontri empirici.

Il problema conseguente è che non esiste una definizione puntuale di “fatti”, né di “aspettative” né

di che cosa renda la loro relazione “giustificata”. (B. Russel, 1948) La conoscenza, dunque, deriva

sì da una relazione causale tra fatti e esperienze passate e aspettative future (teoria moderna della

conoscenza), ma tale relazione è percettiva, personale e non assoluta, come già osservavano

Leonardo Da Vinci nel XV secolo: “ogni nostra convinzione, principia dai sentimenti”, e F.

Nietzsche, 1869: “Che cosa può soltanto essere la conoscenza? „Interpretazione‟. Non

„spiegazione‟.”

Ad ogni modo, la questione d‟interesse è che la conoscenza – intesa come un insieme di condizioni

che inducono la formazione di una certa interpretazione della realtà – determina le aspettative sulle

dinamiche del sistema in cui si opera. Secondo la teoria moderna della conoscenza, è proprio

sull‟interpretazione esperienziale della realtà che si ergono i criteri di scelta delle risposte ottimali

agli stimoli esterni. In altri termini, per capire i meccanismi di interazione fra le unità sistemiche,

bisogna capire la relazione che intercorre tra la loro conoscenza e il loro comportamento. (F.

Knight, 1929)

È piuttosto chiaro che tale conoscenza, nella sua accezione più ampia, sia comunque limitata e

imperfetta, lungi dall‟onniscienza alla base dei modelli teorici finanziari, macro e microeconomici.

Una confutazione empirica sta nel concetto stesso di equilibrio: se l‟assunzione di conoscenza

perfetta fosse corretta – e quindi tutte le sinergie fossero prevedibili e meccaniche – allora, il

mercato non avrebbe motivo di discostarsi dal suo punto di equilibrio, una volta raggiunto, salvo,

ovviamente, il vincolo ambientale (per esempio il verificarsi di eventi imprevedibili e incontrollabili

come le calamità naturali). Ma anche sotto tale vincolo, un sistema dotato di una razionalità

olimpica dovrebbe sapersi destreggiare nello sfruttamento ottimale delle risorse limitate.

Invece gli scostamenti dallo stato stazionario dell‟economia, i cosiddetti fallimenti del mercato,

avvengono pressoché per cause endogene.

5.2 Gli effetti delle lacune informative sul comportamento ottimizzante.

La ratio ottimizzante degli operatori economici si riferisce a un comportamento auto-interessato,

coerente coi principi della microeconomia e della teoria dei giochi classica (Von Neumann e

Morgensten – Theory of Games and Economic Behavior, 1947) per cui ogni individuo agisce in

funzione della massimizzazione della propria utilità. (Tondini e Zarri, 2004) Sebbene i concorrenti

sono legati tra loro all‟interno di un gioco, sia esso cooperativo, competitivo o conflittuale, da

relazioni di interdipendenza strategica (la strategia di ognuno dipende da quella attesa degli altri),

ciascuno di essi a livello individuale persegue la massimizzazione del profitto o comunque della

propria funzione di utilità. Gli strumenti forniti dalla teoria economica classica e dalla teoria dei

giochi sono in questo caso funzionali al raggiungimento di tale obbiettivo. In un‟ottica del genere,

coerentemente alla dottrina neoclassica, attraverso la massimizzazione dell‟utilità individuale si

massimizza automaticamente anche quella collettiva, risultante dalla somma delle utilità individuali.

La validità di questo tipo di relazione fra i diversi livelli di aggregazione degli operatori economici

è garantita proprio dal loro comportamento auto-interessato. Tuttavia, anche l‟ipotesi di “egoismo

universale” appare empiricamente smentita dal verificarsi di soventi comportamenti anti o pro-

sociali, che si discostano dalla classica ratio di massimizzazione del payoff individuale a causa di

strutture motivazionali disomogenee nel mercato. (Sacco e Zarri, 2004) Ciò significa che i giocatori

non costruiscono necessariamente le proprie preferenze attorno al self-interest, ma potrebbero

piuttosto essere interessati al grado di benessere di uno o più fra gli altri giocatori o dell‟intera

collettività, espresso dalla somma dei payoffs di tutti i giocatori. Si parla in tal caso di “meta

preferenze motivazionali”, derivate comunque dalle scelte individuali, ma condizionate

dall‟orientamento motivazionale dei singoli giocatori.

(-3, -3)

(0, -6)

(-1, -1)

(-6, 0)

A Defects

B Defects

A Cooperates

B Cooperates

B Cooperates

B Defects

Prisoner’s Dilemma: change in

outcome throughout the social

utility maximization (-3) + (-3) = -6

(-1) + (-1) = -2

La soluzione migliore a livello

di somma di payoffs, cioè

collettivo, coincide con

l‟equilibrio instabile dato dalle

strategie che erano state escluse

poiché strettamente dominate:

CAPITOLO 6: DAL DETERMINISMO ALLA PROBABILITA‟

Alla luce delle osservazioni fatte finora, si può cercare di tamponare le falle della formulazione

originaria della costruzione della funzione di utilità secondo l‟approccio ortodosso, ricorrendo a

strumenti di compromesso fra determinismo e probabilismo, come le preferenze rivelate e la

funzione di utilità attesa.

6.1 Stima delle preferenze.

Qualora non si disponga di informazioni circa le preferenze degli operatori economici, è possibile

desumerle dall‟osservazione del loro comportamento. Si tratta sostanzialmente di una raccolta di

dati circa le scelte osservabili dei consumatori per ottenerne le cosiddette preferenze rivelate. Il

principio sotteso è il seguente: sia (x1, x2) il paniere scelto in corrispondenza dei prezzi (p1, p2) e

(y1, y2) un altro paniere tale che p1x1 + p2x2 ≥ p1y1 + p2y2; allora, se è vero che il consumatore

sceglie il paniere preferito tra quelli che può acquistare dato il suo vincolo di bilancio, si deve avere

che (x1, x2) è preferito a (y1, y2). In altre parole, l‟osservazione a posteriori delle scelte effettuate è

informativa delle preferenze che le hanno determinate. (H. Varian, 2007) In tal caso vale la regola

statistica per cui un incremento sufficientemente consistente della numerosità campionaria fornisce

un‟informazione maggiore sul fenomeno osservato. Più sono le osservazioni sulle scelte effettuate,

più ci si avvicinerà alla comprensione delle preferenze da cui esse hanno avuto origine.

Anche per le preferenze rivelate si

assume valida l‟ipotesi di transitività

vista in precedenza.

Siano i segmenti AB e CD le rette di

bilancio; se il paniere (x1, x2) si rivela

direttamente preferito a (y1, y2) e

questo a sua volta si rivela

direttamente preferito ad un altro

paniere (z1, z2), allora (x1, x2) si

rivela indirettamente preferito a (z1,

z2). (H. Varian, 2007)

A sostegno del principio delle preferenze rivelate sopra enunciato, si hanno gli assiomi debole e

forte delle preferenze rivelate (rispettivamente, WARP e SARP).

Il WARP stabilisce che se un paniere X si rivela direttamente preferito ad un altro Y ed essi non

sono uguali, allora non può essere che Y si riveli direttamente preferito ad X. Ovvero, se X giace

sulla retta di bilancio e Y è in corrispondenza di un punto di essa tale che, se venisse acquistato X,

sarebbe ancora comunque possibile acquistare Y, si deve verificare che, se la scelta di consumo

verte su Y, allora la possibilità di acquistare X si viene a precludere.

Preferenze e vincoli di bilancio – H. Varian, 2007

Il SARP invece fa riferimento sia alle preferenze direttamente rivelate che a quelle rivelate

indirettamente. Si tratta dunque di una condizione necessaria e sufficiente del comportamento

ottimizzante. Se le scelte osservate sono concordi con l‟assioma forte, significa che esistono con

ogni probabilità un ordinamento di preferenze che le ha originate, secondo il principio di

ottimizzazione (alla scelta effettuata, il consumatore associa la maggiore utilità, che deriva

dall‟ordinamento delle sue preferenze in tal senso).

L‟assioma forte delle preferenze rivelate è quindi un passaggio obbligato nella costruzione delle

preferenze sottese alle scelte effettuate dagli operatori. Si tratta comunque di una stima e in quanto

tale non è detto che conduca a comprendere l‟effettivo ordinamento preferenziale che ha originato

tali scelte di consumo. È comunque un punto di partenza per la costruzione di una funzione di utilità

in mancanza di informazione precisa.

6.2 Stime dell‟utilità con informazione limitata.

La funzione di utilità attesa è nota anche come utilità di Von Neumann-Morgenstern, dai scuoi

ideatori, il matematico J. Von Neumann (fra le altre cose, uno dei padri della teoria dei giochi) e

l‟economista O. Morgenstern, che collaborarono a diversi studi.

Una curva di utilità di questo tipo è espressa come somma delle funzioni di consumo di ogni stato

di natura (cioè ogni esito probabile di qualche fenomeno di tipo aleatorio, ovvero incerto)

considerato, ponderate per la loro probabilità di verificarsi: u(c1, …, cn; P1, …, Pn) = P1 f(c1) + … +

Pn f(cn).

Qualsiasi trasformazione monotona della funzione di utilità così espressa descriverà le stesse

preferenze.

Dai consumi corrispondenti ad ogni stato di natura, si avrà il cosiddetto consumo condizionato, che

specifica le funzioni di consumo condizionate (dipendenti) dall‟esito del processo aleatorio. (H.

Varian, 2007)

In altre parole, l‟espressione in termini probabilistici della funzione di utilità fa riferimento ai

consumi attesi, cioè al loro livello medio. Questo rimanda ad una delle osservazioni fatte in

precedenza circa le preferenze: si era osservato che nella maggioranza dei casi i consumatori

preferiscono appropriarsi di quantità relativamente proporzionali di beni diversi, piuttosto che

esaurire il proprio vincolo di bilancio in corrispondenza di una quantità elevata di un solo bene.

Anche in questo caso, quindi, si può dire per analogia che la media sia preferita agli estremi.

In alternativa a questo approccio, H. Dixon propose di trascurare l‟analisi minuziosa del

ragionamento “limitato”, sulla base della considerazione per cui le scelte di ogni soggetto

tenderanno comunque a quella di ottimo. Ciò si traduce nella disequazione U* - ≤ U(s), dove U* è

la scelta ottima in condizione di razionalità piena o informazione perfetta ed è detto epsilon-

ottimizzatore in quanto determina quanto la scelta effettuata da una razionalità limitata su un

ventaglio di possibili strategie s si discosta da quella ottima. In condizioni di conoscenza perfetta si

avrebbe un valore nullo di

6.3 La ricerca delle scelte ottime: dalla probabilità all‟ euristica.

A livello empirico si possono verificare delle situazioni in cui non è possibile stimare quanto delle

scelte si discostino da quella ottima, né di ordinare le preferenze sottese. Si pensi per esempio al

mercato di servizi sanitari, dei quali è possibile verificare l‟utilità solo a posteriori, cioè anche molto

tempo dopo che il servizio (la cura) sia stato erogato. In casi come questo, lo studio dei casi

empirici dell‟economia sperimentale sembra suggerire che l‟ordinamento delle preferenze non

faccia affidamento né sul determinismo classico (a funzioni matematiche utili a svolgere delle

previsioni puntuali, partendo dal presupposto che a cause uguali corrispondano effetti uguali sulle

stesse condizioni iniziali), né sul probabilismo (stime statistiche), ma verta piuttosto ad un

approccio euristico, cioè intuitivo, che verifica la bontà dei risultati a posteriori. Si tratta di un

processo simile a quello di apprendimento, in genere del tipo “trial and error”, come suggerisce

l‟etimologia del termine, che deriva dal termine greco “”, “scopro”). La logica di base non

è un algoritmo di ottimizzazione bensì quella introdotta da Simon della soddisfazione per cui i

soggetti che operano la scelta si accontentano di limitati coerenti o funzionali al perseguimento dei

propri fini, anche qualora questi risultati non siano i massimi ottenibili. L‟allievo di Simon, J. G.

March fornisce la seguente definizione delle euristiche: “(…) sono regole pratiche per calcolare

determinati tipi di numeri o per risolvere certi tipi di problemi. Sebbene le euristiche psicologiche

per la soluzione di problemi siano normalmente sviluppate nell‟ambito della discussione sulla

razionalità limitata come risposta a limiti cognitivi, esse possono venir interpretate altrettanto

facilmente come versioni di un comportamento basato su regole che segue una logica diversa da

quella della conseguenza.”

Vari studi hanno evidenziato anche che l‟uomo ha una base biologica tipica caratterizzata da

elasticità ed educabilità, funzionali alla continuità storica del sistema in cui egli è inserito. La

memoria storica del sistema risiede nel grado di educazione con cui gli individui adulti tramandano

i propri costrutti mentali alla generazione successiva che entra nel sistema.

Purtroppo gli studi hanno rivelato anche che l‟uomo è una forma neotèinica, cioè secondo la

zoologia, a confronto con le altre specie animali, la durata del periodo di immaturità dell‟essere

umano è indefinitamente lunga. Tenere conto di queste osservazioni empiriche, fatte su un

campionamento casuale abbastanza ampio sulla popolazione umana e animale, rende difficile

affermare con sicurezza che l‟operatore economico medio di riferimento dei modelli economici sia

da considerarsi adulto e quindi più prevedibile, se non razionale, rispetto ad esemplari che non

hanno ancora stabilizzato il loro comportamento in quello tipico della maturità della specie.

Inoltre, anche un operatore con un grado di razionalità ed una capacità di massimizzazione elevate

potrebbe trovarsi a fare scelte di consumo che si discostano dall‟ottimo. Questo potrebbe facilmente

succedere qualora il suo potere decisionale fosse subordinato a quello di un individuo con una

razionalità significativamente più limitata, come quella di un bambino. Si pensi alle campagne

pubblicitarie diffuse sotto le feste, che non suggeriscono di certo scelte ottime per i consumatori

medi, ma la cui efficienza strategica è indubbia in quanto fanno leva proprio sulla componente

motivazionale, che in questo caso è quella col maggiore peso.

L‟economia sperimentale e la teoria dei giochi comportamentale hanno rivisitato la nozione classica

di comportamento ottimizzante, contestualizzandola negli schemi comportamentali e motivazionali

dei giocatori, cioè in condizioni di razionalità limitata.

Così anche la psicologia sociale rivede il concetto economico di “gioco” (così come inteso dai

teorici della teoria dei giochi) secondo la chiave di lettura motivazionale, ridefinendolo come

“un‟interazione fra soggetti governata da determinate regole apparentemente condivise e accettate

da tutti, ma che nascondono in realtà un‟interpretazione “latente” che conferisce ai vari momenti

dell‟interazione un significato diverso da quello evidente.” (Berne, 1964)

Rispetto ai classici e più diffusi modelli razionalistici, quelli sperimentali sembrano fornire una

descrizione più verosimile della realtà, poiché il comportamento della maggioranza degli operatori

economici deriva dalle loro esperienze pregresse – e dall‟assunzione che aggregati simili, in

circostanze simili, si comporteranno in modo simile (F. Knight, 1929) costruendo delle euristiche –

piuttosto che da ragionamenti razionali, logici o matematici. (teoria classica della conoscenza).

Inoltre, il concetto stesso di equilibrio è statico e stabile e non rispecchia appieno la natura dinamica

e mutevole, progressiva ed evolutiva della realtà. Le deviazioni dell‟economia dal punto di

equilibrio sono da attribuirsi alle lacune informative che limitano la capacità predittiva e reattiva del

sistema. (F. Knight, 1929) Da qui, la necessità di individuare un meccanismo flessibile di risposta a

stimoli vari e variabili, che sia possibilmente caratterizzato da un alto grado di adattabilità.

Invece di insistere nell‟attesa che l‟ipotesi di conoscenza perfetta sia verificata, potrebbe essere più

ragionevole prendere atto dello stato di incertezza e ignoranza degli operatori economici e

computarne gli effetti nei modelli, almeno come costi fisso. (F. Knight, 1929)

6.4 Limiti dei metodi dall‟approccio ortodosso all‟euristica.

Anche l‟euristica, per quanto fondata su un processo per così dire “spontaneo” o istintivo, quale

l‟intuizione, non è immune alle degenerazioni patologiche. Così come le stringenti assunzioni

deterministiche (conoscenza perfetta, razionalità, libera concorrenza nei mercati,…) vincolano i

modelli così costruiti ad una componente erratica più o meno importante, il processo euristico può

essere affetto dall‟effetto dei cosiddetti eurismi. Essi sono dei costrutti mentali a cui i soggetti sono

vincolati (possono essere dovuti a modelli educativi, costrutti sociali o culturali, esperienze

pregresse, …) che limitano il processo creativo-intuitivo entro i confini tracciati da tali schemi.

(Kahneman, 2002)

Infatti, secondo la psicologia cognitiva, che studia il processo tramite cui un soggetto reperisce ed

acquisisce dall‟ambiente esterno delle informazioni per memorizzazione e recuperarle

all‟occorrenza (in parole povere, il processo di apprendimento), le euristiche vengono generalmente

costruite da processi computazionalmente più semplici di quelli deterministici e di norma non del

tutto consci. Per esempio, si confrontano le similarità (Wason e Johnson-Laird, Tversky e

Kahneman), cioè si recuperano le informazioni precedentemente memorizzate che possano

somigliare ad una situazione attuale, oppure le frequenze, in riferimento ad eventi simili pregressi

accaduti il maggior numero di volte; l’eurisma potrebbe fuorviare tali processi qualora gli schemi

mentali, derivati da cause inconsce, facessero percepire al soggetto come simili situazioni in realtà

diverse.

La logica della conseguenza (J. G. March) del processo euristico standard si riferisce la principio di

causalità attorno a cui orbitano le leggi deterministiche dei modelli classici. Il determinismo è una

nozione talmente ampia che non è possibile fornirne un‟unica definizione, ma se ne descriverà il

processo storico-evolutivo nei paragrafi successivi per darne una collocazione congrua al contesto

della trattazione.

CAPITOLO 7: EVOLUZIONE DELL‟APPROCCIO DETERMINISTICO ALLO STUDIO DEI

SISTEMI COMPLESSI: SCIENZE ESATTE E SOCIO-ECONOMICHE A CONFRONTO

7.1 Dal determinismo della meccanica classica al principio di indeterminazione della

meccanica quantistica

In ambito scientifico il determinismo coincide o meglio origina il meccanicismo tipico della

concezione laplaciana (dall‟ideatore P. S. Laplace) per cui, disponendo di una conoscenza completa

dello stato si un sistema in un dato momento (detto tempo zero) è possibile ottenere

un‟informazione altrettanto completa relativa a qualsiasi altro momento, precedente o successivo al

tempo zero.

“Dobbiamo dunque considerare lo stato presente dell‟universo come effetto del suo stato anteriore e

come causa del suo stato futuro.” (P. S. Laplace, 1814)

La concezione meccanicistica ha a sua volta origine dal modello di ricerca scientifica proposto da

Newton nei suoi “Principia”, 1687. Dalla formulazione della teoria della gravitazione universale e

delle leggi di moto di Newton, messe in discussione solo quasi tre secoli dopo dalla relatività

ristretta di Einstein (che rivede il movimento dei corpi non più contestualizzati nello spazio e nel

tempo lineari e unidimensionali conosciuti da Newton, bensì in una multidimensionalità detta

spazio-tempo), la scienza ha condensato i suoi sforzi proprio nella prospettiva di smembrare i

sistemi nelle loro parti elementari, in modo da studiarne il comportamento individuale e derivarne

una comprensione dei meccanismi regolatori del sistema stesso. Nel suo modello, i corpi si

attraevano fra loro con una forza, detta gravitazionale, direttamente proporzionale alla loro massa e

inversamente proporzionale al quadrato della distanza a cui si trovavano l‟uno dall‟altro. Come

Napoleone osservò riferendosi alla grande efficacia dei suoi piani di battaglia talmente lineari da

risultare imprevedibili, la semplicità della formulazione newtoniana fu in grado di prevedere i moti

dei pianeti con una precisione molto elevata. Una tale condizione di prevedibilità matematica e

conoscenza perfette sono però possibili soltanto nei sistemi senza attrito, proprio come quelli

astronomici osservati da Newton.

In campo economico il ragionamento sotteso ai processi deterministici è analogo. Data la

conoscenza delle condizioni iniziali (cioè l‟informazione completa circa le caratteristiche del

sistema al tempo zero), si esclude la possibilità di un‟evoluzione di natura aleatoria, cosicché sarà

possibile prevedere tale evoluzione come conseguenza di leggi precise, cioè dei meccanismi di

funzionamento. Il parallelo tra la procedure delle scienze sociali e di quelle esatte è significativo. Si

tratta in entrambi i campi di costruire una modellizzazione della realtà, scomponendola in entità più

controllabili nel senso che le loro caratteristiche, le interrelazioni e in genere il loro comportamento

siano più facilmente osservabili proporzionalmente al grado di disaggregazione apportato al sistema

originario.

I limiti dei modelli economici descritti nei capitoli precedenti hanno origine nella natura stessa della

modellizzazione. Essa nasce dalla necessità di costruire degli strumenti per orientarsi in un

ambiente sempre più complesso e diversificato, ricco di interazioni non sempre di facile

individuazione, che esulano dal semplice principio di causa-effetto. Si rende quindi necessario

ricorrere a delle rappresentazioni semplificate della realtà, detti modelli, strumentali alla

comprensione della stessa. È la forma stessa di un‟equazione a determinarne il grado di complessità.

(A. Vulpiani, 1994)

Le semplificazioni necessarie alla costruzione di un modello sono date dalla scrematura di tutti

quegli elementi la cui influenza sull‟oggetto dello studio o sulle sue componenti principali è ritenuta

trascurabile. Dopo l’eliminazione degli elementi superflui, quelli restanti vengono disposti nel

modello secondo un ordinamento che ne evidenzi alcune caratteristiche di interesse anziché la loro

struttura intrinseca. Il più delle volte si cerca di ricondursi a una relazione lineare fra gli

ordinamenti, o in alternativa ad una forma nota, che descriva nel modo più semplice possibile come

un dato oggetto si dispieghi nel tempo (come una composizione musicale) o nello spazio (la

riproduzione in scala di un dipinto). Due modelli sono tanto più simili quanto più il rapporto dei

loro ordinamenti si avvicina a una corrispondenza biunivoca. Allo stesso modo si può sviluppare

un‟aggregazione di modelli sovrapponibili, in modo tale da ottenerne uno che, scomposto, li

disponga ordinatamente rendendoli riconoscibili attraverso un processo detto modulazione. Un

esempio pratico di tale procedimento è dato dall‟uso delle correnti vettrici nella telefonia per

5trasmettere più dispacci su una sola linea: data un‟oscillazione su una linea elettrica, è possibile

spostare di un passo costante ciascuna delle vibrazioni elementari (note) che la compongono, in

modo da ottenere un modello in cui i diversi modelli componenti sarebbero altrimenti

indistinguibili, sovrapposti. Si tratta quindi di riordinare le vibrazioni elementari, cioè modularle, in

una sequenza che le mantenga separate. Il punto di partenza di questo procedimento è il teorema di

Fourier per cui si può rappresentare ogni movimento come una somma di oscillazioni semplici dello

stesso tipo, entro limiti piuttosto grandi. In questo modo, con un adeguato spostamento di passo, si

può inviare un messaggio su una linea che ne sta già trasmettendo un altro, senza che i due

interferiscano diventando indistinguibili. Il messaggio modulato viene infatti sottoposto a un

processo inverso alla modulazione per riportarlo alla sua forma originale. Analogamente, si possono

trasmettere sulla stessa linea più di due messaggi. Grazie ai sistemi delle correnti vettrici, le linee

telefoniche hanno aumentato la loro portata, senza che fosse necessario l‟aumento delle

installazioni per sostenere il crescente ammontare di messaggi trasmessi. (N. Wiener – The Human

Use of Human Beings, 1950)

Sostanzialmente ogni modello cerca di ricondurre la complessità del sistema ambiente target ad un

numero limitato di variabili esplicative, rappresentative del fenomeno nel senso che apportano la

massima informazione possibile.

I modelli in genere sono impostati in modo da essere il più informativi possibile. La loro funzione

cioè è quella di comunicare informazioni relative a un determinato fenomeno nel modo più

immediato possibile. Questo processo apparentemente banale nasconde dei punti cruciali

riguardanti il trasferimento effettivo di un‟unità di informazione da un mittente a un destinatario.

Si è parlato in precedenza dell‟eliminazione, nella costruzione di un modello, di quelle componenti

che ne influenzano la dinamica solo marginalmente, il cui effetto cioè è ritenuto trascurabile. È

proprio questo processo di scelta delle informazioni da omettere che determina la quantità di

informazione contenuta in un messaggio e trasmessa attraverso un canale di comunicazione in un

sistema comunicativo soggetto a elementi di disturbo, che ne modificano il significato originario. Si

può comunque anticipare che una comunicazione è qualsiasi procedimento attraverso cui un‟entità,

o per meglio dire un meccanismo, interagisce attivamente con un altro o più d‟uno, con lo scopo di

modificarne o condizionarne il comportamento tramite l‟informazione trasmessa.

Nonostante quello di comunicare sia un impulso innato e impellente nell‟essere umano come in

nessun‟altra specie vivente (si pensi alle varie lingue, linguaggi e forme espressive inventate

dall‟uomo per soddisfare il bisogno di comunicare), una teoria completa e consistente delle

comunicazioni è stata sviluppata soltanto alla fine degli anni ‟40, in seguito all‟affermazione in

campo scientifico della meccanica statistica. È stato necessario approfondire la conoscenza dei

fenomeni aleatori e liberarsi dei retaggi strettamente deterministici del vecchio approccio scientifico

che ignorava rifiutava di computare nei propri modelli tanto la componente erratica quanto,

sostanzialmente, il caso.

A spianare la strada prima alle teorie sui sistemi caotici, poi alla teoria dell‟informazione di

Shannon e Weaver fu in particolare il lavoro del matematico Poincarré che dimostrò come sistemi

squisitamente deterministici potessero adottare un comportamento caotico dopo un tempo

sufficientemente lungo (teoria del caos, 1908).

Questo succede quando la conoscenza delle condizioni iniziali del sistema dinamico non è

sufficientemente approfondita. Questo potrebbe succedere per esempio nel caso in cui nello stato

iniziale del sistema non sono osservabili delle variabili che interverranno sul funzionamento dello

stesso solo in un tempo successivo. O ancora il modello che dovrebbe spiegare e predire

l‟evoluzione dello stato iniziale del sistema in ogni sua fase potrebbe essere affetto da

multicollinearità (cioè una relazione lineare fra due o più variabili tale che esse risultano non

indipendenti) non individuata, che potrebbe quindi condizionare negativamente la bontà delle

previsioni. O ancora, potrebbero essersi verificati in fase preliminare alla costruzione del modello

dei banali errori di misurazione delle grandezze delle variabili coinvolte, o semplicemente delle

approssimazioni a un certo numero di decimali, che dopo un periodo sufficientemente lungo si

tradurrebbero in uno scostamento considerevole del valore stimato da quello realizzato. In generale,

minime variazioni delle condizioni iniziali, potrebbero portare al cosiddetto “butterfly effect”, cioè

ad una sostanziale imprevedibilità del comportamento del sistema in tempi successivi. (A. Vulpiani,

1994)

Questo si verifica anche qualora si scomponga un fenomeno complesso nelle sue componenti

fondamentali (unità non ulteriormente scomponibili) e lo si descriva come una sovrapposizione dei

loro comportamenti elementari che si comportino secondo leggi deterministiche. (Lorenz, 1960)

Per superare lo scoglio dei limiti delle predizioni deterministiche, fu necessario ricorrere agli

strumenti della meccanica statistica, sviluppata dalle idee di Bernoulli nella seconda metà

dell‟Ottocento da Clausius, Maxwell, Boltzmann e Gibbs.

Sfruttando la numerosità delle variabili normalmente coinvolte nei sistemi dinamici che

manifestano un comportamento caotico (come dei granelli di sabbia immersi in un fluido), fu

possibile descrivere il fenomeno in termini aleatori, non più deterministici. Il procedimento di stima

statistica, nonostante la sua natura “approssimativa”, si rivelò più accurato del rigore deterministico

nel prevedere il comportamento dei sistemi cosiddetti caotici. (A. Vulpiani, 1994)

L‟economia è invero un sistema complesso, dinamico ed estremamente numeroso in termini di

variabili coinvolte. Tutto ciò sembrerebbe giustificare un approccio probabilistico più che

deterministico. Invece, la scelta della scuola economica dominante si è orientata piuttosto verso

modelli lineari, forse perché più “trattabile”, o forse per un‟eccessiva fiducia nella teoria delle

perturbazioni, che costruisce un modello di tipo lineare per lo studio di un fenomeno, sperando che

la sua non linearità sia trascurabile. L‟eventuale effetto della non linearità del comportamento del

fenomeno viene poi trattata come componente erratica del modello.

Con l‟avvento della meccanica quantistica, il metodo probabilistico cessa di essere un mero

artefatto funzionale alla soluzione di problemi al di là delle possibilità del determinismo. La

probabilità è un aspetto insito nella natura stessa dei processi o delle leggi che regolano il cosmo, o

meglio il microcosmo, vero oggetto dello studio della fisica quantistica. Nonostante essa sia

permeata dei concetti probabilistici, conserva anche un retaggio deterministico nella sua

formulazione di teorie relative all‟evoluzione della funzione d‟onda (l‟equazione di Schrodinger)

nel tempo. (A. Vulpiani, 1994)

7.2 Lo spazio-tempo.

La relatività generale (che considerando anche la forza di gravità si distingue da quella ristretta) di

Einstein trasforma la struttura lineare dello spazio e del tempo senza inizio né fine enunciata nei

Principia di Newton da concetti separati ad uno unico, quadridimensionale e curvo, anziché piatto,

detto “spazio-tempo” (1912). Tale intuizione sulla forma dello spazio-tempo scaturì proprio dalle

osservazioni di Newton. Se lo spazio, o la Terra come vuole la tradizione, fosse stato piatto, sarebbe

stato fondato dire sia che la mela subì

un‟accelerazione verso la testa di Newton dovuta

alla forza di gravità, sia che Newton e la Terra

accelerarono verso l‟alto scontrandosi con la

mela. Tuttavia l‟equivalenza tra gravità e

accelerazione non è verificata qualora lo spazio

avesse forma sferica perché ne conseguirebbe

che le persone ai capi opposti del mondo

accelererebbero in direzioni opposte. Dunque

Einstein ne dedusse che lo spazio-tempo dovesse

avere una geometria tale che un corpo dotato di

massa (quantità di materia) incurva lo spazio-

tempo modificando (incurvando) di conseguenza

anche le traiettorie dei corpi in prossimità.

La rilettura di questi concetti in chiave multidimensionale, fa sorgere la necessità di una revisione

della teoria dei giochi funzionale al nuovo contesto detto “spazio-tempo”.

Come osservato dal matematico Georgescu-Roegen, la componente temporale ha un ruolo

fondamentale nell‟interazione strategica dei giocatori. È ragionevole supporre che individui soggetti

Curvatura dello spazio-

tempo per effetto della

massa dei corpi.

al pressing di tempi decisionali stretti, siano più soggetti a fallibilità che quelli che dispongono di

un arco di tempo infinito o molto lungo per valutare e scegliere la propria strategia.

Tuttavia un ragionamento analogo va fatto anche in termini spaziali in quanto anche e forse

soprattutto l‟ambiente in cui il soggetto si trova a decidere contribuisce al formarsi di quei costrutti

mentali che ne determinano la chiave motivazionale di ponderazione delle strategie da giocare e

delle preferenze stesse. In tal caso ci si rifà alla razionalità sistemica e al concetto di idiosincrasia,

per cui il sistema e i suoi elementi, oltre a condizionarsi, addirittura si determinano a vicenda.

Il soggetto economico prende il nome di “homo quanticus”; da un ambiente in cui lo spazio e il

tempo sono grandezze separate che insieme descrivono una realtà bidimensionale in termini

relativamente lineari (in cui si procede o in progressione o a ritroso), il soggetto quantico si trasla in

quello che la teoria relatività chiama “spazio-tempo”, un ambiente economico quadridimensionale,

curvo e sensibile alle azioni delle entità che vi operano. (A. Einstein, 1929) Nell‟età contemporanea

delle telecomunicazioni, il soggetto quantico dispone di una serie di strumenti high tech piuttosto

individualizzati che costituiscono un suo prolungamento, una proiezione nello spazio-tempo, le cui

caratteristiche sono se non altro ispirate a quelle degli oggetti quantistici. In particolare una

caratteristica è la non località, o entanglement, per cui due particelle sono legate (entangled) da una

“intricazione” tale che un‟azione su una si riflette automaticamente e istantaneamente su un‟azione

sull‟altra sua entangled, indipendentemente dalla distanza fra queste. Un‟altra caratteristica è

l‟atemporalità, cioè “l‟appartenenza ad una realtà non localizzabile né nel tempo né nello spazio”.

(S. Ortoli e J.P. Pharabod).

Degli esempi di questi concetti tradotti in ambito economico e più concreto possono essere i social

network, attraverso cui i soggetti creano delle loro estensioni chiamate “profili” caratterizzate da

non località e atemporalità. O ancora, l‟intero universo delle aspettative, così come inteso

tradizionalmente dai classici economici (si pensi agli studi di Lucas, o all‟interpretazione della

curva di Phillips secondo le aspettative razionali, o alla convinzione monetarista per cui nel lungo

periodo gli operatori imparino a prevedere le politiche economiche, neutralizzandone gli effetti),

Esempio di particelle entangled che cambiano comportamento al momento della misurazione.

Source: http://blogzero.it

che si svolgono in uno spazio e in un tempo immaginari, che dipendono dalla soggetto che svolge

l‟osservazione e ne elabora i risultati: la sola possibilità di un‟informazione cambia i termini del

problema. Ciò rimanda alla teoria delle storie multiple di R. Feynman (che associa una certa

probabilità di verificarsi a tutti i possibili scenari, detti storie, o esiti) e ancora una volta al principio

di indeterminazione.

L‟esperimento delle fenditure di Young, 1803,

dimostra che il solo fatto di avere a disposizione

un‟alternativa cambia il comportamento del

soggetto che si trova ad effettuare una scelta: dei

fotoni vengono fatti passare uno alla volta

attraverso due fenditure su una lastra oltre la quale

è posizionata una seconda lastra fotografica che ne

registra l‟impatto; l‟impatto del singolo fotone sulla

lastra fotografica ha forma corpuscolare, ma dopo

un numero sufficientemente grande di ripetizioni

dell‟esperimento, il pattern degli impatti

rassomiglia sempre più a quello tipico delle

interferenze, di forma ondulatoria. Questo significa

che ogni fotone, messo nelle stesse circostanze,

varierà il suo comportamento, anziché manifestarsi

sempre in forma corpuscolare scegliendo sempre la

stessa traiettoria per raggiungere la lastra

fotografica, per il solo fatto di avere a disposizione

un‟alternativa di scelta.

Questo punto di vista potrebbe giustificare

l‟affermazione aristotelica “il tutto è più della

somma delle parti” rivisitata dall‟economia del

benessere, che vede nell‟utilità collettiva qualcosa

di più elaborato ed essenzialmente diverso della

somma delle utilità individuali.

7.3 I principi di indeterminazione, dualità e complementarietà nella struttura

dell‟ambiente economico.

In questa sede, ha senso adottare il punto di vista della teoria dei quanti nello studio dei sistemi

economici, poiché essi, per quanto macroscopici, derivano il loro comportamento dalle dinamiche

interne allo spazio atomico, cioè all‟infosfera dell‟individuo.

Image: Esperienza di Young con due lastre.

Source: http://magazine.linxedizioni.it

L‟infosfera è lo spazio attorno all‟individuo da cui egli attinge informazioni. Essa può altresì essere

vista come una struttura atomica, il cui nucleo è costituito dall‟individuo, attorno a cui orbitano

delle fonti di informazioni (come gli elettroni) che interagiscono con esso.

Le prime interazioni degli individui avvengono a livello familiare, che costituisce il livello atomico.

Queste interazioni determinano e rendono possibili tutte le interazioni successive, a livello via via

crescente e più complesso. È comunque nello spazio atomico, cioè strettamente attorno al “nucleo-

individuo”, che si formano le sue aspettative, quindi il suo futuro comportamento; ed è dalla sua

infosfera che si dirama la rete di relazioni con cui esso interagirà con il resto del sistema.

Il modo in cui l‟individuo usa la sua infosfera per interagire col sistema di cui fa parte è spiegato

appunto dalla teoria delle comunicazioni e dalla cibernetica tramite il parallelo con i sistemi

costruiti dall‟uomo.

La cibernetica coniuga concetti tipici dei servomeccanismi autoregolantisi, della teoria

dell‟informazione e della meccanica statistica nel tentativo di ricondurre le interazioni uomo-

macchina o fra individui a campi formalizzabili in modi simili (N. Wiener, 1950); in altre parole si

applicano tecniche e nozioni note in campi affini nel tentativo che tramite l‟applicazione di queste

tecniche dette comandi, il sistema riesca ad autoregolarsi.

Questo parte dall‟assunzione che il comportamento degli individui possa essere confrontato a quello

delle macchine per le comunicazioni in base ad alcuni elementi comuni come gli organi sensori di

recezione, equivalenti ai cinque sensi umani, che attivano il primo stadio del ciclo di funzionamento

del sistema (reperimento di informazioni o raccolta di stimoli dall‟ambiente esterno, a bassi livelli

di energia). Questo da inizio al processo chiamato retroazione o feedback per cui il sistema

confronta il suo stato nelle varie fasi del suo ciclo di funzionamento con i risultati attesi e i comandi

o le istruzioni conseguenti (per esempio, le porte di un ascensore hanno il comando di aprirsi al

piano scelto; dei sensori verificano che l‟ascensore si trovi effettivamente collocato nello spazio

giusto per poi trasmettere al sistema l‟informazione che gli permetterà di passare al comando finale,

di aprire le porte, o di correggere il suo comportamento e ripetere poi il feedback fino al

raggiungimento dell‟obbiettivo). (N. Wiener, 1950)

Anche la cibernetica, come la teoria economica, si tratta di una semplificazione di situazioni varia e

sorgente trasmettitore

osservatore

ricevitore

Dispositivo

per la

correzione

destinatario

M M’ M

dati di correzione Sistema con correzione

(Shannon e Weaver, 1971)

complessa in funzione delle caratteristiche comuni, nel tentativo di trovare una struttura o un

meccanismo applicabile al modello in modo tale che esso sia grado di autoregolarsi.

Si tenga presente che la modellizzazione delle forme complesse nasce dalla descrizione della loro

apparenza, cioè delle caratteristiche con cui esse si manifestano all‟osservatore. Anche questo punto

è tutt‟altro che banale. Il matematico e fisico J. von Neumann (1903 – 1957) fu uno dei tanti uomini

di scienza che osservarono che “l‟universo è un mare di uniformità generalizzata, increspato qua e

là da provvisori scostamenti statistici costituenti i mondi individuali”. Da questa frase appare già

chiaro la cardinalità del ruolo dell‟osservatore nel processo di osservazione e conseguente

modellizzazione di un qualsiasi fenomeno osservabile.

D‟altra parte, il metodo scientifico newtoniano, o metodo sperimentale, si enuclea appunto

nell‟osservazione di un fenomeno, cui segue la scelta delle grandezze, la formulazione di un‟ipotesi

con il conseguente esperimento di verifica e l‟eventuale formulazione di una legge. Il metodo

scientifico si è sviluppato originariamente dall‟osservazione di fenomeni macroscopici,

caratterizzati da simmetrie evidenti e processi lenti (dal punto di vista dell‟osservatore), come il

moto dei pianeti. È proprio l‟astronomia la culla del metodo scientifico che ha spinto l‟uomo a

scegliere un approccio atomista nello studio del mondo che lo circonda.

Le origini di questa filosofia risalgono all‟antica Grecia di Democrito, che vedeva il mondo come

una composizione di “cose”, particelle elementari, cioè che si suppone non possano scomporsi

ulteriormente, simili agli atomi che compongono la materia.

La definizione odierna di atomo si riferisce all‟unità base della materia ordinaria, in cui un numero

di elettroni, di carica negativa, orbita attorno al nucleo formato da protoni e neutroni,

rispettivamente di carica positiva e privi di carica, tenuti insieme dalla forza forte (la più forte delle

quattro interazioni fondamentali che tengono insieme la materia).

Nonostante nel V sec. a.C. non si disponesse ancora della strumentazione necessaria allo studio

atomico e subatomico, Democrito aveva senz‟altro intuito la stratificazione sub-sistemica della

materia. Secondo la prospettiva democritea, ogni mutamento osservabile dipende in ultima analisi

dalle interazioni fra le cose.

Dall‟altro lato, si oppone la visione processuale di Eraclito, che descrive il mondo come un flusso

di processi, trasformazioni sempre in atto, movimenti e mutamenti; è possibile osservare le cose

originate da tali processi solo nei momenti di quiete in ciò che è essenzialmente movimento.

Dunque la caratteristica essenziale delle cose è l‟essere soggette sempre e comunque a tale processo

di mutamento, cristallizzato nella famosa massima (“panta rei”), tutto scorre. Questo

punto di vista incentrato sul dinamismo è abbracciato anche da Aristotele che indica nel suo trattato

sulla fisica (Fisica, IV sec. a.C.) quattro tipi di movimento che coinvolgono tutto l‟osservabile: 1)

sostanziale, cioè creazione e distruzione; 2) qualitativo (modificazioni dell‟essere); 3) quantitativo

(nella numerosità o grandezza, aumento o diminuzione); 4) locale (spostamento, traslazione nello

spazio). Tutti i tipi di movimento sono riconducibili a cause accidentali o volute, cioè dipendenti o

meno dall‟azione intenzionale dell‟uomo per modificare lo stato attuale delle cose o del processo.

La concezione atomista, seppure sia in grado di cogliere coerentemente i lenti mutamenti dei

sistemi astronomici e per quanto sia un‟apprezzabile intuizione delle più recenti scoperte

subatomiche e quantistiche, tende a sminuire la componente evolutiva dei sistemi viventi. Si

focalizza infatti sul funzionamento dei corpi “tipo”, cioè i soggetti osservati, ma ne trascura i

processi di crescita, invecchiamento, evoluzione della specie. (C. H. Waddington, 1977) Ancora, si

pone la questione sulla scelta dei “soggetti tipo” su cui effettuare le osservazioni. Se è relativamente

facile scegliere se osservare neutroni, protoni oppure elettroni in un esperimento sullo studio del

nucleo atomico, la scelta delle osservabili nei sistemi viventi è estremamente ardua. La fisica

classica chiama osservabile qualsiasi grandezza che possa essere oggetto di misurazione, diretta o

indiretta, in un esperimento scientifico (in riferimento al metodo sperimentale precedentemente

illustrato). Per esempio, grandezze direttamente misurabili possono essere la massa, il peso,

l‟energia, mentre si dovranno calcolare per via indiretta grandezze quali un campo elettromagnetico.

Con l‟avvento della meccanica quantistica la situazione si complica ulteriormente: l‟applicazione

del principio quantistico di Planck (secondo cui le onde elettromagnetiche e quelle luminose sono

emesse e assorbite in quanti discreti) e il principio di indeterminazione di Heisenberg (che sancisce

l‟impossibilità di una precisa misurazione di velocità e posizione in contemporanea) rendono

l‟osservabile un concetto dinamico se contestualizzato nel microcosmo (cioè a livello atomico e

subatomico, in cui indaga la meccanica quantistica).

7.4 I limiti della conoscenza: trattazione comparata dei concetti di informazione ed

entropia.

Ricapitolando quanto osservato finora, i punti deboli della teoria classica e neoclassica sono

principalmente le assunzioni sulla razionalità degli operatori economici e sulla condizione di

conoscenza simmetrica e perfetta, concetti comunque strettamente collegati. I limiti su questi due

fronti vanno conseguentemente ad intaccare il principio di massimizzazione dell‟utilità e quindi

anche il criterio di ordinamento delle preferenze.

Per poter costruire una funzione di utilità, individuale o aggregata, è necessario disporre di

informazioni precise circa le preferenze degli operatori di mercato, così come è necessario che

questi agiscano in modo razionale affinché il mercato agisca nel rispetto del principio di equilibrio,

tendendo cioè al punto in cui domanda e offerta aggregate si eguagliano. Ma in una condizione di

sostanziale incertezza circa il funzionamento esatto del mercato e la logica seguita dai suoi operatori

nella costruzione della propria funzione di utilità, si è costretti a deviare dai modelli deterministici

propugnati dalla teoria economica dominante e ragionare piuttosto in termini probabilistici o

euristici, correndo però il rischio che gli esiti del gioco effettivamente verificatisi differiscano in

misura imprecisa da quelli previsti.

Basti per il momento tenere presente che in una situazione incerta le cui conseguenze possibili e

rispettive probabilità di verificarsi sono note, si avrà un fattore di rischio; mentre se gli esiti

possibili sono noti ma le rispettive probabilità no, allora si avrà un fattore di incertezza. La

differenza sostanziale fra i due concetti sta nella suscettibilità a misura. (F. Knight, 1929)

Il rischio è misurabile in termini probabilistici, anche in modo relativamente preciso (come

testimonia il prolifero mercato assicurativo), nonostante invece resti un concetto piuttosto

soggettivo quello dell‟avversione al rischio da parte degli operatori economici, cioè la loro

propensione ad intraprendere manovre economiche, in genere investimenti, che potrebbero avere un

esito positivo o meno in termini di guadagni e perdite (o un valore attuale positivo, nullo o negativo,

qualora si trattasse della valutazione dell‟esito di un investimento).

L‟entità dell‟incertezza invece è tradizionalmente ritenuta non quantificabile. L‟incertezza rimanda

infatti al concetto di conoscenza imperfetta e non è misurabile proprio perché originata da lacune o

asimmetrie informative (F. Knight, 1929) o in altre parole dalla mancanza o perdita di

informazione, che si manifesta come incertezza e in ultimo disordine del sistema (anche se

inizialmente noto) nota in vari campi della scienza col come di entropia.

Nei sistemi fisici l‟entropia ne misura, in scala logaritmica, il grado di disordine (e/o di ordine, per

differenza), computando “il numero di diverse configurazioni microscopiche di un sistema che

lasciano immutato il suo aspetto macroscopico”. (S. Hawking, 2001)

Nella teoria delle comunicazioni l‟entropia (H) misura la quantità di informazione, quindi la

regolarità (o conseguentemente la mancanza di essa) in un sistema o modello. Per la seconda legge

della termodinamica, un sistema può perdere spontaneamente ordine e regolarità, ma non può mai

acquisirli, se non localmente ma solo nei sistemi aperti.

L‟entropia rappresenta l‟unica scelta “naturale” di misura dell‟incertezza di un esito e di

conseguenza l‟informazione media contenuta in un messaggio. Con il termine naturale ci si riferisce

al fatto che l‟entropia dipende dalla probabilità dell‟evento in modo continuo secondo la relazione:

𝐻 = −𝑘 𝑃𝑖 ln𝑃𝑖𝑀𝑖=1 .

Il valore massimo di H si ha in corrispondenza della probabilità Pi = 1/M.

Si noti che il segno negativo della costante k è un espediente matematico per rendere H una quantità

positiva poiché la probabilità di un evento è un numero compreso fra 0 e 1, il cui logaritmo sarà

quindi un numero negativo.

L‟entropia è anche una misura della libertà di scelta del messaggio da trasmettere ovvero

dell‟informazione da comunicare. Per esempio H assume valore unitario nella situazione in cui si

abbiano due messaggi “i” e “j” da trasmettere, egualmente probabili, cioè entrambi con probabilità

di essere scelti come oggetto della comunicazione Pi,j = ½, cioè quando il mittente è

completamente libero di scegliere. (Shannon e Weaver, 1971)

Se invece uno dei due messaggi avesse avuto probabilità 1 tipica dell‟evento certo, cioè se si fosse

certi che nella comunicazione sarà trasmesso per esempio il messaggio “i”, quindi Pi = 1, allora non

ci sarebbe nessuna possibilità di scelta da parte del mittente. Il destinatario saprebbe già che

riceverà il messaggio “j” con probabilità Pj = 0 (evento impossibile, non realizzazione di “j”),

perciò l‟entropia è nulla e l‟informazione che si riceverà col messaggio è anch‟essa nulla o scarsa.

Se tutti gli operatori che interagiscono (comunicano) nel mercato fossero razionali e dotati di

informazione completa e se questa è perfettamente simmetrica, allora, a rigor di logica, non vi

sarebbe motivo per produrre una quantità diversa da quella ottimale, né di scambiarla ad un prezzo

diverso da quello di equilibrio. Dunque in tal caso il mercato si troverebbe di fronte ad una “scelta

obbligata”: domanda e offerta sarebbero costrette a cristallizzarsi nel punto di equilibrio, in

corrispondenza di prezzi e quantità ottime. L‟entropia data da un‟interazione di questo tipo sarebbe

quindi nulla, poiché la comunicazione fra le parti non porterebbe nessuna informazione di cui esse

già non fossero a conoscenza prima di interagire, né comporterebbe nessuna variazione del loro

comportamento, né la razionalità degli operatori mittenti lascerebbe loro alcuna libertà di scelta del

messaggio da inviare.

CONCLUSIONI

La teoria dei giochi comportamentale fornisce una prima possibilità di interpretazione in chiave

motivazionale del funzionamento dei sistemi economici, quando le assunzioni classiche di

razionalità e conoscenza perfetta non sono soddisfatte, con tutte le ripercussioni che questo

comporta sul paradigma di comportamento ottimizzante ed efficienza allocativa.

L‟economia sperimentale e comportamentale e la teoria moderna della conoscenza supportano

questo tipo di analisi multidimensionale, in cui le funzioni matematiche di massimizzazione

dell‟utilità sopportano il peso della componente motivazionale individuale, ovvero si trasformano in

euristiche (ragionamenti intuitivi, per lo più basati su un processo di apprendimento del tipo trial

and error) determinate dai costrutti mentali che il soggetto eredita dal sistema in cui si trova ad

agire.

L‟immediata conseguenza di queste osservazioni si riflette nell‟incongruenza del tradizionale

individualismo metodologico con cui si costruisce l‟utilità aggregata come sommatoria o

produttoria semplice o ponderata (Nash, Bernoulli) delle utilità individuali piuttosto che ad una

funzione di esse (economia comportamentale).

Anche la nuova teoria del benessere sociale osserva che le preferenze collettive non vanno mai

sovrapposte a quelle individuali, come suggerisce anche il teorema dell‟impossibilità di Arrow, che

ritiene confrontabili le preferenze individuali solo qualora sussista una condizione di unanimità

(omogeneità delle preferenze). Ciò si scontra col punto di vista di Pareto, padre dei pilastri della

tradizione economica di efficienza, equilibrio e ottimo paretiani, per cui la collettività non ha

preferenze proprie, nel senso che le preferenze aggregate o collettive o sociali derivano

necessariamente da quelle individuali.

Tuttavia, i più recenti studi sembrano discostarsi dal determinismo dei modelli ortodossi e concordi

con l‟interpretazione paretiana, avvicinandosi invece a una lettura della realtà in cui le componente

soggettiva rappresentano il punto di partenza per la costruzione di modelli più complessi,

multidimensionali, in cui il comportamento individuale e quello collettivo non possono essere

rappresentati propriamente da una stessa funzione.

Si sviluppa quindi il parallelo con la meccanica quantistica. In particolare i principi di

complementarietà, dualità e indeterminazione vengono parafrasati nel linguaggio economico da un

nuovo approccio allo studio dei vari livelli di aggregazione degli elementi del sistema economico.

Il principio di complementarietà si riferisce all‟impossibilità di descrivere le entità quantistiche se

non per come esse si manifestano negli esperimenti, quindi per come si rivelano, non

necessariamente per come esse sono realmente. L‟analogia economica si ha con le preferenze

rivelate, cioè dedotte a posteriori dalle osservazioni empiriche sul comportamento degli operatori

economici una volta cioè che le loro scelte di consumo (o produzione) sono rese manifeste cioè

finalizzazione nel mercato in comportamenti di consumo o produzione.

N. Bohr formula il principio di complementarietà, 1927, sulla base dell‟osservazione che è il tipo di

esperimento, o meglio lo scopo dello studio, che costringe le entità quantistiche a manifestarsi in

corpuscoli piuttosto che con la forma di una funzione d‟onda. Allo stesso modo, gli operatori

economici manifestano ovvero esprimono le proprie preferenze come individuali o collettive a

seconda delle condizioni in cui si trovano ad esprimerle. Vari esperimenti empirici sulla

comparazione fra comportamenti individuali e dinamiche di gruppo hanno provato questa tesi e

smentito almeno in parte quella della teoria economica ortodossa secondo cui il comportamento

degli individui è caratterizzato da un predominante “self-interest” per cui essi saranno portati a

massimizzare l‟utilità individuale a prescindere da quella degli altri o da quella collettiva, che ne è

una mera conseguenza. Le strategie con cui i soggetti interagiscono nel sistema economico

rispecchiano tendenze sia pro-sociali che anti-sociali, derivate dai costrutti mentali ereditati o

assorbiti da stati precedenti del sistema o dalle altre componenti, da aspettative e prospettive che

determinano la chiave di lettura del sistema in termini relazionali da parte del soggetto e il suo

comportamento in funzione di tutto ciò.

Questo è coerente con il postulato dell‟indivisibilità del quanto d‟azione per cui si è obbligati a

ricorrere a descrizioni complementari dalla stretta interconnessione tra i fenomeni e la loro

osservazione (N. Bohr, 1931). La complementarietà nelle descrizioni è da intendersi nel senso che

“ogni applicazione di concetti classici preclude l‟uso simultaneo di altri concetti classici che in una

diversa connessione (tra fenomeno e osservazione sono egualmente necessari per la spiegazione del

fenomeno.” (N. Bohr, 1931) Si pensi per esempio ai corpuscoli come preferenze o utilità puntuali,

certe, manifeste e all‟onda come la loro stima a livello individuale o derivazione, a livello o

aggregato o come il comportamento di un sistema compiuto, che oscilla fra due estremi senza

soluzione di continuità, o di un sistema dinamico che tenda al suo stato stazionario attraverso

meccanismi continui di aggiustamento (come le forze di mercato che cercano di compensarsi fra

loro per raggiungere un equilibrio, o lo stato fondamentale, dove le oscillazioni sono minime).

Oltre alla natura corpuscolare o ondulatoria, la complementarietà si applica anche ai concetti di

posizione e velocità di corpi in movimento, coerentemente con il principio di indeterminazione che

osserva l‟impossibilità di definire simultaneamente e con precisione sia la posizione che la velocità

di un corpo. In campo economico, posizione e velocità possono tradursi nelle coordinate spaziali e

temporali attraverso cui gli operatori economici o i giocatori della teoria dei giochi si muovono

lungo l‟albero decisionale che rappresenta il “gioco” del mercato o lungo le proprie curve di

reazione nei vari stati del sistema. Si tratta in questo caso di una complementarietà conflittuale (B.

d‟Espagnat) che sottolinea il legame fondamentale fra la meccanica quantistica e l‟informazione.

Coerentemente alla teoria dei sistemi, il mercato è un sistema dinamico con tendenza al caos insita

nella natura stessa delle sue componenti e delle interrelazioni fra essi. Anche qualora si avesse una

conoscenza perfetta dello stato del sistema al tempo t e si conoscesse la funzione che esprime il

comportamento di ogni sua variabile in termini perfettamente deterministici, le previsioni

dell‟evoluzione del sistema in momenti successivi a t tenderebbero ad allontanarsi in modo

progressivo ma non definito dalle sue effettive realizzazioni. (A. Vulpiani, 1994, 2014) Ancora,

dunque, il principio di indeterminazione si traduce nell‟impossibilità di conoscere allo stesso tempo

sia lo stato che la legge di evoluzione del sistema economico in ogni momento simultaneamente.

Si consideri inoltre che nel sistema economico, gli elementi e i sotto-sistemi di cui è composto

interagiscono creando uno scambio più o meno volontario di informazioni (a fronte di uno scambio

minimo di energia e utilità, che origina e giustifica l‟informazione).

L‟indagine circa il ruolo delle interazioni e dello scambio di informazioni in un sistema si sviluppa

dall‟impalcatura costruita dalla teoria delle comunicazioni o dell‟informazione di Shannon

formulata negli anni ‟40. Le informazioni vengono scambiate sotto forma di trasmissioni di

messaggi, appropriatamente codificati (cioè in un linguaggio condiviso fra mittente e ricevente),

attraverso un canale di comunicazione da uno o più mittenti ad uno o più destinatari, con lo scopo di

influenzarne il comportamento. Tale processo è detto “comunicazione”.

Dalle scoperte della fisica quantistica, si è concluso che i messaggi vengono trasmessi ad una

velocità massima equivalente a quella della luce in una modalità che può essere o gerarchica

(rappresentabile da un diagramma ad albero come quello decisionale della teoria dei giochi) o

reticolare, con maglie sia verticali che orizzontali, più o meno fitte e numerose (ovvero più o meno

complessa) i cui nodi sono mobili. La geometria dei sistemi così descritti è profondamente diversa,

più complessa, di quella prevista dalle teorie classiche. (S. Ortoli e J.P. Pharabod, 2012)

Il soggetto economico prende il nome di “homo quanticus”; da un ambiente in cui lo spazio e il

tempo sono grandezze separate che insieme descrivono una realtà bidimensionale in termini

relativamente lineari (in cui si procede o in progressione o a ritroso), il soggetto quantico si trasla in

quello che la teoria relatività chiama “spazio-tempo”, un ambiente economico quadridimensionale,

curvo e sensibile alle azioni delle entità che vi operano. (A. Einstein, 1929) Nell‟età contemporanea

delle telecomunicazioni, il soggetto quantico dispone di una serie di strumenti high tech piuttosto

individualizzati che costituiscono un suo prolungamento, una proiezione nello spazio-tempo, le cui

caratteristiche sono se non altro ispirate a quelle degli oggetti quantistici. In particolare una

caratteristica è la non località, o entanglement, per cui due particelle sono legate (entangled) da una

“intricazione” tale che un‟azione su una si riflette automaticamente e istantaneamente su un‟azione

sull‟altra sua entangled, indipendentemente dalla distanza fra queste. Un‟altra caratteristica è

l‟atemporalità, cioè “l‟appartenenza ad una realtà non localizzabile né nel tempo né nello spazio”.

(S. Ortoli e J.P. Pharabod). Degli esempi di questi concetti tradotti in ambito economico e più

concreto possono essere i social network, attraverso cui i soggetti creano delle loro estensioni

chiamate “profili” caratterizzate da non località e atemporalità. O ancora, l‟intero universo delle

aspettative, così come inteso tradizionalmente dai classici economici (si pensi agli studi di Lucas, o

all‟interpretazione della curva di Phillips secondo le aspettative razionali, o alla convinzione

monetarista per cui nel lungo periodo gli operatori imparino a prevedere le politiche economiche,

neutralizzandone gli effetti), che si svolgono in uno spazio e in un tempo immaginari, che

dipendono dalla soggetto che svolge l‟osservazione e ne elabora i risultati: la sola possibilità di

un‟informazione cambia i termini del problema. Ciò rimanda alla teoria delle storie multiple di R.

Feynman (che associa una certa probabilità di verificarsi a tutti i possibili scenari, detti storie, o

esiti) e ancora una volta al principio di indeterminazione. L‟esperimento delle fenditure di Young,

1803, dimostra che il solo fatto di avere a disposizione un‟alternativa cambia il comportamento del

soggetto che si trova ad effettuare una scelta: dei fotoni vengono fatti passare uno alla volta

attraverso due fenditure su una lastra oltre la quale è posizionata una seconda lastra fotografica che

ne registra l‟impatto; l‟impatto del singolo fotone sulla lastra fotografica ha forma corpuscolare, ma

dopo un numero sufficientemente grande di ripetizioni dell‟esperimento, il pattern degli impatti

rassomiglia sempre più a quello tipico delle interferenze, di forma ondulatoria. Questo significa che

ogni fotone, messo nelle stesse circostanze, varierà il suo comportamento, anziché manifestarsi

sempre in forma corpuscolare scegliendo sempre la stessa traiettoria per raggiungere la lastra

fotografica, per il solo fatto di avere a disposizione un‟alternativa di scelta.

Questo punto di vista potrebbe giustificare l‟affermazione aristotelica “il tutto è più della somma

delle parti” rivisitata dall‟economia del benessere, che vede nell‟utilità collettiva qualcosa di più

elaborato ed essenzialmente diverso della somma delle utilità individuali.

D‟altra parte, se si paragona la funzione di utilità collettiva ad una funzione d‟onda che oscilla fra

due valori estremi (per esempio quelli dell‟intervallo entro cui si stima sia compresa l‟utilità

collettiva in un sistema dinamico), allora si avrà che tale funzione, la cui particella elementare

normalmente si evolve secondo l‟equazione di Schrodinger in funzione del tempo, collasserà in un

punto (forma corpuscolare) nel momento in cui si verifichi una misurazione. Questo sembrerebbe

giustificare la difficoltà, nonostante le numerose osservazioni empiriche in tal senso, nella

formulazione di una definizione coerente, completa ed esaustiva tanto di utilità individuale quanto

di utilità collettiva o sociale. Le preferenze si manifestano solo al momento e nella forma in cui

rilevano. Un soggetto che sia chiamato a scegliere un solo bene da acquistare, a parità di prezzo e

condizioni generali, in presenza di perfetti sostituti, manifesterà una sola preferenza, che deve per

forza essere o di carattere aleatorio (la scelta viene fatta a caso, poiché il consumatore è

perfettamente indifferente fra tutte le alternative possibili) o motivazionale, dettata da euristiche

esperienziali o emotivo/affettive.

Ecco dunque che si arriva al principio di dualità, che esprime la corrispondenza empirica tra teorie o

formulazioni diverse. In altri termini, è possibile che i corpuscoli si comportino come onde e

viceversa. (S. Hawking, 2001) Così è possibile che le preferenze individuali siano orientate in modo

da massimizzare l‟utilità collettiva (comportamenti pro-sociali) o che questa sia funzione dell‟utilità

individuale (come nell‟annoso problema a livello di impresa fra proprietà e management, per cui il

management potrebbe massimizzare l‟utilità dell‟impresa, cioè della collettività che la costituisce,

la propria, a seconda del tipo di contratto ovvero della sua componente motivazionale). Il problema

sta nella mancanza di informazione circa quando la dualità si verifichi.

L‟approccio al problema dal punto di vista della cibernetica parte dall‟osservazione che un qualsiasi

sistema complesso (tanto più se umano) per funzionare in modo coerente con le aspettative ha

bisogno di attuare un meccanismo di retroazione (feedback, una sorta di back-ward induction), cioè

di confronto tra le fasi del ciclo di funzionamento previste (aspettative) e quelle effettivamente

raggiunte (realizzazioni empiriche). Per poter svolgere la retroazione, si deve necessariamente avere

un certo ammontare di informazione relativa a target, strumenti e meccanismi per raggiungerli, cioè

il sistema deve conoscere il suo stesso funzionamento atteso e saperlo confrontare con quello

effettivo. Tale risultato si potrebbe raggiungere con politiche economiche che mirino a dare una

conoscenza comune di fondo che soddisfi la condizione sufficiente per l‟autoregolazione del

sistema coerentemente con gli obiettivi condivisi; in altre parole, istruendo il sistema circa i

meccanismi di funzionamento, gli obbiettivi attesi e gli strumenti per raggiungerli.

Sembrerebbe di dover trattare dunque un problema se non altro di individuazione e localizzazione

delle isole di entropia (ed eventualmente di azione su di essa) per poter poi fornire al sistema

informazioni e/o istruzioni circa i suoi stessi limiti o margini di fallibilità e quindi gli strumenti per

autoregolarsi tramite il feedback. Nei sistemi fisici l‟entropia ne misura, in scala logaritmica, il

grado di disordine (e/o di ordine, per differenza), computando “il numero di diverse configurazioni

microscopiche di un sistema che lasciano immutato il suo aspetto macroscopico”. (S. Hawking,

2001) Nella teoria delle comunicazioni l‟entropia misura la quantità di informazione, quindi la

regolarità (o conseguentemente la mancanza di essa) in un sistema o modello. Per la seconda legge

della termodinamica, un sistema può perdere spontaneamente ordine e regolarità, ma non può mai

acquisirli, se non localmente ma solo nei sistemi aperti.

Un esperimento in questa direzione è stato svolto di recente su un campione casuale di entrepeneurs

messicane, che sono state istruite sulle basi di business management tramite un corso gratuito della

durata di 48 ore. (“Business Literacy and Development: Evidence from a Randomized Controlled

Trial in Rural Mexico”, Calderon, Cunha, De Giorgi, 2013)

Le imprese soggette al trattamento hanno evidenziato sensibili miglioramenti nelle performances, in

termini di aumento di dimensioni del portfolio clienti e di rendimenti, nonché nell‟uso delle

tecniche contabili in conformità con le leggi. Nondimeno, quella parte del campione la cui attività

era caratterizzata da disfunzionalità importanti, si sono mostrate propense ad uscire dal mercato in

seguito al trattamento. L‟azione sulle lacune informative del gruppo campionario sembrerebbe aver

innescato un processo di retroazione che ha portato alcune imprese a migliorare le proprie

performances e quelle apparentemente meno competitive ad auto-espellersi dal mercato. Si sono

osservate reazioni collaterali anche sulle attività produttive e commerciali vicine o collegate a

quelle cui è stato somministrato il trattamento, anche in misura non meglio specificata.

Infine, coniugando i vari approcci delle teorie citate, si può concludere che, qualora le ipotesi

classiche di razionalità e conoscenza perfetta fossero soddisfatte, le curve di domanda e offerta

collasserebbero nel punto di equilibrio, con entropia nulla. In questo caso si intende l‟entropia come

misura dell‟informazione trasmessa da una comunicazione (Shannon e Weaver, 1971): se tutti gli

operatori che interagiscono (comunicano) nel mercato fossero razionali e dotati di informazione

completa e se questa è perfettamente simmetrica, allora, a rigor di logica, non vi sarebbe motivo per

produrre una quantità diversa da quella ottimale, né di scambiarla ad un prezzo diverso da quello di

equilibrio. Dunque in tal caso il mercato si troverebbe di fronte ad una “scelta obbligata”: domanda

e offerta sarebbero costrette a cristallizzarsi nel punto di equilibrio, in corrispondenza di prezzi e

quantità ottime. L‟entropia data da un‟interazione di questo tipo sarebbe quindi nulla, poiché la

comunicazione fra le parti non porterebbe nessuna informazione di cui esse già non fossero a

conoscenza prima di interagire, né comporterebbe nessuna variazione del loro comportamento, né la

razionalità degli operatori mittenti lascerebbe loro alcuna libertà di scelta del messaggio da inviare.

BIBLIOGRAFIA

S. Hawking, L‟universo in un guscio di noce, Oscar Mondadori, 2012

La grande storia del tempo, I Edizione Rizzoli, 2005

C. H. Waddington, Strumenti per pensare, Edizioni Scientifiche e Tecniche Mondadori, 1977

S. Ortoli, J. Pharabod, Metafisica quantistica, I Edizione I Timoni, 2014

N. Wiener, Introduzione alla cibernetica, Editore Boringhieri, 1966

A. Vulpiani, Determinismo e caos, Carrocci Editore, Roma, 1994

Caso, probabilità e complessità, 2014 (in corso di pubblicazione)

P.L. Sacco, L. Zarri, Teoria dei giochi comportamentale e preferenze sociali: predizioni teoriche ed

evidenza sperimentale, in Viale R. (a cura di), La Nuova Scienza Economica, Il Sole 24 Ore,

Milano, 2005.

H. Leibenstein, Teoria generale dell‟efficienza X, Cisalpino, Milano,1966

H. Varian, Intermediate Microeconomics. A Modern Approach, 2003

Microeconomia, Libreria Editrice Cafoscarina srl, 2007

L. Cabràl, Economia industriale, Carrocci Editore, Roma, 2002

F. Knight, Rischio e incertezza, 1929

J. R. Pierce, La teoria dell‟informazione, Edizioni Scientifiche e Tecniche Mondadori, Milano1972

C. E. Shannon, W. Weaver, La teoria matematica delle comunicazioni, Etaslibri, Milano, 1971

I. V. Arnol‟d, Teoria delle catastrofi, Bollati Boringhieri editore, 1983

Von Neumann e Morgenstern, Teoria dei giochi e neuro-economia, New York, Wiley, 1944

B. Russel, L‟analisi della materia, Giangiacomo Feltrinelli Editore, 1927

F. Capra, Il Tao della fisica, Adelphi, Milano,1987

R. Gibbons, Teoria dei giochi, Il Mulino, 2005

L. Maccone, L. Salasnich, Meccanica quantistica, caos e sistemi complessi, 2008

G. Calderon, J. M. Cunha, G. De Giorgi, “Business Literacy and Developmet: Evidence from a

Randomized Controlled Trial in Rural Mexico”, 2013

H. A. Simon, La razionalità in economia, in Talamona M. (a cura di), Tendenze e prospettive

dell‟economia politica, Cisalpino, Milano, 1989

Aristotele, Politica, Editore Laterza; Fisica, Carrocci Editore, Roma