Forme evolutive dei sistemi di produzione

36
201 ECONOMIA POLITICA / a. XXIII, n. 2, agosto 2006 Forme evolutive dei sistemi di produzione in base a strutture di interazione tra moduli. Una proposta di esplorazione nello spazio delle configurazioni modulari di Leonardo Bargigli e Mauro Lombardi 1. Introduzione Un’ampia letteratura economica e manageriale (Baldwin - Clark, 1997; 2000; Schilling, 2000; Fleming - Sorenson, 2001a; 2001b; 2003; Galunic - Eisenhardt, 2001; Schilling - Steensma, 2001; Sturgeon, 2002) sta prestando un’attenzione crescente al concetto di modularità 1 nell’analisi dell’odierna dinamica economico-produttiva. Contributi analitici di notevole importanza hanno progressivamente arricchito lo schema teorico basato sulle «reti mo- dulari», forme organizzative prodotte dalle interazioni tra entità economico- produttive, che sono il risultato di processi multidimensionali. L’idea basilare delle organizzazioni come entità adattative, che realizzano combinazioni mu- tevoli di attività di exploration and exploitation (March, 1994; 1997), è stata progressivamente approfondita fino ad argomentare la seguente tesi: l’evolu- zione organizzativa è la risultante dell’interdipendenza tra due tipi di processi (interazione e replicazione), «i quali agiscono su due categorie di entità (eco- Pervenuto giugno 2005, approvato marzo 2006. Il lavoro è frutto dell’impostazione e di un percorso di riflessione comune ai due autori. M. Lombardi ha comunque curato la stesura dei parr. 1, 2 e 3; L. Bargigli quella dei parr. 5 e 6. I parr. 4 e 7 sono stati scritti congiuntamente. Si ringraziano 3 referee anonimi per le loro preziose osservazioni e indicazioni. Versioni preliminari di questo lavoro sono state presentate al Research- Workshop «Evolutionary Economics», Università di Saint Gallen, Schloss Wartensee, 3-4 giugno 2005, e al IV Workshop-PRIN 2003 «Capabilities dinamiche tra organizzazione di impresa e si- stemi locali di produzione», Novara, 20-21 Giugno 2005. Si ringraziano i partecipanti per le os- servazioni e i commenti. 1 «Modularity is a general systems concept: it is a continuum describing the degree to which a system’s components can be separated and recombined, and it refers both to the tightness of coupling between components and the degree to which the “rules” of the archi- tecture enable (or prohibit) the mixing and the matching of components» (Schilling, 2000, p. 312).

Transcript of Forme evolutive dei sistemi di produzione

201ECONOMIA POLITICA / a. XXIII, n. 2, agosto 2006

Forme evolutive dei sistemi di produzione in base a strutture di interazione tra moduli. Una proposta di esplorazione nello spazio delle configurazioni modulari

di Leonardo Bargigli e Mauro Lombardi

1. Introduzione

Un’ampia letteratura economica e manageriale (Baldwin - Clark, 1997; 2000; Schilling, 2000; Fleming - Sorenson, 2001a; 2001b; 2003; Galunic - Eisenhardt, 2001; Schilling - Steensma, 2001; Sturgeon, 2002) sta prestando un’attenzione crescente al concetto di modularità1 nell’analisi dell’odierna dinamica economico-produttiva. Contributi analitici di notevole importanza hanno progressivamente arricchito lo schema teorico basato sulle «reti mo-dulari», forme organizzative prodotte dalle interazioni tra entità economico-produttive, che sono il risultato di processi multidimensionali. L’idea basilare delle organizzazioni come entità adattative, che realizzano combinazioni mu-tevoli di attività di exploration and exploitation (March, 1994; 1997), è stata progressivamente approfondita fino ad argomentare la seguente tesi: l’evolu-zione organizzativa è la risultante dell’interdipendenza tra due tipi di processi (interazione e replicazione), «i quali agiscono su due categorie di entità (eco-

Pervenuto giugno 2005, approvato marzo 2006. Il lavoro è frutto dell’impostazione e di un percorso di riflessione comune ai due autori. M.

Lombardi ha comunque curato la stesura dei parr. 1, 2 e 3; L. Bargigli quella dei parr. 5 e 6. I parr. 4 e 7 sono stati scritti congiuntamente. Si ringraziano 3 referee anonimi per le loro preziose osservazioni e indicazioni. Versioni preliminari di questo lavoro sono state presentate al Research-Workshop «Evolutionary Economics», Università di Saint Gallen, Schloss Wartensee, 3-4 giugno 2005, e al IV Workshop-PRIN 2003 «Capabilities dinamiche tra organizzazione di impresa e si-stemi locali di produzione», Novara, 20-21 Giugno 2005. Si ringraziano i partecipanti per le os-servazioni e i commenti.

1 «Modularity is a general systems concept: it is a continuum describing the degree to which a system’s components can be separated and recombined, and it refers both to the tightness of coupling between components and the degree to which the “rules” of the archi-tecture enable (or prohibit) the mixing and the matching of components» (Schilling, 2000, p. 312).

202

logiche e genealogiche)2 a vari livelli di organizzazione» (Baum - Singh, 1994, p. 17). I processi economici reali sono visti come insiemi di unità che inte-ragiscono in modo non semplice nel realizzare output con proprietà tali da soddisfare la congruenza tra i parametri di prodotto e quelli della domanda. In questa prospettiva è stata sviluppata la «teoria modulare dell’impresa» (Langlois - Robertson, 1995; Langlois, 2002), incentrata sull’esame delle in-terazioni tra componenti tecnologiche e organizzative. La centralità assegnata alle interazioni ha portato alla formulazione di quello che è stato definito come «paradigma della produzione a rete» (network production paradigm) (Sturgeon, 2002).

Questa prospettiva è stata applicata in primo luogo alla dinamica del comportamento di agenti ed entità operative nel corso dell’attività diretta a definire l’architettura di un prodotto, intesa come la combinazione di tre specificazioni progettuali (Ulrich, 1995): i) le modalità di configurazione (pat-tern) delle relazioni tra componenti funzionali; ii) l’associazione (mapping) tra componenti funzionali e fisiche; iii) i meccanismi di interfacciamento tra componenti fisiche interconnesse. Lo schema teorico è stato applicato anche al problema dello sviluppo di un prodotto, soprattutto in relazione alla dina-mica innovativa (Marengo et al., 1999; Frenken - Marengo - Valente, 1999; Marengo - Dosi, 2003), mettendo in luce tre elementi fondamentali: i) com-plessità mutevole del processo di ricerca delle innovazioni, basato su dina-miche di variazione e selezione di modelli alternativi; ii) molteplicità delle strategie di ricerca, elaborate al fine di esplorare l’orizzonte punteggiato dai possibili input innovativi; iii) differenti tipologie di ambiente, in cui le unità decisionali si scambiano informazioni.

L’impostazione modulare è stata impiegata poi nell’analisi delle configura-zioni organizzative, dai modelli di impresa chandleriana (impresa «unitaria» e multidivisionale) a quelli marshalliani (distretti industriali), a quelli basati sulla produzione reticolare e cooperativa (Sturgeon, 2002). Lo sviluppo lo-gico della trattazione indicata induce ad adottare la prospettiva che un ciclo produttivo può in generale realizzarsi attraverso una gamma di architetture organizzative, ciascuna delle quali si basa su relazioni e interazioni tra fasi o moduli svolti in unità operative differenti. Un ciclo verticalmente integrato e un ciclo completamente distribuito si collocano quindi ai capi opposti dello spettro delle possibili alternative, che in realtà tendono ad assumere forme variabili intermedie, contraddistinte da differenti gradi di scomposizione3.

2 Gli autori intendono riferirsi all’intreccio complesso di processi che si sviluppano a li-vello di sistema di entità interagenti (ecosistema) e nella sequenza evolutiva delle singole entità (dinamica genealogica).

3 Nel caso di prodotti complessi (motori di aereo, prodotti dell’industria farmaceutica) prevalgono, ad esempio, modelli organizzativi fortemente decentralizzati (Brusoni - Prencipe - Pavitt, 2001; Orsenigo - Pammolli - Riccaboni, 2002), nella misura in cui tecnologie e prodotti divengono più complessi e differenti tassi di variazione caratterizzano tecnologie e componenti

203

Sulla base delle considerazioni svolte l’obiettivo di questo lavoro è pro-porre una risposta a due quesiti fondamentali: è possibile stabilire un legame tra le variazioni dell’ambiente competitivo e la prevalenza di una certa confi-gurazione? E, in caso affermativo, è possibile prevedere quali configurazioni tenderanno a prevalere in una condizione competitiva data? Per rispondere a queste domande l’esposizione si suddivide come segue. Nel paragrafo 2 si ar-gomenta la scelta dell’unità d’analisi, ovvero il modulo, di cui sono descritte le proprietà basilari, mentre è messa in luce l’importanza dello studio delle strutture d’interazione. Nel paragrafo 3 sono presentati e discussi modelli teorici di rappresentazione delle connessioni tra unità economiche, fino a de-finire il concetto di configurazione modulare. Nel paragrafo 4 viene definito uno «spazio delle configurazioni modulari» e una molteplicità di morfologie evolutive a partire da due «idealtipi». L’esplorazione dello «spazio delle con-figurazioni» avviene attraverso strategie di ricerca, per le quali nel paragrafo 5 sono formulate ipotesi teoriche, sottoposte a verifica mediante un modello di simulazione appositamente elaborato. Il punto di arrivo del processo esplorativo è la validazione delle ipotesi di ricerca, le quali permettono di de-scrivere le condizioni in cui prevalgono particolari forme di organizzazione modulare della produzione.

2. L’unità d’analisi: moduli e struttura delle interazioni

Per precisare la nostra unità d’analisi occorre partire dalla rappresenta-zione astratta del ciclo di produzione di un bene, composto da una sequenza di fasi, ciascuna delle quali può svolgersi in forma densa e compatta (forma unitaria), oppure può essere scomposta in sottoprocessi relativamente indi-pendenti, a loro volta ulteriormente scomponibili. Il grado di scomposizione è variabile e dipende da molti fattori (mutamenti tecnologici, variazioni di mercati e ambienti competitivi, evoluzione di condizioni sociali e istitu-zionali). Si hanno quindi mutevoli combinazioni delle attività di trasforma-zione fisica e di elaborazione dell’informazione, in parte di matrice interna (all’individuo e a gruppi di individui) e in parte di fonte esterna (contesto tecnologico, dinamica competitiva)4. Al grado di scomposizione è associato un secondo aspetto rilevante, quello delle connessioni/interazioni. È possibile

di prodotto. Nell’evoluzione dei sistemi produttivi locali tendono invece ad emergere forme di aggregazione semi-verticale (Lombardi, 2003).

4 Seguendo un particolare indirizzo di ricerca teorica (Nelson - Winter, 1982; Chandler, 2002; Teece - Pisano - Shuen, 2000; Dosi - Nelson - Winter, 2000) l’impresa è qui intesa come aggregazione di routine, e più precisamente come «gerarchia evolutiva di routine» (Lombardi, 1997). La nostra idea di routine, introdotta da Nelson e Winter e sviluppata in molteplici ac-cezioni (Cohen et al., 1996), si richiama alle enunciazioni di Egidi (1996): da insiemi di regole, che evolvono sulla base dell’informazione continuamente accumulata, si originano comporta-menti intrinsecamente mutevoli.

204

definire, in termini astratti, le forme organizzative come modalità di aggrega-zione di fasi, che si realizzano all’interno di un campo indefinito di possibili sequenze, a seconda delle interazioni che potrebbero verificarsi tra unità e sotto-unità operative su più livelli. Una sequenza produttiva integrata implica un flusso unidirezionale di input, mentre la scomposizione del ciclo e delle fasi può generare flussi molteplici, in molte direzioni e con possibilità che si realizzino cicli iterati di interazioni e processi ricorsivi.

Se assumiamo come punto di riferimento la produzione integrata, ovvero l’impresa verticalizzata dove si attua il modello a cascata (waterfall model) dei flussi fisici e informativi, le molteplici forme alternative possono essere collo-cate in uno spazio concettuale, la cui metrica è definita sulla base dei gradi di libertà propri di ciascuna fase nello scegliere con quali altre fasi intera-gire. Nella visione proposta il processo produttivo di un bene è il processo di realizzazione della congruenza tra parametri rappresentativi delle compo-nenti di un prodotto, in cui ciascuna fase e sotto-fase è sintetizzata da un indicatore (caratteristiche qualitative, tecnologiche, ecc.), e l’output finale. La convergenza tra tutti gli indicatori dipende dalla dinamica delle interazioni. La successione di passaggi dall’input all’output è in realtà un insieme di tre flussi di input (energetici, fisici e informativi) e la tipologia variabile dell’esito finale (caratteristiche del bene) deriva da processi dinamici multipli, che si intersecano e sovrappongono. Per lo studio di questo tipo di dinamica ap-pare fecondo l’uso del concetto di modulo, impiegato nell’analisi sia dell’evo-luzione morfologica degli organismi complessi (Eble, 2003), sia dei modelli organizzativi delle imprese (Aoki - Takizawa, 2002; Aoki, 2004). Nel primo approccio i moduli sono «unità coesive», in grado di conservare stabilità pur essendo soggette a variazioni; nel secondo essi sono definiti «come unità di un sistema con elementi fortemente interrelati all’interno, ma relativamente indipendenti tra loro» (Aoki, 2004, p. 971). Nella nostra prospettiva i moduli sono aggregati di routines, il cui grado di coesione può cambiare a seconda delle necessità di adattamento funzionale5. I processi di scomposizione e ri-composizione dei cicli produttivi sono quindi l’esito di mutamenti nella dina-mica delle interazioni inter-modulari e intra-modulari.

Moduli e strutture delle interazioni divengono così ingredienti essenziali dell’analisi del processo produttivo. In particolare i moduli produttivi sono unità adattative, al cui interno le competenze evolvono grazie a processi goal-oriented, dal momento che molteplici input conoscitivi alimentano un’inces-sante attività di problem solving e di ricerca, sintonizzate sulla base delle in-formazioni in arrivo. In un linguaggio più formale, il vettore delle caratteri-

5 L’adattamento, inteso come «il processo mediante il quale cose viventi, organismi op-pure organizzazioni [...] si adattano al loro ambiente». (Day, 2001, p. 277), assume un parti-colare rilievo, in quanto si ha un «doppio ambiente»: interno a ciascun modulo o alle orga-nizzazioni cui eventualmente appartengono, ed esterno rispettivamente agli uni e alle altre. La distinzione diviene incerta quando mutamenti tecnologici ed organizzativi portano a confini organizzativi blurred o fuzzy.

205

stiche di un prodotto è il risultato di una trasformazione vettoriale in uno spazio multi-dimensionale. Ciascuna fase della sequenza è a sua volta rappre-sentata da un vettore, le cui componenti indicano le coordinate fondamen-tali, rilevanti per la determinazione delle specifiche componenti del bene. La congruenza tra vettori multipli, ovvero la trasformazione matriciale da una molteplicità di input all’output finale può in generale realizzarsi mediante se-quenze lineari di n-passaggi intermedi, oppure mediante sovrapposizioni e ci-cli iterati di trasformazioni. Le trasformazioni vettoriali devono essere, però, tali da portare ad architetture di prodotto relativamente stabili, e al tempo stesso correlate all’incessante processo di generazione informativa (innova-zioni).

È in queste condizioni che può verificarsi quella che Henderson e Clark (1990) chiamano «innovazione modulare»: la stabilità dell’architettura è es-senziale per evitare le conseguenze distruttive dei processi paralleli di esplo-razione, svolti all’interno dei singoli moduli sulla performance globale del prodotto (Baldwin - Clark, 1997, p. 86). L’approccio modulare consente però di indagare anche contesti contraddistinti da cambiamenti dell’architettura di un prodotto. Nella ricerca di nuovi prodotti e tecnologie, infatti, gli agenti esplorano lo spazio delle possibili architetture alternative. Questa strategia è razionale nella misura in cui l’adozione di un’architettura non solo restringe lo spazio delle ricombinazioni possibili tra moduli diversi, ma vincola anche le traiettorie innovative interne ai singoli moduli. Se una specifica architettura viene adottata prima che le interdipendenze tra i componenti in relazione alla performance attesa del prodotto siano sufficientemente conosciute, il rischio di fallimenti è molto elevato, perché quell’architettura può separare sottoin-siemi di componenti senza prendere in considerazione quelle interdipen-denze, causando conseguenze impreviste ed indesiderate sul funzionamento globale di quel prodotto. D’altro canto lo spazio delle possibili architetture alternative supera necessariamente le possibilità di esplorazione degli agenti innovatori, così che esiste una stretta relazione tra le modalità di esplorazione di quello spazio, il tipo di architettura individuato e le successive traietto-rie di esplorazione all’interno di quella architettura. Le interazioni tra moduli goal oriented, alimentati da flussi di informazione, comportano quindi neces-sariamente lo studio del comportamento adattativi di unità operative e agenti, incentrati su processi di apprendimento e di non-equilibrio. La prospettiva di analisi è pertanto di natura evolutiva e ha come elementi basilari i concetti di modulo, struttura interattiva, adattamento e disequilibrio.

206

3. Connessioni tra micro- e macro-dinamica: le configurazioni modulari

3.1. Dagli impulsi micro alle strutture interattive

La base analitica proposta nel paragrafo precedente conferisce nuova rile-vanza ad elementi centrali della concezione di Smith, sviluppati in particolare da Loasby (1991): poiché la specializzazione è più produttiva dell’auto-suffi-cienza, la crescita della conoscenza e la crescita economica sono il risultato di interazioni tra sotto-insiemi del sistema economico, al cui interno imprese e mercati divengono sistemi auto-organizzati. In questa visione il mercato stesso è un sistema, che apprende mediante la sperimentazione e lo sviluppo di relazioni tra unità economiche ed agisce come meccanismo selettivo, in grado di indurre la formazione di pattern di complementarità, relazioni di cooperazione e dinamiche competitive. Il coordinamento tra capacità/com-petenze distribuite e il mercato come meccanismo selettivo consente la pro-duzione, lo sviluppo e l’organizzazione di nuove conoscenze in un processo sempre aperto ed inesauribile.

I processi storici dell’ultimo secolo, con il susseguirsi e il sovrapporsi di molteplici modelli organizzativi delle attività economiche (vedi par. 1), hanno comportato numerose ridefinizioni dello spazio economico-produttivo. Lo sviluppo della divisione del lavoro e la conseguente «esplosione» di micro-unità specializzate induce la moltiplicazione dei moduli, espressioni di fasi e sotto-fasi dai confini variabili. In altri termini l’evoluzione economica tende a generare gradi crescenti di ridondanza e degenerazione6, rendendo sem-pre più importante la dinamica delle relazioni tra moduli, ovvero la struttura delle interazioni. In altri termini, l’organizzazione dei flussi e le esigenze di coordinamento divengono un ambito cruciale da investigare ai fini della spie-gazione delle traiettorie dinamiche di lungo periodo.

Data la visione del ciclo produttivo come processo di realizzazione della congruenza tra parametri rappresentativi delle componenti di un prodotto, occorre distinguere tra micro-dinamica, ovvero le interazioni all’interno dei moduli, e il macro-ambiente delle micro-unità, ovvero i campi di interazione entro i quali si strutturano le relazioni inter-modulari (White et al., 2004). L’attenzione sia alla micro-dinamica che alle strutture che si formano a livello

6 Per ridondanza si intende qui il concetto applicato in teoria dei sistemi, ovvero il fatto che molti elementi agiscono in parallelo e in rete, spesso replicando le stesse attività o fun-zioni. In questo caso il riferimento è alla duplicazione di fasi produttive (distribuite sul ter-ritorio), in conseguenza di variazioni della domanda. Bisogna tenere presente, però, che non si tratta quasi mai di una semplice duplicazione, proprio perché nello svolgimento di attività umane le componenti cognitive rendono probabile l’introduzione di elementi differenziali e talvolta innovativi. La degenerazione è invece definita originariamente come la capacità di ele-menti cerebrali differenti per struttura di generare la stessa funzione (Edelman - Tononi, 2000, p. 103). L’applicazione di questo concetto al ciclo produttivo può essere feconda, perché con-sente di valutare come entità molto differenti eseguano attività simili o complementari, aumen-tando in tal modo la versatilità delle sequenze economico-produttive.

207

aggregato può infatti aiutare a comprendere l’evoluzione delle configurazioni modulari, contribuendo a chiarire come si sviluppano interazioni di micro-livello e pattern di macro-livello, quelle connessioni che le analisi economiche standard dei processi socio-economici hanno sempre cercato di individuare e spiegare (Granovetter, 1973).

3.2. Uno schema teorico per l’analisi delle connessioni tra agenti e moduli

L’evoluzione dei legami e delle connessioni tra entità, sulla base dei flussi di scambio informativo e fisico, porta in primo piano l’importanza dello stu-dio della geometria connettiva (Potts, 2000; 2001): le dinamiche interattive consentono di esplorare vari spazi topologici, a seconda delle strutture (con-figurazioni o patterns) che emergono dalle interazioni tra le unità economico-produttive. In tale quadro assume particolare importanza la distinzione tra relazioni «a bassa frequenza» (tra sistemi) e «ad alta frequenza» (all’interno di sub-sistemi) (Simon, 1962), connesse ai processi di diffusione informativa. I «legami deboli» sono ritenuti fondamentali per l’afflusso di nuove informa-zioni, che possono «vivacizzare» modalità relazionali dense e localizzate, con-traddistinte da «legami forti».

Lo sviluppo di queste intuizioni ha indotto un numero crescente di stu-diosi all’elaborazione di una varietà di modelli miranti a descrivere proprietà statiche e forme dinamiche di configurazioni a rete, basate su moduli (Gui-merà - Amaral, 2005; Girvan - Newman, 2002; Albert - Barabasi, 2002). Una prima famiglia di modelli, ispirata a quello originariamente formulato da Erdös e Renyi, si basa sulla nozione di grafo casuale (random graph), dove le connessioni tra entità sono equiprobabili (uniformemente distribuite). Le analisi dei pattern evolutivi attraverso modelli ispirati a questo schema con-cettuale portano a conclusioni univoche: nell’evoluzione di topologie casuali emerge una peculiare forma evolutiva, ovvero una vera e propria «gerarchia coesiva» che include la stragrande maggioranza dei nodi della rete. Al di so-pra di un valore critico del grado medio (average degree)7 della rete, infatti, lo spazio delle probabilità di connessione si trasforma e i pre-esistenti piccoli cluster divengono un solo cluster gigante.

Un interesse crescente hanno incontrato i modelli basati su reti di tipo small world (Watts - Strogatz, 1998; Watts, 1999), che evolvono mediante processi di crescita in cui nuove unità si aggiungono, con probabilità p di connessione, a entità pre-esistenti. Le numerose varianti di questa imposta-zione analitica delineano uno scenario evolutivo comune: «le connessioni a grande distanza generate da questo processo riducono la distanza tra ver-

7 Il grado è il numero di legami che collegano un nodo agli altri nella rete, ed è definito da una funzione di distribuzione p(k) che dà la probabilità che un nodo qualsiasi abbia esatta-mente k legami (Albert - Barabasi, 2002, p. 49).

208

tici, producendo il cosiddetto small-world phenomenon, spesso descritto con l’idea dei sei gradi di separazione» (Albert - Barabasi, 1999). In sintesi, quindi, nonostante la loro rilevante dimensione, nella maggior parte delle reti analizzate e studiate empiricamente «il percorso che unisce due vertici è re-lativamente breve» (Albert - Barabasi, 2002, p. 49). A partire da queste pre-messe Albert e Barabasi (1999; 2002) hanno individuato due limiti di fondo dello schema teorico dei modelli basati sui grafi casuali: i) l’invarianza del numero dei vertici della rete, con una visione essenzialmente statica; ii) l’uni-formità della distribuzione delle connessioni. I due studiosi, insieme ad altri colleghi (Jeong et al., 2000; Schwartz et al., 2002; Yook - Jeong - Barabasi, 2001; Shin - Kim, 2004), hanno allora elaborato una serie di modelli, sulla base di due assunzioni iniziali più conformi a molte rilevazioni empiriche: i) progressivo aumento, nel corso del tempo, della dimensione di un grafo o dell’estensione di una rete, secondo una visione dinamica; ii) non omogeneità dei nodi, perché è più elevata la probabilità che ciascun nodo aggiuntivo si connetta ad unità con un più ampio e pre-esistente numero di connessioni (preferential attachment assumption). Le elaborazioni di questi studiosi hanno portato all’individuazione di interessanti proprietà dinamiche, tra le quali so-prattutto la formazione di reti scale-free, ovvero reti ad «invarianza di scala», in cui la distribuzione delle connessioni segue una «legge di potenza», in cui la probabilità che x nodi della rete abbiano k connessioni (k è detto «grado» di quel nodo) è data da P(x) ~ k–g, dove g è un parametro fisso specifico per ogni rete. Questa distribuzione ipotetica8 evidenzia una proprietà dinamica rilevante: gli scale-free networks mostrano una elevata eterogeneità e una to-pologia peculiare, contraddistinta da poche unità con un elevato numero di connessioni e da una massa distribuita di nodi dalla connettività molto meno marcata (Jeong et al., 2000).

L’applicazione in economia di questi modelli non è priva di problemi, nella misura in cui è necessario prendere in considerazione la tipologia dei flussi che alimentano le connessioni. La ricerca di principi esplicativi e fat-tori-guida, che possano favorire l’individuazione di links tra micro-dinamica (interazioni all’interno dei moduli) e macro-patterns (interazioni tra moduli e configurazioni complessive), deve prendere in considerazione alcuni ele-menti irrinunciabili, non sempre adeguatamente considerati nei modelli in questione: i) eterogeneità degli agenti; ii) differente scala delle interazioni; iii) legame tra le diverse frequenze d’interazione (frequency dependence) e la formazione di moduli. Ad esempio, nella configurazione modulare basata su unità che sviluppano attività dirette alla soluzione di problemi tecnico-produttivi, gli scambi economico-informativi sono strettamente connessi al-l’ampiezza e alla varietà del potenziale di impulsi che un’unità può ricevere. Analogamente a quanto viene descritto nella letteratura di derivazione ecolo-

8 Essa è stata verificata in molti casi di reti sociali (collaborazioni scientifiche e co-author-ship), tecnologiche (topologia del WWW) e biologiche (reti molecolari e proteiche).

209

gico-evolutiva (Lansing, 2003; Levin, 2002), riteniamo importante l’elabora-zione di modelli in grado di rappresentare le modalità con cui la scala delle interazioni definisce i patterns di modularità, ovvero la configurazione delle relazioni inter-organizzative.

Una crescente letteratura ha messo in luce, nell’odierno scenario tecnico-economico, l’«esplosione» del ciclo produttivo e lo sviluppo della modularità in configurazioni che dipendono da un numero più o meno elevato di varia-bili (modular network form, par. 1) e dalla diffusione di interdipendenze tra unità produttive. Su un terreno più propriamente teorico appare fondato il tentativo di affrontare la seguente domanda: è possibile definire e studiare lo spazio delle possibili configurazioni a cui l’interdipendenza tra moduli dà luogo?

Il problema da affrontare è allora il seguente: è possibile individuare principi esplicativi e tendenze prevalenti nell’evoluzione delle configurazioni modulari? Riprendendo i concetti proposti da Simon (1962), definiamo un processo di produzione come un sistema quasi-scomponibile, ovvero un si-stema complesso che contiene al proprio interno un numero variabile di sotto-sistemi interagenti, i quali a loro volta si ridefiniscono continuamente in base all’evoluzione della complessità esterna e interna9. I sistemi complessi fronteggiano la prima accrescendo la seconda, ad esempio con un più alto livello di ridondanza (duplicazione di entità e strutture, vedi nota 6) e con processi di differenziazione e specializzazione. Ritroviamo dunque nei sistemi produttivi le caratteristiche distintive individuate nei complex adaptive sy-stems (Gell-Mann, 1994)10, il cui funzionamento efficiente richiede che siano soddisfatte alcune condizioni fondamentali: i) le attività delle n-componenti devono essere coordinate in modo tale che dalla miriade di interazioni locali emerga un comportamento globale coerente con gli impulsi esogeni; ii) le in-terazioni globali tra il sistema e l’ambiente esterno richiedono un «modello» di quest’ultimo (Jost, 2003; Atay - Jost, 2004).

Proviamo ad applicare questi concetti all’analisi del ciclo produttivo. Le esigenze del consumatore e le caratteristiche della domanda da soddisfare possono essere rappresentate come un vettore di attributi del bene da pro-durre. Questi ultimi devono essere a loro volta trasformati in specifiche dei componenti del prodotto stesso, ovvero in requisiti tecnico-produttivi, me-diante un processo di «partizionamento» sempre più fine. Il modo in cui si

9 «External complexity measures the amount of input information and energy obtained from the environment that the systems is capable of handling, processing [...] Internal com-plexity measures the complexity of the representation of the input by the system» (Jost, 2003, pp. 2-3).

10 Una rilevante letteratura teorica ha descritto una serie di importanti proprietà: crescita e diversità co-evolutiva tra componenti multiple; differenziazione strutturale e sotto-sistemi (Arthur, 1994); replicazione «non triviale» (Schuster, 1994); adattatività distribuita attraverso molte parti interagenti (Brown, 1994); organizzazione di «stati interni» in risposta all’ambiente (Martin, 1994).

210

realizza la dinamica di armonizzazione tra l’insieme dei parametri rappre-sentativi del bene finale e i sotto-insiemi di parametri specifici per le varie fasi produttive dipende da come si organizzano i moduli e dal quadro delle interazioni reciproche. La coerenza globale tra le varie componenti dipende in modo cruciale dai flussi di informazione, perché la struttura informativa fornisce alla configurazione modulare una forma di embedded coordination (Sanchez - Mahoney, 1996). Come può quest’ultima emergere in differenti contesti? Nell’impostazione evolutiva, qui adottata, le centralità attribuita al-l’organizzazione dei flussi informativi induce a ritenere che, ai fini dell’ana-lisi di specifiche forme di embedded coordination, sia fondamentale la con-siderazione della tipologia delle informazioni e dei soggetti possessori. Nella produzione di un bene e nella dinamica innovativa in genere, il processo di suddivisione di un «sistema-prodotto» genera moduli «relativamente indipen-denti» (Aoki, 2003). Su queste basi è essenziale distinguere le informazioni di sistema (Langlois, 1983; Aoki, 2004), ovvero quelle che «derivano dall’am-biente sistemico che influenza il progetto e le funzioni produttive dei mo-duli» (Aoki, 2003, p. 2), da quelle operative o idiosincratiche, che riguardano i contesti specifici con cui interagiscono i moduli. Le architetture organizza-tive modulari si differenziano in base ai ruoli esercitati dai possessori dei vari tipi di informazione e dalle modalità con cui avvengono gli scambi informa-tivi.

4. La dinamica dei sistemi produttivi come traiettoria esplorativa nello spazio delle configurazioni modulari

L’ipotesi che l’emersione di macro-pattern sia guidata da micro-processi spontanei di coordinamento informativo e auto-organizzazione induce ad affrontare i problemi inerenti all’analisi dei sistemi produttivi nei seguenti termini: quali condizioni e fattori (micro o macro) orientano la formazione, riproduzione e diffusione di particolari (micro)strutture relazionali dando luogo a differenti (macro)configurazioni modulari? Se la domanda appare re-lativamente semplice nella sua generalità, rispondere con altrettanta sempli-cità è però impossibile. Una rappresentazione analitica generale del passaggio da micro a macro non è sufficiente per spiegare la dinamica di un particolare sistema. Occorre piuttosto prendere in considerazione le particolari combi-nazioni di valori delle specifiche variabili che influenzano quella dinamica in misura rilevante dal punto di vista dell’osservatore. Ma quali siano le varia-bili rilevanti all’interno di uno specifico processo è questione che non può trovare una risposta univoca o stabile.

L’analisi dinamica dei sistemi produttivi richiede dunque risposte intrin-secamente molteplici e variabili. D’altro canto, se si adotta un approccio analitico, non è esclusa la possibilità di definire «spazi» multidimensionali in cui rappresentare in modo economico alcune classi di processi all’interno di

211

condizioni ambientali ben definite, e di utilizzare questi spazi per individuare i valori critici delle micro-variabili che guidano la transizione tra macro-pat-tern alternativi. Nel nostro caso per sistematizzare alcuni aspetti fondamen-tali delle topologie relazionali esaminate nei paragrafi precedenti può essere sufficiente definire uno spazio con tre micro-variabili: i) memoria, ovvero il livello di correlazione temporale tra gli impulsi relazionali che due micro-ele-menti di un sistema si scambiano; ii) capacità, ovvero la quantità (finita) di risorse «in dotazione» a ciascun micro-elemento per stabilire una relazione con un altro micro-elemento; iii) distanza tra due micro-elementi, che agisce come fattore selettivo delle relazioni possibili all’interno del sistema. All’in-terno di questo spazio, tenendo fisse capacità e distanza dei microelementi ma lasciandone variare la memoria, è possibile definire un intero spettro di macro-configurazioni modulari emergenti, alle cui estremità si collocano due archetipi ideali («gas ideale» e «cristallo perfetto») che corrispondono rispet-tivamente alla situazione di minima e massima correlazione temporale nelle relazioni tra i micro-elementi di un sistema produttivo.

L’archetipo del gas ideale traduce in termini relativamente semplici l’idea di un ciclo produttivo «atomizzato», ovvero di un processo di produzione di un bene attraverso una collezione di entità auto-contenute, con un grado zero di ridondanza e gradi variabili di degenerazione11, a seconda della ver-satilità individuale degli agenti e della congruenza cognitiva degli impulsi da recepire. In termini intuitivi, si tratta della realizzazione di un prodotto da parte di un numero imprecisato di micro-entità (ad esempio artigiani) che in-teragiscono sulla base dei vincoli spaziali di prossimità a cui sono sottoposti. Ogni micro-unità costituisce un «micro-mondo», al cui interno si sviluppano abilità e competenze nella risoluzione di problemi tecnici, in modo da arri-vare ad un output da collocare su mercato. Gli scambi economico-informativi tra i micro-mondi sono prevalentemente casuali e tendono a non avere una direzionalità precisa. Sono cioè assunti input da ogni sorgente «prossima», sia pure sulla base del filtro cognitivo e operazionale di cui ciascun agente è in possesso (routines «incorporate»). Da questi input gli agenti possono deri-vare modifiche di comportamenti, «effetti di contagio», ecc. Tali scambi equi-valgono agli urti casuali tra molecole o atomi di un gas ideale, con dinami-che di espansione e contrazione indotte da macro-impulsi esogeni, come ad esempio variazioni quantitative e qualitative della domanda. Nella descrizione proposta i produttori costituiscono un universo contraddistinto da moto «browniano». Le fluttuazioni aleatorie della quantità e qualità dei beni pro-dotti derivano dalla propagazione spontanea di impulsi irregolari, finché non si realizza la combinazione in grado di soddisfare le esigenze della domanda.

11 In riferimento ai concetti definiti nella nota 6, un grado zero di ridondanza significa, nel nostro caso, che non si verificano processi per cui le micro-unità operano in rete, eventual-mente agendo «in parallelo». La degenerazione costituisce invece un fenomeno più diffuso, perché è comune che unità diverse eseguano lavorazioni simili, dando luogo a prodotti affini, pur partendo da differenti matrici tecnico-produttive.

212

Quest’archetipo è complementare ad una domanda di beni in piccoli volumi, con moderati tassi di variabilità e scale spaziali di operatività piuttosto limi-tate. Per rispondere a queste fluttuazioni agli agenti è sufficiente mettere in atto procedure di apprendimento non deliberato e di adattamento rispetto ad impulsi esogeni. Le caratteristiche di questi processi di apprendimento e scambio informativo mostrano due limiti fondamentali dell’archetipo: i) vi è una significativa capacità di assorbimento di shock molto frequenti e re-lativamente piccoli, ma è anche presente una vulnerabilità latente rispetto ai cambiamenti strutturali, ovvero a discontinuità forti e irreversibili; ii) i livelli di produttività del sistema sono contenuti, nella misura in cui la relativa indi-pendenza delle micro-unità si oppone ad un pieno coordinamento delle fasi produttive, limitando così i processi di specializzazione e divisione del lavoro.

All’estremo opposto dello spettro, l’archetipo del cristallo perfetto incor-pora l’idea di una forma organizzativa perfettamente integrata, con assetti se-quenziali basati su modelli informativi «a cascata», che danno luogo a pro-cessi produttivi e innovativi «controllati», in cui le forme di apprendimento sono preventivamente limitate e la struttura dei flussi informativi è, per larga parte, specificata in anticipo. Data la loro perfetta rigidità, se le condizioni ambientali non sono troppo turbolente queste configurazioni si perpetuano immutate, come le forme regolari e perfette di un cristallo periodico nella rappresentazione di Schrödinger (1995). Quest’archetipo ottiene performance ottimali, garantendo i massimi livelli di produttività, in assenza di shock fre-quenti, che richiedono aggiustamenti continui e cicli ricorsivi di interazioni tra componenti. È dimostrato, infatti, che le configurazioni integrate sono più esposte a fallimenti nei processi di adattamento, attraverso collassi, per-dite o ritardi nella ricezione di flussi informativi, quando il modello di pro-dotto è definito in modo incompleto, oppure soggetto a incessanti variazioni (Sanchez, 1995; Sanchez - Mahoney, 1996).

Se sulla base di un’ampia letteratura si può sostenere che le configura-zioni produttive reali si collocano in posizione intermedia tra i due archetipi descritti, resta nondimeno difficile individuare con precisione la posizione effettiva di ciascun sistema reale all’interno dello spettro, dal momento che la dinamica dei processi produttivi è attraversata da tendenze molteplici e in parte contrastanti. Da una parte, attraverso la diffusione delle tecnologie dell’informazione, gli spazi produttivi sono stati radicalmente ridefiniti dalle tendenze in atto, non solo perché è diminuita la distanza relativa di molte micro-unità produttive ma anche perché appare incrementata la capacità re-lazionale delle stesse micro-unità. Da tutto ciò è derivato un aumento gene-ralizzato della concorrenza, che ha reso più stringenti i vincoli sugli output produttivi, incrementando l’esigenza di un più rapido apprendimento rispetto a sempre più frequenti variazioni della domanda. Se la maggiore frequenza degli shock può avere spinto i sistemi produttivi nella direzione dell’archetipo del gas ideale, d’altro canto la spinta verso l’integrazione non sembra affatto diminuita, ma piuttosto stimolata dall’imperativo di realizzare crescenti eco-nomie di scala non disgiunte da economie di varietà, a loro volta stimolate

213

dall’incessante proliferazione di nuovi beni e modelli, con particolare enfasi sulla «personalizzazione di massa» di beni e servizi. L’attenzione ai problemi di coordinamento è indispensabile per realizzare economie di tempo (accor-ciamento del ciclo di vista dei prodotti) e per razionalizzare i flussi di ogni tipo di input nell’intento di contenere o diminuire i costi logistici. Le unità economiche tendono a diventare sempre più reti gerarchiche di flussi molte-plici su scale differenti, in cui l’accrescimento dei vincoli sul coordinamento (ovvero la tendenza verso una maggiore integrazione tra moduli tecnico-pro-duttivi) è contrastato dall’esigenza di rispondere rapidamente a shock fre-quenti dal lato della domanda.

La dinamica delle organizzazioni è resa ancora più imprevedibile dal fatto che le unità economiche si muovono nello spazio delle configurazioni modu-lari sulla base di molteplici rappresentazioni idiosincratiche di questo stesso spazio. Le decisioni sulle traiettorie da seguire dipendono non solo da come le unità percepiscono la propria posizione attuale, ma anche da come si rap-presentano la posizione delle altre unità con cui competono o cooperano. L’evoluzione di queste molteplici rappresentazioni si pone come un fattore dinamico di primaria importanza, che si concretizza in molteplici processi ri-corsivi di esplorazione cognitiva, in cui differenti punti di vista generano dif-ferenti direzioni esplorative e insieme differenti strategie di esplorazione.

Se si ammette che le unità economiche abbiano di norma visioni diffe-renti e mutevoli delle traiettorie da perseguire, la dinamica delle organiz-zazioni nello spazio delle configurazioni modulari può essere rappresentata adeguatamente dai modelli di esplorazione su «panorami complessi» (rugged landscapes), studiati e discussi da un recente filone della letteratura econo-mica. Questi contributi hanno fornito risultati molto interessanti sulla natura dei processi di ricerca in ambienti complessi, evidenziando che le caratteri-stiche dei loro output (e dunque le traiettorie all’interno dello spazio mo-dulare) dipendono da un matching dinamico tra strategie esplorative, carat-teristiche del «panorama» da esplorare ed intensità dei processi selettivi. In particolare le strategie esplorative sono esposte ad un trade-off tra la velocità di esplorazione, che deve essere tanto più elevata quanto più alta è la pres-sione selettiva, e l’efficienza del processo in termini di fitness delle configura-zioni raggiunte, che è tanto più bassa quanto più il processo di ricerca è ve-loce (Marengo et al., 1999, p. 15; Frenken - Marengo - Valente, 1999, p. 12). Questo trade-off è più forte se il «panorama» da esplorare è molto complesso – ovvero se le interdipendenze tra le diverse variabili decisionali in gioco ren-dono molto difficile suddividerlo in un insieme di sotto-spazi più semplici (Marengo - Dosi, 2003).

In ambienti fortemente competitivi le strategie di esplorazione parallela (ovvero quelle che suddividono i «panorami» in sottospazi indipendenti) sono più efficaci (a parità di altri fattori) delle strategie di esplorazione se-riale che agiscono su rappresentazioni «globali» del «panorama», nonostante le prime comportino rispetto alle seconde una probabilità più bassa di rag-giungere la migliore posizione all’interno del «panorama» stesso. Frenken,

214

Marengo e Valente (1999) hanno mostrato gli effetti di questo trade-off su una popolazione di agenti esposti ad un processo selettivo, che opera sulla base della fitness delle diverse configurazioni raggiunte attraverso strategie di ricerca alternative. Nel modello in questione gli agenti che esplorano in parallelo dominano gli agenti che esplorano in modo seriale grazie alla mag-giore velocità con cui raggiungono livelli «soddisfacenti» di fitness, mentre i secondi superano la fitness dei primi soltanto dopo un numero maggiore di periodi di ricerca. Di conseguenza il vantaggio di una esplorazione parallela emerge solo se la pressione selettiva è forte abbastanza da «rimuovere» gli agenti che usano la strategia «globale» prima che raggiungano la configura-zione migliore. In questo modo una maggiore pressione selettiva rafforza la fitness del processo di ricerca nel breve periodo, mentre ne diminuisce la fit-ness nel lungo periodo.

In sintesi questa linea di ricerca evidenzia che non esiste soltanto uno spazio molteplice di configurazioni modulari da esplorare: esistono anche molteplici strategie per sviluppare traiettorie al suo interno, che possono es-sere ordinate in base al loro grado di centralizzazione/decentralizzazione. Ad un’estremità dello spettro si colloca una strategia di ricerca completamente decentralizzata, ovvero caratterizzata da un elevato livello di scomposizione parallela del processo di ricerca, in cui numerosi agenti concorrono in modo (almeno in parte) non coordinato al processo esplorativo. All’estremità op-posta si trova una strategia completamente centralizzata, che dà luogo ad un processo di ricerca interamente pianificato, in cui l’esplorazione avviene in modo seriale per costruire una rappresentazione integrata. Alcuni lavori hanno utilizzato quest’impostazione per studiare la dinamica dell’innovazione di prodotto (Dosi - Levinthal - Marengo, 2002; Ethiraj - Levinthal, 2003; Frenken, 2001a; 2001b), evidenziando che le strategie innovative prevalenti mutano nelle successive fasi del ciclo temporale in cui un prodotto o una tecnologia sono sviluppati e migliorati, perché in queste fasi muta il livello di complessità del processo innovativo. La complessità è più elevata nelle prime fasi del ciclo, quando la struttura del prodotto non è ancora ben definita e le sue implicazioni tecniche e funzionali non sono ben conosciute dagli agenti, così che il processo di ricerca è esposto a frequenti e rilevanti fallimenti. In queste situazioni è avvantaggiata la strategia centralizzata, che minimizza i fallimenti al costo di un rallentamento del processo innovativo, mentre la ri-cerca decentralizzata ha lo svantaggio di accettare troppe innovazioni parziali senza poter verificare la compatibilità reciproca delle soluzioni adottate (Mil-grom - Roberts, 1995). La strategia decentralizzata diventa quella più efficace quando il prodotto o la tecnologia sono sufficientemente stabili da poter es-sere «modularizzati» (ovvero, nella terminologia adottata sopra, suddivisi in sottospazi innovativi da esplorare parallelamente), aprendo lo spazio per lo sfruttamento dei rendimenti crescenti legati alla divisione del lavoro inno-vativo. La mancanza di coordinamento può rappresentare dunque un forte ostacolo nelle fasi iniziali di sviluppo di un nuovo prodotto o tecnologia. D’altra parte, come abbiamo accennato sopra, non necessariamente in condi-

215

zioni di elevata complessità prevalgono gli agenti che impiegano una strategia centralizzata. I vantaggi potenziali potrebbero infatti non manifestarsi se la pressione selettiva è troppo forte, semplicemente perché gli agenti a ricerca centralizzata, più lenti, sono rimossi dalla competizione prima che i vantaggi in termini di fitness della loro strategia possano concretizzarsi.

Se si prende in considerazione l’accresciuto livello di concorrenza nella dinamica produttiva contemporanea, le riflessioni proposte aiutano a spie-gare perché le spinte verso l’integrazione, continuamente rinnovate dall’in-novazione tecnologica, si traducano oggi prevalentemente in processi di coo-perazione esterna e non in processi di crescita interna delle organizzazioni. Nello spazio delle configurazioni modulari la cooperazione esterna (ovvero la formazione di reti produttive più o meno localizzate tra unità economiche distinte) consente infatti ai sistemi produttivi di incorporare i vantaggi del-l’archetipo del «gas ideale» (coerente con una competizione crescente) senza rinunciare a quelli del «cristallo perfetto» (coerente con la spinta verso l’inte-grazione). L’introduzione nello schema di uno spazio delle strategie esplora-tive chiarisce però che, se nella competizione sono favorite unità economiche specializzate su singole fasi o componenti, sono favorite al tempo stesso stra-tegie di ricerca decentralizzate che, come abbiamo argomentato sopra, non sono affatto neutre rispetto agli esiti del processo esplorativo. Insieme alle unità economiche specializzate si riproducono infatti rappresentazioni par-ziali dello spazio modulare, che orientano i processi innovativi in una dire-zione qualitativamente diversa da quella che potrebbe essere stimolata da una visione «globale». In linea di principio i vantaggi della cooperazione esterna possono essere mantenuti, evitando il rischio di lasciare sistematicamente ine-splorata la prospettiva «globale» sul «panorama» modulare, se alcune unità economiche si specializzano proprio nel compito di sviluppare rappresen-tazioni globali, agendo come «integratori di sistema». D’altro canto questa compensazione difficilmente può produrre risultati equivalenti a quelli di una vera e propria integrazione, nella misura in cui anche gli «integratori» sono sottoposti ad una pressione concorrenziale che favorisce strategie esplorative in parallelo, ovvero la costruzione di rappresentazioni globali attraverso l’in-tegrazione delle rappresentazioni parziali esistenti, rispetto a quella di rap-presentazioni radicalmente nuove.

5. Obiettivi e struttura del modello

Se la dinamica dei sistemi produttivi consiste in una trasformazione in-cessante di molteplici architetture modulari, ai fini della sua analisi è fonda-mentale formulare modelli di comportamento di configurazioni alternative, che rispondano alle sollecitazioni provenienti dal mercato e dalla dinamica tecnologica. Come abbiamo sottolineato sopra (par. 4), tra i due archetipi del «gas ideale» e del «cristallo perfetto» esiste uno spazio delle configurazioni

216

modulari, dato da una molteplicità delle morfologie evolutive, indotte dalle dinamiche di interazione. Su queste basi l’obiettivo del modello, qui discusso, è rappresentare una porzione di questo spazio, in relazione ad alcune limitate ma ben definite alternative, identificando un insieme di fattori discriminanti, la cui variazione sia in grado di indurre la prevalenza di configurazioni di-verse. Le ipotesi da verificare attraverso il modello sono in particolare due:

Ipotesi 1. Le architetture organizzative centralizzate (decentralizzate) preval-gono in condizioni di elevata (moderata) complessità di sviluppo di un prodotto o di una tecnologia.

Ipotesi 2. Data una velocità non costante nello sviluppo di un prodotto o tecnologia, le architetture organizzative centralizzate (decentralizzate) preval-gono quando l’accelerazione è nulla o negativa (positiva).

Il confronto tra architettura centralizzata e decentralizzata è contestualiz-zato rispetto all’alternativa tra «internalizzazione» ed «esternalizzazione» della produzione. Si confrontano cioè imprese che producono internamente gli input necessari per il proprio prodotto finale («verticalizzate»), con imprese che acquistano gli stessi input dal mercato («deverticalizzate»)12. L’obiettivo è comparare la performance dei due modelli produttivi posti nelle stesse con-dizioni competitive, per formalizzare l’intuizione secondo cui in condizioni di elevata complessità dei processi di sviluppo tecnologico (a loro volta identifi-cabili come condizioni in cui è molto difficile ottenere un’efficace «modula-rizzazione» dei processi di sviluppo della tecnologia) l’integrazione organiz-zativa è relativamente più efficace rispetto al ricorso a processi decentraliz-zati come quelli basati sulla cooperazione esterna. Il modello comprende i seguenti oggetti fondamentali:

1. un’industria, che produce un unico prodotto finale P, composto da n-componenti, per cui P = {c1, ..., cn};

2. un insieme n + 1 di settori, ovvero n settori intermedi per la produ-zione di componenti e un settore finale;

3. le imprese che popolano gli n + 1 settori e competono sui rispettivi mercati, suddividendosi tra imprese operanti nel settore finale (a loro volta divise tra «verticalizzate» e «deverticalizzate») e fornitori, ovvero imprese che operano nei settori intermedi producendo singoli componenti;

4. una funzione per la domanda finale, specificata come una grandezza aggregata la cui variazione dipende dalla qualità complessiva dei prodotti fi-nali dell’industria;

12 Esistono ovviamente molti altri contesti della dinamica organizzativa in cui il confronto tra centralizzazione e decentralizzazione sarebbe possibile e auspicabile. Ad esempio, architet-ture decentralizzate sono possibili anche all’interno di singole organizzazioni, se queste adot-tano configurazioni non rigidamente gerarchizzate e aperte a continue ricombinazioni (Simon, 1991).

217

5. infine, un insieme di T periodi in cui le imprese competono, per cia-scun periodo t, sulla base delle condizioni esistenti a t – 1, determinando così le condizioni dell’industria per t + 1.

Per studiare le proprietà del modello si è provveduto ad implementarne una versione parziale in un ambiente di simulazione13 specificatamente pro-gettato per lo sviluppo e l’analisi di modelli «basati su agenti»14. Attraverso questo strumento la dinamica del modello è generata per via computazionale attraverso la risoluzione delle equazioni differenziali che regolano il compor-tamento degli oggetti sopra descritti, condotta secondo l’ordine temporale definito all’interno del modello stesso. In pratica si tratta di calcolare un in-sieme di soluzioni per le variabili definite nel modello stesso, a partire da condizioni iniziali scelte in modo discrezionale e attraverso le regole di com-portamento stabilite per gli agenti specificati nel modello. L’implementazione informatica consente con relativa facilità questo tipo d’analisi, attraverso la traduzione delle espressioni matematiche in istruzioni eseguibili dal calcola-tore. Una volta eseguita questa traduzione, la simulazione si realizza facendo computare al calcolatore, per un numero prefissato di periodi e per ciascuno degli oggetti presenti nel modello, i valori risultanti dall’esecuzione di ogni istruzione.

Ogni simulazione rappresenta solo uno dei possibili sentieri evolutivi del modello, dal momento che il valore delle variabili in ciascun periodo dipende dai valori iniziali, che sono discrezionali, e che la presenza di variabili alea-torie introduce un’ineliminabile specificità nella dinamica simulata. La pos-sibilità di effettuare generalizzazioni non è tuttavia preclusa. Queste possono essere realizzate per induzione a partire da un insieme ripetuto di simula-zioni che funge da campione. In questo modo si possono eliminare gli effetti aleatori che producono differenze tra le diverse simulazioni, individuando i pattern prevalenti di comportamento del modello «al netto» dei disturbi pro-venienti da fattori non considerati nel modello stesso. D’altra parte in una prospettiva evoluzionista l’identificazione di relazioni «statiche» tra variabili e parametri non dovrebbe essere l’obiettivo principale dell’analisi: al contrario, proprio l’identificazione di pattern evolutivi specifici in particolari condizioni parametriche rappresenta il risultato più interessante, anche perché solo pat-tern di questo tipo sono effettivamente osservabili nella realtà.

13 Si tratta di LSD (Laboratory for Simulation Development), un linguaggio, sviluppato dallo studioso italiano M. Valente, che consente di realizzare simulazioni estremamente effi-cienti, riducendo al minimo le competenze di programmazione richieste allo scopo. Per tale motivo questo strumento è particolarmente adatto a supportare il lavoro autonomo degli stu-diosi di scienze sociali, che generalmente non possiedono sofisticate competenze di program-mazione. Per maggiori informazioni si rimanda al seguente URL: http://www.business.aau.dk/~mv/.

14 Per un’introduzione a questo filone recente si rimanda a Axtell (2000), Valente (2002) e Tesfatsion (2003).

218

Le equazioni che descrivono il comportamento degli agenti possono es-sere suddivise in 3 diversi ambiti, distinti ma interconnessi: i) dinamica del-l’innovazione; ii) dinamica del mercato; iii) dinamica dei costi, degli investi-menti e dei profitti. Di seguito si richiama brevemente la struttura concet-tuale alla base di questi ambiti, che sono essenziali per la comprensione dei risultati presentati successivamente. Per una descrizione completa del mo-dello si rimanda a Bargigli (2005).

Dinamica dell’innovazione. Nel modello l’innovazione tecnologica ri-guarda sia il miglioramento dei prodotti che quello dei processi produttivi. Il meccanismo di adozione e sviluppo delle innovazioni è identico per en-trambi, anche se si tratta di due processi indipendenti, che entrano in punti diversi della dinamica competitiva: il primo si traduce in un incremento della qualità dei componenti, che a sua volta si riflette nella qualità del prodotto finale e quindi nella capacità competitiva dell’impresa; il secondo comporta la crescita di un indicatore del livello tecnologico raggiunto dall’impresa, de-terminandone i costi di produzione.

Il processo innovativo è rappresentato seguendo un’intuizione proposta da Sah e Stiglitz (1986). Il loro modello rappresenta un tentativo di affron-tare, attraverso uno schema molto semplice, il tema dell’architettura dei si-stemi economici. La nozione di architettura sta ad indicare, in questo conte-sto, le relazioni tra le unità costituenti il processo decisionale, con riferimento alla distribuzione dell’autorità, dei flussi informativi, della capacità di elabo-rare informazioni. Il modello si concentra su due architetture specifiche: i) poliarchia, ovvero un sistema con molti decisori in competizione che possono intraprendere progetti in modo indipendente uno dall’altro; ii) gerarchia, ov-vero un sistema in cui solo pochi soggetti possono decidere di intraprendere un progetto, mentre altri si limitano a fornire informazioni utili per la deci-sione. Questo modello prevede che nella poliarchia i diversi progetti siano sottoposti in modo casuale ai decisori: se un progetto è rifiutato, può essere esaminato da un altro decisore; se è accettato, non è più disponibile per altri decisori; nessun progetto può essere esaminato due volte. La procedura di selezione è dunque di tipo limitatamente parallelo, e la probabilità totale che il progetto sia accettato è uguale alla somma delle probabilità che sia accet-tato da ciascun decisore, condizionate dalla probabilità che sia rifiutato dagli altri. Nella gerarchia ciascun progetto è sottoposto ad uno screening multiplo, ovvero è prima esaminato da un decisore di livello inferiore e, se accettato, trasmesso al decisore di livello superiore, che deve a sua volta esaminarlo. I progetti accettati sono quelli accolti dal livello di decisione più alto, e la procedura di selezione è di tipo seriale. Nella gerarchia la probabilità di ac-cettazione di un progetto è dunque data dalla probabilità congiunta di accet-tazione da parte di ciascun livello. Vale quindi in generale che la probabilità di accettazione di una poliarchia è superiore a quella della gerarchia, ovvero fP(x) > fH(x), dove P sta per poliarchia e H per gerarchia, x rappresenta il ri-torno di un progetto, e f è una funzione di screening sui progetti stessi che

219

ne determina la probabilità di accettazione in funzione del ritorno). In un contesto di informazione limitata la funzione di screening è soggetta a due tipi possibili di errore: i) rifiutare progetti che dovrebbero essere accettati; ii) accettare progetti che dovrebbero essere rifiutati. Queste due tipologie sono assimilabili agli errori di Tipo I e di Tipo II della teoria classica dell’inferenza statistica, e le due architetture individuate hanno una diversa propensione a commettere errori di ciascun tipo. Le unità organizzate in poliarchie ten-dono, a parità di altri fattori, a commettere più errori di Tipo II che non di Tipo I. Quest’architettura seleziona infatti un numero maggiore di progetti, a parità di altri fattori, ammettendo la possibilità che un progetto scartato da un decisore possa essere accettato da un altro. In modo speculare le unità organizzate in una gerarchia hanno una maggiore tendenza a commettere er-rori di Tipo I perché accettano a parità di altri fattori un numero inferiore di progetti perdendo in tal modo un certo numero di opportunità favorevoli.

Limitandosi al caso di due decisori, Sah e Stiglitz derivano le principali implicazioni di questo modello, dimostrando che: i) dato un medesimo por-tafoglio iniziale di progetti innovativi, la poliarchia seleziona un numero su-periore di progetti rispetto alla gerarchia; ii) un peggioramento del valore atteso dei progetti implica un peggioramento della performance della poliar-chia rispetto alla gerarchia mentre, al contrario, il vantaggio della poliarchia aumenta tanto migliore è il valore atteso15; iii) per portafogli neutri16 la po-liarchia ha un vantaggio solo se la probabilità di un errore di Tipo I (scartare un progetto buono) è superiore a quella di un errore di Tipo II (accettare un progetto cattivo). In questo caso l’architettura che consente la maggiore riduzione di errori di Tipo I (ovvero la poliarchia) avrà una performance mi-gliore; se invece la seconda probabilità fosse più alta della prima, sarebbe la gerarchia a prevalere.

Questo modello è in grado di rappresentare i limiti rispettivi delle strate-gie esplorative centralizzate e decentralizzate, descritte nel paragrafo 4. Dato che fP(x) > fH(x), si hanno infatti due conseguenze: i) le gerarchie «pagano» il ritorno mediamente più elevato dei progetti accettati con un numero di in-novazioni accettate più basso, che le può portare ad un ritorno totale infe-riore, come le architetture centralizzate descritte nel paragrafo precedente; ii) d’altro canto le poliarchie accettano una frazione maggiore di innovazioni a scapito di una perdita nel ritorno atteso di ciascun progetto, proprio come le architetture decentralizzate17. Il ritorno complessivo è quindi il risultato di due fattori indipendenti, che si combinano in modo diverso nelle due archi-

15 Questo valore è rappresentabile dal rapporto a = z1a/z2(1 – a), dove z1 > 0 è il ritorno di un progetto «di successo», –z2 < 0 è il ritorno di un progetto «fallimentare» e a è la propor-zione attesa di progetti buoni. Per maggiori dettagli si rimanda a Bargigli (2005).

16 Ovvero quelli per cui z1a = z2(1 – a) e quindi a = 1.17 Anche se Sah e Stiglitz non toccano direttamente quest’ultimo punto, tuttavia esso se-

gue immediatamente dall’osservazione che, se fP > fH per un medesimo progetto, dati due pro-getti i e j con ritorno rispettivo xi e xj, fP(xi) = fH(xj) solo se xj > xi.

220

tetture: i) il valore medio dei progetti accettati; ii) il numero dei progetti ac-cettati. Di conseguenza la gerarchia prevale quando la combinazione tra la proporzione di progetti fallimentari e il rapporto tra i danni dei progetti fal-limentari e i benefici dei progetti di successo è tale da generare per le poliar-chie una perdita complessiva superiore al beneficio offerto dall’accettazione di un maggiore numero di progetti di successo. Come abbiamo suggerito nel paragrafo 4, queste condizioni limite possono essere interpretate come quelle corrispondenti ai cicli iniziali di sviluppo di un prodotto o, più in generale, alle fasi di innovazione architetturale dei prodotti, in cui la difficoltà di tro-vare un’innovazione valida è maggiore, così come lo sono i danni conseguenti da eventuali errori.

A partire da quest’idea generale la dinamica innovativa è stata specificata nel modello attraverso un processo di adozione di idee innovative, strutturato su due stadi. Il primo stadio consiste nella selezione dell’idea innovativa, e la probabilità per un’impresa finale j di selezionare un’innovazione nel periodo t è data dalla seguente formula:

(1) Pr Prjj ratexi t xi t xiRND F[ [ ] [ ] ] [ {( )*[+ = + = < –1 1D ee x t x E x ti i i[( [ ] ) ( [ ])]] } ]+ – +D 1 2l

dove RND è un numero casuale estratto da una distribuzione uniforme nel-l’intervallo {0,1}; E(xi[t + 1]) è il valore atteso di xi, ovvero il ritorno atteso di quell’innovazione, nel periodo t + 1; Dxi può essere maggiore o minore (al limite, negativo) nel caso rispettivamente di un’idea relativamente «buona» o relativamente «cattiva» (vedi eq. (3) e (4)); l > 0 consente di variare l’am-piezza del segnale positivo o negativo che le imprese ricevono rispettivamente di fronte ad un’idea progettuale «buona» o «cattiva»; e Frate rappresenta la probabilità di fallimento delle idee innovative, ovvero fornisce una misura del livello di difficoltà che l’impresa deve affrontare. In particolare, se si guarda all’innovazione di prodotto, il valore di questo parametro può essere inter-pretato come una conseguenza del livello d’interdipendenza funzionale tra i componenti del prodotto stesso. Un valore vicino all’unità indica la presenza di un alto livello d’interdipendenza, ovvero una modularizzazione limitata del prodotto, che produce effetti difficilmente prevedibili e controllabili sul pro-cesso innovativo e dunque una maggiore probabilità di fallimento. Viceversa un valore di Frate vicino a zero indica un’elevata modularizzazione, così che l’innovazione del singolo componente può essere realizzata senza temere feed-back negativi imprevisti.

Nel primo stadio la probabilità di adottare un’innovazione è dunque proporzionale alla probabilità che l’idea sia buona, rappresentata dal primo termine della moltiplicazione sulla destra dell’equazione (1), aumentata (di-minuita) dal segnale positivo (negativo) che l’impresa riceve dalla particolare idea che sta esaminando, data dal secondo termine della stessa moltiplica-zione. Per l’impresa intermedia k la probabilità di selezione di un’innova-zione è data da:

221

(2) Pr Prkk ratexi t xi t xiRND F[ [ ] [ ] ] [ {( )*[+ = + = < –1 1D ee x t x E x ti i i[( [ ] ) ( [ ])]] }]+ – +D 1 l

La probabilità di selezionare un progetto è cioè minore per le imprese fi-nali rispetto a quelle intermedie, com’è chiaro confrontando le equazioni (1) e (2), sebbene la funzione di probabilità adottata per le seconde sia, per tutto il resto, identica a quella delle prime. Di conseguenza le imprese finali «ver-ticalizzate» si comportano come gerarchie nel senso di Sah e Stiglitz, mentre le imprese finali «deverticalizzate» si avvantaggiano della dinamica innovativa dei fornitori, che si comportano collettivamente in modo poliarchico.

Nel secondo stadio del processo innovativo, se l’idea è stata selezionata in accordo con le probabilità specificate, essa fornisce all’impresa il pro-prio payoff positivo o negativo, rappresentato da Dxi. Nel nostro modello il payoff dell’idea «di successo» (quindi con Dxi > 0) è rappresentato attraverso un’equazione di tipo logistico:

(3) xi[ t + 1] =

MaxTec

1 + (MaxTec/xi [t] – 1)* e– TecR j

mentre l’adozione di un’idea «fallimentare» (quindi con Dxi < 0) produce un danno temporaneo, che può essere interpretato come un «passo falso» nel ciclo di sviluppo della tecnologia, rappresentato più semplicemente come:

(4) x x ti it[ ] [ ]+ =1 y , con y ≤ 1.

Quale dei due possibili valori di x [t + 1] corrisponda a quello dell’idea innovativa selezionata dipende dalla probabilità rispettiva di successo o falli-mento dell’idea stessa, ovvero da Frate. Si noti che la funzione logistica adot-tata per l’equazione (3) cattura la natura «limitata» del processo di sviluppo tecnologico, identificando tre fasi principali del ciclo di sfruttamento di una tecnologia: sviluppo, con rendimenti limitati e crescita lenta; decollo, con rendimenti crescenti di tipo esponenziale; maturità, con rendimenti progres-sivamente decrescenti.

Come nel modello originale, la diversa probabilità di selezione delle im-prese «verticalizzate» da una parte e delle imprese «deverticalizzate» e dei fornitori dall’altra comporta vantaggi o svantaggi relativi a seconda del valore dei parametri che regolano la selezione stessa. L’intuizione alla base di que-sta differenza è che alla produzione «verticalizzata» (rappresentata nel nostro caso dall’impresa finale che produce internamente i propri componenti) cor-risponda un’architettura decisionale maggiormente integrata, implementata per via gerarchica attraverso il coordinamento interno di unità decisionali di-verse. Un’architettura di questo genere si caratterizza per una strategia inno-vativa di tipo più «conservatore», perché molte connessioni sono considerate contemporaneamente prima di prendere una decisione. In modo speculare i fornitori (e di conseguenza le imprese finali che ne acquistano i prodotti) tendono ad accettare un numero relativamente elevato di idee innovative.

222

La loro strategia può essere spiegata ricorrendo alla nozione d’innovazione modulare: queste imprese innovano i componenti che producono in modo indipendente rispetto sia ai concorrenti che alle imprese che operano negli altri settori intermedi, e quindi esplorano in modo parallelo lo spazio delle possibilità innovative. L’efficacia di questa strategia dipende dalla misura in cui quest’esplorazione parallela è effettivamente possibile. Come vedremo meglio più sotto, se l’interdipendenza funzionale tra componenti aumenta, la probabilità di migliorare in modo isolato un singolo componente diminuisce, e i vantaggi derivanti da una ricerca più estesa delle possibili combinazioni innovative, condotta in parallelo da una pluralità di soggetti in concorrenza, possono essere superati da quelli offerti da una strategia più «conservatrice».

Dinamica del mercato. Le imprese del settore finale si dividono in sotto-popolazioni distinte sulla base della configurazione produttiva adottata. Per ogni componente, l’impresa ha due opzioni: i) produrlo internamente; ii) ac-quistarlo sul mercato intermedio da un fornitore. Nel primo caso la qualità di quel componente è determinata dal processo innovativo interno dell’impresa finale. Nel secondo caso l’impresa finale incorpora nel prodotto finale la qualità del componente comprato sul mercato. La qualità dei componenti ac-quistati è, in ciascun periodo, dipendente da un unico fornitore, perché ogni impresa «deverticalizzata» non può avere più di un fornitore per periodo di produzione, mentre può cambiare fornitore all’inizio del periodo succes-sivo. I prodotti finali sono omogenei dal punto di vista dell’utilizzo finale, ma eterogenei per caratteristiche qualitative a causa della diversa performance dei componenti di cui sono fatti (Lancaster, 1966; 1971; Saviotti - Metcalfe, 1984). La domanda s’indirizza verso i prodotti con una performance comples-siva più elevata, misurata attraverso una funzione che tiene conto anche del prezzo offerto. Una soluzione di questo tipo, basata sul modello di Gallouj e Weinstein (1997), è stata recentemente utilizzata da Ciarli e Valente (2003) in un modello a cui quello qui presentato si è, per molti aspetti, ispirato. Nel nostro caso, per mantenere il più semplice possibile la prima versione del modello, si è adottato uno schema semplificato che tuttavia rimane piena-mente compatibile con quelli richiamati: ad ogni componente ci del prodotto finale P è associato un valore xi ≥ 1, che misura il contributo di quel com-ponente alla performance del prodotto finale in termini di caratteristiche di servizio per l’utente finale (quella che più brevemente si può indicare come la sua qualità). La qualità Y del prodotto finale per ciascuna impresa j attiva nel settore finale è quindi data da:

(5) Yj = xi

ai

i = 1

n∏ ,

dove gli esponenti ai > 0 sono parametri che rappresentano il peso della qua-lità di ciascun componente sulla qualità del prodotto finale, e i valori degli

223

xi sono determinati dalla dinamica dell’innovazione tecnologica18. Per man-tenere relativamente semplice il modello si è deciso di non introdurvi espli-citamente equazioni di comportamento dei consumatori, calcolando invece il valore della domanda finale attraverso un’unica funzione crescente in ragione del miglioramento qualitativo dei prodotti e della diminuzione dei prezzi (Ciarli - Valente, 2003). Più in particolare, la domanda è data da:

(6)

D = H 1 + 1 +1P

⎛⎝⎜

⎞⎠⎟

ap

x1ai

i = 1

n∏

⎣⎢⎢

⎦⎥⎥

⎧⎨⎪

⎩⎪

⎫⎬⎪

⎭⎪* Prd j [ t – 1]

j = 1

m∑ ,

dove H ≥ 1 è una costante; Prdj ≥ 1 rappresenta la capacità produttiva delle m imprese finali, ed è introdotta nella funzione di domanda per garantirne l’equilibrio con l’offerta; ap e ai, positivi, rappresentano rispettivamente le elasticità della domanda rispetto alle variazioni di prezzo e qualità dei com-ponenti; P e xi sono il prezzo medio del prodotto e le qualità medie dei com-ponenti, ponderate sulle quote di mercato delle m imprese attive nel mercato finale. La competizione nel settore finale avviene sulla base della performance del prodotto, misurata dalla qualità relativa dei componenti e dal prezzo rela-tivo del prodotto finale. Per ogni impresa è calcolata la seguente quota «teo-rica» di mercato ricavata sulla base della performance relativa del suo pro-dotto:

(7) MS j

per =I j

I∑,

dove I j = 1 +

1Pj

⎝⎜⎞

⎠⎟

aP

Yj può essere pensato come un indice di competitività

dell’impresa j e I∑ è la somma dei valori di Ij per tutte le m imprese del settore finale.

Data la domanda e la quota teorica di mercato, la quantità prodotta da ogni impresa j del settore finale in ogni periodo t è:

(8) Q MSd

dDj j

per j= – +( ) *1 z zPr

Pr∑⎡

⎣⎢

⎦⎥ ,

Il significato dell’equazione (8) può essere chiarito come segue. La quan-tità prodotta dall’impresa j è una frazione della domanda totale, determinata in base a due fattori, il cui peso relativo è regolato dal parametro 0 ≤ z ≤ 1: i) la performance relativa del prodotto offerto dall’impresa, rappresentata da

18 Si noti che la forma funzionale prescelta è supermodulare (Milgrom - Roberts, 1995), e cattura quindi l’interdipendenza tra la qualità dei diversi componenti. Secondo la definizione di supermodularità l’incremento di qualità di un componente è tanto più efficace sulla qualità del prodotto finale quanto più è elevata anche la qualità degli altri componenti.

224

MS j

per ; ii) la posizione sul mercato dell’impresa, rappresentata dal rapporto Prdj/ Prd∑ 19.

Costi, investimenti e profitti. Abbiamo visto sopra in quale modo il prezzo entri nella dinamica di mercato delle imprese finali. A sua volta, il prezzo dell’impresa finale j è determinato dal costo variabile per unità di prodotto:

(9) Pj = cu j

(1 + mkpj )

dove mkpi > 0 è il margine di profitto o mark-up per l’impresa, e cu j

è il co-sto unitario. Il costo unitario è calcolato in modo diverso a seconda della configurazione produttiva adottata dall’impresa, ovvero

(10) c ptu i c i

i

n

ji

n

j i= + – +

==a a( )1 1

111

∑⎛

⎝⎜⎞

⎠⎟∑ ,

dove ai = 1 se l’i-esimo componente del prodotto è acquistato da un forni-tore, e ai = 0 se il componente è prodotto internamente;

pci

è il prezzo pra-ticato dal fornitore del componente i; tj misura l’efficienza raggiunta dall’im-presa nel processo produttivo del prodotto finale. Per quanto riguarda i costi derivanti dalla fornitura esterna, occorre precisare che il prezzo dei fornitori è calcolato in modo analogo alla eq. (9), ovvero dipende dal costo variabile unitario e dal mark-up dei fornitori stessi.

Il costo variabile unitario entra ovviamente anche nella determinazione dei costi totali dell’impresa, che sono ottenuti come segue:

(11) C j = cu j

Q j + c jfix

con Qj definito dalla (8) e c j

fix che identifica i costi fissi dell’impresa, ipotiz-zati per semplicità uguali in tutte le imprese finali. Una volta determinati i costi totali, il profitto dell’impresa finale j è dato da:

(12) pj = Rj – Invj,

dove Rj = Qj * Pj – Cj. La quota da destinare agli investimenti (Sinvest) varia in re-lazione all’andamento di mercato dell’impresa (Bargigli, 2005). Le risorse de-stinate agli investimenti sono suddivise tra il finanziamento dell’innovazione tecnologica e lo sviluppo della capacità produttiva. Ogni impresa è quindi ca-ratterizzata da una diversa propensione ad investire in innovazione e in capa-

19 La scelta di assegnare un peso competitivo alla posizione di mercato, oltre ad essere coerente con una ragionevole assunzione di concorrenza imperfetta, svolge nel modello la fun-zione di assicurare un ritorno agli investimenti in capacità produttiva delle imprese. Gli effetti delle variazioni del parametro z sono esaminati in un altro lavoro (Bargigli, 2005), e non mu-tano la sostanza dei risultati presentati in questo testo.

225

cità produttiva, e la distribuzione delle risorse per gli investimenti determina il tasso di crescita di entrambi. Per quanto riguarda l’innovazione, date due imprese i e j, TecRi > TecRj se e solo se

Invinni

> Inv inn e Invinn j

< Inv inn , dove Invinn è l’investimento medio in innovazione.

6. Risultati delle simulazioni

Prima di presentare i risultati delle simulazioni realizzate occorre illu-strare i meccanismi competitivi fondamentali del modello. Nella figura 1 è riportato un esempio degli incrementi di performance generati dalla dinamica innovativa in una simulazione condotta su un campione di 10 imprese «ver-ticalizzate», con uguali valori di partenza per tutte le variabili e i parametri20, che producono un prodotto formato da tre componenti. La forma logistica della curva è quella attesa sulla base dell’equazione (3), con il valore della performance del componente c1 che si approssima al massimo predefinito (MaxTec = 10) al termine dei periodi simulati. Le differenze di valore presenti tra le singole imprese dipendono sia dalla natura stocastica del processo in-novativo che dall’influenza degli investimenti (che sono diversi a causa del di-verso valore dei profitti in dipendenza delle quote di mercato) sulla velocità

20 I valori iniziali delle simulazioni, salvo dove diversamente indicato, sono i seguenti: tj = 1, xi = 1, mkpj = 0,3, Frate = 0,3, MaxTec = 10. Per quanto riguarda la domanda, si sono as-sunte elasticità identiche ed uguali ad 1. Inoltre, per semplificare ulteriormente, la possibilità di incrementare la performance dei componenti (xi) è introdotta solo per c1, mentre le perfor-mance di c2 e c3 saranno sempre considerate come parametri con valore 1.

FIG. 1. Evoluzione della qualità del componente c1 in un campione di 10 imprese «verticalizzate».

9

8

7

6

5

4

3

2

11 501 1.001

Impresa n° 1

Impresa n° 2

1.501 2.001 2.501

226

del processo innovativo. L’incremento della qualità del componente c1 e la progressiva riduzione di prezzo consentita dal miglioramento delle tecniche produttive producono un incremento corrispondente della domanda finale e delle quantità prodotte, che coincidono per costruzione.

La dinamica dell’innovazione tecnologica si riflette su quella delle quote di mercato, riportata nella figura 2. Per illustrare la stretta corrispondenza tra qualità dei componenti e performance competitiva abbiamo evidenziato nelle due figure l’andamento speculare di due imprese. Quella indicata come im-presa nº 1 diventa leader di mercato negli ultimi periodi della simulazione, quando presenta la performance più elevata per il componente c1. Quella in-dicata come impresa nº 2, oltre ad accusare il significativo ritardo in termini qualitativi, è anche tra le più penalizzate in termini di quote di mercato. Nel complesso la distribuzione delle quote tende a diventare più diseguale in cor-rispondenza di una divaricazione delle performance qualitative (come accade fino al periodo 1.000), mentre tende ad equilibrarsi quando le differenze qualitative diminuiscono (come nei periodi compresi tra 1.000 e 2.500).

A questo punto possiamo analizzare la performance competitiva delle im-prese «verticalizzate» e «deverticalizzate» in corrispondenza di diversi livelli di complessità del processo innovativo. La nostra prima ipotesi era che sus-sistesse una relazione inversa tra livello di complessità e performance innova-tiva delle imprese «deverticalizzate» e dei loro fornitori, intesi come un’unica architettura di ricerca. Poiché il parametro che regola la complessità è Frate, il nostro obiettivo diviene verificare la distribuzione delle quote di mercato tra le due tipologie d’impresa in corrispondenza di diversi valori di Frate. Come evidenziato dalla figura 3, in corrispondenza di livelli relativamente contenuti di complessità (0,3 ≤ Frate ≤ 0,5) le imprese «deverticalizzate» hanno un vantag-

FIG. 2. Andamento delle quote di mercato in presenza di innovazione tecnologica.

0,110

0,108

0,106

0,104

0,102

0,100

0,098

0,096

0,094

0,0921 501 1.001

Impresa n° 2

Impresa n° 1

1.501 2.001 2.501

227

gio competitivo sulle imprese «verticalizzate», che tuttavia presenta un anda-mento non lineare. Nei primi periodi delle simulazioni la quota di mercato delle imprese «deverticalizzate» presenta un andamento stazionario o nega-tivo, e il vantaggio acquisito nei periodi intermedi tende a diminuire in quelli finali. Anche in condizioni di limitata complessità le imprese «verticalizzate» godono dunque di un vantaggio relativo nelle fasi iniziali e finali del ciclo di sviluppo di un prodotto, che dipende dalla forma logistica dei payoff positivi derivanti dal processo innovativo. Nelle prime fasi i payoff positivi crescono lentamente e quindi la differenza rispetto ai payoff negativi rimane contenuta, favorendo la strategia delle imprese «verticalizzate» che ottengono media-mente un numero inferiore di payoff negativi. Il vantaggio delle imprese «de-verticalizzate» si accresce quando il payoff positivo aumenta in modo espo-nenziale, perché al contempo quello negativo aumenta in misura lineare (vedi eq. (3) e (4)), e conseguentemente aumenta la differenza tra i due. Si deter-mina così un vantaggio relativo per le imprese «deverticalizzate», che accet-tano una quota maggiore di innovazioni, perché i benefici dei payoff positivi eccedono di gran lunga i danni dei payoff negativi.

Nei periodi finali il vantaggio delle imprese «deverticalizzate» tende a di-minuire perché queste, aumentando più velocemente la propria performance innovativa, si approssimano al limite superiore della curva logistica prima delle imprese «verticalizzate», consentendo a queste ultime di recuperare.

FIG. 3. Quota di mercato totale delle imprese «deverticalizzate» per livelli contenuti di complessità del processo innovativo*.

* Valori medi calcolati per 10 simulazioni ripetute per ciascun valore di Frate su un campione di 10 imprese verticalizzate, 10 imprese deverticalizzate e 10 fornitori del componente c1 attivi nel settore corri-spondente. Si ricordi che ogni impresa deverticalizzata non può avere più di un fornitore per periodo.

0,70

0,65

0,60

0,55

0,50

0,451 501 1.001 1.501 2.001 2.501

MS devert F rate 0,3 MS devert F rate 0,4 MS devert F rate 0,5

228

Questa spiegazione è confermata anche dal fatto che il vantaggio delle im-prese «deverticalizzate» aumenta per Frate = 0,5. Al crescere di Frate aumenta la proporzione d’innovazioni con payoff negativi, e cresce quindi il numero di periodi necessario ad entrambe le tipologie per raggiungere il massimo della curva logistica. Questo consente alle imprese Devert di sfruttare il pro-prio vantaggio nelle fasi intermedie per un numero maggiore di periodi, rag-giungendo una quota massima di mercato superiore a quella raggiunta per Frate = 0,3 e lasciando minori opportunità di recupero alle imprese «verticaliz-zate» a parità di periodi. Si dimostra così la seconda delle nostre ipotesi, ov-vero che, dato un andamento non lineare del progresso nello sviluppo di un prodotto o tecnologia, le architetture organizzative centralizzate (decentraliz-zate) tendono a prevalere nelle fasi in cui i payoff positivi delle innovazioni «di successo» sono prossimi (sensibilmente superiori) ai payoff negativi delle innovazioni «fallite», corrispondenti alle fasi iniziali e finali (intermedie) del ciclo di sviluppo se si adotta come modello una curva logistica.

In corrispondenza di complessità relativamente elevate (0,6 ≤ Frate ≤ 0,9) si manifesta una progressiva perdita di performance per le imprese «deverticaliz-zate». Questa dinamica è raffigurata indirettamente nella figura 4, che riporta la quota di mercato delle imprese «verticalizzate» in corrispondenza di di-versi livelli di Frate. In particolare, lo svantaggio delle imprese «verticalizzate»

FIG. 4. Quota di mercato totale delle imprese «verticalizzate» per livelli elevati di complessità del pro-cesso innovativo*.

* Valori medi calcolati per 10 simulazioni ripetute per ciascun valore di Frate su un campione di 10 imprese verticalizzate, 10 imprese deverticalizzate e 10 fornitori del componente c1. Si ricordi che ogni impresa deverticalizzata non può avere più di un fornitore per periodo.

MS vert 0,6 MS vert 0,7 MS vert 0,8 MS vert 0,9

0,60

0,55

0,50

0,45

0,40

0,35

1

501

1.00

1

1.50

1

2.00

1

2.50

1

3.00

1

3.50

1

4.00

1

4.50

1

5.00

1

5.50

1

6.00

1

6.50

1

7.00

1

7.50

1

8.00

1

8.50

1

9.00

1

9.50

1

229

si riduce progressivamente quando Frate passa da un valore di 0,6 ad uno di 0,7, e poi in modo ancora più deciso per Frate = 0,8. Infine, per Frate = 0,9 si riscontra un vantaggio delle imprese «verticalizzate» sull’intero periodo si-mulato21, dimostrando che per questo valore di Frate si manifestano in modo evidente gli svantaggi della decentralizzazione da noi ipotizzati22, verificando definitivamente la prima delle nostre ipotesi.

Anche se non è possibile presentarle qui in dettaglio, nel modello sono incluse molte altre variabili che, a parità di complessità, possono modificare la capacità competitiva di una tipologia d’imprese rispetto all’altra, influen-zando i risultati appena descritti, sebbene non ne modifichino la sostanza (Bargigli, 2005). In primo luogo, se la determinazione della qualità dei com-ponenti avviene per le imprese «deverticalizzate» attraverso la dinamica dei rapporti con i fornitori, nel modello la possibilità per un’impresa «deverti-calizzata» di cambiare fornitore, ricercando una qualità più elevata, è vinco-lata dalla presenza di imprese intermedie che possiedano capacità produttiva inutilizzata nella misura richiesta. Di conseguenza, quanto più elevata è la ca-pacità produttiva disponibile, tanto più elevata è la performance media dei componenti acquisiti dalle imprese «deverticalizzate». Un analogo beneficio è offerto dall’ingresso sul mercato di nuovi fornitori: al crescere del numero medio di nuovi fornitori entranti per periodo, aumenta la performance me-dia dei componenti, in conseguenza del maggior numero possibile di cam-biamenti di fornitore. L’efficacia del processo selettivo non è quindi legata alla capacità produttiva dei singoli fornitori, ma piuttosto alla capacità com-plessiva del mercato. Ne consegue che la capacità competitiva delle imprese «deverticalizzate» è strettamente dipendente dal maggiore o minore livello di sviluppo dei settori intermedi. La competitività delle imprese «deverticaliz-zate» dipende infine dalla maggiore o minore difficoltà ad acquisire informa-zioni corrette sulla performance dei fornitori. In sintesi, la capacità compe-titiva delle imprese «deverticalizzate» aumenta con la disponibilità di capa-cità produttiva, sia essa ottenuta attraverso una maggiore capacità dei singoli fornitori o attraverso la presenza di un maggior numero di fornitori, che si può ottenere grazie all’ingresso continuo di nuove imprese sul mercato. D’al-tro canto la capacità competitiva peggiora, anche se in modo non lineare, quando diminuisce la capacità di acquisire informazioni corrette sulla qualità

21 Si noti che le simulazioni riportate nella figura 4 sono calcolate su di un numero mag-giore di periodi rispetto alle precedenti (10.000 contro 2.500), in quanto il tempo richiesto alle imprese per percorrere la curva logistica del processo innovativo è maggiore per livelli di complessità più elevati.

22 Si noti che i valori critici di Frate individuati dalle simulazioni sono arbitrari, poiché dipendono dai valori discrezionalmente assegnati ai payoff positivi e negativi. La formulazione d’ipotesi sulla plausibilità dei diversi valori parametrici considerati, e sulla loro frequenza re-lativa nel mondo reale, va oltre gli scopi di quest’analisi. In ogni caso questo problema non tocca l’essenza dei risultati presentati, che riguarda l’esistenza di una soglia critica in grado di generare la prevalenza di una tipologia d’impresa sull’altra, e non la sua collocazione nel range dei valori di Frate.

230

dei fornitori. La diminuzione delle distorsioni informative può essere messa in relazione con la maggiore disponibilità d’infrastrutture di comunicazione e d’elaborazione delle informazioni, e cattura quindi, per quanto in modo ge-nerico, gli effetti dello sviluppo delle reti infrastrutturali e tecnologiche.

7. Conclusioni

L’idea fondamentale alla base di quest’articolo è che la dinamica dei si-stemi produttivi sia un processo evolutivo complesso, in cui configurazioni modulari diverse si trasformano, contaminandosi e generando traiettorie dif-ficilmente prevedibili. Da quest’assunto consegue l’esistenza di molteplici equilibri parziali, organizzativi e tecnologici, che si scompongono e ricom-pongono continuamente sulla base di input endogeni ed esogeni. Per stu-diare analiticamente questi equilibri occorre esplorare lo «spazio delle con-figurazioni modulari», da noi definito (par. 4), individuando le variabili che influiscono sulle loro trasformazioni e identificando le «regioni critiche» in cui si evidenziano le possibilità di transizione tra differenti topologie rela-zionali nello sviluppo delle interazioni tra unità economico-produttive. Se-guendo quest’idea generale, l’esplorazione da noi proposta si è incentrata sulla verifica di due ipotesi (par. 5) mediante la costruzione di un modello in grado di rappresentare lo sviluppo di un’industria. Le simulazioni effettuate hanno evidenziato l’imporsi di «panorami organizzativi» qualitativamente di-versi in corrispondenza di differenti valori di complessità nei processi inno-vativi, confermando che è possibile con modelli di questo tipo rappresentare transizioni tra macro-pattern organizzativi a partire da processi selettivi sui micro-comportamenti delle unità economiche. Si è potuto così vedere con-fermata la nostra prima ipotesi, ovvero che una struttura produttiva centra-lizzata tende a prevalere in condizioni di elevata complessità nello sviluppo di un prodotto, quelle in cui sussistono molte interdipendenze difficilmente controllabili tra le sue diverse parti. Inoltre nelle simulazioni si è manifestato un vantaggio relativo della «centralizzazione» nelle fasi iniziali e finali del ci-clo di sviluppo, che si esplica per tutti i livelli di complessità, confermando la nostra seconda ipotesi. Quest’ultimo effetto è legato alla presenza di diffe-renti rendimenti dell’innovazione in diverse fasi del ciclo di sviluppo di una tecnologia o prodotto. Quando il rendimento di un’innovazione portata a termine con successo è molto superiore al danno prodotto da un fallimento (ovvero nelle fasi di «accelerazione» del progresso tecnologico, in cui preval-gono rendimenti crescenti), una strategia di ricerca «decentralizzata» offre ri-sultati migliori anche se comporta un numero maggiore di fallimenti, perché garantisce al tempo stesso un numero più alto di successi. Al contrario, una strategia centralizzata si comporta in modo relativamente migliore nelle fasi di «rallentamento» del progresso tecnologico, in cui le opportunità di pro-gresso sono minori. Il vantaggio delle architetture decentralizzate si annulla

231

comunque quando le probabilità di fallimento sono decisamente più alte delle probabilità di successo, mostrando che la presenza di un livello molto elevato di complessità può impedire lo sfruttamento anche delle opportunità più favorevoli.

Riferimenti bibliografici

Albert R. - Barabasi A.L. (1999), Emergence of Scaling in Random Networks, Sci-ence, vol. 286, ottobre, pp. 509-512.

— (2002), Statistical Mechanics of Complex Networks, Reviews of Modern Physics, vol. 74, n. 47, pp. 48-97.

Aoki M. (2003), Institutional Complementarities between Organizational Architec-tures and Corporate Governance, RIETI Working Paper n. 005, mimeo.

— (2004), An Organizational Architecture of T-form: Silicon Valley Clustering and its Institutional Coherence, Industrial and Corporate Change, vol. 13, n. 6, pp. 967-981.

Aoki M. - Takizawa H. (2002), Information, Incentives and Option Value: The Sili-con Valley Model, Journal of Comparative Economics, vol. 30, n. 4, pp. 759-786.

Arthur B.A. (1994), Increasing Returns and Path-Dependence in the Economy, Ann Arbor, University of Michigan Press.

Atay F.M. - Jost J. (2004), On the Emergence of Complex Systems on the Basis of the Coordination of Complex Behaviours of their Elements, Santa Fe Institute-WP, mimeo.

Axtell R. (2000), Why Agents? On the Varied Motivations for Agent Computing, The Social Sciences Center on Social and Economic Dynamics Working Paper n. 17, Washington D.C., The Brookings Institution, mimeo.

Baldwin C.Y. - Clark K.B. (1997), Managing in an Age of Modularity, Harvard Busi-ness Review, settembre-ottobre, pp. 84-93.

— (2000), Design Rules. The Power of Modularity, Cambridge (MA), MIT Press.Bargigli L. (2005), An Evolutionary Model for the Dynamics of Vertical Integration

and Network-based Production, http://www.dse.unibo.it/prin/prin2003/wpaper/, mimeo.

Baum J.A.C. - Singh J. (1994), Organizational Hierarchies and Evolutionary Process-es: Some Reflections on a Theory of Organizational Evolution, in Baum J.A.C. - Singh J. (a cura di) (1994), Evolutionary Dynamics of Organizations, Oxford, Oxford University Press.

Baum J.A.C. - Shipilov A.V. - Rowley T.J. (2003), Where do Small Worlds Come From?, Industrial Corporate and Change, vol. 12, n. 4, pp. 697-725.

Borghini S. (2000), Competere con il tempo, Milano, Egea.Brown J.H. (1994), Complex Ecological Systems, in Cowan G.A.- Pines D. - Meltzer

D. (a cura di) (1994).Brusoni S. - Prencipe A. - Pavitt K. (2001), Knowledge Specialization, Organization-

al Coupling, and the Boundaries of the Firm: Why Do Firms Know More Than They Make?, Administrative Science Quarterly, vol. 46, n. 4, pp. 597-621.

Chandler A.J. (2002), Organization Capabilities and the History of the Industrial En-terprise, Journal of Economic Perspectives, vol. 6, n. 3, pp. 79-100.

232

Ciarli T. - Valente M. (2003), A Generalised Computational Model of Firms Produc-tion and Interactions: Emergent Network Structure and Industrial Development, paper presentato al primo Wild@ce Workhop on Industry and Labour Dynami-cs, Torino, 3-4 ottobre, mimeo.

Cohen M.D. - Burkhart R. - Dosi G. - Egidi M. - Marengo L. - Warglien M. - Win-ter S. (1996), Routines and Other Recurring Action Patterns of Organizations: Contemporary Research Issues, Industrial and Corporate Change, vol. 5, n. 3, pp. 653-698.

Cowan G.A. - Pines D. - Meltzer D. (a cura di) (1994), Complexity. Metaphors, Mod-els, and Reality, Reading, Addison-Wesley.

Day R. (2001), Adapting, Learning and Economizing, in Dopfer K. (a cura di), Evo-lutionary Economics: Program and Scope, Dordrecht, Kluwer, pp. 277-297.

Dosi G. - Nelson R. - Winter S.G. (a cura di) (2000), The Nature and Dynamic of Organizational Capabilities, Oxford-New York, Oxford University Press.

Dosi G. - Levinthal D. - Marengo L. (2002), The Uneasy Organizational Matching Between Distribution of Knowledge, Division of Labor and Incentive Governan-ce, LEM Working Paper n. 26, Pisa, LEM, mimeo.

Eble G.J. (2003), Morphological Modularity and Macroevolution: Conceptual and Empirical Aspects, in Callebaut W. - Rasskin-Gutman D. (a cura di), Modularity: Understanding the Development and Evolution of Complex Natural Systems, Cam-bridge (MA), MIT Press.

Edelman G.M. - Tononi G. (2000), Un universo di coscienza, Torino, Einaudi.Egidi M. (1996), Appendix. Accountants and Termites – A longer Comment, in Co-

hen et al. (1996).Ethiraj S.K. - Levinthal D. (2003), Modularity and Innovation in Complex Systems,

LEM Working Paper n. 15, Pisa, LEM, mimeo.Fleming L. - Sorenson O. (2001a), Technology as A Complex Adaptive System: Evi-

dence From Patent Data, Research Policy, vol. 30, n. 7, pp. 1019-1039.— (2001b), The Dangers of Modularity, Harvard Business Review, vol. 79, n. 8, pp.

20-21.Fleming L. - Sorenson O. (2003), Navigating The Technology Landscape of Innova-

tion, MIT Sloan Management Review, vol. 44, n. 2, pp. 15-23.Frenken K. (2001a), Understanding Product Innovation Using Complex Systems

Theory, Academic Thesis, University of Amsterdam, mimeo.— (2001b), Fitness Landscape, Heuristics and Technological Paradigms: A Critique

on Random Search Model in Evolutionary Economics, AIP Conference Procee-dings, vol. 573, n. 1, pp. 558-565.

Frenken K. - Marengo L. - Valente M. (1999), Interdependencies, near-decomposabi-lity and adaptation, in Brenner T. (a cura di), Computational Techniques for Mo-delling Learning in Economics, Dordrecht, Kluwer, pp. 145-165.

Gallouj F. - Weinstein O. (1997), Innovation in Services, Research Policy, vol. 26, n. 4-5, pp. 537-556.

Galunic D.C. - Eisenhardt K.M. (2001), Architectural Innovation and Modular Cor-porate Forms, Academy of Management Journal, vol. 44, n. 6, pp. 1229-1249.

Gell-Mann M. (1994), Complex Adaptive Systems, in Cowan G.A. - Pines D. - Melt-zer D. (a cura di) (1994).

Girvan M. - Newman E.J. (2002), Community structure in social and biological networks, in PNAS, vol. 12, n. 12, pp. 7821-7826.

233

Granovetter M.S. (1973), The Strength of Weak Ties, The American Journal of Soci-ology, vol. 78, n. 6, pp. 1360-1380.

— (1983), The Strength of Weak Ties: A Network Theory Revisited, Sociological Theory, vol. 1, n. 1, pp. 201-233.

— (1985), Economic Action and Social Structure: The Problem of Embeddedness, The American Journal of Sociology, vol. 91, n. 3, pp. 481-510.

Guimerà R. - Amaral L.A.N. (2005), Cartography of Complex Networks: Modules and Universal Roles, Journal of Satistical Mechanics: Theory and Experiment, n. 2, pp. 1-14.

Henderson R.M. - Clark K.B. (1990), Architectural Innovation: The Reconfiguration of Existing Product Technologies and The Failure of Established Firms, Admini-strative Science Quarterly, n. 35, pp. 9-30.

Holland J.H. (1975), Adaptation in Natural and Artificial Systems, Ann Arbor, Uni-versity of Michigan Press.

Jeong H. - Tombor B. - Albert R. - Oltvai Z.N. - Barabasi A.L. (2000), The Large-scale Organization of Metabolic Networks, Nature, vol. 407, n. 6804, pp. 651-653.

Jost J. (2003), External and internal complexity of complex adaptive systems, Santa Fe Institute-WP, mimeo.

Lancaster K.J. (1966), A New Approach to Consumer Theory, Journal of Political Economy, vol. 74, aprile, pp. 132-157.

— (1971), Consumer Demand: A New Approach, New York, Columbia University Press.

Langlois R.N. (1983), Systems Theory, Knowledge and the Social Sciences, in Ma-chlup F. - Mansfield U. (a cura di), The Study of Information, New York, John Wiley & Sons, pp. 581-601.

— (2002), Modularity in Technology and Organization, Journal of Economic Beha-vior & Organization, vol. 49, n. 1, pp. 19-37.

Langlois R.N. - Robertson P.L. (1995), Innovation, Networks, and Vertical Integra-tion, Research Policy, vol. 24, n. 4, pp. 543-562.

Lansing J.S. (2003), Complex Adaptive Systems, Annu. Rev. Anthropol., 32, pp. 183-204.

Levin S.A. (2002), Complex Adaptive Systems, Exploring the Known, the Unknown and the Unknowable, Bullettin (New Series) of the American Mathematical Soci-ety, vol. 40, n. 1, pp. 3-19.

Loasby B.J. (1991), Equilibrium and Evolution, Manchester, Manchester University Press.

Lombardi M. (1997), Meccanismi evolutivi nella dinamica dei sistemi di imprese, Economia Politica, 2, pp. 149-184.

— (2003), The Evolution of Local Production Systems: the emergence of the «in-visible mind» and the evolutionary pressures towards more visible «minds», Re-search Policy, vol. 32, n. 8, pp. 1443-1462.

March J.G. (1994), A Primer on Decision Making, New York, The Free Press.— (1997), Understanding how decisions happen in organizations, in Zur Shapira

(a cura di), Organizational Decision Making, Cambridge, Cambridge University Press.

Marengo L. - Dosi G. (2003), Division of Labor, Organizational Coordination and Market Mechanism in Collective Problem Solving, LEM Working Paper Series n. 4, Pisa, LEM, mimeo.

234

Marengo L. - Dosi G. - Legrenzi P. - Pasquali C. (1999), The Structure of Problem-Solving Knowledge and The Structure of Organisations, LEM Working Paper n. 9, Pisa, LEM, mimeo.

Martin B. (1994), The Schema, in Cowan G.A. - Pines D. - Meltzer D. (a cura di), cit.Milgrom P.R. - Roberts J. (1995), Complementarities and Fit: Strategy, Structure and

Organizational Change in Manifacturing, Journal of Accounting and Economics, vol. 19, nn. 2-3, pp. 179-208.

Nelson R. - Winter S.W. (1982), An Evolutionary Theory of Economic Change, Cam-bridge (MA), The Belknap Press of Harvard University Press.

Orsenigo L. - Pammolli F. - Riccaboni P. (2002), Technological change and network dynamics lessons from the pharmaceutical industry, Research Policy, vol. 30, n. 3, pp. 485-508.

Page S.E. (1996), Two Measures of Difficulty, Economic Theory, vol. 8, n. 2, pp. 321-346.

Potts J. (2000), The New Evolutionary Microeconomics, Cheltenham, Edward Elgar.— (2001), Knowledge and Markets, Journal of Evolutionary Economics, vol. 11, n.

4, pp. 413-431.Sah R.K. - Stiglitz J.E. (1986), The Architecture of Economic Systems: Hierarchies

and Polyarchies, American Economic Review, vol. 76, n. 4, pp. 716-727.Sanchez R. (1995), Strategic Flexibility in Product Competition, Strategic Manage-

ment Journal, vol. 16, pp. 135-159.Sanchez R. - Mahoney J.T. (1996), Modularity, Flexibility, and Knowledge Manage-

ment in Product and Organization Design, Strategic Management Journal, vol. 17, pp. 63-76.

Saviotti P.P. - Metcalfe J.S. (1984), A Theoretical Approach to The Construction of Technological Output Indicators, Research Policy, vol. 13, n. 3, pp. 141-151.

Schilling M.A. (2000), Toward a General Modular Systems Theory and Its Applica-tion to Interfirm Product Modularity, Academy of Management Review, vol. 25, n. 2, pp. 312-334.

Schilling M.A. - Steensma H.K. (2001), The Use of Modular Organizational Forms: An Industry-Level Analysis, Academy of Management Journal, vol. 44, n. 6, pp. 1149-1166.

Schrödinger E. (1995), Che cos’è la vita, Torino, Adelphi.Schuster P. (1994), How do RNA Molecules and Viruses Explore Their Worlds, in

Cowan G.A. - Pines D. - Meltzer D. (a cura di), cit.Schwartz N. - Cohen R. - ben-Avraham R. - Barabasi A.-L. - Havlin S. (2002), Per-

colation in Directed Scale-free Networks, Physical Review, E 66, 015104(R).Shin C.W. - Kim S. (2004), Self-organised Criticality and Scale-free Properties in

Emergent Functional Neural Networks, arXIV:cond-mat/0408700, mimeo.Simon H.A. (1962), The Architecture of Complexity, Proceedings of the American

Philosophical Society, vol. 196, n. 6, pp. 467-482.— (1991), Organizations and Markets, Journal of Economic Perspectives, vol. 5, n. 2,

pp. 25-44.— (2002), Near Decomposability and The Speed of Evolution, Industrial and Cor-

porate Change, vol. 11, n. 3, pp. 587-599.Sole R.V. - Cancho R.F. - Montoya J.M. - Valverde S. (2003), Selection, Tinkering and

Emergence in Complex Networks, Complexity, vol. 8, n. 1, pp. 20-33.Sturgeon T.J. (2002), Modular Production Networks: A New American Model of In-

dustrial Organization, Industrial and Corporate Change, vol. 11, n. 3, pp. 451-496.

235

Teece D.J. - Pisano G. - Shuen A. (2000), Dynamic Capabilities and Strategic Man-agement, in Dosi G. - Nelson R. - Winter S.G. (a cura di), The Nature and Dy-namic of Organizational Capabilities, Oxford-New York, Oxford University Press, pp. 334-361.

Tesfatsion L. (2003), Agent-Based Computational Economics, Iowa State University Economics Working Paper n. 1, Ames, mimeo.

Ulrich K. (1995), The Role of Product Architecture in The Manufacturing Firm, Re-search Policy, vol. 24, n. 3, pp. 419-440.

Valente M. (2002), Simulation Methodology: an Example in Modelling Demand, Università dell’Aquila, mimeo.

Watts D. (1999), Small Worlds. The Dynamics of Networks between Order and Ran-domness, Princeton, Princeton University Press.

Watts D. - Strogatz S.H. (1998), Collective Dynamics of «Small World» Networks, Nature, vol. 393, n. 6684, pp. 440-442.

White D.R. - Owen-Smith J. - Moody J. - Powell W.W. (2004), Special Issue on Mathematical representations for the analysis of social networks within and be-tween organizations, guest editors: Alessandro Lomi and Phillipa Pattison, Com-putational and Mathematical Organization Theory, vol. 10, n. 1.

Yook S.H. - Jeong H. - Barabasi A.-L. (2001), Weighted Evolving Networks, Physical Reviews Letters, vol. 86, n. 25, pp. 5835-5838.

Summary: Modular Interaction-Based Evolutionary Forms of Production Systems. A Tentative Explo-ration of the Modular Configuration Space (J.E.L. L220, L150, C630)

Modularity has gained recently a great attention as an explanation of the contemporary trends of in-dustrial dynamics, according to which production processes relying on external market-based interactions have become predominant over those relying on internal bureaucracy-based interactions. Starting from these general considerations in this paper we try to provide an answer to the following two questions: is there any relationship between the variations of the competitive environment and the predominance of certain types of configurations? In the affirmative case, is it possible to predict which configurations shall prevail in given competitive conditions? In order to answer to these questions, in this paper we present a model which tries to explain the competitive predominance of different modular configurations, when these are subject to a trade-off with respect to the kind of innovation strategies they can put into prac-tice. In particular through a set of agent-based simulations we verify two hypotheses. The first one is the lower efficacy of decentralized configurations in developing complex innovations, as suggested by a recent strand of literature which has modelled innovation as a discovery process on fitness landscapes. The second one is the comparative advantage of centralized configurations, which occurs, for all levels of complexity, when the returns of innovation are lower. According to our model, when these conditions oc-cur in a competitive context, the limits of markets are likely to become apparent.