RIASSUNTI ECO DELL'INNOVAZIONE PDF
Document Details

Uploaded by SnappyMoose
Università degli Studi 'G. d'Annunzio' Chieti-Pescara
Tags
Related
- Economia dell'Innovazione, dell'Ambiente e della Società - Settimana 3 PDF
- Regolamento (UE) 2021/1058 - Fondo europeo di sviluppo regionale - PDF
- Cap. 1 - Innovazione, Società e Sviluppo Economico (PDF)
- Schemi PEI 2024-2025 - Politiche Economiche per l'Innovazione e Regolazione - PDF
- Rivoluzione Industriale in Inghilterra PDF
- PDF La Seconda rivoluzione industriale
Summary
Questo documento contiene riassunti del libro di Malerba 'Economia dell'innovazione' del 2015, focalizzandosi sull'analisi dei settori produttivi. Vengono discussi i concetti chiave dell'economia dell'innovazione, il ruolo delle innovazioni nel contesto economico e il dibattito sull'impatto sul PIL. Il riassunto copre anche teorie economiche relative all'innovazione, come quelle di Solow e Schumpeter.
Full Transcript
ANALISI DEI SETTORI PRODUTTIVI Riassunti libro Malerba: Economia dell'innovazione, 2015 Lezione 15/10 Economia dell’innovazione L’innovazione ha un ruolo rilevante per: le imprese che devono innovare, la nascita ed il declino delle tecnologie e dei settori, l...
ANALISI DEI SETTORI PRODUTTIVI Riassunti libro Malerba: Economia dell'innovazione, 2015 Lezione 15/10 Economia dell’innovazione L’innovazione ha un ruolo rilevante per: le imprese che devono innovare, la nascita ed il declino delle tecnologie e dei settori, le economie moderne e i paesi in via di sviluppo sebbene l’impatto che l’innovazione ha sui tassi di crescita economica misurata attraverso il pil (specialmente a livello settoriale) rimanga un argomento di dibattito è innegabile che alla base del continuo aumento degli standard di vita ci siano i cambiamenti tecnologici. Secondo Maddison (2001) l’economia mondiale è iniziata a crescere più o meno intorno all’anno 1000 d.C. dopo un lungo periodo di stagnazione. Tra il 1700 e il 1800 si è assistito a un significativo aumento dei tassi di sviluppo e da allora la crescita ha continuato ad aumentare. Maddison si chiede cosa ha provocato da un certo punto in poi questa crescita. Figura 1.4 libro. 1785: primo ciclo tecnologico: meccanizzazione industriale 1845: secondo ciclo tecnologico 1990: terzo ciclo tecnologico … Innovazioni radicali: le vere scoperte tecnologiche Innovazioni incrementali: sono le innovazioni che vanno a migliorare le scoperte Un aspetto che emerge dalle statistiche è l’evoluzione della composizione settoriale dell’economia. Chenery et al (1986) hanno analizzato la regolarità tra cambiamenti nella composizione settoriale dell’economia e crescita economica. Le teorie economiche Sebbene sia affascinante l’idea che le innovazioni tecnologiche siano state responsabili di questo lungo periodo di progressiva crescita, le teorie economiche su queste relazioni sono tutt’altro che ovvie. Solow (1956) si accorge che il tasso storico di crescita del pil non poteva essere esclusivamente con la crescita dell’impiego di fattori ma anche con il progresso tecnico. In una ricerca (1957) condotta sul pil pc USA 1909-49 ha ipotizzato che il residuo statistico (ovvero componente della crescita non spiegata) era da imputare al progresso tecnico. È l’innovazione tecnologica ad aumentare la produzione ottenibile da una determinata q.tà di L e K. Il residuo viene definito crescita della produttività totale di fattori produttivi. Approccio evolutivo dell’economia dell’innovazione si basa su tre pilastri: 1. innovazione vista come sistema e la rilevanza delle interazioni tra gli attori attraverso i feedback. Rappresentato da un diagramma Impresa ha un ruolo centrale che con l’attività di RS poi cerca di vendere l’output. Scambiano conoscenze con l’università, acquisiscono competenze specifiche dalle università. Enti pubblici di ricerca che possono supportare le imprese. Organizzazioni no profit delle istituzioni private che incentivano spesso l’attività innovativa, operano per lo più quando la ricerca non è finalizzata all’inizio con ricadute commerciali, sarebbe un controsenso. Cioè fondi della comunità che vanno a benefici di imprese. Anche poi gli individui, rappresenta la domanda, cioè chi acquista i beni/servizio per utilizzarlo. La domanda è il primo attore rilevante per i riscontri che possono fornire alle imprese. È la categoria di soggetti più rilevante per l’impresa, questo vale soprattutto quando si lancia un prodotto innovativo. I test sono un modo in cui vengono introdotta la domanda all’interno del processo innovativo. All’interno degli individui possono anche esserci gli inventori che non rientrano nelle altre categorie. Altre due categorie importanti sono le società di consulenze, svolgono l’attività di scouting cioè monitorano l’attività tecnologiche all’interno di un mercato e in qualche modo vengono coinvolte dall’impresa all’interno di questo lavoro (recombinant innovation, concetto che richiama il fatto che le innovazioni sono tali anche quando si basa su pezzi di conoscenza già esistenti) e i fornitori, perché sono loro a fornire un determinato input, studiano un materiale diverso che si presta meglio o anche di impianti di processo. 2. innovazione come dinamica e la diffusione di tecnologie a livello di impresa, settore e sistema economico, es. first mover advantage. Dinamica intesa come si produce e come si diffonde. Rogers 1995: diffusione e categorie adottanti, era un sociologo, individuava 5 categorie di adottatori B2C, innovatori o pionieri, poi primi adottatori, poi due grandi masse di utilizzatori la maggioranza anticipataria e maggioranza ritardataria, qui i tempi di adozione sono un po’ più lunghi, in ultimo ritardatari. 3. innovazione come apprendimento e conoscenza alla base del processo innovativo, non fattore esogeno… es. capacità di assorbimento: concetto introdotto da Cohen e Levinthal, 1990, imprese investono spesso per crearsi questa capacità di assorbimento di risposta alle innovazioni tecnologiche, di saper spuntare a fini commerciali un’opportunità tecnologica esogena. Imprese così accumulano conoscenza. Schumpeter (1883-1950): definizione che dà di innovazione Invenzione: qualcosa di puramente (non interessa l’applicazione industriale o commerciale) scientifico o tecnologico vs innovazione: far qualcosa di nuovo (qualcosa di concreto): l’innovazione è possibile senza un’invenzione corrispondente. L’innovazione consiste nell’introduzione di nuovi beni/metodi di produzione, nella creazione di nuove forme organizzative, nell’apertura di nuovi mercati e nella conquista di nuovi fonti di approvvigionamento (1971). Innovazione come determinante principale del mutamento industriale (come nascita, mutamento, declino di un settore): si va a vedere come impatta l’innovazione. Risposta creativa vs adattiva L’innovazione come risposta creativa, che si verifica ogni qualvolta l’economia o un settore o alcune aziende di un settore fanno qualcosa di diverso, qualcosa che è al di fuori della pratica esistente L’innovazione come risposta adattiva che si ha invece ogni qualvolta l’economa o un settore si adatta ai mutamenti della situazione nel modo descritto dalla teoria tradizionale L’innovazione può avere luogo in imprese di dimensioni grandi o ridotte: Mark I: imprenditore, 19 secolo Mark II: grande impresa, 20 secolo: innovazione si fa in reparti della grande impresa R&D e struttura di mercato Mercati fortemente concentrati Poche grandi imprese o addirittura monopolio sono in grado di appropriarsi delle rendite e dispongono delle risorse necessarie, ma hanno scarsi incentivi e innovare… Mercati concorrenziali Numero elevato di PMI sono maggiormente incentivati a innovare (con la protezione dell’innovazione) ma debbono affrontare il problema della scarsità delle risorse da investire in R&D e dell’impossibilità di appropriarsi totalmente della rendita… Innovazione tecnologica impatta sul settore dell’industria, e innovazione di settore impatta sull’innovazione tecnologica. Smith (1776): la divisione del lavoro dipende dall’ampiezza del mercato e genera alta produttività del lavoro attraverso la specializzazione dei compiti e l’apprendimento per esperienza (=learning-by-doing). Babbage (1832): sviluppa l’idea di Smith della specializzazione e individua proprio nell’apprendimento da specializzazione una delle cause principali dell’avanzamento tecnico. Non c’è nulla di Schumpeter in queste definizioni perché se per lui l’innovazione è quella radicale o risposta creativa e non quella incrementale, in queste definizioni l’innovazione è quella incrementale, ecco perché non è stato influenzato da questi lavori. Usher (1954): l’innovazione come processo e frutto di un fenomeno di sintesi cumulativa, che si realizza attraverso 4 fasi: 1. percezione del problema: need 2. preparazione della soluzione (studio del problema e dell’ambiente e sviluppo degli skills necessari per risolverlo) 3. invenzione (atto individuale di intuizione e comprensione che permette la soluzione al problema) 4. revisione critica dell’invenzione (in cui l’invenzione viene adattata al contesto economico, tecnologico, culturale e così via) Innovazione come processo lineare (Ricerca, sviluppo, produzione e commercializzazione, univocità direzionale) a catena (Kline e Rosenberg): una sequenza centrale che ricalca il modello lineare (4 elementi innovativi: mercato potenziale, design analitico, feedback non si va solo da sx vs dx, ma anche da dx vs sx e ha una fase di ricerca ch’è parallela rispetto a tutto il processo che può dare conoscenza o ricevere anche qualcosa indietro dal processo principale): o si parte dall’individuazione del mercato potenziale, o design analitico: come analisi di nuove combinazioni di parti di conoscenza o componenti già esistenti o design in senso di progettazione, con relativi test e a seguito delle risposte: feedback: indicazioni utili dalle fasi più a valle a quelle più a monte o fase di ridesign o distribuzione e commercializzazione Schumpeter 1977 specialmente nell’industria manifatturiera una posizione monopolistica non è in genere un cuscino sul quale dormire sonni tranquilli, può essere mantenuta, come può essere conquistata solo con abilità ed energia. Innovazione come processo ad esito incerto: non può essere prevista applicando le regole ordinarie di inferenza dai fatti preesistenti, non si può prevedere (radicali vs incrementali) Imprenditore come soggetto a razionalità limitata: la razionalità limitata di Simon impatta sulla stima degli effetti e sulla scelta della strategia innovativa Le imprese non sono tutte uguali Imprese tra nuove (risposta creativa) e vecchie (risposta adattiva) Innovazioni radicali vs incrementali Raggruppamento delle innovazioni nel tempo e in specifici settori (a grappoli, 1928: c’è ne una e poi ne seguono altre): innovazioni tessili, innovazioni chimiche… Il contributo di Schumpeter in breve: centralità dell’innovazione in economia, innovazione come discontinuità (innovazione radicale), il ruolo centrale dell’imprenditore nel processo innovativo (innovazione come caso speciale del fenomeno della leadership) Aspetti che invece non ha approfondito: relazione tra scienza/tecnologia e innovazione (il capitale umano), la dinamica ad esempio il processo di diffusione delle innovazioni. CAPITOLO 4 Obiettivi e logica dei modelli history friendly I modelli history-friendly hanno l’ambizione di proporsi come una nuova generazione di modelli evolutivi. Essi sono modelli formali che tentano di catturare - in modo stilizzato - teorie qualitative sui meccanismi ed i fattori che influenzano l'evoluzione delle industrie, il progresso tecnico ed il cambiamento istituzionale suggerite dalla ricerca empirica nel campo dell'economia industriale, degli studi di strategia ed organizzazione aziendale, della storia di industrie ed imprese. Essi nascono in base a diverse considerazioni in merito all'utilizzo ed ai risultati dei modelli evolutivi della "prima generazione". L'obbiettivo principale di quei modelli consisteva nell'esplorare in termini molto generali la logica evolutiva di diversi processi economici e di verificare e dimostrare la fattibilità dell’impostazione teorica e metodologica adottata. Alcuni, ma non tutti, tra quei modelli avevano l'ambizione di "riprodurre" e spiegare fenomeni empirici come la crescita economica, le relazioni tra struttura del mercato e innovazione, la diffusione delle innovazioni, ed altri "fatti stilizzati" su alcuni aspetti della dinamica industriale. Tipico esempio è ovviamente l'analisi delle relazioni tra innovazione e struttura industriale nel libro di Nelson e Winter (1982). Sebbene il riferimento all'evidenza empirica fosse considerato un elemento essenziale caratterizzante l'approccio evolutivo, la maggior parte dei modelli della prima generazione aveva una natura piuttosto semplificata ed astratta. Anche se alcuni tra i principali modelli avevano una struttura formale alquanto complessa, la descrizione dei fenomeni che si intendevano spiegare non era molto dettagliata. La metodologia consisteva essenzialmente nell'identificazione di uno o più fatti stilizzati e nel proporre un modello che potesse riprodurre tale fenomeno sulla base di una spiegazione evolutiva. Ad esempio, il modello di Nelson e Winter (1982) aveva fondamentalmente lo scopo di dimostrare che - in un modello evolutivo - elevati tassi di innovazione generassero strutture industriali molto concentrate. Nella maggior parte dei casi, gli unici agenti considerati erano tipicamente le imprese. Ma la rappresentazione della loro struttura e del loro comportamento o del lato della domanda era estremamente semplificata. Tuttavia, ciò non ha consentito di analizzare fenomeni importanti come i processi di integrazione/disintegrazione verticale o la diversificazione. II ruolo della domanda o di diversi tipi di istituzioni nel determinare le caratteristiche delle strutture industriai e della loro dinamica è stato poco esplorato. Questa generazione di modelli ha avuto un notevole successo. Proprio questo successo, però, ha suggerito l'esigenza di compiere un passo avanti. In primo luogo, la dimostrazione che modelli evolutivi anche semplificati siano effettivamente in grado di "riprodurre" e "spiegare" una varietà di fenomeni empirici rilevanti, stimola ad una maggiore ambizione. Ci si potrebbe chiedere se in effetti non sia stato fin troppo facile ottenere i risultati raggiunti, diventano legittime due domande. Da un lato, occorre chiedersi se effettivamente i modelli evolutivi incorporino meccanismi esplicativi estremamente "potenti". In questo caso, è necessario tentare di individuare con maggior precisione tali meccanismi e quindi cercare di "generalizzare" i risultati ottenuti mediante l'utilizzo di modelli ancora più parsimoniosi. D'altro lato, paradossalmente, occorre chiedersi se forse non sia stato troppo facile spiegare quei fatti, perché questi non sono sufficientemente specificati e sottoposti a restrizioni. Pertanto si rende necessario tentare di rendere più ricchi i modelli, sia dal punto di vista dei fenomeni empirici che si tentano di spiegare, sia dal punto di vista della loro struttura interna. Inoltre, ciò forza il modellatore a specificare in maggior dettaglio e con maggior precisione i meccanismi causali ed i processi dinamici che guidano il modello. A questo proposito, un terreno di analisi particolarmente interessante e ricco di sfide è dato dallo studio dell'evoluzione di particolari settori industriali. Si tratta di un campo di indagine, ovviamente strettamente legato, ma concettualmente distinto dalla dinamica industriale. Quest'ultima esamina le invarianze e le differenze tra industrie per quanto riguarda alcune proprietà della dinamica industriale come tassi di entrata e uscita, gradi di eterogeneità delle imprese, persistenza di caratteristiche delle imprese (innovazione, profitti, produttività, ecc.). L'analisi dell'evoluzione industriale si focalizza invece proprio sulla storia dei settori, tentando di identificare le determinanti microeconomiche di serie storiche su variabili come la concentrazione, tassi di entrata e uscita, innovazione, ecc. Quasi sempre, queste analisi adottano la metodologia definita, da Nelson e Winter come appreciative theorizing, cioè spiegazioni non formalizzate dei fenomeni osservati basate su specifici nessi causali ipotizzati dal ricercatore. Viceversa mancano normalmente teorie - formalizzate o no – che tentino di generalizzare queste storie individuali. Lo studio dei pattern di evoluzione di specifici settori offre quindi un terreno ideale per lo sviluppo dei modelli evolutivi. In primo luogo, la ricchezza delle storie implica che, dal punto di vista del modellatore, vi sono quindi più fatti da spiegare contemporaneamente e più restrizioni che devono essere imposte. In secondo luogo, la modellizzazione della storia di settori implica necessariamente un dialogo più stretto con l'evidenza empirica e con le spiegazioni non formalizzate della struttura delle industrie. L’analista è costretto a definire in modo sufficientemente preciso le ipotesi ed i nessi di causalità. Infine, questo approccio pone le basi per costruire, in modo induttivo, generalizzazioni teoriche sull'evoluzione industriale. Quindi, un approccio "history-friendly" può permettere di affrontare e riformulare alcune domande generali, tipiche dell'economia industriale e proporre nuove ipotesi che hanno una natura teorica in senso stretto: ad esempio, come le caratteristiche della tecnologia e della domanda interagiscono nell'influenzare la struttura dell'industria e la sua evoluzione nel tempo. Una storia stilizzata dell'industria dei computer La storia che il modello tenta di catturare è fondata su diversi contributi principalmente quelli di Flamm (1988), Langlois (1990), Bresnahan e Green stein (1999), Bresnahan e Malerba (1999). In estrema sintesi, l'evoluzione di questa industria può essere suddivisa in 4 fasi: La prima inizia con le prime sperimentazioni che portano infine alla progettazione di computer sufficientemente sviluppati da poter essere acquistati da grandi imprese e da laboratori scientifici, cioè l'era dei mainframs. La seconda fase inizia con l'introduzione dei circuiti integrati e il conseguente sviluppo dei mini computer. La terza fase è quella dei personal computer, resa possibile dall'introduzione dei microprocessori. La quarta fase è quella attuale delle reti di PC e di Internet. Il modello concentra l'attenzione solo su un aspetto particolare di questa storia, cioè l'evoluzione della struttura industriale, soprattutto con riferimento alle discontinuita tecnologiche nei componenti (transistor, circuiti integrati, microprocesson) e all'apertura di nuovi mercati (mini, PC). Un'impresa dominante - IBM - emerge come leader nella prima fase e mantiene la leadership nei mainframe anche nelle fasi successive, nonostante una serie di discontinuità tecnologiche. Tuttavia, in ciascuna fase, sono nuove imprese ad aprire nuovi mercati sfruttando le nuove tecnologie. I vecchi leader sono in effetti in grado di adottare le nuove tecnologie e - non sempre e comunque con qualche difficoltà - di entrare nei nuovi mercati, dove conquistano significative quote di mercato, ma non il dominio che avevano in precedenza. Il modello si concentra quindi su queste domande: che cosa determina l'emergere di un leader indiscusso nei mainframe? A quali condizioni, il leader è stato in grado di preservare la propria dominanza nei mainframe, anche in presenza di forti shock tecnologici? Quali fattori hanno consentito ad IBM di entrare con successo nei nuovi mercati (i PC), ma non di ottenere la dominanza assoluta? Il modello La struttura di base e le fasi del modello Descrizione molto semplificata del modello. Gli agenti (imprese) sono caratterizzati da "razionalità limitata", agiscono quindi seguendo routine e regole che conferiscono inerzia ai loro comportamenti. Tuttavia, apprendono e sono in grado di migliorare la propria performance su qualche dimensione rilevante, in particolare la tecnologia. Date le condizioni del periodo precedente, gli agenti (imprese) agiscono e modificano la loro performance. In particolare. le imprese con profitti più elevati tendono a crescere. Il modello è quindi "trainato" da processi di apprendimento e selezione. L'insieme delle azioni delle imprese genera le condizioni aggregate dell'industria che definiscono le condizioni per la iterazione successiva del modello. Nel modello sono presenti forti non-linearità, che rendono la dinamica complessa. Inoltre, non sono previste condizioni di equilibrio: piuttosto dinamiche "ordinate" emergono da interazioni fuori dall'equilibrio. Il modello si articola in diverse fasi: 1. La fase dei transistor; l'entrata e l'industria dei mainframe All'inizio della simulazione la tecnologia di processo disponibile per produrre computer è basata sui transistor. Un dato numero n di imprese inizia a progettare computer, utilizzando un finanziamento concesso da venture capitalists per finanziare le spese di R&S. Alcune imprese riescono a progettare un computer che incontra una domanda positiva ed iniziano a vendere. Si apre così il mercato dei mainframe. Altre imprese esauriscono il budget iniziale e falliscono. Le imprese che effettuano vendite utilizzano i profitti per ripagare il debito. Attraverso la R&S le imprese acquistano competenze tecnologiche e sono in grado di progettare computer di qualità migliore. Le imprese conquistano quote di mercato diverse, in funzione dei loro profitti, politiche di prezzo, di R&S e marketing. Man mano che la frontiera tecnologica definita dai transistor viene avvicinata, il progresso tecnico, tuttavia, diventa più lento. 2. L'introduzione dei microprocessori Dopo un periodo t', diventano disponibili esogenamente i microprocessori. Ciò provoca uno spostamento della frontiera tecnologica e diventa cosi possibile progettare computer "migliori". Un nuovo gruppo di imprese tenta di progettare nuovi computer sfruttando la nuova tecnologia. Alcune di queste imprese falliscono. Alcune entrano nel mercato dei mainframe e competono con le imprese già attive sul mercato. Altre aprono il mercato dei PC. Le imprese già esistenti possono cercare di adottare la nuova tecnologia progettare nuovi mainframe migliori. 3. Adozione e diversificazione L'adozione comporta costi e non è immediata: i microprocessori si "diffondono" lentamente tra le imprese esistenti. L'adozione implica che le imprese percepiscano il potenziale dei microprocessori, in funzione della loro posizione tecnologica corrente, del progresso della nuova tecnologia, della minaccia competitiva costituita dagli entranti. L'adozione comporta un costo fisso ed il pagamento di una frazione del budget accumulato. Inoltre essa implica una riduzione dell'esperienza accumulata nella progettazione di mainframe utilizzando transistor. Dopo l'adozione, le "vecchie" imprese possono diversificare nel mercato dei PC. L'incentivo per la diversificazione è funzione della dimensione relativa del mercato dei PC rispetto ai mainframe. Comporta un costo fisso. Computer I computer sono definiti come combinazioni di due caratteristiche, cheapness (definita come X1 = (1/p), dove p è il prezzo di un particolare computer) e X2 performance. Tali caratteristiche sono generate dall’applicazione di particolari competenze tecniche da parte delle imprese, che migliorano nel tempo in seguito alla attività di R&S. Esistono due tipi di computer: mainframe e PC. Ogni computer ha una vita finita di T periodi. I computer possono essere progettati utilizzando due diverse tecnologie, corrispondenti alle componenti che sono utilizzabili in diversi periodi di tempo: transistor (TR) e microprocessori (MP). Queste due tecnologie diventano esogenamente disponibili a tempi diversi: i transistor all'inizio della simulazione, i microprocessori al periodo t', dopo l'introduzione dei transistor. Ciascuna delle tecnologie presenta dei vincoli tecnologici oltre i quali non si riesce ad andare: con i transistor: si possono fare computer meno economici, ma performanti con i mp: si possono fare computer più economici e più performanti, migliori computer sotto entrambi i profili. Utilizzatori e mercati I computer sono offerti sul mercato a due gruppi di utilizzatori: grandi imprese ed individui, definiti da preferenze diverse sulle caratteristiche dei computer. Le grandi imprese attribuiscono un "valore" relativamente maggiore alla performance ed acquistano mainframe. Gli individui valutano maggiormente la cheapness ed acquistano PC. Entrambi i gruppi di utilizzatori non acquistano computer al di sotto di "soglie minime" per cheapness e performance. Quando queste soglie vengono superate, il valore attribuito ad un computer è una funzione crescente della cheapness e della performance. Dal lato della domanda, ci sono due gruppi distinti di potenziali clienti. Il primo gruppo di "grandi imprese" attribuisce un grande valore alla performance, e perciò desidera acquistare dei mainframe; il secondo gruppo, costituito da "singoli individui o piccoli utenti" valuta molto positivamente un prezzo conveniente e meno la performance: tale secondo gruppo rappresenta un potenziale mercato per i PC. Ogni gruppo di utenti richiede un livello minimo di performance e di economicità, prima che possa essere indotto all'acquisto di un computer: una volta che si sia raggiunta la soglia minima di soddisfazione per ciascuna caratteristica, il valore - utilità - che i clienti attribuiscono ad un modello di computer è una funzione crescente della sua economicità e della sua performance. Le preferenze dei consumatori sono rappresentate nel modello da: M = b0 (X1 – X1min)b1 (X2 – X2min)b2 dove M è l'utilità di un computer con cheapness X1 = (1/p) e performance X2 per la classe di utilizzatori s; b0 è un parametro di scala, X1min e X2min sono le soglie minime di cheapness e performance. Al di sotto di tali soglie, M = 0. La somma degli esponenti nella funzione opera come una sorta di elasticità della domanda generalizzata che riflette la performance oltre che il prezzo. Se sul mercato vi è più di un computer che supera le soglie minime richieste, diventa necessario introdurre altre variabili per rappresentare il comportamento dei consumatori. Essi acquistano un computer in funzione della sua qualità Mi, relativamente ad altri prodotti concorrenti. Inoltre, i mercati sono caratterizzati da inerzia e fenomeni di brand loyaltv e sono influenzati dalle politiche di marketing delle imprese. Un modo semplice e compatto per considerare questi fattori è il seguente. La probabilità Pi che un particolare sottomercato acquisti il computer i è data da: Pi = c0 (Mi)c1(mi + d1)c2 (Ai + d2)c3 o Il parametro c0 è fissato in modo che la somma delle probabilità dia l'unità. o Mi rappresenta il "merito/qualità" di un computer. o m è, invece, la quota di mercato di tale computer, espressa come frazione dei suoi ricavi di vendita sul totale del mercato. Si noti che la variabile della quota di mercato si può interpretare o come un effetto band wagon (effetto imitazione da parte dei clienti), oppure come un effetto di lock-in dei consumatori che abbiano acquistato precedentemente macchine di una particolare marca (brand loyalty). o Il parametro d1, assicura che i computer appena penetrati in un mercato, e quindi privi di precedenti vendite, possano attrarre l'interesse dei compratori. o A indica le spese pubblicitarie sostenute dall'impresa che produce il computer o d2 svolge una funzione analoga a d1 per le imprese che sono appena entrate in un mercato e non hanno ancora effettuato investimenti in pubblicità. Se i consumatori in un particolare sottomercato acquistano il computer i, allora M è la quantità di computer acquistata. Si noti che se esiste un solo computer che abbia superato le soglie minime ogni sottomercato ne acquisterà M unità con probabilità uguale a uno. Se vi sono più computer sul mercato, il comportamento della domanda è definito dal valore degli esponenti nella equazione. In assenza degli effetti di lock-in e del marketing, la domanda sarebbe simile ad una curva di domanda standard. La domanda tenderebbe a convergere verso il prodotto di "qualità" migliore, anche se rimane sempre al limite una probabilità positiva di sopravvivenza per prodotti inferiori. La considerazione invece degli effetti di brand loyalty e di bandwagon muta drasticamente il funzionamento dei mercati, introducendo inerzia e forme di rendimenti crescenti. Imprese: competenze tecnologiche e di mercato, finanza e decisioni di prezzo La rappresentazione delle imprese utilizzata nel modello tenta di catturare alcuni elementi dell'approccio basato sulle competenze dinamiche. Le imprese sono caratterizzate da specifici insiemi di competenze tecnologiche e di mercato che vengono gradualmente accumulate nel tempo e da alcune regole di azione. Queste ultime riguardano le traiettorie di ricerca seguite dalle imprese, la fissazione dei prezzi, le decisioni di spesa in R&S e in marketing, l’adozione di nuove tecnologie e la diversificazione in nuovi mercati. Il modello invece tenta di incorporare alcuni aspetti relativi ai problemi finanziari dell'impresa; in particolare, il fatto che lo sviluppo di prodotti vendibili sul mercato richiede tempo e risorse finanziarie, soprattutto - evidentemente - per i nuovi entranti. Le imprese dispongono di diversi budget attribuiti casualmente, che sono utilizzati per finanziare un progetto di R&S, per un numero di periodi dato ed uguale per tutte le imprese. Durante questa fase iniziale, le imprese investono in ogni periodo una frazione costante del budget. Se i fondi disponibili si esauriscono prima che un computer vendibile sul mercato sia stato progettato, l'impresa esce. I risultati ottenuti dalle attività di R&S sono influenzati dalle direzioni di ricerca adottate dalle imprese e dalle opportunità tecnologiche latenti. Le imprese nascono con diverse traiettorie di progresso tecnologico lungo le caratteristiche dei computer estratte casualmente. Si assume che le traiettorie siano specifiche di ciascuna impresa ed invariati nel tempo. Quindi, con il passare del tempo, le imprese progetteranno computer diversi. Attraverso l'investimento in R&S le imprese accumulano competenze tecniche. Queste ultime sono rappresentate come uno stock che cresce nel tempo. Il progresso tecnologico è rappresentato nel modello come un cambiamento nelle caratteristiche dei computer progettati. Le competenze possono essere immaginate come il risultato dell'esperienza condivisa di due tipi di ingegneri: tecnici orientati verso la riduzione dei costi di produzione e tecnici orientati verso incrementi di performance. Il mix di questi due tipi di ingegneri è definito dalla traiettoria tecnologica che caratterizza ciascuna impresa. Da periodo a periodo la qualità dei modelli progettati da un'impresa, nelle sue due dimensioni rilevanti - economicità e performance - aumenta secondo la seguente equazione: change deltaXi = a0 (Ri)a1 (Tj)a2 (Li - Xi)a3 e Lega il miglioramento del prodotto (deltaX) ad una serie di variabili, come l’impresa può riuscire a migliorare al punto di vista tecnologico. DeltaX migliora in base a: La prima variabile R: è la spesa dell'impresa in R-S, mirata all'ottenimento di miglioramenti dei modelli in una dimensione specifica, indicata da i (i=1 indica la performance, mentre i = 2 indica l'economicità). A sua volta, quella spesa è una frazione costante dell'investimento totale in R-S dell'impresa. Come si è avuto modo di notare la spesa totale in R-S di un'impresa in ciascun periodo è una frazione costante dei fondi totali prestati dai suoi finanziatori. Dopo che quel prestito iniziale si esaurisce, o l'impresa ha ottenuto un modello di computer idoneo alla commercializzazione che le dà profitti, oppure deve uscire dal mercato. La seconda variabile T: indica l'esperienza, cioè il numero di periodi in cui l'impresa ha lavorato con una particolare tecnologia. Per tutte le imprese che partono con la tecnologia transistor al medesimo istante, questa variabile sarà identica. Tuttavia, con la tecnologia del microprocessore, le imprese differiranno circa il momento di adozione della nuova tecnologia. Pertanto vi saranno delle diversità tra le imprese in questa variabile. La terza variabile dell'equazione L-X: è la distanza del progetto di computer corrente rispetto alla frontiera tecnologica. Quanto più i modelli di computer si avvicinano ai limiti delle possibilità raggiungibili, tanto minore sarà il progresso che un dato ammontare di spesa in R-S permetterà di conseguire. Tanto minore è la distanza dal limite naturale/frontiera L tanto minore sarà il miglioramento qualitativo (deltaX). Tanto più è la distanza tanto più il prodotto potrà migliorare e viceversa. Vi è, inoltre, un elemento casuale, e, legato ai risultati ottenuti da ogni impresa. a1, a2, a3, sono i pesi. Quando una impresa riesce a progettare un computer con caratteristiche superiori alle soglie minime richieste dai consumatori, e quindi a vendere sul mercato, i profitti sono reinvestiti in R&S e in marketing. Quota di mercato prezzo applicato da un impresa rispetto al prezzo concorrenziale. Dinamica di transizione Un aspetto essenziale dell'approccio delle "competenze dinamiche" alla analisi dell'impresa è che le competenze sono accumulate in modo cumulativo: le imprese tendono a progredire gradualmente lungo traiettorie relativamente rigide. Di conseguenza, esse possono incontrare notevoli difficoltà nel tentare di fare qualcosa di radicalmente diverso dal passato. Le trappole delle competenze e i fenomeni lock-in sono una proprietà importante di questo approccio. Adozione di nuove tecnologie Nel modello, le imprese che producono mainframe utilizzando la tecnologia dei transistor sono in grado di adottare i microprocessori, ma ciò comporta tempo e costi. Sono piuttosto le nuove imprese che inizialmente migliorano i design di computer esistenti utilizzando la nuova tecnologia di processo. La probabilità che un produttore già esistente di mainframe adotti la nuova tecnologia è funzione di due variabili, il grado dei microprocessori da un lato e la vicinanza dell’impresa alla frontiera tecnologica definita dai transistor, dall'altro. La prima variabile segnala che in effetti una nuova promettente tecnologia è disponibile e che ritardi nell'adozione possono comportare notevoli problemi. La seconda variabile indica che le opportunità di progresso utilizzando i transistor sono in via di esaurimento. Una "vecchia" impresa che decida di adottare i microprocessori ha alcuni svantaggi ma anche un vantaggio rispetto ai nuovi concorrenti. In primo luogo l'adozione implica che l'esperienza accumulata producendo computer basati su transistor diventa obsoleta. Quindi, nei primi periodi i suoi computer riusciranno a raggiungere solo una "qualità" pari in probabilità, alla media dei nuovi computer basati sui microprocessori. Inoltre, l'adozione comporta un costo fisso. Tuttavia, le grandi imprese già esistenti hanno il vantaggio di disporre di grandi risorse finanziarie e di ampi volumi di spese in R&S. L’adozione ha luogo in due passaggi. In primo luogo, l'impresa deve "percepire" il potenziale della nuova tecnologia (dei microprocessori). La probabilità di percezione dipende dalla posizione corrente dell'impresa rispetto alla frontiera tecnologica definita dai transistor e dal grado di avanzamento realizzato dai microprocessori, interessa quindi la distanza dell’impresa dalla frontiera. Tanto minore è la distanza al limite tecnologico è più si percepisce la distanza a cambiare. Una volta che l'impresa abbia percepito la possibilità di adozione, essa deve investire per acquisire la nuova tecnologia. I costi di adozione (Cad= Fad+ qBi) comportano un costo fisso uguale per tutte le imprese, ed il pagamento di una quota del budget accumulato, legata a fattori quali la formazione dei nuovi ingegneri, ecc. Le imprese il cui budget non è sufficiente per coprire il costo fisso non possono adottare i microprocessori. La natura della competence destroying della nuova tecnologia fa sì che l’esperienza viene ridotta. Diversificazione Una volta adottata la nuova tecnologia, le imprese hanno accesso alla nuova frontiera tecnologica e possono innovare più rapidamente. Tuttavia, esse mantengono la loro traiettoria originaria. Le imprese però hanno ora la possibilità di diversificare, progettando computer vendibili sul mercato dei PC. L'incentivo alla diversificazione è funzione della dimensione del mercato dei PC. Specificamente la diversificazione diventa possibile quando il rapporto tra la dimensione del mercato dei PC rispetto a quella del mercato dei mainframe supera una data soglia, che è un parametro del modello. La casa madre fonda una nuova divisione tentando di sfruttare le competenze disponibili per produrre PC, piuttosto che applicare le proprie vecchie competenze sul nuovo mercato. La nuova divisione eredita una frazione del budget, delle competenze tecnologiche e di marketing. La dimensione di queste frazioni sono parametri del modello. La posizione della nuova divisione media prevalente nel mercato dei PC al momento in cui la diversificazione ha luogo. In altri termini, la casa madre sfrutta la "conoscenza pubblica" disponibile sul mercato dei PC e, in parte, "imita" i produttori di PC esistenti. Viene inoltre estratta casualmente una nuova traiettoria tecnologica. Dopo la nascita, la nuova divisione si comporta esattamente come un nuovo entrante, con prodotti, profitti e budget indipendenti. Essa ha lo svantaggio di operare in un mercato dove sono già attive altre imprese, che hanno quote di mercato positive, competenze di marketing ed esperienza. Tuttavia, la nuova divisione può sfruttare le risorse della casa madre e quindi nascere con dotazioni finanziarie significative per sostenere le spese di R&D e di marketing. I risultati delle simulazioni Il modello può essere utilizzato in diversi modi. In primo luogo, ovviamente, occorre verificare che esso sia in grado di riprodurre la storia dell’industria, con una parametrizzazione che rifletta le ipotesi chiave sui fattori che hanno determinato i fenomeni effettivamente osservati. In secondo luogo, è necessario verificare la robustezza delle ipotesi, controllando che mutamenti nei parametri chiave conducano a risultati qualitativamente e quantitativamente diversi. Successivamente, il modello può essere utilizzato per analizzare ipotesi diverse sul comportamento degli agenti, oppure per analizzare gli effetti di diverse forme di politiche pubbliche, o infine per esplorare proposizioni teoriche più generali sulle determinanti dei pattern di evoluzione industriale. Simulazioni che replicano la storia e controfattuali Il modello è effettivamente in grado di "replicare" la storia stilizzata dell'industria, con una parametrizzazione - definito set standard - che riflette le assunzioni chiave suggerite dagli economisti che hanno studiato questo settore. Può essere sufficiente solo sottolineare, a questo proposito, che mentre non si è proceduto fino ad ora ad una stima su dati "reali", il valore di alcuni parametri (ad esempio, il mark-up e i parametri che definiscono l'intensità delle spese di R&S e di marketing) è stato fissato in modo da ottenere nel corso della simulazione una distribuzione "realistica", cioè compatibile con le informazioni disponibili dalla letteratura. Inoltre, occorre tenere conto che il modello "impone" in buona misura una parametrizzazione che rispetti alcune compatibilità di fondo tra i valori dei parametri stessi. Una volta fissati questi parametri (e le loro relazioni), la logica della simulazione è diretta più ad investigare le reazioni del modello a mutamenti di alcuni parametri chiave piuttosto che replicare puntualmente alcune serie storiche. In particolare, il modello intendeva analizzare i fattori che determinano l’emergere di un leader indiscusso nei mainframe, le condizioni che hanno consentito al leader di preservare la propria dominanza nei mainframe, anche in presenza di forti "shock" tecnologici, ed i fattori che hanno consentito al leader di entrare con successo nei nuovi mercati (i PC), senza peraltro raggiungere la dominanza assoluta. Un'impresa dominante (IBM) emerge in effetti piuttosto presto nel mercato dei mainframe durante l'era dei transistor (fig. 2). IBM mantiene una quota di mercato molto elevata anche dopo l'entrata delle nuove imprese all'avvento dei microprocessori. Ciò è dovuto in parte ad una adozione piuttosto rapida della nuova tecnologia. IBM diversifica poi nel mercato dei PC, dove riesce ad ottenere una quota di mercato significativa, ma non una posizione dominante (fig. 3). La parametrizzazione sottostante queste simulazioni era basata sulle seguenti ipotesi chiave. In primo luogo la dominanza di IBM nei mainframe era dovuta a significativi effetti di brand-loyalty e ai lock-in dei consumatori. Ciò generava significative barriere all'entrata per i nuovi entranti. Nel modello, ciò è catturato da valori elevati del parametro che riflette il ruolo della quota di mercato dell'impresa nella funzione di domanda. Un'impresa con una quota di mercato elevata tende ad attrarre una quota significativa di nuovi acquisti. In secondo luogo, quando i microprocessori divennero disponibili, la qualità dei computer prodotti utilizzando transistor era sufficientemente elevata e quindi il leader dell'industria, IBM adottò la nuova tecnologia piuttosto rapidamente. Nel modello, l'impresa dominante adotta i microprocessori poco dopo l'entrata di nuove imprese che utilizzano microprocessori. In terzo luogo, le grandi risorse accumulate da IBM permisero di sostenere un massiccio sforzo di R&D e marketing per raggiungere e mantenere il passo dei concorrenti nel mercato dei PC. Tuttavia, in questo mercato gli effetti di lock-in e brand loyalty erano meno importanti. Inoltre, in questo mercato, i consumatori erano altamente sensibili alla "qualità" dei prodotti, in particolare per quanto riguarda il prezzo. Nel modello, il coefficiente che determina il ruolo della qualità nella funzione di domanda è alto, mentre quello della quota di mercato è relativamente basso. Modificazioni di questi parametri rispetto al "set standard" generano effettivamente risultati differenti, secondo le aspettative (fig. 4). Una riduzione del parametro della quota di mercato nella funzione di domanda per i mainframe abbassa significativamente la tendenza alla concentrazione. In un terzo esercizio controfattuale, la data di introduzione dei microprocessori è anticipata. In questo caso, le nuove imprese entrano sul mercato prima che un'impresa dominante sia emersa. Inoltre, l'adozione dei microprocessori è resa più lenta e costosa. In questo caso, IBM non riesce a guadagnare una quota di mercato significativa nel mercato dei PC, perché deve competere con imprese che hanno già raggiunto una posizione dominante in quel settore (Fig. 5). Viceversa, IBM è in grado di acquisire la dominanza sul mercato dei PC, modificando una serie di parametri nella funzione del progresso tecnico e di domanda da un lato e rendendo più facile la diversificazione. In particolare, nella funzione del progresso tecnico aumentano le economie di scala nella R&S e si riduce il peso dell'esperienza e nella funzione di domanda il coefficiente della variabile marketing viene notevolmente incrementato. Questa nuova parametrizzazione (Set 01) da sola modifica solo leggermente la quota di mercato di IBM nel mercato dei PC (fig. 6). Se a queste variazioni si aggiungono anche minori costi di diversificazione ed una quota maggiore di budget, trasferita dalla casa madre alla nuova divisione (Set 02), IBM è in grado di entrare nel mercato piuttosto rapidamente e, sfruttando le risorse accumulate dalla casa madre, riesce a conquistare la dominanza anche sul nuovo mercato. Strategie alternative di diversificazione La strategia di diversificazione utilizzata nel modello tenta di catturare il comportamento effettivamente seguito da IBM. Questa strategia riflette l'assunzione che le competenze tecnologiche e di mercato accumulate per il settore dei mainframe possano essere inadeguate per il mercato dei PC. Che risultati avrebbe dato una strategia diversa? Per affrontare questa domanda, è stato modellato un comportamento denominato "competence-driven" (Malerba et al., 1999a). In questo caso, le imprese di mainframe tentano di applicare le loro competenze specifiche al nuovo prodotto, i PC. Dopo l'adozione dei microprocessori, l'impresa diversifica creando una nuova divisione interna che progetta PC utilizzando le vecchie competenze. Una strategia del genere può avere lo svantaggio che la vecchia traiettoria di avanzamento è orientata in modo da non soddisfare le preferenze dei consumatori di PC che attribuiscono un peso maggiore alla cheapness piuttosto che alla performance. Viceversa, la strategia acquisizione di nuove competenze dall'esterno può essere molto più costosa soprattutto, la nuova traiettoria di avanzamento, selezionata a caso, può rivelarsi inefficiente. Comparando gli effetti delle due strategie nel set standard in effetti la strategia "IBM" genera risultati migliori per l'impresa. Tuttavia la differenza non è molto grande nel lungo periodo. Per verificare la robustezza di questa argomentazione, il set di parametri è stato modificato come segue. In primo luogo la frontiera tecnologica disponibile dopo l'introduzione dei microprocessori viene significativamente ampliata. In altri termini, la vecchia traiettoria di IBM è ora molto svantaggiata. In secondo luogo, le soglie minime che identificano il mercato dei PC sono spostate più in alto. Cioè, la distanza che la nuova divisione (nella strategia competence- driven) deve percorrere prima di entrare sul mercato è molto maggiore rispetto al caso standard. I risultati delle simulazioni confermano che una strategia competence-driven ha ora una performance molto peggiore rispetto al caso precedente, soprattutto nelle prime fasi immediatamente successive la diversificazione. In sostanza, il progresso tecnologico competence-destroying e mercati per nuovi prodotti che favoriscono caratteristiche differenti tendono a penalizzare la performance di strategie competence-driven. Politiche industriali Il modello incorpora diverse forme di rendimenti crescenti dinamici. In particolare, due fonti di rendimenti crescenti dinamici giocano un ruolo chiave. In primo luogo Ia cumulatività di processi di avanzamento tecnologico. Le imprese progrediscono sulla base di ciò che hanno ottenuto in passato. Inoltre, nella misura in cui una migliore qualità dei prodotti si traduce in maggiori vendite, profitti e quote di mercato, piccoli vantaggi iniziali vengono progressivamente amplificati mediante maggiori spese di R&D. In secondo luogo, il modello incorpora rendimenti crescenti dinamici anche dal lato della domanda, tramite gli effetti «brand loyaltv e di lock in soprattutto nel mercato dei mainframe. In generale, il modello suggerisce che data la struttura dei rendimenti crescenti dinamici, non solo la tendenza al monopolio è quasi inevitabile, ma vi sono anche fortissimi vantaggi da prima mossa. Ancora, la tendenza al monopolio persiste anche se nella funzione di domanda il coefficiente sulla qualità dei computer è molto alto rispetto a quelli della quota di mercato e delle spese di marketing. Infatti, il prodotto inizialmente migliore tenderà a dominare il mercato e tramite la cumulatività del progresso tecnico e gli effetti di success breeds success (maggiori profitti, maggiore spesa di R&D, maggiore progresso tecnico, ecc.) la posizione dominate si rafforzerà nel tempo. In queste condizioni, si propongono naturalmente diversi problemi di policy. In primo luogo, si ripropone, in termini estremi, il dilemma schumpeteriano: in quale misura il progresso tecnico implica rinunciare alla concorrenza? In secondo luogo, in che modo la politica pubblica avrebbe potuto modificare i pattern osservati? Piuttosto, esso è diretto ad esplorare problemi relativi all'efficacia di politiche pubbliche in condizioni di rendimenti crescenti dinamici. In che modo la politica industriale può influire sull'evoluzione dell'industria nel corso del tempo? Quanto "grande" deve essere l'intervento? Quanto è importante il timing dell'intervento? In che modo gli effetti delle politiche su un mercato influenzano la dinamica di un altro mercato? L'esercizio che è stato condotto esamina due tipi di interventi: antitrust e misure volte a favorire l'entrata di nuove imprese (Malerba er al., 1999b). Nel modello, l'Autorità Antitrust (AA) interviene quando un'impresa raggiunge una quota pari al 75% del mercato. L’intervento consiste nello smembramento del monopolista in due imprese distinte. Ereditano metà della dimensione e delle risorse del monopolista. Esse mantengono la stessa posizione raggiunta dal monopolista nello spazio delle caratteristiche tecniche dei prodotti (cheapness e performance) e la stessa esperienza. Le due nuove imprese differiscono solo in termini della traiettoria di avanzamento tecnologico: una eredita la traiettoria del monopolista, all'altra viene attribuita nuova traiettoria scelta a caso. Nel modello, l'AA può intervenire diversi periodi. Infatti, sulla base dei risultati ottenuti rispetto a 1, 5, 10 e 20 anni si ritiene che il timing dell'intervento abbia una notevole importanza nel determinare l'efficacia delle politiche antitrust, anche se in mercati caratterizzati da rendimenti crescenti dinamici l'effetto complessivo è probabilmente limitato. Un secondo risultato interessante riguarda gli effetti di questi interventi sul mercato dei PC, piuttosto che su quello dei main-frame. In generale, l'intervento dell'AA, anche se ha effetti limitati sul mercato a cui è rivolto direttamente, produce effetti significativi su un mercato "collegato", cioè il settore dei PC dove la concentrazione diminuisce significativamente rispetto al caso standard. Quando AA interviene presto (dopo 1 o 5 anni), le due nuove imprese sono entrambe in grado di diversificare nei PC. Quando AA interviene "tardi" (dopo 10 o 20 anni) una sola impresa diversifica, come nel caso standard. Tuttavia essa avrà una dimensione assoluta minore e la concentrazione sul mercato dei PC tenderà a diminuire. Infine, un terzo insieme di simulazioni analizza il caso in cui una sola fonte di rendimenti crescenti dinamici sia presente. I risultati mostrano non solo una riduzione nel grado di concentrazione, ma soprattutto le politiche antitrust hanno maggiore efficacia. L'indice di Herfindahl tende in tutti i casi ad assumere valori minori e soprattutto, una volta smembrato iI monopolio, la concentrazione tende a risalire molto più lentamente e rimane comunque su livelli molto inferiori. In sostanza, l'esercizio suggerisce diverse riflessioni. In primo luogo, in presenza di forti rendimenti crescenti dinamici. sia attraverso la cumulatività del progresso tecnologico, sia attraverso gli effetti di lock-in nella domanda, vi sono ovviamente forti tendenze alla concentrazione e verso qualche forma di "monopolio naturale”. Il risultato principale dell'esercizio è che estremamente difficile contrastare queste tendenze. In particolare, l’intervento antitrust dimostra di avere effetti piccoli e temporanei. L’eliminazione di una delle due fonti di rendimenti crescenti migliora sensibilmente la situazione ma non elimina completamente il problema. La ragione di questa "proposizione di inefficacia" risiede nella natura fortemente cumulativa dei processi tecnologici e di mercato incorporati nel modello. Piccoli vantaggi iniziali vengono amplificati nel tempo e la rincorsa da parte del concorrente risulta praticamente impossibile. CAPITOLO 4: MODELLI EVOLUTIVI DI INNOVAZIONE E DINAMICA INDUSTRIALE Introduzione È necessario sottolineare che i modelli evolutivi devono tenere conto che le caratteristiche dei processi innovativi e della dinamica industriale implicano la presenza diffusa di varie forme di incertezza, rendimenti crescenti ed esternalità. In termini tecnici ciò implica che i modelli, che hanno lo scopo di indagare le proprietà di ambienti sottoposti a progressi tecnologici devono necessariamente incorporare le seguenti caratteristiche: o Dinamica: Il modello dovrebbe avere lo scopo di chiarire il processo attraverso il quale si arriva a particolari risultati (ad esempio in termini di concentrazione), l'identificazione di un equilibrio o di uno steady state (ammesso che esista) deve essere sostenuta dall'esplicitazione di uno specifico meccanismo dinamico che mostri come si possa aggiungere a tale equilibrio. Inoltre è importante conoscere non solo il punto di arrivo del processo dinamico, ma anche le caratteristiche del processo stesso mentre esso ha luogo. Ciò è particolarmente importante, evidentemente, qualora il processo dinamico non raggiunga uno steady state, ma sia open-ended. In tal caso le proprietà della transizione costituiscono l’oggetto principale dell’analisi. o Incertezza: Dato il ruolo cruciale svolto dall'incertezza i modelli dovranno avere una componente stocastica. o Non linearità: La presenza di cumulatività e più in generale, di rendimenti crescenti di varia natura implica che le equazioni del modello siano spesso non lineari. Ciò può dare luogo a fenomeni di path dependency, il che rafforza ulteriormente l'esigenza di costruire modelli esplicitamente dinamici. L’analisi di modelli dinamici stocastici non lineari è molto difficile e molto spesso è impossibile derivare risultati per via analitica. Ciò però non preclude necessariamente la possibilità di ottenere informazioni utili ed importanti sulle proprietà del modello che possono essere ricavate mediante la simulazione. La simulazione La simulazione è una tecnica di analisi molto diffusa in scienze diverse dall'economia. I risultati ottenibili da una simulazione sono meno generali di quelli ricavati analiticamente. Naturalmente un modello di simulazione rimane un modello e come tale esso deve essere fondato su semplificazioni e ipotesi di partenza accettabili. Allo stesso modo esso deve essere guidato da specifiche congetture e ipotesi teoriche e deve essere trasparente: in altri termini deve essere guidato da un’esplicita teoria e deve aiutarci a verificare se le nostre ipotesi di partenza sono corrette e se la logica con cui il modello è stato costruito è robusta. Queste avvertenze valgono ovviamente per qualsiasi modello. Una simulazione che produca risultati non comprensibili sulla base del modello che essa analizza non è accettabile. Nel caso dei modelli di simulazione, però, può effettivamente avvenire che il numero di parametri sia così elevato da rendere i risultati poco trasparenti, perché essi possono essere stati generati da diverse combinazioni dei valori dei parametri stessi. In assenza di forti "a priori" sul valore che deve essere assegnato ai parametri, la simulazione deve essere guidata dalla teoria. Inoltre, è necessario effettuare test di robustezza e di sensitività per verificare la solidità dei risultati raggiunti. Il modello di Nelson e Winter I modelli di Nelson e Winter (1982) intendono spiegare il fenomeno della concentrazione industriale, la reazione delle imprese al cambiamento delle condizioni esterne in cui operano e la crescita economica come risultato di processi evolutivi dinamici, trainati da meccanismi di selezione e di apprendimento. Il modello presentato ha come oggetto principale la relazione tra progresso tecnologico e forme di mercato. Nelson e Winter pongono le imprese come agenti principali. Esse sono caratterizzate da razionalità limitata e agiscono sulla base di regole decisionali che incorporano le loro competenze produttive. Le imprese hanno tre principali regole decisionali: utilizzo della capacità produttiva, politica di investimento e politica innovativa. Nelson e Winter assumono che ciascuna impresa produca un unico prodotto, utilizzando pienamente la propria capacità produttiva e usando tecniche a coefficienti fissi, che differiscono tra loro quanto ad output per unità di capitale. I risultati principali del modello possono essere sintetizzati come segue: Un più elevato livello di produttività nel periodo finale ed un più elevato rapporto tra produttività media dell'industria e produttività latente caratterizza l'industria con un numero ridotto di imprese. In questo caso le imprese hanno all'incirca lo stesso livello di produttività, specialmente quando l'imitazione è facile. Le differenze nei livelli di produttività tra imprese e innovatrici ed imitatrici diventano più marcate quando le imprese sono numerose e queste differenze sono causate dal processo di diffusione e sono tanto più elevate quanto più l'imitazione è difficile. Nelson e Winter sottolineano come quattro fattori, il tasso di crescita della produttività latente, la difficoltà di imitazione, la variabilità dei risultati dell'attività di innovazione dell'impresa e l'aggressività delle politiche di investimento influenzano significativamente la struttura finale dell'industria. La concentrazione industriale è positivamente correlata con strategie aggressive delle imprese, con un elevato tasso di crescita della produttività latente, con un'elevata difficoltà di imitazione e con una elevata variabilità dei risultati dell'innovazione. Ciò significa che la concentrazione delle imprese in un'industria ad alto sviluppo tecnologico e senza rilevanti economie di scala viene a dipendere, in ultima istanza, da tre fattori esogeni: la curva di domanda, le condizioni di opportunità e di appropriabilità dell'innovazione. Le simulazioni forniscono pure elementi utili per un'analisi del trade-off Schumpeteriano tra progresso tecnologico ed efficienza produttiva. Paragonando il caso di un’industria che diventa concentrata, l'industria, che ha una concentrazione stabile nel tempo presenta un più elevato margine tra prezzi e costi, ed una più elevata produttività media, imprese simili quanto a livello di produttività e più efficienti nella loro attività innovativa. Quando le simulazioni dell’evoluzione dell’industria tengono in considerazione due regole decisionali, relative una alla politica innovativa ed una alla politica di investimento delle imprese, ulteriori elementi concorrono a spiegare il processo di concentrazione industriale. Una politica di imitazione ha tanto maggiore successo quanto più ridotte sono le possibilità di appropriabilità dell'innovazione da parte dell'impresa innovatrice. In questo caso, quando il tasso di crescita della produttività latente è moderato e l’imitazione è facile, l'attività imitativa è altamente profittevole e l'impresa imitatrice è in grado, nel lungo periodo, di eliminare l'impresa innovatrice. Ma l'impresa imitatrice può pure attuare una strategia di contenimento della crescita del proprio output, in modo tale da prolungare nel tempo la sua posizione di imitatrice che si appropria rapidamente e continuamente delle innovazioni delle altre imprese. Di conseguenza, la strategia di un'impresa può variare con la sua dimensione. Un'impresa può crescere in un'industria con un elevato tasso di crescita della produttività latente con facilità di imitazione e con grandi imprese imitatrici, perché dapprima hanno innovato con successo, ma una volta raggiunte dimensioni rilevanti hanno trovato più profittevole mutare la strategia e diventare imitatrici. Due conclusioni si possono ricavare dal contributo di Nelson e Winter. La prima è la relazione tra innovazione e struttura di mercato. Una specifica forma di mercato non è soltanto la condizione necessaria per un elevato tasso innovativo, ma è pure la conseguenza di innovazioni riuscite. In altri termini, un'impresa può avere economie di scala nell'introduzione di innovazioni ed aumentare la sua quota di mercato perché ha innovato con successo. La seconda è la distinzione tra il concetto di potere di mercato e quella di dimensione. Il potere di mercato protegge un'impresa dalla crescita e da strategie aggressive delle imprese imitatrici. La dimensione consente ad un'impresa imitatrice di applicare l'innovazione altrui su un rilevante ammontare di produzione. Ma esiste una fondamentale asimmetria: quando un'impresa imita l'innovazione di un'altra impresa, essa potrà essere più profittevole dell’imprese innovatrice ma non potrà mai raggiungere un livello di produttività più elevato di quello delle imprese innovatrice. Di conseguenza, un'industria con uno sviluppo tecnologico endogeno e locale e caratterizzata da imprese imitatrici di ampie dimensioni che non seguono una strategia di contenimento della crescita del proprio output può provocare un alto costo sociale dovuto al ridotto tasso di sviluppo della sua produttività media. I modelli history friendly Nei modelli di prima generazione le imprese sono trattate in una maniera molto semplice e non permettono di trattare tematiche relative ai confini delle imprese e alla capacità di diversificare la propria attività in nuovi mercati, ai costi ed ai benefici dell'integrazione verticale od orizzontale o a livello più ampio delle competenze di impresa. Il modello elaborato da Malerba et al. (1999) è il primo di una nuova generazione di modelli economici evolutivi progettati per cogliere in forma stilizzata i meccanismi dei percorsi di sviluppo empirici di un’industria o di una tecnologia. Tali modelli sono denominati history friendly. Tuttavia, quando si parte considerando l'evoluzione di un'industria a questo superiore livello di dettaglio, è ovvio che si riscontrino molte differenze rilevanti tra le varie industrie e tecnologie, e che il "programma di ricerca" proposto debba, in ultima analisi, essere in grado di cimentarsi con queste differenze, sviluppando modelli diversi per settori differenti. Allo stesso tempo, però, uno degli obiettivi di questa generazione di modelli è affrontare alcuni temi generali. Quindi è necessario che modelli di industrie diverse abbiano alcune caratteristiche comuni, affinché un confronto fornisca risultati ed intuizioni su analogie e differenze tra le industrie stesse. Sono modelli formali che mirano a catturare i punti essenziali della teoria qualitativa evidenziati dagli studiosi della storia di una tecnologia o di un'industria e quindi a rendere possibile la loro spiegazione logica. Il termine formale indica che tutta la logica che conduce ai risultati dei modelli è esplicita. Per risultare utile in questo ruolo, il modello formale deve essere capace di rappresentare fedelmente le argomentazioni verbali, traducendole in una forma stilizzata ma esauriente. Ma se la finalità centrale nello sviluppo di un modello formale è di controllare o assicurare la consistenza logica della teoria qualitativa, è altresì importante essere in grado di capire come il modello funzioni, soprattutto se le precedenti versioni non sono state all'altezza delle aspettative, suggerendo l'esistenza di gap e divergenze da colmare tra la teoria qualitativa ed il suo supposto corrispettivo formale. E perciò di grande rilevanza che il meccanismo costruito nell'opera di riduzione e modellazione formale sia abbastanza trasparente da consentire all'analista di rintracciare ed isolare eventuali errori o lacune nella spiegazione teorica qualitativa e/o nella rappresentazione formale. L’evoluzione dell’industria dei computer: sfide per i modelli history friendly Vi sono diverse interessanti sfide per i modelli history friendly nella storia di questo settore. Un'impresa dominante (IBM) è emersa relativamente presto nella storia dell'industria e ha saldamente mantenuto una posizione dominante in termini di quota di mercato nel segmento di mercato, che per primo ha conquistato, malgrado si siano verificati diversi cambiamenti tecnologici distruttori di competenze. D'altro canto, le nuove imprese e non quelle insediate sono state il veicolo che ha permesso alle nuove tecnologie di aprire nuovi segmenti di mercato (personal computer) e le imprese vecchie (consolidate) non si sono dimostrate in grado di raggiungere una posizione dominante nei nuovi mercati. Il modello Agg pag 6-7 La topografia del progresso tecnologico Al momento iniziale, si ha una tecnologia dei componenti per computer, chiamata "transistor". Più tardi, viene alla luce una nuova tecnologia di componenti, chiamata "microprocessori". I potenziali acquirenti di un computer valutano due attributi: o uno è la performance del computer (il suo livello di prestazioni); o l'altro è il suo prezzo (o la sua economicità). La desiderabilità di ogni computer si può riassumere nella posizione in cui il computer stesso si colloca nello spazio bidimensionale di Lancaster, i cui assi misurano gli attributi (performance ed economicità). Ciascuna delle tecnologie di componenti è associata a limiti estremi che i computer che la incorporano possono raggiungere nelle due dimensioni rilevanti. Si noti che l'uso del microprocessore (MP) consente di progettare computer migliori di quelli costruiti con la tecnologia a transistor sia sul piano della performance, sia su quello dell’economicità. Il miglioramento più rilevante e critico, legato all’introduzione del microprocessore però è quello che si registra sull’asse dell’economicità. Dal lato della domanda, ci sono due gruppi distinti di potenziali clienti. Il primo gruppo di "grandi imprese" attribuisce un grande valore alla performance, e perciò desidera acquistare dei mainframe; il secondo gruppo, costituito da "singoli individui o piccoli utenti" valuta molto positivamente un prezzo conveniente e meno la performance: tale secondo gruppo rappresenta un potenziale mercato per i PC. Ogni gruppo di utenti richiede un livello minimo di performance e di economicità, prima che possa essere indotto all'acquisto di un computer: una volta che si sia raggiunta la soglia minima di soddisfazione per ciascuna caratteristica, il valore - utilità - che i clienti attribuiscono ad un modello di computer è una funzione crescente della sua economicità e della sua performance. Assumiamo che un maggior valore dei computer si traduca in un maggior numero di macchine acquistate dagli utenti. Se si suppone che le imprese possano ottenere in qualche modo finanziamenti per i loro progetti di R-S, la tecnologia dei computer partirà dal punto Z. Con l'andare del tempo, e con l'investimento in attività di R-S, alcuni progetti supereranno la soglia minima richiesta per il mercato mainframe. A questo punto, le imprese che hanno ottenuto macchine che soddisfano i requisiti minimi richiesti cominceranno a vendere sul mercato. A mano a mano che i computer migliorano, le vendite aumentano. Alla fine, ci si attende che i computer basati sulla tecnologia a microprocessore conquisteranno il mercato dei mainframe, e che riescano a penetrare il nuovo mercato dei PC. La dinamica delle innovazioni Quando i transistor, e, in seguito, i microprocessori fanno la loro comparsa, le imprese devono imparare come progettare e realizzare computer efficienti utilizzando i nuovi componenti. Le imprese sviluppano gradualmente le competenze nell'uso delle nuove tecnologie, come risultato degli investimenti effettuati in R-S e dell'esperienza accumulata. Con l'introduzione dei transistor, vi è un certo numero di imprese che sperano di riuscire a sfruttare le nuove opportunità tecnologiche. Tutte le imprese iniziano con le stesse capacità di progettazione, rappresentate dal punto Z interpretabili come le caratteristiche di modelli di computer di pubblico dominio. Terminato il periodo iniziale, le imprese nell'industria continuano a costruire modelli di computer dalle caratteristiche differenti. Da periodo a periodo la qualità dei modelli progettati da un'impresa, nelle sue due dimensioni rilevanti - economicità e performance - aumenta secondo la seguente equazione: change Xi = a0 (Ri)a1 (Tj)a2 (Li - Xi)a3 e La prima variabile R: è la spesa dell'impresa in R-S, mirata all'ottenimento di miglioramenti dei modelli in una dimensione specifica, indicata da i (i=1 indica la performance, mentre i = 2 indica l'economicità). A sua volta, quella spesa è una frazione costante dell'investimento totale in R-S dell'impresa. Come si è avuto modo di notare la spesa totale in R-S di un'impresa in ciascun periodo è una frazione costante dei fondi totali prestati dai suoi finanziatori. Dopo che quel prestito iniziale si esaurisce, o l'impresa ha ottenuto un modello di computer idoneo alla commercializzazione che le dà profitti, oppure deve uscire dal mercato. La seconda variabile T: indica l'esperienza, cioè il numero di periodi in cui l'impresa ha lavorato con una particolare tecnologia. Per tutte le imprese che partono con la tecnologia transistor al medesimo istante, questa variabile sarà identica. Tuttavia, con la tecnologia del microprocessore, le imprese differiranno circa il momento di adozione della nuova tecnologia. Pertanto vi saranno delle diversità tra le imprese in questa variabile. La terza variabile dell'equazione L-X: è la distanza dalla frontiera. Quanto più i modelli di computer si avvicinano ai limiti delle possibilità raggiungibili, tanto minore sarà il progresso che un dato ammontare di spesa in R-S permetterà di conseguire. Vi è, inoltre, un elemento casuale, e, legato ai risultati ottenuti da ogni impresa. In questo modello, tutte le imprese determinano i prezzi praticando un mark-up costante, identico per ogni impresa, sui costi di produzione. A sua volta, il margine lordo sui costi di produzione è utilizzato per coprire diverse voci di spesa. Innanzitutto, viene usato per ripagare il debito residuo verso i venture capitalists. Il 15% dei profitti lordi viene impiegato a questo scopo, e il rimborso continua nel tempo finché il debito viene estinto o l'impresa fallisce. In secondo luogo, ogni impresa spende una frazione costante di quanto rimane del suo profitto lordo, dopo la quota di rimborso del debito, in R-S e in pubblicità. Se resta ancora qualcosa del profitto lordo, dopo aver provveduto alle spese di cui sopra, questi guadagni residui affluiscono ad una sorta di "conto" dell'impresa, e vengono trattati, nel modello, come riserve. Tali riserve entrano in gioco al momento dell’adozione della nuova tecnologia dei microprocessori e della diversificazione nel mercato dei PC. Dinamica di mercato Nella discussione precedente, si è ipotizzato che quanto maggiori sono, meriti oggettivi delle macchine prodotte, tanto maggiore sarà il numero acquistato. Quindi il "merito", ossia il valore percepito, di un computer, M, è uguale al numero di apparecchi venduti ai clienti di un sottomercato se tale computer è l'unico che soddisfa i requisiti minimi (di soglia) imposti dal mercato. Supporremo che M sia una funzione log-lineare del differenziale fra gli attributi del computer in esame e i requisiti minimi del relativo mercato: M = b0 (X1 – X1min)b1 (X2 – X2min)b2 Se i requisiti di soglia non sono raggiunti, si pone M = 0. Se esiste più di un computer che soddisfa i requisiti minimi, la nostra analisi della domanda deve coinvolgere altre variabili, oltre a M. Inoltre, il modello history friendly deve tenere conto di effetti band wagon, fedeltà alla marca e pubblicità permettendone una formalizzazione. Allo scopo, dividiamo ciascuno dei nostri due mercati in un vasto numero di sottomercati, associati ai singoli consumatori o a loro gruppi omogenei. La probabilità, Pi che ogni singolo acquirente di computer - od ogni gruppo omogeneo - acquisti un particolare modello, i, è la seguente: Pi = c0 (Mi)c1(mi + d1)c2 (Ai + d2)c3 o Il parametro c0 è fissato in modo che la somma delle probabilità dia l'unità. o M rappresenta il "merito" di un computer. o m è, invece, la quota di mercato di tale computer, espressa come frazione dei suoi ricavi di vendita sul totale del mercato. Si noti che la variabile della quota di mercato si può interpretare o come un effetto band wagon (effetto imitazione), oppure come un effetto di lock-in dei consumatori che abbiano acquistato precedentemente macchine di una particolare marca. o Il parametro d1, assicura che i computer appena penetrati in un mercato, e quindi privi di precedenti vendite, possano attrarre l'interesse dei compratori. o A indica le spese pubblicitarie sostenute dall'impresa che produce il computer o d2 svolge una funzione analoga a d1 per le imprese che sono appena entrate in un mercato e non hanno ancora effettuato investimenti in pubblicità. In primo luogo, se c'è un solo computer che soddisfa i requisiti minimi, ogni sottomercato lo acquisterà con probabilità 1, e ne acquisterà M unità, come abbiamo supposto in precedenza. In secondo luogo, se più di un computer supera la soglia minima dei requisiti richiesti, e se c1 fosse molto elevato, mentre c2 e c3, avessero valori molto bassi, virtualmente tutti i consumatori acquisterebbero il computer dal valore, cioè dal "merito" superiore. Competizione fra le tecnologie Nel modello in esame, una volta trascorsi alcuni periodi, e dopo che un certo numero di imprese che producono con la tecnologia a transistor hanno fatto il loro ingresso, con successo, nel mercato main-frame, vengono introdotti i microprocessori. Un certo numero di nuove imprese, allora, parte dal punto Z, alimentato dal capitale di rischio prestato dai venture capitalists, proprio come era accaduto per le imprese legate alla tecnologia a transistor. L'esistenza di imprese consolidate produttrici di computer basati sulla tecnologia a transistor nel mercato mainframe costituisce una rilevante barriera all'entrata in quel mercato. Innanzitutto, infatti, se un'impresa " microprocessore" riesce a produrre un modello di computer che superi i requisiti di soglia nel mercato mainframe, tale macchina si trova a dover competere con altri computer basati sul transistor che hanno già raggiunto livelli qualitativi superiori a quelli di soglia. Secondariamente, i produttori di mainframe insediati hanno acquisito una quota di mercato positiva e si sono impegnati in campagne pubblicitarie significative, il che crea un ulteriore svantaggio per i neo-entranti. Una questione aperta, nel modello, è stabilire una nuova impresa, basata sulla tecnologia a microprocessore possa sopravvivere nel mercato del mainframe. Dinamica di transizione Nel modello, i produttori di mainframe che usano il transistor sono in grado si passare alla tecnologia a microprocessore per produrre i propri computer, ma ciò può richiedere molto tempo ed essere assai costoso. Sono le nuove imprese che svolgono l'iniziale compito di far progredire la progettazione dei computer utilizzando il microprocessore. La probabilità che un'impresa insediata che usa il transistor cambi tecnologia è funzione di due variabili. La prima è quanto sia avanzata la progettazione dei modelli di computer basati sul microprocessore; la seconda è la prossimità del produttore alla frontiera delle possibilità tecnologiche consentita e definita dalla tecnologia a transistor. Se una vecchia impresa legata al transistor decide di cambiare tecnologia, deve fronteggiare uno svantaggio significativo, ma gode an che di un vantaggio. Lo svantaggio e che l'esperienza acquisita ne campo della tecnologia a transistor è di scarsa utilità. Dunque, nei suoi primi passi con la nuova tecnologia, i risultati ottenuti nella progettazione dei computer saranno, all'incirca, quelli medi per le imprese insediate che producono mainframe con i microprocessori. Inoltre, essa deve sostenere, una volta per sempre, un costo "di transizione", per cominciare a progettare, produrre e commercializzare main frame basati sulla nuova tecnologia. Tuttavia, le imprese consolidate che hanno usato il transistor hanno il vantaggio di possedere ampi budget per la R-S, che, ad un costo, possono trasferire per usare la nuova tecnologia, e un patrimonio di profitti già accumulati che possono essere impiegati per coprire i costi di transizione. Una volta che una vecchia impresa che produceva mainframe con i transistor si sia spostata verso la tecnologia a microprocessore, essa ha, in teoria, la possibilità di diversificare la propria attività nel progettare e produrre computer per il mercato personal. Storicamente, IBM compi la propria diversificazione aprendo un'intera nuova divisione, e questo è ciò che, nel modello, si assume tutte le imprese facciano qualora, producendo mainframe, decidano di diversificare la produzione nel mercato dei PC. Essa deve sostenere lo svantaggio che ci sono già imprese che vendono i PC, con modelli che superano già la soglia minima richiesta, quote di mercato positive, budget pubblicitari già costituiti ed esperienza del mercato. Tuttavia, la nuova divisione ha il vantaggio, tutt'altro che trascurabile, di poter attingere alle ingenti risorse dell'impresa-madre, che può convogliare verso il mercato dei PC una frazione anche cospicua dei suoi budget per R-S e pubblicità. I risultati delle simulazioni Il caso di base: replicazione della storia Il modello consente di generare una storia simulata dell'industria e della tecnologia dei computer, con una appropriata parametrizzazione il modello genera sentieri evolutivi dell'industria che, di fatto, "replicano" la storia dell'industria che si sta cercando di modellare. Un'impresa che opera con la tecnologia a transistor (la IBM) assurge piuttosto rapidamente ad una posizione dominante nel mercato main-frame, anche quando nuove imprese, dotate della nuova tecnologia del microprocessore, entrano in quel mercato e la sfidano. Una delle ragioni per cui l'impresa dominante resiste alla concorrenza è che essa adotta la nuova tecnologia abbastanza tempestivamente. Tale impresa, poi, penetra nel mercato dei pc, in cui conquista una quota di mercato discreta, ma non di particolare rilievo. Il grafico traccia il sentiero temporale dell'Indice di Herfindahl della concentrazione nel mercato dei mainframe, le imprese che operano con la tecnologia a transistor entrano nel mercato attorno al periodo 30, e in breve tempo emerge un'impresa dominante. L'abbassamento nel rapporto di concentrazione che si registra intorno al periodo 60 e la sua risalita qualche periodo dopo riflette l'entrata di nuove imprese nel mercato mainframe, dotate della nuova tecnologia micro processore ed il passaggio relativamente rapido ai microprocessori con il conseguente recupero della quota di mercato, da parte dell’impresa dominante. Mostra anche l'andamento temporale dell'Indice di Herfindahl nel mercato dei PC. Si può notare che la concentrazione in questo mercato è assai inferiore a quella del mercano mainframe. In parte, ciò è dovuta al fatto che vi è un maggior numero di imprese nuove che cominciano l’attività, rispetto alle imprese basate sulla tecnologia del transistor che a loro tempo hanno provato ad entrare nel mercato dei mainframe. Ma, naturalmente, questa è solo una parte della storia. Le nuove imprese con la nuova tecnologia potevano entrare – e di fatto, sono entrate - anche nel mercato dei mainframe. Tuttavia, in questo mercato, esse non sono state in grado di resistere alla concorrenza delle insediate, Attorno al periodo 80, alle nuove imprese pc che lavorano con la tecnologia microprocessore (MP) si unisce la nuova unità costituita dall'impresa mainframe dominante. In generale, questa "ramificazione di IM" si dimostra di successo, pur senza raggiungere il grado di dominio esercitato nel mercato di origine. L'equazione della domanda, nelle simulazioni che hanno replicato la storia, ha avuto un coefficiente relativamente alto associato alla quota di mercato per i mainframe ed un valore inferiore per il mercato dei PC. Tale attribuzione di valori fa sì che la prima impresa che raggiunge una quota di mercato elevata nel mercato dei mainframe goda di un vantaggio superiore rispetto alla prima impresa che ottiene un'ampia quota del mercato dei personal. La tecnologia a microprocessore è venuta alla luce molto dopo la conquista di una posizione di mercato dominante da parte di una grande impresa produttrice di mainframe, e non si è rivelato troppo difficoltoso, per quell'impresa, passare alla nuova tecnologia, una volta trovatasi pressata dalla concorrenza. Inoltre, la sua capacità di organizzare e mobilitare le risorse - considerevoli - per R-S e pubblicità allo scopo di entrare nel mercato dei PC l'ha posta in condizione di superare con facilità e in breve tempo lo svantaggio tecnologico iniziale, benché l'efficacia di tali investimenti non sia stata abbastanza grande da portarla a dominare il nuovo mercato. Variazioni: simulazioni che divergono dalla storia Il passo successivo è quello di inserire nel modello parametri diversi da quelli utilizzati per verificare se in questo modo si ottengono risultati "divergenti dalla storia". Descriveremo qui il funzionamento del modello negli esperimenti in cui si è cercato dapprima di evitare l’ascesa di un’impresa dominante nel mercato dei mainframe. Innanzitutto, i primi acquirenti delle apparecchiature IBM tendevano a sentirsi "vincolati"' alla IBM per aggiornamenti, espansioni e rinnovi delle capacità dei propri computer, soprattutto a causa del software specializzato. Nei termini del nostro modello, un'impresa che abbia un'alta quota di mercato per i mainframe attrarrà, per ciò stesso, una frazione significativa di nuovi acquirenti. Secondo, al momento in cui la nuova tecnologia è apparsa sulla scena, i modelli di computer progettati in base alla vecchia erano ragionevolmente avanzati: quindi, il leader di mercato IBM era in condizione di rispondere in tempi piuttosto rapidi alla disponibilità della nuova tecnologia. Nei termini del nostro modello, poco dopo l'entrata delle prime imprese basate sulla tecnologia del microprocessore nel mercato dei mainframe, l'impresa dominante in quel mercato passa alla nuova tecnologia. In terzo luogo, le ingenti risorse a disposizione di IBM le consentirono di investire ingenti somme in R-s e pubblicità, e gli sforzi in queste direzioni permisero di colmare il divario esistente nei confronti dei primi entranti del mercato dei PC, raggiungendoli. Poiché però anche i PC prodotti da altre imprese erano compatibili con il software usato da IBM, mancò un esplicito effetto di lock in verso quest'ultima. All'interno del gruppo dei PC IBM- compatibili, i consumatori si dimostrarono piuttosto sensibili ai "meriti" dei diversi computer offerti sul mercato, e in particolare furono sensibili ai differenziali di prezzo. Nel modello, questa osservazione si traduce in un alto coefficiente attribuito alla qualità, nel mercato dei PC, e in un basso coefficiente associato alla quota di mercato specifica. La prima modifica è la riduzione del coefficiente associato alla quota di mercato nell'equazione della domanda per i mainframe, per vedere se ciò soffocherà la tendenza a far emergere un'impresa domi nante. In secondo luogo, si permette alle imprese che usano la tecnologia microprocessore di entrare nel mercato dei mainframe anticipatamente rispetto al caso di replicazione della storia, e prima che un'impresa arrivi a dominare il mercato; inoltre, si rende più lento e più costoso il processo di conversione alla nuova tecnologia per le imprese insediate. Terzo, si rende la domanda dei pc più sensibile alla pubblicità e meno reattiva alla qualità delle macchine, cosicché un'impresa consolidata, con grandi disponibilità di risorse, che diversifica nel mercato dei pc a partire da quello mainframe, ha la possibilità di guadagnare rapidamente un'ampia quota del mercato dei PC. Mostra la variazione nel tempo dell'Indice di Herfindahl nel mercato dei mainframe. Le tre linee inferiori corrispondono a valori progressivamente minori assegnati all'esponente della quota di mercato, mentre tutti gli altri parametri sono mantenuti invariati rispetto al modello di base. Si può osservare che la concentrazione nel mercato, che riflette la quota di mercato dell'Impresa leader, diminuisce con la riduzione dell'effetto di lock in per i clienti. Risultati analoghi si ottengono (non riportati qui per motivi di spazio) per le simulazioni in cui le nuove imprese basate sulla tecnologia del microprocessore (MP) compaiono prima che IBM riesca a do. minare il mercato, e in cui le imprese che operano con la vecchia tecnologia incontrano maggiori difficoltà a passare alla nuova. Notiamo che, in entrambi i casi, l'indice di Herfindahl diminuisce in misura considerevole e la quota di IBM nel mercato mainframe si riduce, mentre aumenta quella delle imprese dotate della nuova tecnologia. Infine, viene esplorato il caso in cui la capacita di trasferire un ammontare cospicuo di risorse nella R-S e nella pubblicità dal vecchio mercato mainframe al nuovo mercato pc è più efficace di quanto non sia stata nel modello di base. Quindi, viene provato un nuovo insieme di parametri, nel quale, ore ai cambiamenti appena descritti, la diversificazione per IBM, resa più facile, in termini di costi e di capacità di portare una eredità pubblicitaria dal mercato dei mainframe a quello dei PC. Come illustrato dal grafico il primo cambiamento, da solo, provoca poche differenze nella struttura dell'industria dei Pe; tuttavia, quando IBM è messa in condizione di poter diversificare la propria attività senza difficoltà, essa arriva a dominare anche il mercato dei personal, come quello dei mainframe. Quindi i modelli evolutivi history friendly hanno come obiettivi: o Fare un resoconto degli storici industriali di settore attraverso dei modelli. o Interpretare i passaggi che portano all'equilibrio, cioè all'esito finale. o Ricostruire a livello reale ciò che è successo a livello artificiale. o Serve a fini predittivi, cioè per capire cosa succederà in futuro. o Rispondere alle domande. Tali modelli fanno riferimento all'indice di concentrazione. Se la concentrazione sale, rimangono poche imprese e poi aumenta la quota di mercato. Aumentando la quota di mercato rientrano imprese, che fanno diminuire la quota di mercato, ma poi riescono perché non riescono a coprire i costi e di conseguenza riaumenta l’indice. Approfondimenti e future linee di ricerca I modelli citati sopra individuano già chiaramente future linee di ricerca. Assai promettenti sono i modelli evolutivi che includono i processi di apprendimento e l’accumulazione di conoscenza delle imprese nella dinamica industriale. Infine lo sviluppo di modelli history friendly può riguardare l’evoluzione di industrie diverse da quella informatica, oppure tematiche specifiche quali la politica pubblica oppure i processi di diversificazione o di integrazione verticale delle imprese. CAPITOLO 8: PATTERN SETTORIALI DI INNOVAZIONE E DINAMICA INDUSTRIALE Regimi tecnologici e pattern settoriali di innovazione Introduzione L'organizzazione dell'attività innovativa e diversa tra industrie e tra tecnologie. Pattern settoriali delle attività innovative: evidenza empirica Schumpeter Mark I e Schumpeter Mark II Schumpeter propose fondamentalmente due pattern dell’attività innovativa. 1. II primo chiamato Schumpeter Mark I descritto nella Teoria dello sviluppo economico (1912). All'interno di questo contesto, il pattern dell'attività innovativa è caratterizzato da facilità di entrata in un'industria, e quindi dalla consistente presenza di nuove imprese. I nuovi imprenditori entrano in un settore con idee innovative, nuovi prodotti e nuovi processi, avvianо nuove imprese che sfidano quelle già insediate, e di conseguenza cambiano in continuazione i modi correnti della produzione, dell'organizzazione e della distribuzione, distruggendo le "rendite" associare alle precedenti innovazioni. 2. Il secondo pattern, chiamato Schumpeter Mark II, è presentato in Capitalismo, socialismo e democrazia (I942). Discusse la rilevanza dell'attività di Ricerca e Sviluppo (R-S) di laboratorio per l'innovazione tecnologica ed evidenziò il ruolo chiave delle grandi imprese. Secondo questo approccio, il pattern del le attività innovative è caratterizzato dalla prevalenza di grandi imprese insediate e dalla presenza di elevate barriere all'entrata. Grazie allo stock di conoscenze accumulate in specifiche aree tecnologiche, alle avanzate competenze in progetti di R-s di larga scala e alle rilevanti risorse finanzia- rie, queste grandi imprese creano seri ostacoli all'ingresso di nuovi imprenditori e delle piccole imprese. Durante gli ultimi quarant'anni, questa caratterizzazione ha stimolato una serie di verifiche empiriche. Un primo filone si è focalizzato sull’impresa e sulla struttura di mercato. Gli studiosi hanno tentato di stimare l’influenza e il peso della dimensione d'impresa e del potere di monopolio sul tasso di innovazione (Kamien, Schwartz, 1982). Sono state condotte analisi empiriche al fine di verificare il grado d’innovatività delle grandi imprese rispetto a quelle più piccole e delle industrie concentrate rispetto a quelle atomistiche. Nell'ambito di questi studi si sono ottenuti risultati non conclusivi. Ciò è dovuto all’aver trascurato il ruolo delle condizioni di opportunità e di appropriabilità nelle varie industrie (Levin, Cohen, Mowery, 1985), nonché le relazioni endogene esistenti tra dimensione di impresa, concentrazione e cambiamento tecnologico (Nelson, Winter, 1982). Una seconda e più recente corrente di pensiero ha collegato i modelli Schumpeter Mark I e Schumpeter Mark II allo specifico stadio del ciclo di vita di un'industria. Seguendo la teoria del ciclo di vita, all'inizio della storia di un'industria, quando la tecnologia è in continuo cambiamento, l'incertezza è molto elevata e le barriere all'entrata sono basse, le nuove imprese sono i principali innovatori e rappresentano l'elemento chiave della dinamica industriale. Tuttavia, quando l'industria si sviluppa ed i cambiamenti tecnologici seguono traiettorie ben definite, le economie di scala, le curve di apprendimento, le barriere all'entrata e le risorse finanziarie divengono importanti nel processo produttivo e competitivo, e le grandi imprese con potere monopolistico dominano le attività innovative. Diversamente dalle due precedenti correnti, focalizzate l'una sull'impresa, l'altra sul ciclo di vita di un'industria, l'impostazione qui presentata tende ad analizzare i pattern schumpeteriani di innovazione concentrandosi sulle modalità con cui le attività innovative sono organizzate e hanno luogo all'interno di un settore. I dati Per analizzare i pattern schumpeteriani Malerba e Orsenigo (1995,1996) hanno esaminato dati di brevetto, in particolare i brevetti registrati negli USA, per quattro paesi europei (Germania, Francia, Regno Unito ed Italia), nel periodo 1969-86 e le domande di brevetto presso l'EPO- CESPRI per sei paesi (Germania, Francia, Regno Unito, Italia, Stati Uniti e Giappone) nel periodo 1978-97. I pattern delle attività innovative sono stati analizzati sulla base di un insieme di indicatori: o la concentrazione delle attività innovative: è misurata attraverso il rapporto di concentrazione dei brevetti dei primi quattro innovatori (C4) sul totale dei brevetti di una classe tecnologica (tassonomia degli uffici di brevetto e sono simili ai settori industriali, sono gli ambiti) e attraverso l'Indice di Herfindahl sempre vedendo le quote di brevetto sulla totalità delle imprese (HERF); o la dimensione delle imprese innovative: è calcolata semplicemente come la quota delle domande totali di brevetto presentate dalle imprese con più di 500 addetti (SIZE); o la stabilità nella gerarchia degli innovatori: è misurata dal coefficiente di correlazione di rango di Spearman fra le imprese innovatrici negli anni 1978-85 e le imprese innovatrici negli anni 1986-9I (SPEATOT): si creano due finestre temporali e si creano i ranking per le imprese innovative, se la correlazione è superiore a 0,5 la correlazione è positiva, è più difficile che si manifesti la correlazione negativa oppure instabilità se si sta nell’intervallo -0,5 e 0,5; o l’entrata tecnologica: la rilevanza dei nuovi innovatori è misurata dalla quota di domande di brevetto richieste per la prima volta in una data classe tecnologica nel periodo 1986-91, sul numero totale di brevetti nello stesso periodo (ENTRY). I pattern d’innovazione sono strettamente legati al tipo di tecnologia I pattern schumpeteriani di innovazione sono caratterizzati dall’esistenza di specifiche relazioni tra queste misure. Si cerca di ricondurre l’atteggiarsi di queste variabili (alto-basso) ai modelli Mark I e Mark II. In particolare, il modello Schumpeter Mark I ha bassa concentrazione nell’attività innovativa, instabilità nell'ordinamento degli innovatori, alta entrata e piccola dimensione: bassa SIZE, bassa CR4, bassa SPEATOT e alta ENTRY. Al contrario, il modello Schumpeter Mark Il ha alta concentrazione nell'attività innovativa, alta stabilità nella gerarchia degli innovatori, bassa entrata di nuovi innovatori e grande dimensione: alta SIZE, alta CR4, alta SPEATOT e basso ENTRY. Può capitare che si verifichino situazioni che non sono riconducibili a questi due schemi individuati da Schumpeter. Dall'analisi empirica condotta con i dati di brevetto sono state riscontrate relazioni coerenti tra questi indicatori. Innanzitutto, l'analisi di correlazione tra le varie classi tecnologiche mostra in tutti i paesi una correlazione positiva tra la concentrazione (C4) e le asimmetrie (HERE), la stabilità nella gerarchia degli innovatori (SPEATOT) e la dimensione delle imprese innovatrici (SIZE), ed una correlazione negativa tra queste misure e l'entrata di nuovi innovatori (ENTRY). In secondo luogo, l'analisi delle componenti principali svolta per tutte le classi tecnologiche individua in tutti i paesi un fattore dominante che cattura un'ampia quota della varianza, e che include concentrazione (C4), asimmetria (HERF), stabilità nella gerarchia degli innovatori (SPEATOT) ed entrate innovative (ENTRY). In altre parole, questa componente cattura in maniera abbastanza precisa le variabili che caratterizzano le classi tecnologiche del tipo Schumpeter Mark I e Schumpeter Mark II. Le classi tecnologiche del tipo Schumpeter Mark I si possono trovare specialmente nei settori "tradizionali", nelle tecnologie meccaniche e nella strumentazione. Diversamente, la maggior parte delle tecnologie chimiche ed elettroniche sono caratterizzate dal modello Schumpeter Mark II. Questi pattern delle attività innovativa sono strettamente legati alla tecnologia: si osservano infatti forti somiglianze all’interno della stessa classe tecnologica tra i diversi paesi. L'analisi delle componenti principali mostra che molte dele classi che erano state incluse nei gruppi Schumpeter Mark I e Schumpeter Mark II sono le stesse in tutti i paesi. È tuttavia importante sottolineare che nonostante le similarità nell'ordine delle tecnologie esistono grandi differenze tra i paesi nei livelli assoluti dei vari indicatori. In generale, alcuni paesi sono più simili al modello Schumpeter Mark II (Germania, Giappone ed in misura minore gli Stati Uniti), mentre l'Italia è tipicamente un paese Schumpeter Mark I. Regimi tecnologici e pattern delle attività innovative Regimi tecnologici come determinanti dei pattern delle attività innovative L'evidenza empirica precedentemente discussa suggerisce l'esistenza di diversità tra settori e somiglianze tra paesi nei pattern dell’innovazione, per una specifica tecnologia. In particolare, Malerba e Orsenigo propongono di collegare i pattern settoriali osservati delle attività innovative alla natura del regime tecnologico rilevante. Malerba e Orsenigo hanno avanzato l’ipotesi che il regime tecnologico sia una combinazione particolare di alcune fondamentali proprietà delle tecnologie: opportunità, appropriabilità, cumulatività dell’avanzamento tecnologico, caratteristiche delle conoscenze di base. 1. Le condizioni di opportunità riflettono la facilità di innovare per ogni dato ammontare di risorse investito in ricerca. Possono essere identificate in 4 dimensioni di base dell’opportunità: livello, pervasività, fonti e varietà. o Livello: le opportunità tecnologiche possono essere alte o basse (innovazioni più numerose, più rilevanti e ottenibili in minor tempo). Alte opportunità forniscono forti incentivi ad intraprendere attività innovative. o Varietà: in alcuni casi, un alto livello di opportunità è associato ad un'ampia varietà di soluzioni tecnologiche. o Pervasività: in caso di alta pervasività, nuove conoscenze possono essere applicate a molti prodotti ed a molti mercati, mentre nel caso di bassa pervasività le nuove conoscenze si applicano solo a pochi (talvolta uno) prodotti e mercati. o Fonti: le fonti delle opportunità tecnologiche differiscono profondamente tra tecnologie e settori. In alcune industrie in condizioni di opportunità sono collegate ad importanti scoperte scientifiche a livello universitario. In altri settori le opportunità di innovare possono derivare da R-S. In altri settori le fonti esterne di conoscenze in termini di fornitori o utilizzatori possono giocare un ruolo cruciale. 2. Le condizioni di appropriabilità si riferiscono alla possibilità di proteggere le innovazioni dall’imitazione ed alla capacità di estrarre profitti dalle attività innovative. È possibile identificare il livello e i mezzi di appropriabilità. o Livello: i settori industriali possono essere ordinati secondo alte o basse condizioni di appropriabilità. Alta appropriabilità significa la possibilità di proteggere con successo I’innovazione dall'imitazione. Bassa appropriabilità denota un ambiente economico caratterizzato da ampie esternalità di conoscenza (spillover). o Mezzi di appropriabilità: le imprese utilizzano molti mezzi per proteggere le loro innovazioni, come i brevetti, la segretezza, le continue innovazioni ed il controllo delle risorse complementari, servizi post-vendita e asset complementari (impresa riesce ad appropriarsi dei profitti di innovazioni grazie al fatto che essa riesce a fornire all’utilizzatore o al consumatore risorse complementari e servizi non offerti da altri concorrenti). 3. Le condizioni di cumulatività si riferiscono al fatto che le innovazioni e l'attività innovativa di oggi sono il punto di partenza per le innovazioni di domani. Secondo questa definizione, si possono identificare quattro diversi livelli di cumulatività: o Livello tecnologico: la cumulatività può riferirsi semplicemente alla natura intrinsecamente cumulativa dei processi di apprendimento dal punto di vista strettamente cognitivo. o Livello d'impresa: la cumulatività a livello d'impresa nasce nel momento in cui la continuità dell'attività innovativa dipende fortemente dalle competenze delle specifiche imprese. o Livello settoriale: la cumulatività a livello d'industria può esse presente se esistono basse condizioni di appropria