Riassunti Audiovisivi Digitali PDF

Document Details

ExhilaratingEmpowerment6753

Uploaded by ExhilaratingEmpowerment6753

Università Mercatorum

Tags

media digitali storia dei computer tecnologie innovazioni

Summary

Questo documento offre un riassunto dei contenuti dell'introduzione del libro "Riassunti Audiovisivi Digitali". Si approfondiscono i concetti chiave di digitalizzazione della stampa, fotografia e la nascita di internet. Il documento evidenzia anche l'avvento dei personal computer e l'importanza dell'informatica nella seconda metà del XX secolo.

Full Transcript

RIASSUNTI AUDIOVISIVI DIGITALI Lezione 1 I computer sono nati in ambito militare durante la II guerra mondiale, anche se troppo tardi per dare un concreto aiuto allo sforzo bellico. Dopo la seconda guerra mondiale vengono utilizzati da banche, assicurazioni, università, pubbliche amministrazioni....

RIASSUNTI AUDIOVISIVI DIGITALI Lezione 1 I computer sono nati in ambito militare durante la II guerra mondiale, anche se troppo tardi per dare un concreto aiuto allo sforzo bellico. Dopo la seconda guerra mondiale vengono utilizzati da banche, assicurazioni, università, pubbliche amministrazioni. Il computer diventa personal negli anni Settanta, con la miniaturizzazione delle componenti elettroniche e l’abbassamento del loro costo. I luoghi in cui tutto ciò si è sviluppato sono gli Stati della costa occidentale degli Stati Uniti: gli stessi dove troviamo oggi Microsoft e Apple, Google, Facebook e Amazon. I dati venivano elaborati attraverso i computer e dovevano avere una forma numerica: digitale vuole dire proprio questo. “Digit” infatti in inglese significa numero e non è altro che il latino “digitus”. Il dito, appunto, quello che serve per contare con le mani. I processi di digitalizzazione, si applicano, a partire dagli anni Settanta a molteplici attività umane, tra cui i media Il primo è la stampa. Cinquant’anni fa ogni giorno i testi degli articoli venivano trasformati in righe di piombo su una grande macchina con una tastiera e una caldaia di piombo fuso, la linotype. Con il computer si affermò la “composizione a freddo”, le pagine potevano essere inviate via telefono (anche prima di Internet) e stampati in tipografie a centinaia di chilometri di distanza. Anche la fotografia cambiava. Nella camera oscura della macchina fotografica, invece della pellicola, si potevano inserire dei sensori digitali che rilevavano tutti i pixel. La foto diventava un file digitale che si poteva modificare, duplicare, correggere, stampare al computer, senza bisogno di sviluppare la pellicola e poi stamparla. Nei primi anni Ottanta, vengono messi in circolazione software (QuickTime, RealAudio e altri) che permettono di eseguire musica al computer e anche di ascoltarla in cuffia mentre si passeggia, in un formato più pratico e accessibile delle vecchie musicassette e dei vinili. Mangiadischi e Walkman cedono al “lettore MP3”. La trasformazione comincia a correre e pervade tutti gli ambiti. Come il computer anche Internet è, sostanzialmente, una tecnologia militare declassificata. Negli anni Sessanta, durante il periodo più caldo della “guerra fredda”, i militari americani avevano l’ossessione che un attacco nucleare a sorpresa privasse gli Stati Uniti della catena di comando, colpendo il Pentagono e la Casa Bianca, prima che si potesse organizzare una reazione. Per minimizzare i rischi in caso di attacco nucleare, concepirono Internet, una rete di telecomunicazione priva di centro, in cui ciascun nodo può connettersi con gli altri, attraverso percorsi diversi e permettendo di far giungere a destinazione i messaggi anche nel caso in cui parti della rete fossero inservibili. Col tempo la rete diventò nota a troppe persone e dunque insicura. I militari ne crearono una nuova (si chiamerà Milnet) e aprirono a usi civili quella esistente. Un passo decisivo fu il World Wide Web, che nasce all’inizio degli anni Novanta nei laboratori CERN di Ginevra per iniziativa di Tim Barners Lee. La gratuità della rete Internet dipende dal fatto che i suoi protocolli sono open source, disponibili a tutti, perchè elaborati da un’istituzione pubblica di ricerca europea. Si naviga attraverso i browser, software che permettono di navigare nella rete da un sito all’altro La posta elettronica è all’inizio l’applicazione più diffusa, gestita attraverso software specifici come Outlook. Il modem è il dispositivo che permette il transito dei dati digitali sulle reti analogiche di comunicazione Il successo di Internet è dovuto anche al fatto di non aver dovuto costruire linee (come accadde per le ferrovie, o il telefono), ma aver utilizzato quelle che già c’erano, premendo per il loro continuo adeguamento ai nuovi standard e alle esigenze di velocità di cui particolarmente i video hanno bisogno. Il Novecento è stato indubbiamente il secolo dell'’immagine in movimento. Il cinema era stato appena inventato (1895). Per i primi cinquant’anni del secolo il cinema è stato il protagonista principale, poi ha dovuto fare i conti con la televisione, in Italia dal 1954. Cinema e televisione hanno usato nel Novecento tecnologie di produzione diverse, oggi digitalizzate e molto simili fra loro Il cinema produceva in pellicola, poi procedeva al montaggio del girato e altre operazioni di “postproduzione”; infine realizzava tante copie positive del film che venivano distribuite fisicamente alle sale cinematografiche. La televisione delle origini poteva trasmettere soltanto in diretta “via etere”, attraverso le onde elettromagnetiche. Quando la Tv riuscì a registrare i propri programmi utilizzò il nastro videomagnetico, non la pellicola. La saga di Star Wars e Tron (Disney) sono considerati la prima affermazione del fascino degli effetti speciali elaborati al computer La digitalizzazione dell’audiovisivo è avvenuta lentamente, sia per le perplessità di vari registi e critici, sia per non turbare il rapporto con il pubblico Molti registi e critici ritenevano (e alcuni ritengono tuttora) la pellicola un formato di qualità superiore. La ripresa digitale ha migliorato col tempo la sua qualità, e i grandi risparmi di costi e di tempo che consente hanno fatto la differenza. Oggi la pellicola non è più prodotta industrialmente, e quasi mai si gira in pellicola. La distribuzione rimaneva analogica per non turbare il rapporto col pubblico con una operazione complicata: si trattava di dotare tutte le sale cinematografiche di proiettori digitali e di convincere i telespettatori ad acquistare uno schermo digitale. I distributori cinematografici temevano la “pirateria” di chi avrebbe clonato le copie digitali dei film recapitate agli esercenti via Internet o fisicamente con un DCP, un Digital Cinema Pack, sostanzialmente un hard disk. Dal canto loro i dirigenti televisivi ricordavano continuamente che solo il colore, fra le tante innovazioni, era stato in grado di far gettare il vecchio televisore per acquistare un nuovo tv color. Sarebbero stati smentiti: i nuovi schermi piatti sarebbero stati capaci di rottamare gli ingombranti apparecchi a tubo catodico dando vita a una «Smart Tv» con funzioni di navigazione e ricerca simili a un personal computer, ad altissima definizione. Oggi gran parte del cinema e tutta la tv sono prodotti e distribuiti in forma digitale. La cosa più importante, tuttavia, è l’abbassamento delle barriere, prima invalicabili, che impedivano alle persone comuni di fare vedere ad altri i “loro” audiovisivi. Dopo il 2006, assorbito lo choc degli attentati dell’11 settembre 2001 che avevano rallentato la crescita di Internet, le reti hanno ormai la capienza per trasportare segnali audiovisivi con sufficiente velocità. Inoltre si è diffuso il Wi-Fi che ha permesso il collegamento a Internet anche in mobilità. Con queste premesse, nasce nel 2007 lo smartphone. Negli stessi anni si affermano i social network dove avviene l’incontro-scontro fra le industrie novecentesche dell’audiovisivo (cinema e radiotelevisione), i media ormai digitalizzati (i siti e le tv dei giornali quotidiani), e le persone comuni con tutte le loro relazioni e aggregazioni sociali. Il download è la tecnica per prelevare un qualunque file da Internet e conservarlo nel proprio computer Con l’arrivo del digitale nell’audiovisivo la produzione di audiovisivi di ogni tipo è cresciuta esponenzialmente, perché tutti possono girarli e diffonderli Le funzioni sociali dell’audiovisivo oggi sono cresciute esponenzialmente, facendo dell’audiovisivo la forma preferita per illustrare concetti, pratiche, messaggi Lezione 2 Si intende per analogico una tecnologia che descrive i processi per somiglianza, per analogia. La pellicola cinematografica o il nastro magnetico della tv sono analogici: mostrano un’immagine che è analoga all’oggetto che rappresentano. Un orologio con le lancette ha un quadrante costruito in analogia (somiglianza) con il ruotare delle ore nella mezza giornata (da 0 a 12) e la posizione delle lancette indica approssimativamente l’ora e il minuto attuali. NON è un orologio analogico un orologio che funziona senza lancette La rappresentazione analogica sembra rispondere meglio alla natura continua della maggior parte dei fenomeni, mentre la rappresentazione digitale ha significato un progresso nella precisione e nella leggibilità della misurazione numerica. L’elettronica non comporta di per sé la digitalizzazione; “elettronico” significa semplicemente che gli apparecchi elettronici si basano, per il loro funzionamento, sulle valvole elettroniche e le componenti che ne sono l'evoluzione Il primo medium a fare uso delle valvole elettroniche è stato la radio Quando entriamo in tema di computer e digitalizzazione si parla di numerazione binaria, una numerazione che si avvale esclusivamente di due numeri, lo 0 e l'1 Quando si parla per il computer linguaggio digitale e linguaggio binario sono sinonimi Il computer riconosce solo due posizioni, 0 e 1, sì e no, on e off, con i suoi circuiti accesi o spenti. Invece i nostri sensi percepiscono il mondo come una variazione continua della voce, o lo sfumare dei colori, ossia in modo analogico. Il computer ha cominciato molto presto ad elaborare dati, ad esempio testi scritti e stampati, che non avevano all’origine una natura numerica e per poterli processare sono stati tradotti in linguaggio digitale binario. Gli audiovisivi del passato sono oggetto di una intensa digitalizzazione in modo selettivo, sulla base della loro rilevanza culturale ed economica Lo stesso è avvenuto con le immagini e con i suoni del passato che sono stati resi digitali attraverso la campionatura. Testi, immagini e suoni del passato una volta digitalizzati sono pienamente compatibili con quelli generati direttamente in digitale. La rappresentazione digitale si è diffusa prevalentemente con l’introduzione degli elaboratori elettronici. In uno scanner ad esempio un sensore rileva dati e li trasmette a un elaboratore che li processa e li rende disponibili per altri usi Lo scanner può anche leggere un testo scritto, che poi può digitalizzare attraverso un software OCR OCR = software che legge i testi scritti e li digitalizza Digitale nativo = un dato generato dall'origine a un dispositivo digitale La digitalizzazione ha assunto col tempo proporzioni grandiose, poiché essere digitalizzati significa avere maggiori probabilità di sopravvivere e di essere consultabili. La creazione di nuovi contenuti incorpora e trasforma frammenti del patrimonio culturale precedente, opportunamente digitalizzati, ma può dar vita anche ad oggetti del tutto nuovi. Si è attenuato quel “complesso di superiorità” che definiva qualitativamente e artisticamente inferiore ciò che era prodotto e/o distribuito in formato digitale. La digitalizzazione nel cinema e nella fotografia può essere avvertita come la scomparsa di un artigianato indipendente e creativo sostituita da un’industria dello spettacolo più attenta all’aspetto quantitativo e commerciale e con una spiccata dimensione planetaria come Amazon, Netflix, Google e di simili operatori internazionali definiti OTT (Over-The-Top). La “rimediazione”, come è stata definita da Bolter e Grusin, indica il complesso dei processi con cui i media cambiano tecnologie, linguaggi e rapporti con i loro pubblici Lezione 3 Medium (plurale: media) è una parola latina che ritorna a noi tramite l’inglese. Significa originariamente “mezzo”. E’ stato McLuhan a darci la prima comprensiva definizione dei media, con il suo volume “Understanding Media. The Extensions of Man” del 1964. I media costituiscono, secondo McLuhan, delle estensioni dell’essere umano perché consentono la fruizione di contenuti che non sono alla portata dei nostri sensi, collegandoci a essi I media non sono tutti uguali; possiamo intanto distinguere tra medium “peer to peer”, P2P, come il telefono e medium “broadcast”, accessibile a tutte le persone all’interno di un’area di ricezione Mentre nella comunicazione P2P l’emittente e il ricevente si scambiano alternativamente i ruoli, nella comunicazione uno a molti c’è qualcuno che parla e altri che ascoltano; la comunicazione è prevalentemente unidirezionale. La comunicazione uno a molti ha incontrato nel tempo gravi difficoltà nel riunire fisicamente parecchie persone. La comunicazione faccia-a-faccia è caratteristica delle società rurali Alla fine del Settecento si pongono le premesse per l’avvento della comunicazione di massa. Con la Rivoluzione americana e con la Rivoluzione francese si afferma per la prima volta la libertà di pensiero e la libertà di stampa. Con la rivoluzione industriale si determinano le condizioni sociali e tecnologiche per l’affermazione della civiltà industriale, fondata sulla manifattura e sulla fabbrica. Nel corso dell’Ottocento la diffusione dell’industria per la prima volta costituisce un’alternativa all’agricoltura, le città crescono rapidamente e si comincia a parlare di “vita metropolitana”. Nella città si muovono ormai grandi masse di lavoratori-cittadini che diventano bersaglio della comunicazione commerciale o pubblicitaria. Si comprende così lo sviluppo della comunicazione di massa, che si muove sempre tra due possibili finalità: -lo sviluppo della pubblica opinione, della sfera pubblica, della vita politica; -la produzione e il commercio dei manufatti industriali e dei servizi. Con la rivoluzione industriale la manifattura produce tanti manufatti in serie. Allo stesso modo la comunicazione si orienta sempre più sulla riproduzione seriale. Il concetto di “riproducibilità tecnica” lo dobbiamo a Walter Benjamin Esule in Francia, in fuga dalla Germania nazista, Benjamin applica alla storia dell’arte il concetto di riproducibilità nell’epoca in cui originale e copia sono sempre più simili fino a confondersi. La comunicazione e i media diventano cruciali agli albori del Novecento sia dal punto di vista politico che da quello economico, ma anche le monete antiche possono essere considerate dei media perché erano fatte in serie e diffondevano l’immagine del sovrano Le sculture romane sono in gran parte copie di precedenti sculture greche. Gli affreschi delle chiese medievali possono considerarsi un antecedente dei media audiovisivi perché le pitture, insieme al commento di una guida, insegnavano la vita dei santi a un popolo di analfabeti L’immagine appare come un medium minore, imperfetto rispetto alla parola scritta, ma necessitato dall’ignoranza dei fedeli. I media scritti sono progressivamente sfidati dai media audiovisivi Molti media sono frutto del lavoro di vari inventori, spesso in competizione tra loro perché la società di massa stimolava la ricerca per superare i limiti e risolvere i problemi dell’epoca È comunque riduttivo indicare i media come la conseguenza di invenzioni: le invenzioni hanno successo se e quando vi sono le condizioni sociali per la loro affermazione. Determinismo tecnologico= attribuzione a invenzioni tecnologiche di tendenze in atto nella società Lezione 4 La digitalizzazione dei media del Novecento è stata affrontata da ciascun media in modi e tempi diversi Non era così evidente che si stava entrando nel nuovo sistema digitale. Nessuno si rendeva conto che stava costituendo una enorme biblioteca virtuale di testi digitali che poi avrebbe costituito la materia prima, negli anni Duemila, della circolazione via internet di prodotti mediali. Era anche difficile capire che quando i media vengono digitalizzati i testi vengono tutti convertiti in sequenze di numeri 0 e 1, annullando le differenze tra i singoli media. Il media più antico è sicuramente la stampa, che risale al Rinascimento. Tecniche di stampa esistevano già, compresa la xilografia, l’incisione su legno che dava la possibilità di una certa riproducibilità tecnica, ma la grande idea di Gutenberg fu la stampa fondata sulla tecnica dei “caratteri mobili”, o “tipi” (di qui il termine tipografia). Erano dei cubetti di legno, poi di metallo, che recavano inciso un carattere (un numero, una lettera), al rovescio. Composti in righe e poi in pagine, i tipi potevano essere inchiostrati e poi stampati con un torchio, derivato da una pressa per il vino (di qui il nome “press” in molte lingue) in un numero molto elevato di esemplari. Prima tutti i libri erano scritti e copiati a mano. Una volta utilizzati per un libro, i tipi potevano essere smontati e utilizzati di nuovo per comporre un altro volume: una notevolissima economia di scala. La macchina che ha permesso alla stampa di raggiungere la diffusione e le tirature dei quotidiani del Novecento è stata la linotype, che tuttavia era pericolosa per i tipografi per la tossicità del piombo. La cosiddetta 'composizione a freddo ' elimina la complessità e il calore delle righe di stampa in piombo fuso Si trattava sostanzialmente di un computer, di un software di impaginazione, di un collegamento via filo per trasmettere i dati digitali. La fotografia analogica si ottiene con un processo ottico, chimico, meccanico. Solo nell’Ottocento si determinarono le condizioni per l’uso sociale della fotografia nella società di massa. La fotografia da un lato esaltava la sua capacità di riprodurre la realtà fino quasi a confondersi con essa, dall’altro proclamava la sua natura soggettiva e artistica. La cattura della luce e la sua riproduzione è caratteristica di tutta la fotografia, analogica e digitale, ma viene effettuata in modi diversi La fotografia digitale è il risultato di un procedimento digitale, ottico e meccanico Nel corpo della macchina fotografica digitale troviamo un complesso di sensori CCD Per quanto riguarda la musica, distinguiamo tra musica generata (con strumenti musicali tradizionali o elettronici) e musica riprodotta (cilindro, disco, nastro, musicassetta, CD). La riproduzione digitale della musica è l'evoluzione digitale del disco fonografico I due principali software per eseguire una registrazione musicale sul proprio computer sono QuickTime e Real Audio L'industria discografica ha temuto la musica digitale perché facilita la copia in alta qualità L’industria discografica, infatti, è stata la prima ad aver affrontato la pirateria Lezione 5 (sono state integrate la lezione 35 e 36, visto che l’argomento era lo stesso) La digitalizzazione dei media audiovisivi è stata causata dalla semplificazione ed economicità dei processi di produzione e diffusione e in secondo luogo dalla ricerca di una maggiore qualità. Nonostante oggi il digitale abbia affermato la propria qualità permane un’area di “nostalgia per l’analogico”, la convinzione che i prodotti audiovisivi analogici avessero una maggiore qualità La parola "film" significa pellicola. Fino al 2014 producono pellicola per film Fuji e Kodak, poi la produzione è cessata Nel cinema, i processi di produzione in digitale si avvalgono di una macchina da presa digitale che sostituisce alla pellicola i sensori digitali. Postproduzione= ultimo segmento della produzione cinematografica, dopo aver effettuato le riprese: montaggio, effetti speciali, correzione di errori di ripresa, titoli e crediti, correzioni del colore e del suono. La postproduzione digitale comprende: effetti speciali, correzione di errori di ripresa, editing non lineare, Mixer Audio e Color correction Il cinema è stato un medium pionieristico nell’introduzione del digitale soprattutto per gli effetti speciali Il genere cinematografico in cui per prime si sono affermate tecnologie di produzione digitale è la fantascienza Il digitale fa compire un grosso passo avanti perché queste riprese possono essere effettuate con minor costo e minor tempo. Gli effetti speciali nel cinema digitale si sviluppano nelle rendering farms, senza spostamenti e senza rischi. Rendering farm"= società specializzata nella postproduzione video digitale del cinema e della TV. Inoltre, attraverso il motion capture è possibile la cattura del movimento tramite marcatori applicati a corpi e ripresi da telecamere per poi applicarli ad un personaggio virtuale. Il rendering è la creazione di immagini al computer, cumulando e modificando immagini precedenti. Per esempio ne “Il gladiatore” di Ridley Scott (2000) gli spalti gremiti del Colosseo sono un copia/incolla di più esemplari dell'unico spicchio di gradinate effettivamente occupato. Il digitale inoltre è ottimo per cancellare tutti quegli errori di ripresa di cui ci si accorge in montaggio e sono difficili da togliere: cavi elettrici sul pavimento, anacronismi nei film in costume (antenne televisive, impianti elettrici, cartelli), raddrizzamento di immagini storte o ondeggianti, inserimento o cancellazione di oggetti. Per quanto riguarda il lavoro al mixer audio, vengono lavorate le varie piste sonore: ciascuna ha tono, volume, qualità diversa e occorre armonizzarle. Inoltre possono esserci errori nell’esecuzione del suono o nella sua cattura: rumori esterni non graditi come vento, colpi di tosse, sganciamenti del microfono. La procedura di Color correction è un lavoro di armonizzazione dei colori delle sequenze del film, che sono state riprese in momenti e con luci diverse, da differenti obiettivi e varie videocamere. Il digitale permette, in montaggio, di zoomare su un’immagine per eliminare dettagli come marchi o time code. Time code = sequenza di numeri sovrapposta alle immagini girate, per indicare in montaggio il minutaggio e la sequenza Nel montaggio lineare ci si avvaleva soprattutto dell’uso della moviola; si trattava di un montaggio lineare e fisico, con pezzetti di pellicola tagliati e giuntati dal montatore. Un film lungometraggio montato occupava più di 2 km di pellicola. Nel montaggio digitale tutto il materiale che serve a fare il film (girato, repertorio, audio comprese musiche e voci fuori campo) viene preliminarmente inserito e codificato nel programma di montaggio in un apposito database. Tutti gli assemblaggi, le modifiche, i tagli hanno la forma di una serie di istruzioni digitali per la gestione dei materiali inseriti nel database. Esse possono essere continuamente cambiate, spostate, corrette senza alcun intervento fisico sul materiale, fino alla versione definitiva. Nel montaggio digitale non c’è la Moviola, ma il computer; si può montare anche a casa propria, o al tavolino di un bar. Il programma di montaggio è un software. Avid, Final Cut e Adobe Premiere sono i principali software di postproduzione, per il montaggio digitale professionale. Il primo a nascere è Avid (1989), seguito poi da Final Cut, che ha progressivamente ampliato il suo spazio (lavorando in ambiente Apple) e si sta poi “suicidando”, avendo presentato dalla versione 10 in poi, un prodotto più orientato al mercato consumer e non a quello professionale. Tuttavia molti appassionati di Final Cut (che continuano a lavorare con la versione 7), meditano di passare a Adobe Premiere. Il costo del supporto non esiste e non c’è l’incubo di consumare troppa pellicola, né tempi e costi di sviluppo. Le macchine da presa possono avere dimensioni ridottissime. Si può vedere quello che si sta girando sul display Le fasi della digitalizzazione nel cinema sono: postproduzione, produzione, distribuzione-esercizio Prima del cinema digitale, la delivery del film avveniva attraverso la consegna all'esercente cinematografico di una "pizza" (copia analogica) del film La delivery del film era resa più difficoltosa dall'uso della pellicola, le copie costavano circa 3.000 euro ciascuna e, terminata la fase di lancio, erano in gran parte inutili. Nei media audiovisivi, per delivery si intende la diffusione di un programma o di un contenuto, consegnandolo al consumatore, l’insieme delle piattaforme tecnologiche e dei mezzi di trasporto (reali o virtuali) che «consegnano» un programma televisivo, un film, una serie, un video, consentendo allo spettatore di usufruirne. Dal punto di vista degli esercenti il passaggio al digitale ha richiesto la sostituzione del proiettore. I primi ad attrezzarsi per la proiezione digitale sono stati i multiplex. A seguire, le multisale. Multisala= locale dedito allo spettacolo cinematografico, dotato di più sale programmabili contemporaneamente, concentrando i servizi (biglietteria, controllo biglietti, bar) e realizzando economie di scala. Multiplex= multisala con almeno 8 schermi, generalmente collocato in centri commerciali e/o lungo le grandi vie di comunicazione. La “pizza” analogica è stata inizialmente sostituita da un DCP,Digital Cinema Package, un Hard Disk con dentro il film, criptato per evitare riproduzioni indesiderate, facilmente producibile e trasportabile. Il DCP è lo standard riconosciuto per la conservazione e il trasporto di contenuti digitali compressi senza perdita di qualità, in formato compatibile con i proiettori anche per grandi dimensioni e contraddistinto da un’ interoperabilità molto ampia. Per inviare un audiovisivo affinché sia proiettato in un festival, verrà richiesto un DCP. La diffusione digitale del cinema nelle sale è l'ultimo stadio della digitalizzazione del cinema ed è ancora in corso La delivery digitale minaccia l’esclusività dell’esercente tradizionale, quello che si considera l’unico erogatore del cinema nelle sale. Non ama che biblioteche, circoli culturali, bar e ristoranti, si dotino della possibilità di offrire uno spettacolo con tutte le caratteristiche della sala. Tuttavia è sempre più difficile impedire che anche queste tipologie di soggetti accedano a film di pregio e ottengano digitalmente il diritto di proiettarli. Sala di prossimità= piccole sale nei centri urbani, con pochi schermi Possono programmare anche prime d’opera, concerti, documentari, balletti, eventi, festival: sta già accadendo con alcune produzioni come NEXO DIGITAL. Al cinema oggi è possibile abbinare alla visione del film eventi live connessi, ad esempio cinema e spettacolo musicale, cinema e cena dopo lo spettacolo La tv mutua dal cinema gli aspetti produttivi digitali, ma è restia a trasmettere in digitale per non costringere il pubblico a comprare un nuovo televisore digitale, o a munirsi di un decoder, modificando le proprie abitudini e affrontando spese. La diffusione digitale della televisione è stata molto successiva alla digitalizzazione dei programmi Nel 2000, la televisione diventa digitale, ma il passaggio al digitale si compie nel 2012, in Italia La transizione al digitale richiede di cambiare il vecchio televisore, o dotarlo di un «decoder». Prima del digitale non era mai necessario installare un decoder La trasmissione televisiva in digitale, se accompagnata da una linea telefonica, comporta: -la moltiplicazione dei canali di trasmissione che sono file digitali, comprimibili per occupare meno spazio, essendo l’etere ormai saturo -il «billing», un efficace sistema digitale di fatturazione dei contenuti da parte degli utenti, simile a quello delle bollette telefoniche. Il passaggio dalla televisione analogica alla televisione digitale si divide in due fasi: Switch-over: fase intermedia della transizione alla televisione digitale in cui convivono sia la televisione analogica che la televisione digitale Switch-off: fase terminale, totale spegnimento della televisione analogica. John Ellis definisce la fase digitale della tv, della molteplicità di canali tv e della personalizzazione del consumo: l'era dell'abbondanza Le modalità di transizione alle trasmissioni digitali sono: tre: il digitale terrestre, il digitale satellitare, la larga banda La delivery digitale della televisione NON può avvenire tramite bluethooth La «larga banda» (broadband) è un tipo di connessione via cavo; il cablaggio ottimale utilizza interamente la fibra ottica. Di fronte ai costi del cablaggio sono stati introdotti sistemi di compressione sul tradizionale doppino, il filo telefonico che arriva dentro le abitazioni, per realizzare connessioni veloci. Il digitale satellitare ha assicurato la prima fase del passaggio al digitale. Diversamente da un cavo a larga banda, un canale di ritorno è assicurato dall’utenza telefonica dell’abitazione per trasmettere all’emittente i programmi da acquistare, e per ricevere gli algoritmi grazie ai quali il decoder rende comprensibile il segnale che altrimenti appare criptato. La trasmissione «codificata» o «criptata» è visibile solo attraverso un decoder, richiede l’inserimento di una smart card, necessita di un collegamento a una linea telefonica. Oltre alla pluralità di contenuti c’è una minore invadenza della pubblicità La tv generalista è strutturata su un palinsesto, è una tecnologia di flusso «push», che spinge verso lo spettatore i suoi contenuti in competizione con altre offerte. La televisione a pagamento è una tecnologia «pull», che rende disponibili elenchi di contenuti, da cui lo spettatore preleva solo ciò che è di suo gradimento. Infine c’è il «digitale terrestre», la digitalizzazione delle onde elettromagnetiche che trasmettono i programmi radiofonici o televisivi. Per prestazioni e qualità è simile alla televisione digitale satellitare, però il digitale terrestre moltiplica l’offerta gratuita di canali, necessita di un semplice decoder che consente anche ad un televisore analogico di ricevere il segnale digitale, non richiede l’installazione di un’antenna parabolica. Il digitale terrestre utilizza le strutture preesistenti create per la televisione analogica terrestre Pay per view = emittente televisiva che permette l'acquisto di singoli eventi La pay per view è più profittevole per il gestore e più personalizzata, più rispettosa delle scelte del pubblico, ma in ambiente analogico è praticamente impossibile. Per un «narrowcasting» infatti la priorità è la trasmissione di programmi rivolti a bisogni specifici o a audience segmentate, tipica della tv tematica e a pagamento, contrapposta a una modalità di trasmissione rivolta a una platea ampia e generalista, detta appunto «broadcasting». Il gestore di una piattaforma digitale si trova a disposizione una grande quantità di canali che deve riempire. Cercherà innanzitutto un’alleanza internazionale per accedere a prodotti televisivi globalizzati e stipulerà poi contratti con alcuni «content provider» per realizzare i canali che portano il suo marchio. La televisione a pagamento è quindi molto diversa da quella generalista. Un broadcasting tradizionale è fortemente connotato dai programmi che manda in onda, per un narrowcasting questa identificazione è più debole perchè controlla solo una parte della sua programmazione. Con l’affermarsi del digitale cambia il rapporto con il consumatore, perché è lui che paga, mentre nella televisione generalista a pagare sono gli investitori pubblicitari. Il giudizio del pubblico diventa più importante di quello degli inserzionisti. Al momento di rinnovare l’abbonamento, l’utente valuta il servizio ricevuto e decide. Certo, la televisione tematica non unisce tutta una nazione che si raccoglie attorno ad una narrazione condivisa, e questo spiega perché, in tutto il mondo, la TV generalista è rimasta un’offerta culturale importante, contraddistinta da un legame profondo con l’esperienza familiare. In questo nuovo ambiente crossmediale troviamo anche le «Web TV» e le «Web Radio». Web TV= servizio di televisione fruito in streaming attraverso Internet Si comincia a parlare di Web TV attorno al 2000 ma tutto cambia soltanto nel 2006 quando il trauma dell’11 settembre è stato riassorbito. Lo «streaming video» si afferma come nuova ed efficiente forma di distribuzione e dà un contributo determinante alla formazione di un nuovo ambiente crossmediale, in cui i contenuti migrano continuamente da un medium all’altro, dall’ambiente mediale a quello dei social network, e viceversa; mentre ad ogni passaggio è possibile modificarlo, copiarlo, aggiungendo commenti e altri materiali. Il vantaggio principale per una Web TV è quello di essere raggiungibile in tutto il mondo. Ha una soglia di accesso molto bassa, computer collegato a Internet, con connessioni veloci e costose. Mediante una Web TV l'utente ha la possibilità di: -creare un palinsesto personalizzato -eliminare i tempi morti -fruire senza un limite massimo di canali -riprodurre senza confini il contributo audiovisivo desiderato -interagire in maniera maggiore La delivery via Internet è quella preferita perché è l’unica nativamente interattiva, che permette di ordinare e pagare direttamente dal televisore e di sganciare definitivamente la visione dall’ambiente domestico, abilitando la fruizione in mobilità e da dispositivi diversi. La radio è un medium solo audio, ma si sta diffondendo il fenomeno di radio come RTL 102,5 che scelgono di avere un proprio canale televisivo, quindi la includiamo fra i media audiovisivi. La digitalizzazione della radio è stata ritardata dall'assenza di servizi a pagamento da abbinare e dal costo modesto degli apparecchi analogici. La radio digitale, in particolare con lo standard DAB (uno dei principali standard di radiofonia digitale) per ora affianca e non sostituisce la diffusione analogica. Le Web Radio trasmettono mediante Internet, senza antenna e senza segnale via etere. Le Web Radio possono essere divise in tre tipologie: -siti web di stazioni radiofoniche via etere già esistenti. Questi siti ripetono il contenuto audio che viene trasmesso via etere in simulcasting, estendendo la portata del segnale originale ben oltre i suoi limiti geografici -emittenti esclusivamente via web, senza antenna e senza segnale via etere, evitando ostacoli di natura economica o burocratica -radio tematiche: portali web che offrono numerosi canali. Queste radio avevano una formattazione molto debole e sono state decimate dall’improvviso declino della net economy nel 2000 e soprattutto dalla diffusione della pratica dello scambio della musica in rete, che consentiva agli utenti di costruirsi compilation personali e di usare la rete in modo più interattivo e tagliato sulle proprie esigenze. Il processo di digitalizzazione della radio è un processo che si colloca negli Anni Venti di questo secolo Il perché la radio sia ancora analogica, diversamente da tutti gli altri media, è senza dubbio un quesito che in molti si pongono. Di canone non si parla nemmeno, perché il ̀ pagamento del canone televisivo consente anche di ascoltare la radio della Rai e il costo degli apparecchi è irrilevante. Sarebbe difficile pensare un modo per incassare ipotetici pagamenti di una trasmissione radiofonica. In altre parole, la digitalizzazione è un costo che non si sa bene come recuperare e quali concreti vantaggi porterebbe all’ascoltatore. Gli standard della radio digitale sono diversi nel mondo. In Europa ha prevalso il DAB (Digital audio broadcasting), poi evoluto nel DAB Plus, ufficialmente scelto nel 2009 dall’Autorità per le garanzie nelle comunicazioni (AGCOM). Di fatto la digitalizzazione ha cominciato ad affermarsi quando le emittenti televisive hanno effettuato la migrazione sulle loro frequenze digitali, lasciando libere quelle da assegnarsi al DAB. Pur avendo sperimentato vari standard e avendone anche scelto ufficialmente uno, la digitalizzazione va molto a rilento. Tra l’altro il passaggio al digitale delle frequenze terrestri usate per la radio è tecnicamente analogo a quello televisivo. Purtroppo non c’è la possibilità realistica di creare servizi a grande valore aggiunto perché, diversamente dalla TV, quando la radio diventa digitale questi servizi si sono già generati fuori, su Internet, sui social network. Inoltre c’è un’importante differenza tra la radio e la televisione nella transizione al digitale: la televisione può usufruire al massimo delle potenzialità di questa tecnologia, comprimendo il segnale e utilizzando la stessa frequenza per diffondere più canali; la radio necessita di apparecchi pesanti e costosi. Sia la trasmissione in digitale che la Web Radio si pongono in contrasto con la tendenza vincente della radio, cioè la miniaturizzazione e lo spirito mobile Lezione 6 Abaco= pallottoliere che aiuta a fare i calcoli É difficile per noi pensare che fino a settant’anni fa il calcolo fosse un serio problema. Oggi ci sembra ovvio affidarci a un computer Le principali funzioni di un computer sono: risolvere problemi logici grazie al calcolo e ai dati in memoria e applicarli alla programmazione di macchine e dispositivi Il matematico inglese Charles Babbage nella prima metà dell’Ottocento, andò più vicino di ogni altro ai concetti che avrebbero dato vita ai moderni calcolatori elettronici. Un problema era l’immissione dei dati nella macchina. La prima attività in cui si riscontra attività di programmazione è la tessitura e le schede perforate risalgono al telaio Jacquard, inventate nel 1801 e si trattava del primo esempio concreto di programmazione di una macchina. Programmazione=insieme delle istruzioni necessarie al funzionamento di una macchina automatica Nel 1889 venne messa a punto la 'counting machine', la tabulatrice di Hollerith, un efficiente dispositivo elettromeccanico, una macchina funzionante e affidabile, costruita in serie e pienamente compatibile con le capacità produttive del suo tempo. Era destinata ad essere venduta a grandi società, governi esteri ed imprese, e l'IBM nasce dalla commercializzazione delle macchine tabulatrici di Hollerith. I limiti delle calcolatrici meccaniche erano: l'insufficienza della meccanica di precisione dell'epoca e il calore e l'attrito dovuto alle grandi quantità di oggetti da movimentare Nel 1927 entra in funzione al MIT, una macchina denominata “Differential analyzer”, realizzata da Vannevar Bush e altri professori. Era un sistema analogico, parzialmente elettromeccanico e parzialmente elettronico, ma il problema rimaneva quello di impostare sulla macchina il programma necessario per il calcolo da effettuare. Intanto in Germania Zuse, nel 1936, realizza il suo Z1. La caratteristica più innovativa del computer di Konrad Zuse era l'uso della numerazione binaria La Germania nazista entra in guerra nel 1939 e le macchine di Zuse interessano l’aviazione militare, la Luftwaffe. Nel 1936, un grande matematico inglese, Alan Turing dimostra la “computabilità”, ovvero la possibilità di creare una macchina algoritmica di uso generale. Lezione 7 Alla fine degli anni Trenta i calcolatori non sono più una curiosità per gli scienziati, ma hanno una forte rilevanza nei paesi che si stanno avvicinando alla Seconda guerra mondiale. Prima e durante la Seconda guerra mondiale la ricerca non si arresta, anzi riceve un forte impulso, per gli usi bellici del calcolo I calcolatori elettronici sono considerati molto importanti dagli eserciti in lotta: -gli inglesi li utilizzano nella speranza di decifrare i codici segreti dei nemici -gli americani per i calcoli balistici, per la direzione di tiro dell’artiglieria -i tedeschi durante la Seconda guerra mondiale usarono i calcolatori per i calcoli dell'industria aeronautica In Germania a occuparsi di calcolatori c’è Zuse che realizza lo Z 1, 2 e 3 per l’industria aeronautica. Lo Z 3 viene distrutto dai bombardamenti aerei su Berlino, Zuse non si perde d’animo e si mette a costruire il suo Z 4, ma la guerra ormai è perduta. Nel 1945 le attrezzature di Konrad Zuse vengono allontanate da Berlino perché non cadano nelle mani dei sovietici, finché fu contattato dal Politecnico di Zurigo e nel 1950 lo Z 4 arriva in Svizzera. Gli inglesi non riuscivano a decifrare le comunicazioni del nemico, specialmente quelle dei temuti sommergibili germanici perchè si avvalevano di Enigma, una complessa macchina tedesca per criptare le comunicazioni Al Museo Postale dell’Eur, a Roma, se ne trova un esemplare; appare come una grossa macchina da scrivere. Non riuscendo a decifrare le comunicazioni di Enigma, il governo inglese rese Bletchey Park il luogo nel quale gli inglesi cercavano di decifrare i messaggi dei tedeschi, con una squadra di matematici, professori di logica ed enigmisti cercava di decifrare il codice di Enigma. Fra questi studiosi e intellettuali c’era Alan Turing, che costruì Colossus per decifrare migliaia di messaggi nemici ogni giorno. La battaglia per decrittare Enigma e la vicenda di Turing sono stati trattati in almeno tre film. In “U-571” di Jonathan Mostow (2000), la Marina americana riesce a catturare da un sommergibile tedesco un esemplare di Enigma. In realtà Enigma fu recuperato da una nave da guerra inglese, non americana, cosa che ha suscitato risentimenti in Gran Bretagna e interpellanze alla Camera dei Comuni. “Enigma” di Michel Apted (2002) ricostruisce accuratamente il clima a Bletchey Park. “The Imitation Game” di Morten Tyldum (2014) è interamente centrato sulla figura di Alan Turing, colui che si è posto la domanda “le macchine pensano?” ma anche sugli sforzi di Turing di nascondere la propria omosessualità, che all’epoca era un reato in Inghilterra e avrebbe provocato il suo allontanamento dal progetto. Nel dopoguerra, la supremazia in campo elettronico passa agli Stati Uniti e Turing si dedica all’intelligenza artificiale, prima di morire suicida nel 1954 addentando una mela in cui aveva messo del cianuro. Forse un ricordo di Turing nel logo Apple... In America il più importante calcolatore costruito durante la II guerra mondiale è l'Eniac dell'Università della Pennsylvania Nell'ENIAC le valvole elettroniche erano una componente elettronica indispensabile La predominanza USA nell'elettronica è stata favorita, oltre dalle oggettive grandi dimensioni dell'economia di quel Paese, da un triangolo virtuoso di collaborazione fra governo, università, imprese Le imprese spaziali, i satelliti, Internet nasceranno da un tipo di collaborazione triangolare analoga, che ha caratterizzato negli USA la seconda metà del Novecento. Alla fine della Seconda guerra mondiale la supremazia americana era stabilita, anche se nessuno ancora pensava di vendere i calcolatori per scopi commerciali o gestionali, ed erano ritenuti adatti solo alla ricerca scientifica o ai programmi militari. Complessivamente, comunque, l’apporto del computer alla guerra fu modesto e nel dopoguerra l’informatica sarà a tutti gli effetti una tecnologia militare declassificata, una tecnologia finora segreta che viene resa in parte disponibile per usi civili e commerciali. Al termine della II guerra mondiale gli usi civili e commerciali dei calcolatori elettronici non erano prevedibili e se ne ignorava la dimensione di mercato Riassumendo, l’evoluzione bellica dei calcolatori durante la seconda guerra mondiale ha permesso il passaggio definitivo dall’elettromeccanica all’elettronica, con l’utilizzo delle valvole elettroniche; l’adozione del linguaggio di programmazione e del sistema binario. Lezione 8 Mainframe=grande computer, costituito da una potente unità centrale di elaborazione, capace di gestire molti programmi contemporaneamente Eckert e Mauchly, i creatori dell’Eniac, portarono il computer sul mercato abbandonando l'università e fondando una propria società, presto incorporata nella Remington Rand, un’azienda di calcolatrici e macchine da scrivere, con la quale realizzarono il loro UNIVAC (Universal Automatic Computer), offrendolo sul mercato. L’Ibm decise allora di impegnarsi sul serio nel settore facendo uscire il modello 701, poi il 650. Un apporto determinante nello sviluppo del computer nel dopoguerra fu dato dal gruppo formatosi nell’Università di Princeton e in particolare da John Von Neumann, con le “macchine di Von Neumann”, che permettono di immettere nel computer, di volta in volta, i programmi che servono ad affrontare un compito determinato, o conservarli nella memoria. Anche i nostri computer sono macchine di Von Neumann. Le "macchine di Von Neumann" dispongono di memoria centrale, disco rigido, RAM Random significa «caso», e dunque una RAM è una memoria ad accesso causale Intanto si trovò il sistema di sostituire le valvole elettroniche: ingombranti, costose, con notevole sviluppo di calore. La soluzione furono i transistor. Transistor= tecnologia comune alle telecomunicazioni, alla radiotelevisione e al computer Si cominciò anche a produrre circuiti già stampati a caldo su lastre di metallo e plastica (circuiti integrati), invece di saldare i circuiti uno a uno. La ricerca sui semiconduttori permetterà poi la sostituzione dei transistor con i chip e i microchip. I circuiti stampati sono stati un’importante innovazione perché hanno consentito la fabbricazione in serie delle componenti e dei computer I principali clienti dei computer mainframe erano: le amministrazioni statali, le forze armate, università, centri di ricerca, grandi aziende, banche, assicurazioni I computer furono anche oggetti di comunicazione: venivano propagandati per veicolare un'immagine di modernità delle aziende Il computer era un’icona della modernità e un simbolo del progresso, ma la sua influenza sociale era limitata, rimaneva un oggetto protetto, uno strumento del potere accessibile solo a chi di potere ne aveva già parecchio, inaccessibile all’uomo della strada. I computer del dopoguerra sono stati costruiti e venduti prevalentemente dagli stati Uniti. Gli altri paesi hanno trovato difficoltà nel competere e furono schiacciati dalla potenza commerciale delle imprese americane e in particolare di “Big Blue”, cioè dell’IBM, che negli anni Sessanta arrivò a controllare i tre quarti del mercato americano, grazie anche ad una tecnica di marketing per cui i computer non venivano venduti ma affittati. L’Italia aveva a Pisa dal 1955 la sua CEP (Calcolatrice Elettronica Pisana), il primo computer costruito integralmente in Italia, con la collaborazione dell’Olivetti. La Divisione elettronica della Società Olivetti aveva sperimentato a lungo sui calcolatori elettronici, con suoi centri di ricerca in varie parti del mondo, e aveva realizzato un computer molto prestazionale e totalmente a transistor, l’Elea 9003 (1959). Purtroppo le sue possibilità commerciali furono molto ridotte dalla morte del suo presidente e del suo progettista. La società italiana Olivetti dopo alcuni successi è stata costretta a vendere la Divisione elettronica agli americani, alla General Electric. Lezione 9 Negli anni Sessanta del Novecento l’importanza dei calcolatori elettronici nella vita sociale ed economica diventa evidente e si diffonde il termine “informatica” Informatica= insieme delle scienze e tecnologie per il trattamento automatico delle informazioni. In ambiente anglosassone si preferisce parlare di ICT, Information and Communication Technology. Informatica e ICT sono due concetti simili, il primo si riferisce prevalentemente alla programmazione, mentre «ICT» alla connessione e alla comunicazione. Si tratta di un concetto più attuale, che comprende sia hardware che software. Differenza fra hardware e software: il software dà le istruzioni, l'hardware le mette in esecuzione. Il termine hardware indica la parte fisica del computer e degli altri dispositivi; software è invece il sistema operativo, i programmi, le applicazioni. L'impatto sull'immaginario dell'informatica è stato molto profondo sia nella "cultura alta" che nei media e nella cultura di massa Nel 1950, sulla rivista «Mind» compare un articolo di Alan Turing in cui si domanda: le macchine possono pensare? Il "Test di Turing" mette alla prova le capacità di un calcolatore di ragionare come una persona umana Il test è un gioco con tre partecipanti: un uomo e una donna (A e B) e un terzo (C) che deve indovinare chi è l’uomo e chi la donna senza vederli né sentirli, facendo delle domande. A lo inganna, B lo aiuta. Se il computer risolvesse il problema, sarebbe simile alla mente umana. La logica, da sola, non può risolvere il problema. Oggi siamo più vicini al filosofo del linguaggio Searle, secondo il quale assimilare il computer alla mente umana non ha senso. Suo è l’”esperimento della stanza cinese” (1980). Una persona che non sa una parola di cinese è chiusa in una stanza. Sotto la porta gli vengono passati foglietti scritti in ideogrammi cinesi, di cui non capisce nulla, ma può disporli in un ordine dotato di senso. Ed è quello che fa il computer. L’espressione intelligenza artificiale,(AI) viene introdotta nel 1956 in un seminario nel New Hampshire, ed è un concetto mirato a individuare connessioni tra il pensiero umano e l'operato dei calcolatori Le generazioni precedenti erano state affascinate dai robot e dai racconti di Isaac Asimov che in “Io robot” enuncia le famose “tre leggi della robotica” La fantascienza rispetto all’anteguerra assume toni più cupi e distopici. Distopia=contrario di utopia, indica un mondo futuro peggiore rispetto al presente. Il termine e il concetto di robot risalgono agli anni Venti, grazie allo scrittore e drammaturgo Capek con il suo “dramma collettivo” intitolato R.U.R., andato in scena a Praga nel 1920. Il clima non è molto diverso da quello che ci mostrerà Fritz Lang nel suo film Metropolis (1926). Il genere letterario e cinematografico che più si è occupato di AI è la fantascienza che, con l’avvento dei calcolatori, si interessa a una mente artificiale, che può ingannare il genere umano, o sottometterlo. Mente artificiale malvagia: il computer HAL 9000 di «2001 Odissea nello Spazio» (Stanley Kubrik, 1968). Non si è mai occupato di Intelligenza artificiale: Federico Fellini Timesharing = modalità di condivisione nell'uso del computer da parte di più entità La stessa macchina poteva lavorare alcune ore con un dipartimento, e altre con un secondo dipartimento. Con lo sviluppo dei satelliti artificiali per telecomunicazioni che trasportano segnali telefonici (e televisivi) attraverso gli oceani diventa possibile operare a distanza e si inizia a parlare di “informatica distribuita”. Gli utenti possono prelevare dalla rete le risorse di cui hanno bisogno (ad esempio una stampante, o una unità di memoria), ovunque siano collocate, inserire o scambiarsi dati senza alcuno spostamento o trasferimento fisico. Caratteristiche che poi saranno proprie di Internet. Le reti più piccole si chiamano LAN (Local Area Network) e servono a connettere computer collocati a breve distanza fra loro; quelle più grandi sono GAN (Global Area Network), come internet. Il settore che per primo si è avvalso delle reti di connessione a lunga distanza per computer è stato quello delle prenotazioni aeree L’American Airlines fu la prima al mondo. Lezione 10 Negli anni Settanta negli Stati Uniti un insieme di condizioni sociali e tecnologiche consente l’affermarsi del personal computer: -i transistor sono sostituiti dai chip e dai microchip Chip=evoluzione miniaturizzata del transistor Utilizzano il silicio, un elemento largamente presente sulla terra e facilmente accessibile, usato come semiconduttore -il computer non è più limitato a pochi addetti ai lavori. -la società americana, dopo il 1968, è percorsa da controculture, da trasgressioni, segnalate da una grande affermazione della musica pop (Woodstock) Nella Silicon Valley, in questi anni, si installano tutti gli attuali giganti del web. Silicon Valley è il nome assunto dalla Santa Clara Valley dopo la diffusione delle aziende informatiche Un dispositivo che ha preceduto il personal computer è stato la calcolatrice tascabile, il primo nuovo prodotto realizzato con i semiconduttori. Tra il 1971 e il 1972 Hewlett Packard (HP) e Texas Instruments lanciano i primi modelli. La prima sede fu un piccolo garage in legno sul retro della casa dove abitava David Packard che oggi è il museo aziendale. Cultura del garage=caratteristiche, vere o verosimili, degli inventori di tecnologie innovative americani Tratti distintivi della “cultura del garage” possono essere: -Iniziative di giovani culturalmente formati, ma con scarsi mezzi finanziari. -capacità di creare oggetti innovativi (materiali o immateriali) -capacità di acquisire competenze, imparare dal lavoro degli altri, copiare -due “fondatori”, ma spesso uno solo gode il successo. -lavoro svolto in segreto, ma grande capacità di comunicazione del prodotto -comunicare un modo di vivere, non un prodotto. -abilità nell’accedere al credito e nell’ ampliare la società prima del lancio -lontananza dalla burocrazia; distanza (ma non totale) dalla politica -capacità di raccontare una storia, costruire una leggenda sui protagonisti. Atari e Pong Nel 1972 Bushnell realizza un videogioco, Computer Space, che arriva nelle sale gioco (in inglese “arcade”) accanto ai flipper e ai biliardini. Non ha molto successo perché troppo complicato, allora inventa Pong (1972), la simulazione di una partita a tennis in bianco e nero, che diventa popolarissimo. La società Atari è figlia di questo grande successo e nasce dall’idea di portare nelle case i videogiochi con una macchina che permette anche altre applicazioni elettroniche. Atari oggi non esiste più, ceduta dal suo inventore e fusa nella Warner Communications, ma è significativo che il personal computer discenda direttamente dal gioco nel momento in cui migra dalle sale giochi alle abitazioni e si afferma una logica “consumer”. Logica consumer = logica commerciale fondata sulla vendita a acquirenti non professionali. La logica consumer amplia il mercato: si vende un prodotto economico a tante persone, non più un prodotto costosissimo a pochi professionali Il cliente a casa è dotato di un apparecchio per eseguire i contenuti. La ditta, in concorrenza con altre, gli offre dei contenuti. Secondo la logica consumer ciò è perfettamente coerente Per i regali di Natale del 1974 viene lanciato dalla MITS (Micro Instrumentation & Telemetry Systems) di Albuquerque nel New Mexico, un altro piccolo computer, l’Altair 8800, che sarà commercializzato su larga scala nel 1975. Il linguaggio di programmazione del computer 8800, Altair lo acquistò da Paul Allen e Bill Gates Costava 498 dollari montato e collaudato, e 397 in scatola di montaggio. I computer venduti in scatola di montaggio costavano meno e stimolavano il bricolage dei clienti Un camper della MITS gira per la costa occidentale degli Stati Uniti per dare dimostrazioni di Altair, ma molti ragazzi preferiscono ritirare direttamente in fabbrica. La vera novità era il linguaggio di programmazione: un adattamento semplificato del Basic. Il linguaggio di programmazione BASIC era stato realizzato da Kemeny e Kurtz nel 1964. Basic deve essere reso compatibile con Altair ed è quello che fanno Allen e Gates, che poi registrano il loro prodotto e lo offrono in licenza alla MITS. Allen va a lavorare alla MITS, poi si dimette per lavorare a tempo pieno con Bill Gates. Il nome Microsoft viene registrato ad Albuquerque nel novembre 1976. Simile ad Altair, ma più potente, è l'IMSAI 8080 realizzato nel 1975. É il computer che compare nel film “Wargames giochi di guerra” di John Badham (1983). Lo svantaggio di IMSAI era quello di non disporre di un sistema operativo così avanzato come quello di Altair, protetto da copyright. Il software è quasi sempre proprietario: riuscire ad imitare quello degli altri, perfezionandolo ed evitando di incorrere nella violazione del copyright, comincia a diventare uno dei requisiti per affermarsi. Hardware e software cominciano così a differenziare la loro strada Lezione 11 La Silicon Valley è un distretto industriale a Sud di San Francisco, dove sono nate Apple, Intel, Adobe, Cisco, Google, Yahoo, eBay, Logitech, Sun Microsystems, Pixar e tante altre. Un ambiente innovativo, ma anche ricco di contraddizioni e autosfruttamento nella condizione lavorativa, come appare nel romanzo di Douglas Coupland, Microservi. Nello sviluppo della Silicon Valley è stato particolarmente importante il contributo della Stanford University, che negli anni Cinquanta creò lo Stanford Research Park, un “incubatore tecnologico”. Incubatore tecnologico=centro di ricerca specializzato per sviluppare nuove tecnologie Spin-off= impresa creata in un'università che diventa autonoma, pur all’interno di una rete di aziende collegate. Nel 1970 la Intel presenta una memoria RAM fatta con semiconduttori, che diventerà la memoria standard dei futuri personal computer. La produzione delle RAM diventerà un punto di forza dei produttori giapponesi, che presto inizieranno a delocalizzare le fabbriche in paesi dell’estremo Oriente in cui la manodopera costa pochissimo. Nel 1971, dalla Intel arriva un’invenzione ancora più importante: il microprocessore, un circuito integrato di ridotte dimensioni Microprocessore= processore ridotto a minuscola dimensione, ma di grande capacità L'inventore italiano che ha lavorato intorno al microprocessore è Federico Faggin A lui dobbiamo anche l’invenzione del touch screen. L’hardware comprende un processore, un’interfaccia video, una tastiera. Il processore, ormai minuscolo, è l’erede della CPU (Central Processing Unit) dei grandi calcolatori elettronici. Per tutti gli anni Settanta le grandi imprese produttrici di mainframe, a cominciare dall’IBM, videro nella RAM e nel microprocessore un possibile miglioramento dei loro prodotti, non il nucleo di un prodotto completamente nuovo. La drastica riduzione di scala nei microprocessori permetterà non solo di realizzare computer molto piccoli, ma anche di collocarli all’interno degli elettrodomestici, nei semafori, nelle auto, fino ad arrivare a robot, cyborg e androidi Cyborg = essere umano con innesti elettronici Il termine “cyborg” viene coniato nel 1960 da due scienziati, Clynes e Kline, in un convegno a proposito delle esplorazioni spaziali. Innesti tecnologici avrebbero consentito agli esseri umani di sopravvivere nelle avverse condizioni extraterrestri. Il concetto ha esercitato un grande fascino, per le sue ascendenze culturali (gli automi, la creatura di Frankestein, il Golem, il robot), ma anche perché il concetto di cyborg richiama la medicina contemporanea (trapianti cardiaci, protesi, chirurgia plastica, pace makers, arti artificiali). Per il suo superamento delle antitesi naturale/artificiale, uomo/donna, ha interessato anche il femminismo. I cyborg hanno animato grandi saghe mediali come “L'uomo da sei milioni di dollari”, “La donna bionica”, “Robocop”, “Terminator” Androide= robot con innesti biologici Se il cyborg è un uomo potenziato che può far pensare al superuomo, l’androide può incarnare, il doppio, l’altro da noi: un tema particolarmente caro all’Ottocento (Dr. Jekyll and Mr. Hyde, di Stevenson). Lo scrittore che più ha contribuito al concetto di androide è Philip Dick, con il romanzo Do Androids Dream of Electric Sheep? (1968), che è diventato al Cinema Blade Runner di Ridley Scott, 1984. L’era mainframe era stata totalmente americana, nell’era del personal, invece, le aziende trasferiscono le parti più ripetitive del lavoro informatico in paesi dove il lavoro costa poco, si parla inglese e c’è una buona formazione, come l’India. Prima si trasferiscono i lavori ripetitivi, poi giungono le grandi aziende e si creano gli spin-off. La citta indiana di Bengaluru (Bangalore in inglese) è considerata la Silicon Valley indiana. Mentre le attività informatiche si dirigevano sempre più verso l’Asia, anche la costruzione dell’hardware si spostava progressivamente in Oriente. Nei paesi dell’Oriente si cominciano a produrre, a prezzi stracciati, computer «cloni», del tutto simili a quelli progettati negli Stati Uniti: imitazioni dei computer più noti, con sistema operativo compatibile, a prezzi stracciati. Taiwan fu la prima a invadere con i suoi cloni il mercato americano. Oggi la concorrenza riguarda anche i portatili e gli smartphone e la Repubblica Popolare Cinese è il principale costruttore di hardware, seguito da Corea del Sud e Taiwan. La Cina e la Corea del Sud hanno cominciato a loro volta a delocalizzare: un processo che coinvolge, per l’elettronica, Thailandia, Malaysia, Singapore, Filippine. La delocalizzazione dell'industria elettronica riguarda sia l'hardware che il software Lezione 12 Fin dall'inizio il PC si configura come uno strumento personale, mentre i televisori o le automobili erano familiari. Nel 1976 la ricercatrice e analista americana Portia Isaacson Bass conia il termine personal computer. Interfaccia utente = elemento che mette in comunicazione l’operatore e un computer. Nel personal essa assume la forma di uno schermo (interfaccia video). Nella sua forma matura, il personal accetta dati provenienti da floppy disk I floppy servivano a far entrare e uscire dati. Dato che non c’è ancora Internet, floppy e CD erano i modi per alimentare il computer e farne uscire i dati. L'utente a cui è destinato il PC è una persona comune che deve scrivere, calcolare, ordinare dati Apple La società Apple è nata come l'iniziativa di due giovani programmatori Steve Jobs ha avuto un’infanzia difficile, è un po’ hippie e lavora in Atari, dove però le sue idee non trovano ascolto. Steve Wozniak invece progetta per la Hewlett-Packard. Siamo nel 1976 a Palo Alto. Steve Jobs e Steve Wozniak nel garage dei genitori adottivi di Jobs realizzano il loro primo computer, si chiamava Apple I Il logo Apple richiama la Machintosh, una qualità di mele, la mela di Newton, la casa discografica dei Beatles Macintosh è una varietà di mela, Apple è la casa discografica dei Beatles, Newton scoprì la gravità osservando una mela cadere dall’albero. La mela morsicata da un lato è quella di Biancaneve, ma Alan Turing è morto addentando una mela piena di cianuro. Wozniak è il progettista, Jobs il venditore e riesce a piazzare 50 pezzi di quello che è poco più di una scheda di circuito stampato; l’acquirente deve trovare e installare da solo tutto il resto, tastiera, monitor e contenitore dei vari pezzi. Nel 1977 arriva Apple II, che si distingue per la cura del design e un terzo socio, Mike Makkula, che apporta un capitale consistente. Sarà un successo commerciale significativo. IBM Rispetto al personal computer l'IBM inizialmente non ci credeva, poi si è lentamente ricreduta. Nel 1981 lancia la serie IBM 5150, che sarà un grande successo. Gli standard scelti dall'IBM hanno coinvolto la maggioranza dei PC anche di altre marche Lezione 13 Il software è composto dal sistema operativo e dalle applicazioni. Il sistema operativo garantisce al pc la possibilità di essere utilizzato. All’inizio ogni società proponeva un proprio sistema operativo, generalmente adattato da BASIC, che era il più semplice, ma i sistemi operativi si riducono presto a un numero limitato. I sistemi operativi principali sono stati tre: Mac Os, MS-DOS, Linux Windows è stato il sistema operativo che ha sostituito MS-DOS I sistemi operativi possono essere proprietari o open source Open source= software a sorgente aperta sviluppato collettivamente Linux dunque è un software open source, mentre Microsoft e Apple sono software proprietari. Il concetto di «open source» è stato oggetto negli anni Ottanta di un movimento contro la crescente commercializzazione dell’informatica. Tra i maggiori protagonisti Richard Stallman, fondatore della Free Software Foundation (FSF) nel 1985 La differenza è soprattutto una questione di diritti d’autore. Mentre le imprese sfruttano il copyright del software che hanno creato, i fautori dell’open source concedono gratuitamente una licenza d’uso. Con un gioco di parole sul termine “copyright”, questo diverso modello di gestione dei diritti d’autore viene talvolta definito “copyleft”. Nel 1984 viene messo in vendita il Macintosh, che lancia la GUI, interfaccia grafica utente, basata su disegni intuitivi e fondata sugli studi dell’Università di Stanford e del centro ricerche Xerox PARC di Palo Alto. L'interfaccia grafica di Apple per la prima volta in un software diffuso ha utilizzato la metafora della scrivania. Questo tipo di interfaccia grafica viene tecnicamente chiamata WYSIWYG (acronimo per «what you see is what you get»: «Ciò che vedi è quello che puoi ottenere»). L'acronimo WYSIWYG indica che i comandi del computer sono rappresentati in forma grafica Per il lancio di Macintosh, Ridley Scott realizza uno spot ispirato al romanzo “1984” di George Orwell. Nello spot una platea di persone inebetite segue su un maxischermo il comizio del dittatore (il “Grande Fratello”). Una giovane sportiva brandisce un martello, inseguita dalla polizia. Giunta nella sala lancia il suo martello contro lo schermo che, tra lo stupore degli spettatori, esplode. Una voce fuori campo annuncia: “Il 24 gennaio la Apple introdurrà Macintosh. E capirete perché il 1984 non sarà come 1984”, giocando sul titolo del libro di Orwell. Il trasparente significato è che il computer saprà spezzare la dittatura televisiva, aprendo la possibilità di un futuro diverso. Apple resta culturalmente lontana dalla televisione, molto più di Samsung, Toshiba, Sony. Ancora oggi la componente meno prestazionale di Apple è proprio il video on demand, in cui arriva in ritardo rispetto ai suoi concorrenti. C’è un momento, nel 1983-84, in cui Bill Gates collabora alla fornitura dei software applicativi che renderanno il Mac ancora più appetibile sul mercato. Poi le strade si dividono. Nel 1985 Microsoft lancia Windows. Windows è la prima GUI Microsoft Solo dalle versioni successive Windows sarà effettivamente competitivo con Macintosh sia per la resa grafica sia per la quantità e qualità dei programmi; tuttavia Microsoft si afferma nettamente perché il suo software è fornito all’origine da IBM e da praticamente tutti i fabbricanti di computer IBM compatibili, e può essere acquistato separatamente a soli 99 dollari. Un’ interfaccia grafica richiede molta più potenza, così, a metà degli anni Ottanta, si innesca una spirale che impone sempre nuove versioni del sistema operativo e dei programmi e un continuo adeguamento della potenza richiesta, che impongono di fatto di cambiare ogni tre-quattro anni il computer e molte delle sue periferiche. Per alcuni anni si avvera la «legge di Moore»: la quantità di transistor contenuti in un circuito integrato (e, indirettamente, la potenza di un computer), è destinata a raddoppiarsi ogni 24 mesi. WINDOWS 95 è il primo sistema operativo Microsoft con interfaccia grafica che fornisce a tutti gli utenti un software per navigare in internet L'applicazione Explorer avvicina gli utenti Microsoft a Internet, ritenuto un territorio per informatici, professori, intellettuali alternativi, difficile da praticare. Il principale ruolo di Microsoft Explorer è stato avvicinare a Internet maggioranze di utenti del PC prima diffidenti Adobe, una società vicina al mondo Apple, sarà la più prestante delle case produttrici di software, con Flash, Photoshop, Premiere, Illustrator e molti altri. L'applicazione più diffusa di Adobe è Acrobat Lezione 14 In quasi tutte le culture i testi scritti rappresentano la forma più elevata e completa di trasmissione del pensiero. L'ordine sequenziale è caratteristico dei testi scritti: per comprenderli la cosa migliore è leggere una pagina dopo l’altra. Il PC mette in discussione questo approccio sequenziale, permettendo di «navigare» attraverso i documenti sia scritti che sonori, immagini, video, scegliendo un itinerario personalizzato e svolgendo, quindi, un’attività di tipo ipertestuale. Ipertesto=insieme di testi fra cui sono definiti collegamenti multipli, né gerarchici né sequenziali Link = serve a condurci a un altro documento o a un punto diverso dello stesso documento Possiamo trovare un’anticipazione dell’ipertesto nel Memex di Vannevar Bush, un grande archivio (mai realizzato) che conserva testi e immagini in microfilm, che si possono richiamare contemporaneamente su più schermi. Il termine hypertext fu introdotto nel 1963 da Ted Nelson, un altro anticipatore degli ipertesti come Douglas Engelbart: che negli anni Sessanta concepisce Augment, un sistema di condivisione di risorse tra computer connessi fra loro, fondato su un sistema a finestre, che anticipa l’ipertesto e per giunta si serve di un mouse anticipando le principali innovazioni degli anni Ottanta. Nel 1987 Apple introduce un po’ in sordina HyperCard, un software per creare ipertesti, ma non si rende conto di quanto fosse avanzato il suo prodotto, che viene travolto da HTML e da Word, che dal 1997 permette di creare collegamenti ipertestuali con altri documenti Negli anni ‘90 il PC rapidamente si trasforma da strumento per scrivere, calcolare e ordinare in un dispositivo audiovisivo multimediale di intrattenimento, permettendo di ascoltare musica, guardare foto e video e modificarli. Il primo software per l'esecuzione della musica digitale al computer è stato QuickTime QuickTime nasce in ambiente Mac nel dicembre 1991. Dal novembre 1994 la versione per Windows. QuickTime «esegue» sia file audio che video. RealAudio è un software di Progressive Network [che poi cambierà il suo nome in Real Network] per la fruizione audio in ambiente Windows (dal 1995). RealVideo arriva più tardi, nel 1997. Da allora si chiamerà RealPlayer è diventerà il più diffuso software per la fruizione di contenuti multimediali. La musica ha un grande spazio nella cultura giovanile. L’oggetto di culto è stato il Sony Walkman (1979). La musica digitale invece si avvale di MP 3, uno standard di compressione di file audio messo a punto dal MPEG. Il MPEG (Moving Picture Experts Group) è stato un gruppo di lavoro composto da tecnici di alto livello delle case produttrici di hardware per definire standard comuni. Da MPEG sono usciti gli standard della multimedialità di Internet, dei Cd-rom, della tv satellitare e delle videocamere digitali. MP3= è uno standard della musica digitale Il lettore MP3 avrà un grande sviluppo con Internet e la possibilità di scaricare brani, ma non sarà mai un oggetto di culto. Pixel=elemento dell'immagine monitorato da un sensore nella camera digitale Unire più immagini creandone una che, in quella forma, non è mai stata scattata è fattibile al computer Adobe Photoshop è il principale programma per disegnare, modificare immagini digitali, ritoccarle, unirle fra loro. Photoshop aumenta esponenzialmente le possibilità di modificare le foto dopo lo scatto. Ma queste possibilità di modificare le foto sono note da molto tempo: ad esempio in una foto di Mussolini in Libia (1937) ci sono due assistenti che tengono fermo il cavallo e vengono eliminati perché la propaganda vuole mostrare il duce capace di governare il cavallo, così come è capace di governare l’Italia.

Use Quizgecko on...
Browser
Browser