Riassunti Audiovisivi Digitali - 037-072
Document Details
Uploaded by ExhilaratingEmpowerment6753
Università Mercatorum
Tags
Summary
Questo documento presenta un riassunto di argomenti sui primi anni di internet. Copre la storia di Internet, la struttura di Arpanet e sviluppi successivi, come TCP/IP, con lo scopo di fornire una panoramica generale sullo sviluppo delle tecnologie digitali.
Full Transcript
La creazione di immagini di sintesi con Photoshop è possibile Lezione 15 La storia di Internet inizia alla fine degli anni Cinquanta e, per i primi vent’anni, è legata a doppio filo all’apparato militare americano. Nel 1957 l’Unione Sovietica mandò in orbita il suo primo satellite artificiale, lo...
La creazione di immagini di sintesi con Photoshop è possibile Lezione 15 La storia di Internet inizia alla fine degli anni Cinquanta e, per i primi vent’anni, è legata a doppio filo all’apparato militare americano. Nel 1957 l’Unione Sovietica mandò in orbita il suo primo satellite artificiale, lo Sputnik (4 ottobre 1957), seguito subito dopo da un altro con a bordo Laika. I primi satelliti artificiali erano una tecnologia di tipo civile, ma con evidenti possibilità di uso militare La supremazia scientifica e militare degli USA durante la guerra fredda subì uno shock improvviso con i successi spaziali sovietici, per questo si gettarono totalmente nella corsa allo spazio e nel recupero del tempo perduto con la creazione di ARPA, (1958), un ente governativo per promuovere e finanziare la ricerca nei settori strategici. Nel 1966 l’ARPA mise in cantiere Arpanet, una rete tra computer delle università e dei centri di ricerca, con una struttura particolarmente adatta ad un uso in guerra, nell’ipotesi molto temuta di un attacco nucleare a sorpresa. Le reti come Arpanet sono “reti distribuite”. Rete distribuita=rete priva di centro dove ciascun punto è collegato a tutti gli altri Gli usi militari di una rete distribuita erano determinanti in caso di attacco nucleare Arpanet seguiva la commutazione a pacchetto, che divide un messaggio in più parti ciascuna delle quali può percorrere un itinerario diverso Queste due caratteristiche innovative (mancanza di un centro e commutazione a pacchetto) rendevano la rete affidabile anche in caso di guerra: i militari avevano generato una rete anarchica, priva di strutture formali di comando. Fondamentali per il funzionamento della rete erano i “protocolli”, le specifiche per i collegamenti tra i vari host. Una soluzione durevole fu il TCP/IP (Transmission Control Protocol/Internet Protocol). Protocollo TCP/IP=connette reti diverse fra loro realizzando così una “rete delle reti”: quello che poi sarà Internet. Comunità virtuale=gruppo di persone unite da comuni orientamenti, che comunicano on line fra loro Quando la comunicazione in rete diventò troppo diffusa per essere sicura, i militari si ritirarono dalla rete creandone una solo per loro (Milnet) A quel punto il CNR americano, la National Science Foundation (NSF), promosse nel 1985 la costruzione di una rete di telecomunicazione veloce, con un grande backbone Backbone= spina dorsale di una rete fisica di comunicazione La sua NSFnet sostituisce gradualmente Arpanet, chiusa nel 1989. La rete fisica delle telecomunicazioni viene integrata dalle tecnologie satellitari Nello stesso periodo il collegamento con le reti interconnesse arriva in Italia. Nel 1986 il CNUCE di Pisa, centro del calcolo elettronico in Italia, è connesso via satellite con Arpanet; l’anno successivo allo stesso CNUCE viene affidato l’incarico di assegnare gli indirizzi IP per l’Italia, e diventerà poi il punto di riferimento nazionale per Internet. Il CNUCE nel 1997 diventa Istituto per le Applicazioni Telematiche del CNR; nel 2002 Istituto di Informatica e Telematica. Nel 1988 cade il veto del Dipartimento della Difesa americano all’esportazione di tecnologie fondamentali per l’interconnessione delle reti, come il router: un dispositivo di rete che serve a instradare pacchetti tra reti diverse. Le reti già esistenti in Europa, all’interno della comunità accademica, si interconnettono con gli Stati Uniti. Lezione 16 Il Web nasce, con il contributo determinante di Tim Berners Lee, nei Laboratori CERN di Ginevra. Tim Berners Lee è un informatico inglese, il suo lavoro è universalmente riconosciuto come quello che ha dato vita a Internet come oggi la conosciamo, dopo il superamento della sua fase militare e segreta. Sul WWW sono pubblicati e circolano sia testi alfabetici, che immagini e suoni perché sono tutti dati digitali Sostanzialmente il WWW è un insieme di protocolli condivisi che permettono la circolazione e lo scambio, attraverso la rete, di informazioni ipertestuali, cioè che contengono al loro interno collegamenti ad altre informazioni. I collegamenti ipertestuali su cui è costruito il WWW sono operati da HTML e HTTP Sono protocolli condivisi, se non li si adotta non si possono inserire contenuti né navigare. In Internet la codifica dei messaggi avviene con MIME Browser = software per la navigazione in Internet «To browse» in inglese vuol dire girellare, curiosare. Nel 1993, Andressen e Bina, realizzano il software Mosaic, il primo programma di navigazione sul Web (browser) accessibile a non esperti. È diffuso gratuitamente, ma la sua circolazione rimane all’interno di una cerchia ristretta di accademici e ricercatori. L’anno successivo Andressen lancia Netscape, il primo browser commerciale. L’Università dell’Illinois gli fa causa, ritenendolo uno sviluppo di Mosaic, di cui deteneva la proprietà intellettuale. Il browser di Andressen sarà di gran lunga il più diffuso prima dell’arrivo di Internet Explorer (Microsoft) insieme a Windows 95, che spodesterà Netscape nel 1998. Netscape non esiste più dal 2008. Oggi il browser più diffuso è Google Chrome I diritti d’ uso dei browser sono proprietari oppure open source Si passa quindi da una fase professionale e specialistica di Internet, “di nicchia”, ad una fase “mainstream”. Mainstream = attività praticata da maggioranze della popolazione senza eccessive differenze di condizione, genere, età Windows è da sempre un software mainstream, attento alla diffusione di massa, in tutti i paesi del mondo, superando barriere culturali e linguistiche. Lezione 17 La posta elettronica rappresenta la parte privata di Internet, ha aumentato il volume delle comunicazioni ed è la «killer application» di una Internet che sta diventando pratica di massa. Killer application= applicazione il cui grande successo determina l'affermazione di un nuovo dispositivo o di una nuova pratica sociale La killer application è un'applicazione vincente e di successo Caratteristiche vincenti della posta elettronica: -arriva subito in tutto il mondo -gratuita e semplice da inviare -inviare una email a mille persone costa come inviarla a un solo destinatario -può avere carattere informale, ma è scritta e conservabile -permette di inviare allegati e link. Un popolare software per la posta elettronica era Eudora Outlook Express di Microsoft fu diffuso con Windows insieme ad Internet Explorer dal 1997. L’abbinamento con Explorer fu la principale causa del suo rapido successo. Netiquette= regole che determinano il buon comportamento di un utente in Internet Unisce la parola inglese network (rete) e la parola francese étiquette (buona educazione) Una violazione della netiquette può portare all'isolamento da parte degli altri utenti Esempi di violazione della netiquette: -raccogliere indirizzi email di sconosciuti e inviare messaggi promozionali (cross- posting). -mettere tutti i destinatari di una email diretta a molte persone nel campo CC facendo conoscere a tutti gli indirizzi degli altri. Nella posta elettronica si usa il CCN per indicare un destinatario che non è visibile agli altri destinatari -Inoltrare allegati troppo pesanti, che possono bloccare l’invio, o di sospetta provenienza che possono contenere virus. -Divulgare, senza permesso dell'autore, messaggi o foto personali -Divulgare testi, foto e altro provenienti da siti web senza citare la fonte Le infrazioni alla netiquette riguardano essenzialmente tre campi: la violazione della privacy, l’intasamento con messaggi indesiderati o ingombranti e la possibile trasmissione di virus, anche attraverso l’inoltro di materiali non verificati e insicuri. Junk mail= posta spazzatura, spam. Il termine "spam" deriva dalle razioni dei soldati americani nella seconda guerra mondiale Era la marca di carne in scatola per le razioni dei soldati, evidentemente non troppo gradita. Phishing =tentativo fraudolento di ottenere dati personali dagli utenti L’«Instant messaging» (messaggeria istantanea) permetteva di dialogare in tempo reale con utenti presenti in liste di contatto personalizzate. I software di Instant Messaging sono scomparsi nell'era dello smartphone e dei social network, sostituiti da altre attività Il primo programma di instant messaging, nel 1996, è stato Icq (foneticamente corrisponde alla frase «I seek tou», ti cerco) della società israeliana Mirabilis. E’ un’evoluzione della posta elettronica, che valorizza il tempo reale ed è tipicamente sincrona. Successivamente (1996) fu acquistato da AOL (America On Line) che lo inserì nel suo portale. Comunicazione sincrona= deve essere ricevuta in tempo reale altrimenti la comunicazione cade L’«Instant messaging» utilizzava messaggi più brevi della posta elettronica e aveva interessanti caratteristiche: -permetteva di verificare la presenza online dei nostri contatti; -aveva un concetto di immediatezza simile alle telefonate, ma si basava sulla scrittura. Il più popolare è stato Messenger di Microsoft, sostituito dalla combinazione tra social network e smartphone. Lezione 18 Protagonista indiscusso della prima fase di Internet è il sito web, il «dominio», la forma con cui vengono presentati, in linguaggio HTML, i dati che si vogliono pubblicare in Internet. Per poter realizzare un sito web bisogna: -trovare un nome attraente, semplice da ricordare, descrittivo del contenuto del sito, che sarà collegato all’indirizzo IP (Internet Protocol) assegnato al sito. -scegliere un «web host», una società o istituzione che ospita il contenuto del sito sui suoi server e spesso procede alla registrazione - registrare il sito e ̀ brevettare un marchio di fabbrica. Il sito ha una pagina iniziale (homepage) e attraverso collegamenti ipertestuali si aprono tutte le pagine. Il sito va programmato nel linguaggio HTML e una volta programmato bisogna metterlo on line. Non tutti i siti web sono uguali e possono essere realizzati con tecniche diverse. I siti web possono essere statici o dinamici. Un sito web dinamico è un sito aggiornabile, che occupa poco spazio e consente di scrivere il contenuto della pagina sulla base dei parametri inseriti dall'utente I siti web statici sono siti composti da pagine HTML che possono essere visualizzate allo stesso modo da tutti gli utenti. Non sono modificabili e non consentono la personalizzazione da parte dell’utente. Un esempio di sito web prevalentemente statico e poco interattivo è il «sito vetrina». Ogni sito ha un proprio stile, ma le principali variabili di un sito web sono usabilità e leggerezza. Deve essere rapido e chiaro, piacevole da guardare, gradevole nei colori e nella grafica. Deve essere leggero, accessibile anche a chi abbia un collegamento lento e antiquato. Portale= sito web particolarmente ricco di rimandi ad altri, e capace di fornire molte informazioni, con l’ambizione che gli utenti lo facciano diventare la pagina iniziale, quella che appare non appena si lancia il proprio browser. Come suggerisce la parola «portale» è una vera e propria porta di ingresso a Internet che suggerisce itinerari sponsorizzati. Il più diffuso è ̀ Yahoo, fondato nel 1994 da Jerry Yang e David Filo, due studenti dell’Università di Stanford. Motore di ricerca= programma che aiuta, selezionando i siti, l’utente della rete Internet a trovare le informazioni che gli servono sulla rete. Google è un motore di ricerca I motori diffusi al tempo, Infoseek, Lycos, Excite, Altavista sono praticamente scomparsi per la grande superiorità ed efficienza di Google, nato nel 1998 a opera di due ragazzi californiani, Larry Page e Sergey Brin, che ancora oggi è il sito più visitato al mondo. I motori di ricerca precedenti utilizzavano, come criterio di rilevanza, il numero di volte in cui compariva la parola richiesta. L’approccio di Google è molto diverso. Esso partiva dall’archiviazione progressiva del web in una speciale memoria, mettendo in parallelo decine e poi centinaia di computer. Successivamente si ordinavano i siti in base al numero e all’autorevolezza dei link indirizzati ad essi da altri siti. Con questo sistema, i siti a comparire per primi nel risultato della ricerca sono quelli che hanno più link che rimandano a siti connessi via link all’oggetto della ricerca. In più l’utente di Google non paga nulla; chi paga è ̀ la pubblicità. Le applicazioni principali della prima Internet sono due: i siti web e la posta elettronica. L'era del Web 1.0 termina con lo scoppio della bolla speculativa e gli attentati dell'11 settembre 2001 I portali non saranno mai più così importanti, sorgeranno nuove forme partecipative e Internet, con il Web 2.0, diventerà la comunità più grande del mondo. Lezione 19 L’anno chiave per la diffusione della musica digitale è il 1995 in quanto: -viene presentato il formato MP3 e si diffondono i lettori MP3 -nel pacchetto Windows 95 è compreso Windows Media Player, la cui funzione è eseguire un file audio su un computer Ibm compatibile -nasce RealAudio della Progressive Networks, il più noto e diffuso software per lo streaming. - comincia il filesharing, un'attività gratuita peer to peer che permette la condivisione di file musicali attraverso siti Internet -lo scambio di file musicali tra privati avviene attraverso siti indipendenti dalle offerte musicali ivi pubblicate dai loro utenti; Streaming= consente di riprodurre un file audio prima che sia stato completamente scaricato Il buffering permette lo scaricamento di una prima porzione di un brano In pochi anni cambia la percezione popolare del suono digitale: chiunque può divenire un broadcaster audio, un emittente, sia di musica registrata che di musica dal vivo. Con la diffusione dello streaming e del filesharing, la musica registrata perde definitivamente il contatto con un supporto materiale, che l’aveva accompagnata nel Novecento. La musica dal vivo diventa una rara e costosa occasione di ritualità sociale, destinata a un target socio-culturale molto ristretto, mentre l’ordinario consumo di musica si sposta all’intimità della casa e successivamente, grazie alla radio e al walkman, negli spazi aperti e nei luoghi pubblici. L’età dell’oro della musica gratis, dura dal 1995 al 2001, grazie a Napster, il primo sito per lo scambio di musica in filesharing, creato nel 1999 da Shaw Fanning Le novità di Napster sono due: - è specializzato solo in MP3 -fornisce agli utenti i server centrali per connettersi, ma la transazione tra domanda e offerta è una relazione P2P, tra privati, senza l’intervento del server. Nel dicembre 1999 i discografici, e in particolare la potentissima RIAA (Recording Industry Association of America), di fronte alla violazione del copyright, denunciano Napster. La difesa di Napster ha sempre sostenuto che il sito si limitava a favorire il contatto tra le persone interessate e a mettere a disposizione dei server, senza essere responsabile delle loro private transazioni, ma ciò non è bastato a evitare la pesante condanna. La sentenza del 2001 impose a Napster di inserire filtri al downloading e da quel momento il clima cambiò, le pratiche di filesharing gratuito diminuirono trasformando il download illegale in una pratica di nicchia. Con lo streaming e il filesharing la musica può adesso essere riprodotta, scambiata, condivisa, trasportata. Con pirateria musicale si intende la duplicazione abusiva di contenuti nell'era della riproducibilità tecnica. È la volontaria violazione del copyright, cioè del diritto d’autore che, nel settore musicale, si applica alla riproduzione, allo scaricamento e allo scambio di contenuti audio e video non autorizzati. Internet e la rete sono il principale nodo di diffusione di musica illegale. Questa pratica è diventata sempre più facile in quanto le nuove tecnologie permettono anche all’utente meno esperto di provarci; la connessione sempre più veloce consente di scaricare, ascoltare e condividere brani in pochi minuti e i programmi garantiscono anonimato, gratuità, rapidità e immediata disponibilità dei file desiderati. Nel 1996 nasce la Federazione contro la pirateria musicale e multimediale Tra le crociate dei discografici americani contro i «pirati» e la musica gratuita di Napster, Apple percorre un percorso intermedio in due tappe: -nel 2001 Apple lancia l’iPod, un archivio portatile, un sofisticato lettore audio e video dal design elegante, basato su un potente disco fisso (prodotto da Toshiba) e non su un’unità di memoria flash -realizza accordi con le case discografiche e inaugura iTunes Music Store, un negozio online dove un brano costa 99 cents iTunes salvaguarda i diritti digitali attraverso il Digital Rights Management (DMR) Digital Rights Management= gestione dei diritti digitali Digital Rights Management = sistema tecnologico con cui un titolare di diritti d'autore può farli valere in ambito digitale grazie alla possibilità di rendere protetti, identificabili e tracciabili tutti gli usi dei contenuti e di ricevere on line il pagamento relativo. Dal varco aperto da Apple passeranno Amazon e molti altri. L’iPod è particolarmente significativo anche perché anticipa, con il suo design e la sua portabilità, quello che presto diventerà l’iPhone. Lezione 20 Il modem permette la modulazione e demodulazione dei segnali contenenti informazioni Il modem associato ad un PC: -assicura il passaggio dei dati sulle reti telefoniche costruite in epoca analogica; -trasforma in partenza i dati da digitali in analogici, perché possano transitare sulle reti, e viceversa li riconverte in digitali all’arrivo. Esistono cinque tipi di modem: - analogico: permette l’accesso a Internet attraverso la linea telefonica, producendo il rumore che simula la composizione di un numero telefonico -modem ISDN: più veloce e sfrutta una linea dati digitale; -modem ADSL: dispositivo che consente di accedere a Internet attraverso la linea telefonica -modem VDSL: usufruisce di una tecnologia di comunicazione via cavo che permette di ottenere performance di velocità superiori all’ ADSL; -modem GPRS/EDGE/UMTS/HSDPA/LTE: integrato nei telefoni cellulari di terza generazione, consente di accedere a Internet a velocità variabili. Le telecomunicazioni sono quelle che usano mezzi tecnici per scambiare suono – nella forma di voce – e testo su lunghe distanze. La rete telefonica è la spina dorsale dell'infrastruttura esistente per le telecomunicazioni Il cuore di questa rete ha l’aspetto fisico di un canale: -tutti gli scambi centrali e molti dei nodi sono connessi gli uni agli altri; -ai confini della rete ci sono centraline di commutazione locali dove tutti i terminali, con gli utenti che li utilizzano, sono connessi al centro; -queste connessioni hanno una forma stellare. In questo caso i terminali sono solo capaci di comunicare attraverso la centralina locale di commutazione Negli anni Ottanta inizia la deregolamentazione nelle telecomunicazioni: fine dei monopoli nazionali e privatizzazione delle telecomunicazioni I motivi del cambiamento sono quattro: -tecnologico: non c’è più un’unica rete, ma una pluralità di sistemi di trasmissioni in rapido adeguamento tecnologico, la cui capacità cresce più del traffico telefonico. -di mercato: quello che una volta era un servizio molto costoso adesso è molto profittevole e di grande liquidità, sostenuto da milioni di bollette telefoniche -l’internazionalizzazione del servizio - la convergenza multimediale Non è ancora una convergenza a tre, come avremo solo con Internet, ma a due. Con l’arrivo di Internet una strana familiarità coinvolge le telecomunicazioni, le comunicazioni di dati e quelle di massa, quindi telefono, computer e il complesso di televisione, radio, video e audio. Fino a metà degli anni Novanta la tv digitale non decolla perché non si sa come metterla in onda. Le frequenze terrestri sono già tutte prese e pochi paesi dispongono di un efficace cablaggio a larga banda del territorio. Un cavo che trasporti il segnale televisivo deve essere largo dall’inizio alla fine, senza restringimenti: se infatti dal cavo non riescono a passare le famose venticinque immagini al secondo, non si ha la percezione del movimento. Il cablaggio a larga banda ottimale utilizza interamente la fibra ottica. Rispetto al rame i cavi in fibra ottica sono insensibili ai disturbi elettromagnetici I cavi in fibra ottica hanno molti altri vantaggi: -non provocano interferenze o rumore sebbene possano rompersi; -sono di facile protezione e non possono dar adito a intercettazioni; -i segnali devono essere potenziati solo ogni venti o trenta chilometri, invece che ogni 2,5 - 4,5 chilometri come nel caso dei cavi coassiali; - necessitano di modesta manutenzione. Per realizzare connessioni veloci si utilizzava l’Isdn ISDN=standard digitale per le reti di comunicazione superato per velocità e larghezza di banda dall'Adsl L’Adsl permette lo svolgimento simultaneo della telefonia vocale e del collegamento permanente a Internet o del servizio televisivo, ma si è diffusa con molta lentezza in Italia. L’idea di un cablaggio integrale in Italia con il cavo più veloce, la fibra ottica, viene lanciato nel 1995 da Telecom con il progetto Socrate che si interrompe nel 1998. Negli anni Sessanta, superato il trauma dello Sputnik, furono lanciati dagli Stati Uniti satelliti per telecomunicazioni. Il primo satellite lanciato nel 1962 è Telstar Telstar funzionava meno di un’ora al giorno, quando l’orbita entro cui girava intorno alla terra sorvolava l’Oceano Atlantico permettendogli di far da ponte tra gli Stati Uniti e l’Europa. Questo difetto fu eliminato mandando in orbita satelliti «geostazionari» (1964), collocati cioè in un punto del cielo, nel quale ruotavano insieme alla Terra restando, rispetto al suolo, sempre nella stessa posizione. Con tre satelliti del genere, uno sull’Atlantico, uno sul Pacifico, uno sull’Oceano Indiano, si copriva l’intera superficie terrestre, rendendo possibili collegamenti di telecomunicazione. Al giorno d’oggi esistono diversi tipi di satellite: -satelliti per telecomunicazioni -satelliti meteorologici -satelliti per telerilevamento -satelliti per la navigazione -satelliti militari Per la tv digitale si usa il satellite a diffusione diretta, che manda il segnale nelle abitazioni con un'antenna parabolica Nell’ultimo decennio del Novecento l’integrazione fisso-mobile cresce e regna il concetto «seamless», senza cucitura, ossia la possibilità di passare da reti fisiche a reti senza filo e viceversa, secondo necessità e disponibilità. Essere «wireless», cioè comunicare senza fili è una condizione che tutti conosciamo e di cui probabilmente non ci accorgiamo. Sono wireless numerosi dispositivi: la radio, il telecomando, il cellulare, il tablet, il bluetooth, il Wi-Fi, il WiMax, il Wi-Bro. Dopo il cellulare c’è stato il Bluetooth, lanciato dalla Ericson nel 1999. Il Bluetooth consente di scambiarsi informazioni, utilizzando onde radio il cui segnale copre fino a un raggio di 10 metri Nel 2002 nasce il Wi-Fi. Wi-Fi = tecnologia di rete senza fili che utilizza frequenze libere e gratuite Hotspot = fornitura di accesso a Internet per computer, cellulari o tablet che si trovino in prossimità di un «access point» Gli hotspot possono essere gratuiti o a pagamento e si sono diffusi largamente in aeroporti, alberghi, biblioteche, parchi pubblici ed esercizi commerciali interessati ad attrarre maggiormente la clientela. Nel 2004 è stato introdotto il WiMax, una tecnologia senza fili che ha un’estensione da 30 a 50 chilometri senza ostacoli naturali che si frappongono, ma per distanze minori anche in presenza di ostacoli. Una variante del WiMax è il Wi-Bro sviluppato da Samsung e Lg. Lezione 21 Dot-com=società che ha sviluppato la maggior parte del proprio business attraverso il web, aumentando il proprio guadagno In questa fase Internet rappresenta anche una grande espansione della libertà e della sfera privata e, contemporaneamente, un nuovo territorio in cui possono compiersi abusi, reati e truffe, ma anche lo sviluppo dell’e-commerce E-commerce= commercio elettronico, insieme delle attività di vendita e acquisto di prodotti effettuato tramite Internet Il commercio elettronico ha conosciuto un grande sviluppo dal 1997 al 2000 e si forma la «dotcom bubble», la bolla speculativa di Internet. Dot-com bubble=aumento considerevole e anomalo dei prezzi di un bene o di un'attività non giustificato dall'andamento di mercato Il Nasdaq raggiunse il suo massimo il 10 marzo del 2000, poi cominciò a precipitare causando lo scoppio della bolla speculativa dell’economia di Internet. Ciò avvenne in significativa coincidenza con la condanna di Microsoft per violazione della legislazione antitrust. Microsoft aveva utilizzato la sua posizione per monopolizzare il mercato dei programmi di navigazione su Internet a discapito dei concorrenti e violato le leggi antimonopolio cercando anche di collegare illegalmente il suo browser Internet al suo sistema operativo Windows. L'11 settembre 2001 quattro aerei di linea vengono dirottati da terroristi legati ad Al Qaida e utilizzati per colpire le Torri gemelle del World Trade Center a New York e il Pentagono a Washington. Con gli attentati dell’11 settembre: -si modifica in negativo l’atteggiamento nei confronti delle pratiche ai confini della legalità -crolla definitivamente l’economia di Internet -si ferma la diffusione delle reti a larga banda -si modifica l’atteggiamento nei confronti dei beni di consumo voluttuario Nel 2001 diviene centrale una potenzialità della rete finora sottovalutata, ovvero la sua capacità di farsi luogo per la condivisione e l’archiviazione della memoria collettiva Con lo scoppio della bolla speculativa e l'11 settembre 2001 si mette un punto alla fase del Web 1.0 Ma Internet sopravvive e affronta una grave crisi da cui risorgerà in forme molto diverse dal passato: -i portali non saranno mai più così importanti -sorgeranno nuove realtà partecipative Dopo una grave crisi nel Web viene abbandonata l'impostazione unidirezionale dei media del Novecento In seguito all’ 11settembre la partecipazione degli utenti diventa creativa e crossmediale. In un ambiente crossmediale è possibile per gli utenti commentare e condividere con altri le notizie pubblicate online Il telefono cellulare diventa uno smartphone e assicura un collegamento a Internet dando vita ad una cultura della connessione permanente (always on). I siti che caratterizzano questa nuova fase sono quelli che promuovono forme di partecipazione e collaborazione degli utenti alla vita del sito e ai loro guadagni. Il capofila è eBay, un sito per il commercio elettronico P2P, con un tasso di frodi molto basso perché eBay documenta l’attendibilità dei venditori, costruita in base alle reazioni (feedback) degli utenti che hanno già acquistato da quel venditore. Qualcosa del genere succede in Amazon, un grande magazzino dove è possibile acquistare di tutto. Internet modifica anche il concetto di notizia: -le fonti e le agenzie di stampa non sono più privilegio dei giornalisti, ma sono offerte ai comuni cittadini da siti web che le aggiornano in tempo reale -la presenza di migliaia di siti informativi di singoli o organizzazioni modifica il ruolo dei media stampati e radiotelevisivi -molti siti si presentano come pubblicazioni on line, quotidiane, settimanali o periodiche (webzine). Molte enciclopedie e dizionari possono essere consultabili in rete, in tutto o in parte, spesso a pagamento, e vi sono anche iniziative nate per Internet come Microsoft Encarta. Wikipedia è consultabile gratuitamente, non ha pubblicità, non genera profitti, multilingue, chiunque può aggiungere o modificare una voce Wikipedia si sviluppa rapidamente, nonostante le critiche alla sua scarsa autorevolezza. Lo «spirito wiki» crea sempre più spesso comunità volontarie di persone che collaborano. Wikipedia promuove l’economia del dono, quel gusto del lavoro volontario e spontaneo che porta molti utenti a voler dare il proprio contributo. Economia del dono=le persone producono gratuitamente informazioni e le condividono con altri, creando una situazione in cui la sola misura disponibile del successo nella competizione è la reputazione tra pari. Lezione 22 La telefonia cellulare fornisce un servizio radiomobile, dividendo il territorio in una rete di celle. Alla congiunzione di tre celle c’è un apparato radio ricetrasmittente. L'apparato Base Transceiver Station capta le telefonate provenienti dai telefoni cellulari che si trovano sul suo territorio e le inoltra a una stazione di controllo centrale Bsc (Base Station Controller), che le indirizza a un altro telefono fisso o mobile e memorizza tutti i dati delle chiamate. Se l’utente è in movimento la comunicazione si trasferisce automaticamente da una cella all’altra. Le condizioni che permettono, negli anni Ottanta, l’affermarsi della tecnologia cellulare sono: -la competizione tra gli operatori di telecomunicazione -l’accresciuta domanda di reperibilità -la disponibilità di micro processori a basso costo e dimensioni ridottissime -la saturazione delle frequenze dei servizi tradizionali che richiedeva una migliore utilizzazione dello spettro elettromagnetico e quindi un passaggio al digitale. Per conversare non si può fare a meno del telefono e occorre trasformare il radiomobile in portatile. La Motorola realizza nel 1973 un modello sperimentale, che pesa più di un chilo e da cui parte la prima telefonata. Si tratta solo di un esperimento, Motorola lancia il primo telefono portatile di serie, il DynaTac 800,nel 1983. In Europa la telefonia cellulare arriva tre anni dopo, nel 1986. In Italia arriva nel 1990 con il TACS, il primo standard analogico di telefonia mobile Nel 1991 viene lanciato in tutta Europa il GSM, un sistema di telefonia mobile digitale che gradualmente avrebbe sostituito i vari sistemi analogici presenti in ogni paese. Il sistema GSM consente di trasferire da un telefonino all'altro la SIM In Italia la prima fase sperimentale del GSM parte alla fine del 1992 nel bel mezzo della trasformazione della Sip in Telecom Italia, ma procede con lentezza e il servizio commerciale inizierà nell’aprile 1995. Sotto la spinta dell’Unione Europea a fine 1993 viene emanato il bando di gara per l’assegnazione da parte dello Stato della concessione per un secondo gestore, privato, di telefonia mobile GSM. La gara viene vinta da Omnitel Pronto Italia. Lo standard di telefonia cellulare GSM consentiva l’invio di sms, diventati poi fenomeno di costume. Nokia sviluppa anche la scrittura intuitiva, che permette di premere una sola volta il tasto per ogni lettera Gli sms rappresentano una forma di comunicazione del tutto nuova: sono asincroni, ma implicitamente comportano l’attesa di una reazione prima possibile e rappresentano una comunicazione non perfettamente differita e non perfettamente simultanea. Sono la vera i «killer application» dello sviluppo del telefonino. Standard nati dopo il GSM: -WAP, Wireless Application Protocol -GPRS, General Packet Radio System -EDGE, Enhanced Data rates for GSM Evolution Un’efficiente e rapida connessione a Internet e una migliore gestione di video più lunghi sono state assicurate solo dalla terza generazione dei cellulari, l’UMTS. L'UMTS offre una serie di servizi che permettono la convivenza tra sfera pubblica e sfera privata mediante il cellulare L'UMTS ha permesso: -il download di file musicali -messaggi multimediali con foto, audio, video -la registrazione e la visualizzazione di video -le videochiamate e la videoconferenza. Con l'arrivo dell'UMTS nascono i tvfonini L’UMTS converge con la televisione; un vero servizio televisivo sullo schermo di appositi tvfonini attraverso le reti digitali terrestri, grazie allo standard DVB-H (Digital Video Broadcasting Handeld, cioè letteralmente «tenuto in mano»). Le trasmissioni tv sui cellulari sono state introdotte dalla Samsung in occasione delle Olimpiadi di Berlino del 2004. In Italia l’UMTS fa la sua comparsa nel 2000 e la voce passa in secondo piano; le telefonate non sono più il core business dell’attività telefonica. L’UMTS permette di svolgere funzioni proprie di un ufficio mobile. L'ufficio mobile permette di dislocare il proprio lavoro mediante il cellulare Il cellulare è diventato un oggetto e una pratica di massa, si fonde con il nostro corpo e con la nostra quotidianità, con la nostra sfera pubblica e con quella privata. Lezione 23 Negli anni Ottanta i videogiochi si sono spostati dalle sale gioco (arcade) ai personal computer e alle console di gioco collegate con il televisore. Hanno contribuito fortemente a collocare il PC nell’area dell’intrattenimento e non solo in quello professionale. Si sono sviluppati come un settore a sé (la “videludica”) sia da un punto di vista creativo (progettazione dei giochi) che commerciale, diventando un settore importante dell’industria dell’intrattenimento. Console= periferica di gioco Controller= mima i movimenti del corpo del giocatore per riprodurli sullo schermo Ci sono vari generi di videogiochi, è possibile distinguere: -Giochi di azione e di avventura. -Giochi di strategia. -Giochi di ruolo. NON rientrano nei giochi al computer (videogiochi) i giochi di mimesi Nel gioco di azione e di avventura conta la destrezza. I progenitori di questi giochi sono gli “sparatutto” (Shoot 'em up) Sparatutto= videogioco in cui bisogna sparare a quello che appare sullo schermo Il gioco di strategia richiede calcolo, capacità di interpolare dati che sono noti solo in parte. Nei giochi di ruolo ogni giocatore assume una particolare identità all’interno di un sistema di regole. Ognuno esercita proprie strategie, abbastanza collegate alla sua personalità, per affermarsi all’interno di un mondo virtuale Abbiamo i MUD (Multi User Dungeon): “dungeon” in inglese vuol dire torrione e questo la dice lunga sull’ambiente medioevale in cui spesso sono immersi e sul gioco da tavola “Dungeons & Dragons” (1974) da cui indirettamente derivano. Se vogliamo giocare un MUD, il collegamento a Internet è necessario Un’ulteriore evoluzione, costituendo mondi virtuali, saranno poi i MMORPG (Massively Multiplayer Online Role-Playing Games). L’avatar è il personaggio da noi creato che gioca per noi “Avatar” deriva dalla teologia induista, e rappresentava l’incarnazione della divinità in un corpo fisico. Non tutti i personaggi che vediamo nel gioco sono “avatar”: molti sono generati al computer dagli amministratori dei giochi per dare compattezza al gioco. Un’assiduità nel frequentare l’ambiente virtuale è indispensabile per affermarsi e per trarre dal gioco piaceri ed emozioni. I videogiochi si possono considerare media, ma con uno statuo particolare Generalmente un medium offre un contenuto predefinito, invece nel videogioco il risultato finale dipende dal comportamento dei giocatori. La differenza tra giocatore e spettatore televisivo è che lo spettatore è più rilassato del giocatore L’ambientazione tridimensionale e immersiva dei videogiochi appartiene, da un punto di vista tecnologico, alla stessa postproduzione digitale del cinema, dei cartoni animati e della tv; ma anche da un punto di vista economico i soggetti sono gli stessi o sono strettamente collegati fra loro: come George Lucas, creatore della Lucas Arts Entertainment (fino al 2013), Steven Spielberg con la Dreamworks e soprattutto Marvel Entertainment, sussidiaria del gruppo Disney, che spazia dai fumetti al cinema e ha ispirato numerosi videogiochi. Lo spettatore cinematografico è sempre più intrecciato con la condizione del giocatore: una grande produzione digitale tende a coinvolgere lo spettatore in un’emozione unica, anche attraverso tecniche audio come il Dolby Stereo Surround, mentre il giocatore è immerso in animazioni multimediali. Spesso un videogioco diventa film o viceversa. Le ambientazioni e le atmosfere immersive possono essere comuni ai due media. Il videogioco cerca di incorporare la densa narratività propria del cinema, che a sua volta fa i conti con spettatori sempre più segnati dall’estetica e dal rimo del videogame, con una complessa catena di merchandising legata al personaggio o alla saga. Si realizza una crossmedialità per cui dalla stessa idea scaturiscono videoclip e film, videogiochi e passaggi televisivi, libri e oggetti vendibili e indossabili. Jurassic Park e Indiana Jones da film diventano videogiochi. Supermario diventa un film nel 1993. Il remake di Dawn of the Dead, Zombi, si intreccia con il lancio del videogioco omonimo. Successivamente passano sul grande schermo saghe tratte da videogame o realizzate in quello stile. "Resident Evil" è un franchise nato da un videogioco, ma anche Silent Hill e Tomb Raider con Lara Croft. Franchise=marchio attribuito a una saga che ne permette lo sfruttamento multimediale Franchise= costruzione di un marchio che viene sfruttato per diversi prodotti dell'industria dello spettacolo e dell'intrattenimento É la creazione di un marchio attorno a un personaggio, a un luogo, a una vicenda, generati o utilizzati dall’industria dello spettacolo e dell’intrattenimento, che hanno un forte impatto nella cultura popolare e si prestano: -a uno sfruttamento seriale, costituendo una vera e propria saga con sequel e prequel. -al transito su vari media (film, serie TV, videogiochi, libri, fumetti…). -ad una circolazione vasta sui social -alla vendita di oggetti (gadget, vestiario, zaini…) -alla creazione di eventi dedicati, parchi a tema, festival e raduni. Non è importante se la saga sia partita da un libro (Harry Potter), da un fumetto (Batman), da un film (Indiana Jones), da una serie tv (Star Trek), da un videogioco (Tomb Raider). Lezione 24 La sigla MMOG indica un'attività molto vicina ai mondi virtuali, ma le loro scenografie sono in gran parte allestite dai programmatori che hanno costruito il gioco, non dai giocatori. In secondo luogo, un MMOG è una comunità di scopo: se incontro nel gioco un altro avatar, significa che lui o lei è parte del gioco. L'essere formato da comunità esperienziali, e non solo di scopo, è caratteristico dei mondi virtuali I mondi virtuali sono la più accessibile, e in certi periodi la più diffusa, esperienza popolare di realtà virtuale. Second Life fa parte dei mondi virtuali, è stato creato nel 2003 dalla Linden Lab. I partecipanti alla vita di Second Life possono costruire le loro case, effettuare scambi in denaro, fare propaganda per un partito In second Life le transazioni in denaro avvengono con una valuta virtuale propria, il “Linden dollar” In Second Life ogni avatar corrisponde ad un reale giocatore. Amazon aveva investito nella nascita di Second Life e progettava punti di contatto fra Second Life e l’e-commerce; IBM aveva acquistato isole virtuali su cui si svolgono riunioni con il presidente, l’amministratore delegato e più di 250 dipendenti dell’azienda. La società Endemol, creatrice del Grande Fratello, l’Agenzia di stampa Reuters, molti partiti politici, università, gruppi di interesse avevano aperto un loro spazio virtuale. Dobbiamo considerare Second Life una prova generale: -della realtà virtuale -del social networking che poi ha trovato il suo spazio prevalente sui social -di una creatività visuale, multimediale e artistica digitale che ritroviamo in molti elementi della cultura visuale attuale -delle monete virtuali e criptovalute. Le modalità della rappresentazione del sé cambia nel mondo virtuale. Si assume un’identità fittizia che può fare ciò che nella vita normale non faremmo mai, protetti dalla privacy del nostro domicilio. La vita nei mondi virtuali ricorda il carnevale, con il suo rituale e temporaneo rovesciamento delle regole, che già Michail Bachtin chiamava una “seconda vita” Fairness= nelle relazioni via internet, dare una rappresentazione di sè quasi coincidente con le caratteristiche reali I più leali sono i network professionali (ad esempio Linkedin); se nel contatto reale, tanto ricercato da chi partecipa al network, l’interlocutore scoprisse che siamo stati sleali nel presentarci, il danno lavorativo sarebbe molto serio. Network mainstream come Twitter e Facebook, e un tempo MySpace, sono tenuti ad una lealtà relativamente alta perché molti degli “amici” conoscono personalmente il soggetto e partecipano alle attività da lui promosse. È socialmente lecito solo qualche abbellimento della propria personalità e del proprio aspetto. Minore fairness nei network in cui è primario lo scambio di contenuti multimediali, e dunque l’identità è rappresentata soprattutto dalla collezione di contenuti che il soggetto posta e offre alla vista. La rappresentazione del sé è quasi nascosta dietro le foto o i video, che non rappresentano necessariamente il soggetto, ed è possibile una forte divaricazione rispetto ad una rappresentazione realistica del sé. Profili fake che non corrispondono alla realtà sono una pratica molto diffusa e anche incoraggiata dai mondi virtuali stessi In Second Life già all’atto dell’iscrizione, siamo fortemente incentivati a scegliere un nome fittizio anziché il proprio. Siamo quindi obbligati ad indossare una maschera. La particolarità di queste esperienze è tale che tende a fuoriuscire dall’ambito della virtualità per diventare uno stile di vita e di comportamento: è ciò che si definisce come “gamification” o “ludicizzazione”. Gamification=adozione di strategie ludiche nei processi della vita reale Questo spostamento si determina a più livelli: limitatamente ai media, come adozione di tecniche e atmosfere da videogioco, o di meccanismi ludici, nella pubblicità, nei social network, nelle sceneggiature. In senso lato, situazioni ludiche vengono applicate all’educazione, alla politica, alle relazioni sociali. La politica è interessata dalla gamification per elaborare strategie più efficaci Lezione 25 Dopo l’11 settembre l’attenzione in rete viene posta sulla sicurezza La rete Internet cambia faccia diventando Web 2.0 e sollecita in tutti i modi la collaborazione e l’intervento attivo dell’utente. I siti che si affermano (il motore di ricerca Google, il commercio elettronico su e.Bay, l’enciclopedia Wikipedia e tanti altri) hanno in comune la ricerca della valorizzazione dell’utente e del suo desiderio di collaborare e di apparire. Un sito wiki è un sito o un software a cui tutti possono contribuire Le enciclopedie online sono portali di fruizione della conoscenza, diversi per funzionamento e attendibilità Wikipedia è stata fondata nel 2001 da un agente di borsa, già creatore di un portale di musica pop, Jimmy «Jimbo» Wales. Nel 2000 lancia un’enciclopedia on line, Nupedia, aperta a collaborazioni esterne ma con una complessa revisione dei contributi. Poco dopo viene a contatto con il movimento wiki (un software collaborativo, wiki in hawaiano significa «rapido») e nasce Wikipedia. I primi blog sono nati in America nel 1997 Tra il 2002 e il 2007 i blog toccano l'apice della diffusione, perché ritenuti rivoluzionari dal punto di vista della comunicazione. Le principali tipologie di blog sono: blog diari, tematici letterari, professionali e commerciali Tra le consuete tipologie di blog NON è annoverabile il blog argomentativo Tra il 2009 e il 2010 si avverte una crisi dei blog, soprattutto a causa dell'immenso successo dei nuovi social network. Vlog= blog nel quale la forma principale di comunicazione è il video o la Web TV e si è largamente diffuso su YouTube: è l'era dei tutorial. UGC= tutti i contenuti generati dagli utenti e condivisi in rete Gli UGC sono una riprova del protagonismo degli utenti del web 2.0 che creano e condividono contenuti liberamente Gli UGC hanno ricevuto critiche sulla correttezza, la qualità, la privacy e la sostenibilità del lavoro creativo in termini proprietà intellettuale e diritti d'autore. Andrew Keen, imprenditore e scrittore inglese di “Il culto dell'amatore”, oltre alle critiche, mette in luce anche alcuni aspetti ancora poco chiari del web 2.0 e dell'economia su cui è basato. Lezione 26 I motori di ricerca nel web 1.0 erano spesso incorporati in altri portali, quindi non sono un’assoluta novità. Nel 1990 Aliweb (Archie Like Indexing on the Web) è il primo motore di ricerca della storia. Google viene fondata nel 1998 da Larry Page e Sergey Brin. Tra le grandi novità di Google c’è la partecipazione degli utenti, determinante per la raccolta pubblicitaria: più una pagina è cliccata, più aumenta la tariffa per le inserzioni pubblicitarie. Sul piano tecnico, Google è superiore perché copia e memorizza (cache) tutte le pagine e la sua indicizzazione (tag) è efficiente Con Google c’è la possibilità di effettuare ricerche in HTTPS: all'indirizzo https://www.google.com è possibile accedere alla versione del motore di ricerca protetto da SSL, protocollo di crittografia che è usato normalmente nelle applicazioni web che manipolano dati sensibili. La differenza con la versione normale di Google è l'https a differenza del solito http; indica una connessione protetta da SSL. Https= HyperText Transfer Protocol over Secure Socket Layer SSL =certificati digitali (Secure Socket Layer) Dopo l’11 settembre si mettono a punto nuovi strumenti di criptaggio dei pagamenti in rete (SSL 2, Secure Socket Layer) che faranno decollare le transazioni in rete e il commercio elettronico. I siti più importanti di e-commerce hanno raggiunto la versione SSL3, con chiavi di cifratura di lunghezza non inferiore a 128 bit. I server di Google sono distribuiti su 10 datacenter tra U.S.A., Europa e Asia Il Web server che viene installato nei server di Google è un applicativo personalizzato che prende il nome di Google Web Server. Si afferma una nuova figura per assistere i webmaster e le aziende nel posizionamento delle pagine web sui motori di ricerca: il SEO. Questi consulenti svolgono un'attività chiamata “ottimizzazione dei motori di ricerca”, cioè SEO: Search Engine Optimization. Molti consulenti di ottimizzazione poco professionali hanno utilizzato tecniche artificiose per influire sul posizionamento dei siti di alcuni loro clienti. Google è riuscito a limitare molti di questi tentativi raffinando il proprio algoritmo per individuare i siti che realizzano abusi e limitarne la rilevanza nei risultati. Un corretto posizionamento fra i risultati di Google può portare a ritorni economici elevati, soprattutto per i siti di e-commerce. Anche Google ha conosciuto un’annata sfortunata, il 2009. Il 31 gennaio, per 40 minuti, tutti i risultati di ricerca presentavano la scritta “Questo sito potrebbe arrecare danni al tuo computer” per l’accidentale inserimento del simbolo "/" fra gli elementi di riconoscimento dei siti contenenti malware. Il 14 maggio, a causa di un'errata impostazione del software, il 5% dei siti mondiali risultarono irraggiungibili per due ore. Il 25 giugno, nel giorno della sua morte, il sito ufficiale di Michael Jackson fu sospeso per 30 minuti: l’elevato numero di ricerche aveva fatto pensare a un attacco informatico. L’insuccesso più importante tuttavia è nel settore del social networking. Google+ è stato il social network di Google, creato nel 2011, poi chiuso al pubblico nel 2019 a causa di problemi relativi alla vulnerabilità del sistema. Google Glass è stato un esperimento di occhiali "smart" tra il 2013 e il 2017, ma non sono mai entrati veramente nel circuito commerciale. Tuttavia la ricerca non è stata sprecata perché le soluzioni sperimentate per Google Glass servono ai caschi per i piloti (aerei, Formula 1) e soprattutto, per i visori della realtà virtuale. GoogleChrome è il browser di Google, primo per diffusione Google LLC è l'azienda che offre servizi online, con quartier generale a Mountain View in California, nel cosiddetto Googleplex. Tra i prodotti o servizi offerti, oltre al motore di ricerca, troviamo i sistemi operativi Android e Chrome OS e servizi web quali YouTube, Gmail, Play Store, Google Maps e molti altri. Con Google Ads è possibile inserire spazi pubblicitari all'interno delle pagine di ricerca Sulla base di determinati target di utenza e obiettivi di marketing, gli annunci si basano su: -pay per click (PPC): formula che richiede un costo per chi pubblica -costo per mille (CPM): costo fisso per mille visualizzazioni; -conversioni: in base agli obiettivi prefissati Ecco alcuni altri prodotti di Google: -Google My Business: promozione di attività commerciali; -Google AdSense: banner pubblicitari -Google Drive: memorizzazione e sincronizzazione online -Google Palimpsest: supporto alla ricerca scientifica -Google Public Data Explorer: dati facili da esplorare e visualizzare -Google Traduttore: traduzione automatica multilingue -Google Trends: per conoscere la frequenza di ricerca di una parola o frase -Google Voice Search: riconoscimento vocale per impartire comandi, trovare informazioni o dettare -StreetView: consente una visione tridimensionale, e orientabile a piacere, di una strada come appare al passante Lezione 27 La modalità per il pagamento tipica dell’e-commerce fu sperimentata per la prima volta dal Minitel, apparecchio che un’azienda telefonica francese distribuiva ai suoi abbonati, con uno schermo e una tastiera con cui si potevano fare acquisti, comporre annunci e mandare messaggi. In Francia il Minitel rallentò la diffusione di Internet, da cui poi fu surclassato. In Italia il Minitel, chiamato Teletex (da non confondersi con il Teletext), ebbe scarsa diffusione e scomparve già nel 1992. Social commerce= evoluzione in chiave 2.0 dell'e-commerce Prevede una maggiore interattività e partecipazione da parte dei clienti, attraverso blog, sistemi wiki e condivisione di articoli e recensioni. E-Bay è un portale di vendita e aste online fondato nel 1995 da Pierre Omidyar. In Italia arriva nel 2001 e l'anno successivo avviene la fusione con l’Istituto di credito PayPal. È una piattaforma di e-commerce, che offre ai propri utenti la possibilità di vendere e comprare oggetti sia nuovi, sia usati, con vendite a prezzo fisso o dinamico, comunemente definite «aste online». Ebay non vende prodotti propri ma solo di terzi e fornisce una piattaforma su cui si svolgono trattative fra privati. eBay vende la reputazione del venditore, costruita sui feedback degli utenti, che collaborano così al successo del sito. Nel 2005 ebay ha acquistato Skype Amazon è un'azienda di commercio elettronico statunitense, con sede a Seattle nello stato di Washington. È la più grande Internet company al mondo. Jeff Bezos, proprietario di Amazon ha comprato il quotidiano “Washington Post” Jeff Bezos è stato uomo dell'anno nel 1999 per Time Magazine Una delle peculiarità di Amazon sono gli utenti come recensori dei prodotti in vendita A differenza di e-Bay però, vende anche prodotti propri e non solo di venditori terzi. Punti di forza: -ampiezza dell’offerta -ricchezza delle informazioni sugli articoli -velocità del trasporto fisico -politica dei resi e dei reclami -continua scommessa sulla digitalizzazione dei prodotti (e-book con lettore kindle) -servizi sempre al passo con i tempi e le necessità degli utenti (Alexa) -efficienza del servizio clienti -Amazon Prime, servizio in abbonamento con vantaggi per l'utente -produzione di contenuti multimediali originali con Amazon Studios -servizi di cloud computing -piattaforma di self publishing per gli e-book Garantire prezzi competitivi e consegne rapide, spesso, comporta problemi per i dipendenti e lo abbiamo visto nelle mobilitazioni contro le condizioni estreme di lavoro per garantire i servizi di spedizione e consegna. Lezione 28 Nel 2001, appena un mese dopo gli attentati dell’11 settembre, Apple Computer lancia l’iPod, un sofisticato lettore portatile di musica digitale. Con la sua ampia memoria consente di creare e portare in giro musica, video e foto. Con l'iPod la musica si indossa La prima generazione era compatibile e sincronizzabile esclusivamente con il computer Mac, aveva una capienza di 5 GB e si comandava attraverso una ghiera meccanica circolare che, mediante l’uso del pollice, permetteva di scorrere nella libreria musicale in modo molto veloce. La seconda generazione di iPod (2002) diventa compatibile anche con Windows, aumenta la sua capienza diventando da 10 e 20 GB e sostituisce la ghiera meccanica con una fissa e sensibile al tatto. La terza generazione mette sul mercato tre iPod simili, che si differenziano per la capacità di memoria, per l’uscita dei tasti dalla ghiera e per gli accessori contenuti nella confezione. Con la quarta generazione scompaiono i quattro tasti che vengono inglobati nella ghiera, l’autonomia viene portata a 12 ore e viene introdotto il modello con schermo a colori (Photo). La quinta generazione ha dimensioni ridotte e uno schermo più largo Nella sesta generazione l'iPod prende il nome di iPod classic. Presenta un design più arrotondato, uno schermo più luminoso, un nuovo sistema operativo e una capacità di riproduzione fino a 40 ore. Viene anche introdotta la funzionalità Genius, che consente di creare playlist casuali Parallelamente ai formati classici vengono lanciati sul mercato anche: l’iPod shuffle; l’iPod mini; l’iPod nano; l’IPod touch. Contemporaneamente al lancio di iPod, Apple inaugura iTunes. Il software è sviluppato e distribuito gratuitamente dalla stessa Apple: l’iPod collegato al computer entra nel sito di iTunes Music Stores, per scaricare musica a 99 cents, per combattere il download illegale. Itunes è un simbolo per l'intero comparto immateriale dell'e-commerce Itunes consente di: - organizzare la propria libreria musicale in playlist -registrare i propri CD -scaricare le canzoni nel proprio lettore di musica digitale -acquistare musica su Internet utilizzando il negozio integrato, iTunes Store; -codificare la propria musica utilizzando vari formati -ascoltare la radio dal web -riprodurre filmati compatibili con QuickTime -visualizzare gli spartiti realizzati con MuseScore. -sincronizzare contenuti da iPhone, iPad, iPod Touch a pc o Mac e viceversa Nei primi anni 2000 nessuno aveva riflettuto seriamente sui cambiamenti nel settore musicale. Complessivamente Internet era una curiosità, i cui effetti sull’editoria erano limitati. Non si comprendeva che il modello iTunes non era soltanto una ragionevole e realistica risposta alla pirateria musicale e audiovisiva, ma un’indicazione precisa per l’intero comparto immateriale dell’e-commerce. Né si capiva che l’editoria nelle sue molteplici specialità (stampa, TV, dischi ecc.) stava diventando un ramo dell’e-commerce e dell’on demand. A partire dagli anni Novanta, con l'avvento delle tecnologie digitali, copiare un file multimediale, audio o video, è diventato estremamente semplice, pertanto le case di produzione e di distribuzione hanno deciso di implementare i sistemi di DRM sui propri supporti, limitando le possibilità della loro duplicazione. Per garantire una diffusione più controllata, rendere più difficile la duplicazione, dimostrare l’originalità, manifestare l’appartenenza e consentire un utilizzo legale del file si rende necessario il watermarking, l'inserimento di informazione all'interno del file multimediale Questa procedura permette al file di essere accessibile, ma contrassegnato in modo permanente. Grazie alla contrattazione con le case discografiche Apple ha attuato un DRM più rispettoso del cliente, attraverso una propria tecnologia, FairPlay, che, integrato nel software QuickTime, permette sia la masterizzazione di cd che l’ascolto su vari computer. Steve Jobs nel 2007 scrive una lettera per convincere gli editori musicali a vendere la musica senza DRM Una lettera aperta intitolata Thoughts on Music (Pensieri sulla Musica), pubblicata sul sito della Apple, chiedendo alle quattro maggiori case discografiche di vendere la loro musica senza DRM. Secondo Jobs: -il DRM permetterà sempre agli hacker di violarli -le restrizioni sul DRM non danneggiano gli utenti che scaricano illegalmente -le restrizioni imposte incoraggiano gli utenti a consumare musica in maniera illegale Jobs ha ricevuto ampi consensi, tanto da annunciare la distribuzione del catalogo completo della EMI senza DRM con un supplemento di 0,30 $ rispetto al prezzo normale. Sulla scia della Apple ben presto anche Amazon ha iniziato a vendere musica senza DRM al costo di 0,99 $. Il Web 2.0 è caratterizzato da una partecipazione etica e disinteressata ma anche un sostanzioso aumento del commercio elettronico. L’assenza di limiti fisici nella conservazione e nella distribuzione dei prodotti e le potenzialità legate al concetto della «coda lunga» hanno decretato la nascita di nuove modalità di gestione e di vendita dei contenuti. La coda lunga è stata coniata da Chris Anderson per descrivere un modello economico e commerciale nel quale i ricavi vengono ottenuti sia con la vendita di molte unità di pochi oggetti sia vendendo pochissime unità di tanti oggetti diversi. La coda lunga è connessa alla virtualità del commercio elettronico che ha costi di magazzino irrilevanti e alla enorme quantità di pagine memorizzate. Nell'era dell'e-commerce nasce un modello di business in rete che consiste in vetrine digitali di prodotti (eBay, Amazon, iTunes Store, Netflix) e lo sviluppo degli application store (iBook, Android Market). Lezione 29 Le reti telefoniche tradizionali, adatte alle telefonate vocali, non hanno capacità sufficiente per l’accresciuto traffico dati. Sono soprattutto i contenuti multimediali a far “scoppiare” le reti. Un’immagine equivale a 100 kilobyte; un minuto di audio a 10 mega; un minuto di filmato a 80 mega e un minuto di filmato in HD a 180 mega. ADSL= Asymmetric Digital Subscriber Line L'Adsl indica una connessione domestica ad alta velocità che sfrutta la linea telefonica tradizionale L'Adsl smista il traffico dati come i caselli autostradali, ripartisce il traffico asimmetricamente tra le varie linee disponibili Internet senza fili è stata un'idea di ingegneri di telecomunicazioni Negli anni ’90 è nata la tecnologia BlueTooth, ma aveva un raggio di pochi metri. Il Wi-Fi compare nel '99 e sfrutta un punto di accesso wireless: l'access point Per i bassissimi costi della tecnologia, il Wi-Fi è una delle soluzioni più comode per ridurre il digital divide. Negli USA, si è sperimentata anche un'integrazione con la telefonia mobile dove il Wi-Fi dovrebbe sostituire le vecchie antenne GSM/GPRS/UMTS. La tendenza attuale, di una connessione che compia singole tratte via cavo, altre via satellite, altre ancora wireless, senza che l'utente se ne curi o se ne accorga, è definita: seamless Internet senza fili ha rappresentato la possibilità di potersi connettere senza cavi, anche fuori da una casa o ufficio La connessione senza fili fa uscire Internet dalle case come il transistor aveva fatto con la radio. Connettersi in mobilità vuol dire poter usare la rete fuori di casa La possibilità di utilizzare la rete in mobilità comporta la produzione popolare di immagini e di suoni Le generazioni dei cellulari sono le fasi di implementazione tecnologica del telefono che si trasformerà in smartphone Le generazioni della telefonia cellulare sono cinque: -generazione 1G: TAC, 1990, analogico, telefonia vocale, Motorola -generazione 2G: GSM,1995, digitale, SMS - FOTOCAMERA, Nokia -generazione 3G: UMTS, 2006, DIGITALE, INTERNET - WIFI - POSTA ELETTRONICA, BLACKBERRY -generazione 3G, UMTS, 2008/2009, DIGITALE, APPS, CONTENUTI MULTIMEDIALI, VIDEOCAMERA, APPLE/SAMSUNG -generazione 4G, LTE, 2014, DIGITALE, CONNESSIONI ULTRA VELOCI APPLE/SAMSUNG -generazione 5G: UMTS+LTE, anno 2018 DIGITALE, CONNESSIONI ANCORA PIÚ VELOCI, HUAWEI. Le videochiamate da telefono cellulare sono diventate popolari solo con WhatsApp Il primo smartphone con videocamera è stato Blackberry, poi Apple e quindi Samsung. Il passo successivo saranno le “Apps”, applicazioni che permettono di personalizzare smartphone e PC, aggiungendo funzionalità Lezione 30 Dopo l’11 settembre 2001: -la costruzione delle reti fisiche è ripresa -si diffonde il Wi-Fi che consente di connettersi in mobilità L’UMTS ha offerto agli utenti: -un’efficiente e rapida connessione a Internet -messaggi multimediali, contenenti foto, clip audio o video -registrazione e visualizzazione di video senza limiti di durata -le videochiamate -il download di file musicali. Rispetto ai telefoni cellulari gli smartphone hanno sistemi operativi sviluppati ad hoc o derivati, di grande capacità ed efficienza Uno smartphone non consente di stampare documenti, ma consente di: -effettuare chiamate vocali e videochiamate -inviare messaggi sms e mms -navigare su Internet o inviare e-mail -scattare foto e girare video -registrare audio -pianificare le proprie attività -navigare mediante GPS -ascoltare musica -scaricare, leggere e conservare documenti -installare app di terze parti (software, giochi, temi) -tethering in Wi-Fi o Bluetooth I principali produttori di smartphone attualmente sono: Apple, Samsung, Huawei, Xiaomi, Oppo. Ogni smartphone è basato su un sistema operativo che ne permette il suo utilizzo.