Sistemi Informativi e Trend Digitali PDF
Document Details
Uploaded by ExcellentMoldavite7222
Tags
Summary
Questo documento esplora i concetti di sistemi informativi, ICT e trend digitali. Vengono descritti i dati, le informazioni e la conoscenza, il linguaggio binario e la digitalizzazione. Sono inoltre descritti i vari livelli decisionali in un'azienda e i sistemi informativi collegati.
Full Transcript
Sistemi informativi e trend digitali Sistemi informativi, ICT e scenari digitali Con il termine ICT (Information and Communication Technology) ci si riferisce alle tecnologie dell’informazione e della comunicazione: strumenti e applicazioni che facilitano l’elaborazione, la memorizzazione e la trasm...
Sistemi informativi e trend digitali Sistemi informativi, ICT e scenari digitali Con il termine ICT (Information and Communication Technology) ci si riferisce alle tecnologie dell’informazione e della comunicazione: strumenti e applicazioni che facilitano l’elaborazione, la memorizzazione e la trasmissione di dati e informazioni. Tipicamente vengono classificate n hardware, software e reti. Sistema informativo (SI): è un insieme di componenti, spesso diverse tra loro, che interagiscono con l’obiettivo di raggiungere un fine comune. Il sistema informativo è un insieme di componenti diverse le quali agiscono ad un fine (produzione e gestione delle informazioni). Sistema normativo aziendale: è un insieme di componenti quali dati, strumenti e applicazioni, persone e processi che consentono a un’azienda di diporre delle informazioni utili per svolere le proprie attività. Ad esempio: un display in metro che annuncia le fermate (l’informazione è stata prodotta da un sistema informativo costituito da persone che lavorano in ATM, eh seguono dei processi, dati, strumenti e applicazioni) ICT e SI non sono la stessa cosa. La differenza sta nel fatto che le componenti di un SÌ possono essere anche persone e processi. Dati, informazioni e conoscenza La piramide della conoscenza è costituita da: dati, informazioni e conoscenza. I dati sono alla base della piramide. Sono fatti, osservazioni, elementi scollegati, semplici bit di informazione. Sono materiale grezzo. Il dato rappresenta quindi l'elemento neutro al quale deve essere applicato un processo di elaborazione e interpretazione al fine di trasformarlo in informazione. L’informazione è il risultato della selezione e dell’organizzazione dei dati in un insieme coerente. È la manipolazione dei dati al fine di ottenere la loro trasformazione in forma significativa. Il passaggio dal dato all’informazione è connesso all’effettivo utilizzo dei dati nei processi decisionali. L'informazione si ottiene selezionando i dati e organizzandoli in un insieme coerente, dotato di significato La conoscenza è informazione contestualizzata e utilizzabile per raggiungere obiettivi definiti. L’informazione quindi potrebbe essere considerata a sua volta la materia prima e necessaria a produrre conoscenza. Dall’utilizzo della conoscenza si arriva alle azioni e alle decisioni. Il digitale e il linguaggio binario Il termine digitale deriva dall'inglese digit (cifra, numero). Si fa riferimento a tutti gli strumenti che parlano un linguaggio numerico, ovvero quello binario. Il linguaggio binario è basato su due cifre (0 e 1). In assenza di corrente viene registrato “0”, mentre in presenza di corrente viene registrato “1”. Le tecnologie del mondo dell’informazione e comunicazione utilizzano il linguaggio digitale. Spesso il concetto di digitale viene prenotato in contrapposizione con quello di analogico, ovvero un mondo dove non esiste un segnale con caratteristiche discrete, ma caratterizzato da valori continui Una rappresentazione analogica è una variazione continua dei valori di una grandezza fisica Una rappresentazione digitale è una successione di due stati rappresentabile mediante sequenze di 0 e 1 Il sistema binario è composto da bit e byte. Bit: la più piccola unnità d’informazione che il computer è in grado di elaborare. Byte: è una sequenza di 8 bit. Rappresenta l'unità fondamentale del linguaggio degli elaboratori elettronici. Un byte può contenere un carattere e consente 256 combinazioni diverse di "0" e "1" (28). Per permettere che una lettera venga trasmessa e scritta nella stessa maniera per ogni dispositivo esistono due principali codici: 1) Tabella ASCII (American Standard Code for Information Interchange) È un codice che include caratteri convenzionali come lettere e numeri, oltre a simboli matematici e lettere greche. L'ASCII standard include 128 byte, mentre l'ASCII esteso arriva a 256 byte, con 15 diverse estensioni nazionali. Utilizza 1 byte. 2) La tabella Unicode Utilizza 2 byte (16 bit) per ciascun carattere, consentendo la gestione di fino a 65.536 caratteri differenti (216). Si pone però il problema riguardante i diversi alfabeti (considerando anche le lettere accentate e le dieresi). Il problema si è posto quando si è voluto creare un sistema Unicode. Ora infatti, si usa un codice a 32 bit ovvero 4 byte (posso avere 232 combinazioni) Ad oggi nei nostri computer è presente sia la tabella ASCII che una tabella Unicode a 32 caratteri Multipli del sistema binario: Bit: nel sistema binario, ogni 0 e 1 è chiamato bit (“binary digit”) Byte: 8 bit KiloByte (KB) : circa mille byte MegaByte (MB): circa un milione di Byte GigaByte GB): circa un miliardo di Byte TeraByte (TB): circa mille miliardi di Byte PetaByte (PB): circa un milione di miliardi di Byte Exabyte (EB): circa mille miliardi di miliardi di Byte YottaByte (YB): circa un quadrilione di Byte Esempio domanda d’esame: Voglio inviare un messaggio a una persona giapponese, scrivendo “Ciao”. Quanti bit sto utilizzando? La parola è composta da 4 caratteri: sono 4 byte per carattere, ovvero 32 bit per carattere: 128 bit Digitalizzazione o convergenza digitale La convergenza digitale è la trasformazione della realtà analogica in forma digitale, la principale opportunità derivante dalla convergenza digitale è quella di poter accedere a ogni elemento multimediale (testo, video, audio) indipendentemente dal device utilizzato. Oggi è possibile affermare che l’intero patrimonio di contenuti multimediali dell’umanità si sta interamente digitalizzando. (Invenzione e innovazione) I concetti di invenzione e innovazione, per quanto possano sembrare simili, hanno significati diversi: Invenzione significa scoprire una cosa nuova, che non esisteva prima Innovazione significa manipolare invenzioni esistenti e trasformarle. Sistemi informativi e vantaggio competitivo Il vantaggio competitivo I sistemi informativi possono essere di diverso tipo e di conseguenza supportare diverse attività aziendali. Sono particolarmente legati al vantaggio competitivo dell’azienda, ovvero, in cosa un’azienda si distingue dalle altre. Il vantaggio competitivo è la capacità dell’azienda di superare i propri avversari nel raggiungimento di un obiettivo, di avere prestazioni migliori rispetto a dei concorrenti. Le fonti di un vantaggio competitivo possono essere: di costo (come fast fashion) di differenziazione (unicità) Ed è proprio grazie ai sistemi informativi che le aziende possono ottenere vantaggio competitivo rispetto ai concorrenti (se utilizzati in modo creativo e sofisticato). Un esempio è Amazon con il processo di acquisto rapido (one-click). L’ambiente organizzativo di un sistema informativo è rappresentato da persone e processi, all’interno del quale questi sistemi operano. Una componente fondamentale è quindi rappresentata dalle persone: sia quelle che usano il sistema informativo e fruiscono dei benefici, sia quelle coinvolte nella progettazione. Le persone utilizzano i sistemi informativi per aiutare la propria organizzazione a essere più efficiente. Un altro elemento che compone un sistema informativo è rappresentato dai processi cioè le attività che le organizzazioni eseguono per raggiungere i loro obiettivi e che comprendono sia le attività di base sia quelle di supporto che consentono lo svolgimento di quelle di base. I livelli decisionali di un’azienda Le decisioni prese in un’azienda si distinguono in: Strutturate (prese in un contesto di elevata certezza) Semistrutturate Destrutturate (prese in un contesto di elevata incertezza, o si è a conoscenza delle conseguenze della decisione) Ogni organizzazione è strutturata in diversi livelli decisionali. Ciascun livello dell’organizzazione ha responsabilità differenti e diverse necessità informative. Livello esecutivo Livello manageriale Livello operativo Tutti i livelli prevedono persone che prendono decisioni. Al fine di poter agire hanno bisogno di informazioni (fornite dai SI). Livello operativo Avvengono i processi aziendali quotidiano e di routine. I sistemi informativi che supportano le attività a questo livello sono i sistemi transazionali (Transaction Processing System, TPS) e sono dedicati all’automazione delle attività ripetitive. Questi SI hanno l’obiettivo principale di migliorare l’efficienza Svolgere un processo in maniera efficiente significa: 1) Risparmiare tempo 2) Risparmiare risorse 3) Minor possibilità di commettere degli errori Sono dei sistemi che puntano a migliorare l’efficienza dando per scontato un livello medio di efficacia (L’efficacia è la misura in cui gli obiettivi e le attività vengano portati a termine correttamente). Le figure professionali presenti nel livello operativo sono dipendenti, impiegati… i quali prendono delle decisioni strutturate: quelle in cui le procedure da seguire possono essere specificate in anticipo Svolgono attività: Precedute da decisioni strutturate Ripetitive (hanno modalità di esecuzione che non variano nel tempo) Strutturate Ad elevata frequenza Con uso di dati esatti Livello manageriale Ci si occupa di monitorare e controllare le attività del livello operativo e di fornire informazioni ai livelli superiori. I sistemi che supportano le attività a questo livello sono i Sistemi di supporto decisionale (Decision Support System, DSS) o sistemi di Business Intelligence (BI). Le figure professionali presenti nel livello manageriale sono dirigenti di dipartimento d'azienda, direttori marketing... i quali prendono delle decisioni semistrutturate: soluzioni e problemi non sono chiaramente definiti e spesso richiedono capacità di valutazione ed esperienza. Alcune procedure da seguire possono essere specificate in anticipo, ma non al punto da poter fornire indicazioni specifiche. I dati forniti dal livello operativo vengono raccolti dai sistemi i quali li trasformano in informazioni sintetiche utili per supportare i processi decisionali dei manager. I sistemi di Business intelligence hanno il compito di scavare tra i dati per trovare le informazioni più nascoste. Esempi di sistemi specializzati nel forecasting (analizzano i dati provenienti dal passato per fare una previsione sul futuro) Financial forecasting system Inventory level forecasting systems Product demand forecasting system Forecast system in supply chain planning Ad oggi questi sistemi sono integrati con dei sistemi di AI Livello esecutivo Vi è un focus su obiettivi strategici di lungo termine come quali prodotti realizzare, in quali mercati competere, quale strategia organizzativa seguire. i sistemi che supportano le attività a questo livello sono i sistemi di supporto direzionale (Executive Support System, ESS) attraverso i quali le prestazioni, misurate tramite indicatori di prestazione chiave, vengono visualizzate su pannelli di controllo. Le figure professionali presenti nel livello esecutivo sono l’amministratore delegato, Il direttore generale… i quali prendono decisioni destrutturate: relative a situazioni e scenari per i quali è difficile specificare in anticipo le procedure da seguire e le conseguenze che ne deriveranno. Dati dal livello operativo si passa a una rielaborazione dal livello manageriale e trasformazione in informazioni sintetiche, successivamente si ha una rielaborazione e sintetizzazione (ricca di significato) dal livello esecutivo. Infrastruttura dei sistemi informativi: hardware, software e reti - Internet - World Wide Web Classificazione degli elaboratori In base alle esigenze elaborative, persone e organizzazioni possono scegliere tra diversi tipi di computer/elaboratori. Gli elaboratori possono essere classificati in 5 grandi categorie basate sulle loro caratteristiche e tipologie d’impiego: Supercomputer: è la tipologia di computer più costosa e potente al mondo. Sono principalmente utilizzati nei centri di ricerca. Sono delle macchine mono purpose specializzate, quindi, per una funzione. Mainframe: sono macchine di notevoli dimensioni, con un’elevata capacità elaborativa. Sono destinate alle grandi aziende che li impiegano come sistemi centrali di elaborazione. Minicomputer (workstation): vengono utilizzati principalmente per applicazioni di progettazione per aziende di medie dimensioni. Hanno processori veloci e ampia memoria. Microcomputer (PC): utilizzati per la produttività individuale. Microcontroller (sistemi embedded): sono piccoli elaboratori installati all’interno di altri dispositivi. Sono creati per essere inseriti in altri contesti. Principali operazioni svolte da un elaboratore Tutti gli elaboratori lavorano seguendo lo stesso metodo, svolgendo le loro principali operazioni tramite un ciclo chiamato IPOS (input, processing, output, storage). Al quale vi è aggiunta una quinta fase. 1) Input: consiste nell’immissione di dati nel computer. I dispositivi di input più comuni sono la tastiera, lo scanner, il mouse, il microfono e la telecamera. I dati da inserire possono essere testi, numeri, immagini o suoni. 2) Elaborazione: una volta inseriti nel computer i dati possono essere elaborati; ad esempio si può paragonare, classificare o sommare numeri, formattare un testo o creare immagini e suoni. 3) Output: per vedere (o ascoltare) il risultato dell’elaborazione sono necessari dei dispositivi di output, come lo schermo, la stampante e gli altoparlanti. Le informazioni ottenute possono essere anche sottoposte a un’ulteriore elaborazione, ad esempio per integrare i suoni e le immagini in una presentazione multimediale. 4) Memorizzazione: i dati e i programmi al momento non utilizzati vengono memorizzati su appositi nastri o dischi in modo da poter essere recuperati in qualsiasi momento. 5) Distribuzione: i dati possono essere stampati e distribuiti, oppure trasmessi direttamente da un computer all’altro; un esempio è l’invio di documenti come allegati della posta elettronica o attraverso un sito web. A supportare queste fasi sono fondamentali le componenti hardware e software dell’elaboratore. L’infrastruttura Hardware L’hardware, inteso come l’insieme delle componenti tangibili degli elaboratori, è generalmente classificato in: tecnologie di input Sono tecnologie che consentono all’utente di inserire nell’elaboratore dei dati in formato digitale (ad esempio: tastiera, mouse, microfono, scanner, webcam, lettori codici a barre, fotocamera). RFID (Radio-Frequency IDentification): è l’identificazione tramite la radiofrequenza. Sta sostituendo in parte l’immissione dei dati effettuata fino a poco tempo fa dai lettori a codice a barre. L’immissione dei dati nell’elaboratore avviene tramite l’uso di tag RFID applicati a un oggetto. Quando l’oggetto etichettato passa vicino a un lettore con antenna, i dati sull’etichetta vengono letti e inviati all’elaboratore. Le etichette RFID variano per forma e dimensione a seconda dell’applicazione (magazzini, trasporto pubblico, documenti d’identità, ecc.). I vantaggi di questo sistema includono maggiore rapidità, riduzione degli errori, risparmio di tempo e costi, con un conseguente aumento dell’efficienza. Un altro ambito interessante della tecnologie RFID è l’Internet of Things (IOT), uno dei principali trend digitali. tecnologie di elaborazione Trasformano l’imputato in output. A seconda dell’elaboratore, la capacità di elaborazione è più o meno elevata. Tecnologie di elaborazione sono il processore (CPU) e la memoria centrale (RAM). ○ Il CPU (Central Processing Unit) è l’unità di elaborazione centrale, il cervello del computer. Il CPU ha diversi compiti quali: interpretare ed eseguire le istruzioni per l’ elaboratore di dati, elaborare i dati, gestire e coordinare la comunicazione delle periferiche hardware e lo scambio di atti tra essi. ○ La RAM (Random Access Memory) è una memoria di lavoro, volatile, che si svuota una volta spento l’’elaboratore. Supporta infatti temporaneamente i dati che la CPU deve elaborare. Maggiore è la capacità della RAM (misurata in MB e GB), migliori saranno le prestazioni dell’elaboratore. Un altro tipo di memoria è la ROM (Read Only Memory), la quale contiene programmi e istruzioni di avvio della macchina. tecnologie di output Fase attraverso la quale l’elaboratore rilascia i dati che sono stati elaborati: monitor o stampanti, altoparlanti. È tutto ciò consente di acquisire il risultato dell’elaborazione dei dati. Presentano i dati all’utente in un formato comprensibile e usabile tecnologie di memorizzazione Consentono di archiviare dati, informazioni e di memorizzare permanente di file in diverso formato. L’infrastruttura Software È l’insieme delle componenti intangibili del computer. È costituito da programmi, o insiemi di istruzioni, tramite i quali il computer esegue determinate funzioni di elaborazione. Il suo compito è quello di fornire istruzioni che consentono a tutti i componenti del sistema di comunicare tra loro. Ci sono due categorie di software: 1) Software di sistema o sistema operativo: è l’insieme di dei programmi che controllano le operazioni fondamentali per la gestione del computer Coordina l’interazione tra utenti, software applicativo, e hardware e periferiche 2) Software applicativo: consente di effettuare azioni specifiche. L’evoluzione dei sistemi operativi Anni ‘60 si comunicava con 0-1 e non era presente un interfaccia Anni ‘70 il linguaggio è più completo ma senza interfaccia Anni ‘80 (1981) Microsoft crea la prima interfaccia con un sistema elaborativo per microelaboratori da parte di iOS e Mac. 1984 Apple crea per la prima volta un sistema operativo con interfaccia grafica 1985 Windows crea un’altra interfaccia grafica Reti di comunicazione Per avere un collegamento tra due o più computer attraverso un mezzo trasmissivo e per effettuare una trasmissione di dati sono necessari questi elementi costitutivi: Almeno due computer (elaboratori) Una linea di trasmissione Un protocollo di comunicazione I mezzi di trasmissione si suddividono in due categorie: a cavo e wireless. Comunicazione via cavo: Si tratta di linee di trasmissione che sfruttano i cavi come il doppino telefonico (il principale cavo utilizzato per la rete telefonica nel secolo scorso) il cavo coassiale (utilizzato per trasmettere segnali TV e dati) e il cavo a fibre ottiche (molto diffuso oggi, è immune alle interferenze e offre una larghezza di banda elevata, permettendo il trasferimento di grandi quantità di dati). Comunicazione senza cavo (wireless): Si tratta di linee di trasmissione che omettono l’utilizzo del cavo, come gli Infrarossi (adatti per brevi distanze, coprono solo poche decine di metri), i segnali radio ad alta frequenza (molto usati in tecnologie come Bluetooth) e le microonde satellitari (permettono la trasmissione di dati su ampie reti, utilizzati anche per GPS). Le reti si dividono in varie categorie, una di queste classificazioni è in base all'estensione geografica: Personal Area Network: rete di piccole dimensioni, tipicamente per uso personale. Local Area Network: copre un'area limitata, come un edificio. Metropolitan Area Network: si estende su un'area urbana. Wide Area Network: copre aree molto più ampie, come un intero Stato. Internet Internet è una rete, o meglio, una rete di reti. È un insieme di reti che interconnette tra loro diversi tipi di elaboratori, utilizzando tanti tipi diversi di mezzi trasmissivi. Non ha importanza quale sia la tecnologia che li unisce e non è rilevante di che tipo siano i computer connessi (dal piccolo personal computer al grande elaboratore). C’è un altissimo livello di eterogeneità che caratterizza questo insieme di reti: riesce a far coesistere molteplici elementi diversi, mantenendo una connessione stabile da ormai 55 anni. Il suo punto di forza e il motivo della sua rapida espansione è che tutti i dati scambiati seguono le stesse regole, grazie a un protocollo unico: il TCP/IP (Transmission Control Protocol/Internet Protocol). Cenni storici relativi all’origine e alla nascita di internet La rete Internet è stata sviluppata negli anni '60, in un periodo di tensione tra gli Stati Uniti e l'Unione Sovietica. Durante la guerra fredda, entrambi i blocchi temevano una minaccia nucleare. Il Dipartimento della Difesa degli Stati Uniti aveva l'urgenza di garantire comunicazioni sicure tra i centri strategici, anche in caso di attacco. Per questo motivo, il Dipartimento di Difesa ha incaricato l'ARPA di sviluppare un nuovo modo di scambiare dati e la relativa infrastruttura tecnologica. Nel 1969, l'ARPA ha creato l'ARPANET, una vasta rete che collegava inizialmente nodi a Los Angeles e San Francisco. Sebbene i computer dell'epoca avessero una potenza di calcolo inferiore a quella di uno smartphone moderno, ARPANET rappresentava un'innovazione fondamentale: i dati non venivano più trasmessi tramite circuiti, ma utilizzando una nuova logica chiamata commutazione di pacchetto. Commutazione di circuito e di pacchetto Commutazione di circuito: La commutazione di circuito era la modalità più comune di comunicazione. La porzione di rete, di infrastruttura, linea fisica, che viene utilizzata in occasione di una particolare comunicazione tra un mittente e un destinatario è interamente dedicata a quella specifica comunicazione. Questo è il motivo per cui quando telefonia,o qualcuno, è possibile trovare la linea occupata. Ciò significa che quella porzione di infrastruttura è occupata interamente tra quelle due persone. Commutazione di pacchetto: Nella commutazione di pacchetto non esiste una linea dedicata per ogni comunicazione. Ad oggi consente a miliardi di utenti di scambiarsi dati e informazioni su internet in modo efficiente e simultaneo. Con la commutazione di pacchetto, tutte le informazioni che vengono comunicate vengono suddivise in tanti piccoli pacchetti di dati (gruppi di bit). Questi pacchetti, benché abbiano lo stesso destinatario, vengono trasmessi attraverso canali di comunicazione diversi in funzione del traffico e del funzionamento della rete. La scelta di quale strada seguire non è dettata da nessuna regola se non quella di prendere la strada più veloce e libera. Poiché i pacchetti Non arriva a destinazione tutti insieme nello stesso momento e arrivano in ordine sparso, è necessario che a ciascun pacchetto venga assegnata un’intestazione, composta da: L’indirizzo di rete del mittente e del destinatario. Un numero sequenziale, che permette al destinatario di riordinare i pacchetti e ricostruire il messaggio originale. Protocollo TCP/IP Il protocollo TCP/IP è responsabile della gestione efficiente della comunicazione di pacchetto su Internet: suddivide le informazioni in tanti piccoli pacchetti, assegna a ciascuno di essi un’intestazione e li inoltra verso la destinazione, mettendoli nell’ordine corretto e ricomponendo le informazioni originali. Le due parti di cui si compone il TCP/IP Svolgono due funzioni diverse: TCP (Transmission Control Protocol): sul computer del mittente, gestisce la suddivisione dei dati in pacchetti e assegna loro l'intestazione. Mentre computer del destinatario, si occupa di riassemblare i pacchetti in base all'intestazione per ricostruire il messaggio originale. IP (Internet Protocol): installato su alcuni nodi della rete (come i router), si occupa di indirizzare i pacchetti verso la loro destinazione, gestendo l'instradamento. Questa combinazione consente una comunicazione efficace e flessibile su internet. Il TCP/IP riesce a riconoscere i destinatari perché tutti i computer connessi alla rete sono associati in maniera univoca ad un indirizzo IP. È un numero composto da 4 gruppi di numeri, ciascuno compreso tra 0 e 255 (esempio: 193.205.62.96). Ogni indirizzo IP è formato da 4 byte e identifica in modo univoco ogni dispositivo connesso a Internet. Ci sono circa 4,2 miliardi di indirizzi IP disponibili (256 x 256 x 256 x 256), ma questo numero è considerato limitato. Per questo motivo si è sviluppato il protocollo IPv6, che offre un numero significativamente maggiore di indirizzi. I nomi di dominio Un altro modo per identificare i computer è attraverso i nomi di dominio, ovvero stringhe di caratteri testuali strutturate gerarchicamente da destra a sinistra. I nomi di dominio sono suddivisi in: Domini di primo livello o Top Level Domain (TLD):.com,.edu,.net,.org,.biz,.it,.fr,.uk. Questi si dividono in generici (con più di due lettere) e geografici (legati a uno stato). Domini di secondo livello: questi sono a pagamento e si trovano immediatamente a sinistra del 1º livello. Domini di terzo livello: si ottengono dopo aver registrato un dominio di secondo livello. Ad esempio, in www.IULM.it, “.it” è il primo livello, “IULM” il secondo e “www” il terzo. La IANA (Internet Assigned Numbers Authority) è l’ente che delega l’assegnazione dei domini di secondo livello a specifiche autorità, chiamate Registration/Naming Authorities. Queste autorizzano poi i fornitori/provider di servizi Internet a distribuire i domini. In Italia, il NIC Italia è responsabile dell'assegnazione dei nomi di dominio e della gestione dei registri per il CCTLD ".it", in aggiunta a vari concessionari autorizzati. Il DNS (Domain Name System) è il sistema che crea l’associazione tra indirizzi IP e nomi di dominio. Questo sistema consente di convertire gli indirizzi testuali digitati dall'utente in indirizzi IP riconosciuti dalla rete, facilitando la navigazione su Internet. World Wide Web Il World Wide Web è un'applicazione supportata da Internet, è infatti errato considerarli sinonimi: La rete Internet è l’infrastruttura di base, mentre il world wide web è una delle più grandi applicazioni supportate da Internet. Nasce quando un ricercatore sviluppa un’applicazione finalizzata alla distribuzione di insieme di informazioni caratterizzate da un formato multimediale e connesse tramite collegamenti ipertestuali. Formato multimediale: formato non riducibile al solo testo ma comprensivo di immagini, video e altri elementi. Collegamenti ipertestuali: collegamenti che permettono all'utente di passare in maniera non lineare da un documento all’altro. I contenuti di una pagina web sono formattati utilizzando il linguaggio HTML (linguaggio di marcatura dell’ipertesto). Questo linguaggio ha la funzione di determinare il modo in cui i contenuti delle pagine web appaiono agli utenti finali. È un linguaggio che, grazie agli indicatori che utilizza, organizza i contenuti delle pagine web. Per visualizzare correttamente una pagina web, l'utente deve utilizzare un browser, ad esempio: Firefox, chrome, edge, opera, Safari. Ogni pagina web è associata ad un indirizzo URL (Uniform Resource Locator) che consente agli utenti di individuare l’indirizzo testuale e permetterne la trasmissione. L’URL è l’indirizzo della pagina web che voglio visualizzare. l'http (Hypertext Transfer Protocol), è il protocollo applicativo specifico per il World Wide Web. Cloud computing ed economia della collaborazione Evoluzione dell’architettura SI/ICT L’immagine rappresenta la direzione dell’evoluzione dei sistemi informativi in funzione del diverso ruolo che le ICT hanno avuto all’interno dei sistemi, in particolare considerando due forze: 1) Livello di management della piramide aziendale 2) Complessità di sistema Negli anni ‘70, i primi grandi elaboratori (mainframe) approdano nelle aziende per velocizzare i calcoli, fungendo essenzialmente da calcolatrici avanzate (effetto calcolatrice). In quel periodo, la tecnologia è vista solo come un supporto operativo e l’utente finale non percepisce ancora l’impatto che queste innovazioni stanno avendo. Con il tempo, però, i personal computer e l’Internet iniziano a entrare nelle aziende, e la tecnologia diventa una risorsa di business, uno strumento che le aziende non possono più fare a meno di usare per svolgere le loro attività quotidiane. Ad esempio, senza tecnologia, banche, poste e aziende di trasporto non potrebbero operare efficacemente e rischierebbero il fallimento. La tecnologia diventa così un’arma strategica, fattore critico per la competitività delle aziende, consentendo loro di ridurre i costi, aumentare i ricavi e, in alcuni casi, diventare leader di mercato. Management Level Nel corso degli anni, la tecnologia non è solo cambiata, ma anche il modo in cui è stata utilizzata all’interno delle aziende. Il primo sistema informativo automatizzato prende il nome di TPS (Transaction Processing System) e serve ad autorizzare attività ripetitive e standard. Con il tempo e l’avvento dei personal computer entrano in gioco altri du sistemi informativi automatizzati: OAS (Office Automation Systems), una serie di strumenti per uso personale che abilitano anche gli impiegati ad accedere alla tecnologia, e KWS (Knowledge Work Systems), un sistema pensato per chi nella propria attività lavorativa fa della propria conoscenza l’elemento essenziale. Successivamente, la tecnologia è arrivata ai vertici aziendali. Nascono nuovi sistemi informativi automatizzati come MIS (Management Information Systems) e ESS (Executive Support Systems), pensati per supportare i manager nelle decisioni strategiche, raccogliendo dati dalla base operativa e trasformandoli in informazioni utili per la pianificazione. Complessità del sistema L’uso delle tecnologie è cambiato in funzione della complessità del sistema, l’evoluzione di tali tecnologie e dei sistemi di informazione viene divisa in 4 grandi aree: 1) Batch: fine anni ‘50, inizio anni ‘70. Nascono i primi mainframe e si cerca di automatizzare i primi sistemi informativi. È la fase iniziale, dove gli elaboratori venivano usati per elaborare grandi volumi di dati in modalità batch. 2) Real time: inizio anni ‘70, metà anni ‘80. La tecnologia migliora, i mainframe diventano più potenti e le comunicazioni crescono. Vi è l’introduzione dell’elaborazione in tempo reale, che permette di accedere ai calcolatori da postazioni remote. 3) PC revolution: metà anni ‘80, primi anni ‘90. Avviene un cambiamento a livello di architettura legato all’avvento dei personal computer. L’informatica che era solo di supporto per le organizzazioni si orienta ora verso un informatica ad uso personale. 4) Cloud computing: l’elaborazione che avviene nel cloud, un luogo non definito della rete (l’elaborazione avviene nella rete). La rete permette di sviluppare architetture più connesse, intra e inter-organizzative, con nuove potenzialità. Architetture possono essere: Centralizzata: tutte le operazioni vengono svolte su un unico computer centrale. I dati e i risultati vengono elaborati in tempo reale da un unico punto. Client-server: i dati vengono gestiti e condivisi tra computer distribuiti all’interno dell’azienda. Le risorse sono centralizzate, ma i calcoli e l’elaborazione avvengono su vari dispositivi connessi tra loro. Ad oggi l’architettura informatica utilizzata è il Cloud computing: Cloud computing: i personal computer vengono sostituiti da dispositivi con capacità di elaborazione ridotta ma connessi alla rete. Le applicazioni vengono aggiornate costantemente e gestite esternamente, riducendo i costi interni e migliorando l’efficienza. Il cloud computing è legato al concetto di outsourcing: le aziende esternalizzano alcune attività per ridurre i costi fissi, affidandosi a terze parti che offrono competenze tecnologiche avanzate. In pratica, si delegano le componenti tecnologiche dei sistemi informativi a fornitori esterni, che si occupano della gestione, riducendo le risorse interne necessarie. Amazon è la più grande cloud company al mondo. Le 3 principali tipologie di cloud computing: SaaS (Software as a Service): l’azienda utilizza applicazioni fornite in cloud senza doversi preoccupare della gestione infrastrutturale. L’intera attività è esternalizzata. IaaS (Infrastructure as a Service): l’azienda mantiene parte delle proprie attività interne (come i dati) ma affida a un provider esterno la gestione dell’infrastruttura tecnologica di base, come calcolo e storage. PaaS (Platform as a Service): l’azienda utilizza la piattaforma esterna per installare e gestire le proprie applicazioni, ma mantiene in casa i dati e alcune applicazioni. ICT e mercati digitali Il commercio elettronico I sistemi informativi possono supportare le aziende ridefinendo i modelli di business. Quindi, supportati dalle ICT, possono definire come le aziende operano. Le aziende hanno utilizzato i sistemi informativi (supportati dalle ICT) per migliorare le loro strategie di business. Un esempio di miglioramento di strategia business si manifesta nel commercio elettronico (Electronic Commerce o e-commerce): un'attività di compravendita di beni (digitali o fisici)/servizi in cui le principali fasi necessarie a portare a completamento la transazione (comunicazione, scelta del prodotto, contratto, pagamento ecc.) sono effettuate utilizzando sistemi di comunicazione elettronica e un'infrastruttura di rete. Le aziende hanno rinnovato il proprio modo di vendere con l’arrivo di Internet e del World Wide Web nel quale hanno visto un nuovo canale di profitto. Prima del loro arrivo, le vendite avvenivano in sedi fisiche o a distanza attraverso dei cataloghi. L’antenato dell’e-commerce è infatti la vendita per catalogo. Nel 1965 si assiste al primo catalogo (circa 174 pagine a colori e circa 1800 prodotti ordinabili). Viene poi l’acquisto a telefono La New Economy A metà degli anni ‘90 fu coniato il termine New Economy, per identificare un nuovo contesto, un periodo innovativo. Le aziende iniziano a comprendere le opportunità e i vantaggi dati dai canali online, e così cominciano a trasportare alcune attività nel mondo online. Il termine «New Economy» si vuole contrapporre all’«Old Economy» che in quegli anni sembrava aver perso il ruolo cruciale nel contesto professionale. In questo periodo gli individui erano fermamente convinti (anche se erroneamente), che la modalità tradizionale fosse destinata a sparire: si pensava che «Old economy» e «New economy» non potessero coesistere. La New economy è caratterizzata da innumerevoli aziende chiamate «Dot Com» (.com). Vi è quindi una grande quantità di iniziative imprenditoriali (ad oggi “start-up”), le quali utilizzano il sito web come strumento per vendere prodotti e servizi (online), e di conseguenza, effettuare un’attività e-commerce. Alcuni esempi sono: Webvan.com: quotata in borsa nel 1999. Vende prodotti alimentari e consegna a domicilio Pets.com: quotata in borsa nel 1998. Vende prodotti per animali e consegna a domicilio Kozmo.com: quotata in borsa nel 1998. Si pone l’obiettivo (oltre alla vendita online) di offrire diversi vantaggi agli acquirenti, come la consegna senza spese di spedizione. eToys.com: quotata in borsa nel 1997. Vende giocattoli e consegna a domicilio. Boo.com: quotata in borsa nel 1998. Inizialmente vende libri ma poi si sposta sul mondo dell’abbigliamento. Amazon.com: quotata in borsa nel 1997. Nata per la vendita di libri, ma successivamente si trasforma in un negozio online per qualsiasi tipo di prodotto. La New Economy e le aziende che ne fanno parte suscitano un’enorme euforia collettiva, anche se la maggior parte delle persone ha una conoscenza limitata del mondo online e delle aziende tecnologiche. In pochi anni, l’opinione generale cambia radicalmente e molte persone iniziano a credere in queste nuove realtà imprenditoriali. Questa fiducia si traduce in azioni concrete, con un massiccio acquisto di azioni delle aziende tecnologiche nel momento in cui si quotano in borsa. In particolare, si assiste a una corsa all’acquisto delle azioni delle “dot-com” quando queste si quotano, soprattutto al Nasdaq. Questo fenomeno genera una bolla speculativa chiamata “dot.com Bubble”, poiché gli acquisti sono spesso motivati da aspettative di profitti in continua crescita, piuttosto che da un’analisi razionale delle reali potenzialità economiche delle aziende. Di conseguenza, il valore delle azioni aumenta in modo esponenziale, nonostante molte di queste iniziative imprenditoriali non fossero supportate da una solida base economico-finanziaria. Crisi del NASDAQ, 10/03/2000 La bolla speculativa della New Economy è destinata a scoppiare, e ciò avviene nel marzo del 2000 con la crisi del Nasdaq, segnando l’inizio della fine della New Economy. A contribuire al crollo è la pubblicazione di alcuni bilanci aziendali che rivelano come molte delle società quotate non fossero in grado di sostenere nel tempo le promesse di profitti. I mercati si rendono conto che dietro queste iniziative imprenditoriali spesso c’erano imprese poco solide, incapaci di generare i guadagni previsti. Di conseguenza, dopo la frenesia degli acquisti, si innesca una corsa alla vendita delle azioni, facendo crollare il loro valore, che in alcuni casi scende a livelli molto bassi. Questo evento porta a numerosi fallimenti, inclusi quelli di aziende che sembravano promettenti, ma che riuscivano a sostenersi solo grazie ai finanziamenti ottenuti dalla quotazione in borsa. I fallimenti generano gravi conseguenze economiche, tra cui disoccupazione, smantellamento di attrezzature e locali, con un impatto significativo sull’economia reale. Le 10 peggiori aziende hanno causato perdite per circa 2,7 miliardi di dollari all’inizio degli anni 2000. Questo disastro ha anche provocato una forte disillusione nei confronti del mondo online e delle opportunità che esso sembrava offrire alle imprese. Il caso boo.com Boo.com era un negozio online dedicato alla vendita di abbigliamento sportivo e casual, lanciato nel 1999 con grandi investimenti pubblicitari e una notevole attenzione da parte dei media internazionali. Il sito offriva un catalogo con moltissimi articoli, disponibili in più taglie e proposti in lingue diverse. Era aggiornato in tempo reale grazie alla connessione con i depositi di alcuni fornitori prestigiosi, tra cui Adidas. Gli utenti potevano visualizzare immagini 3D degli articoli, zoomare sui dettagli e provare i capi tramite camerini virtuali. Nonostante le promettenti caratteristiche, Boo.com ha fallito, e le ragioni del suo insuccesso possono essere ricondotte a vari fattori: 1) Mancanza di risorse finanziarie. La compagnia ha accumulato un debito di 20 milioni di sterline a causa degli elevati investimenti iniziali e del lento decollo delle vendite, aggravato dalla crisi del Nasdaq. Il sito perdeva circa un milione di dollari a settimana. Nonostante i tentativi di trovare nuovi investitori, nessun accordo è stato raggiunto. 2) Problemi con il design del sito. Sebbene il sito fosse estremamente innovativo, il suo design era troppo avanzato per i computer domestici dell’epoca, rendendo l’accesso difficoltoso per molti utenti. Inizialmente, chi non aveva un computer potente e veloce faceva fatica ad accedere al negozio online. 3) Problemi tecnici 4) Piano strategico troppo ambizioso. La compagnia cercò di espandersi troppo velocemente, aprendo negozi in 16 paesi, con versioni locali dei siti e costi elevati simili a quelli dei negozi fisici. Inoltre, le spese di spedizione erano a carico dei clienti, un ulteriore ostacolo. 5) Eccessiva fiducia nel modello business-to-consumer (B2C). La fiducia nel business online e nella propensione dei consumatori ad acquistare abbigliamento tramite internet si rivelò prematura, poiché i consumatori non erano ancora pronti a fare acquisti di questo tipo online. 6) Inadeguatezza dei fondatori e delle scelte strategiche. I fondatori avevano competenze limitate e troppo specializzate in un’unica area, mentre le analisi di mercato erano imprecise. Nonostante gli ingenti investimenti iniziali, non sono riusciti a gestire correttamente l’evoluzione dell’attività e a intervenire tempestivamente per rimediare ai problemi, portando infine al fallimento del progetto. Le Strategie aziendali Le strategie aziendali si suddividono in tre categorie principali: Brick and Mortar: Si riferisce alle aziende che non utilizzano l’e-commerce e vendono i loro beni e servizi esclusivamente nel contesto fisico, senza ricorrere alla vendita online. Questo modello esisteva già prima degli anni ’90. Click and Mortar: È una strategia ibrida in cui le aziende utilizzano sia canali fisici che digitali per interagire con i clienti e vendere i loro prodotti o servizi, adottando quindi un approccio multicanale. Questo modello è sempre più diffuso, in quanto permette di raggiungere diversi segmenti di clientela e creare servizi complementari. Tuttavia, comporta anche costi aggiuntivi per la gestione e l’integrazione dei vari canali. Click Only: Si riferisce alle aziende che operano esclusivamente online, senza negozi fisici o altri punti di distribuzione. Queste aziende, chiamate “Pure Player”, vendono solo nel contesto digitale. Esempi di questo tipo di business includono ING Direct, una banca olandese che inizialmente operava solo online, e Amazon, che ha iniziato come libreria online prima di espandersi ad altri prodotti. Tali strategie non sono immutabili, ma possono mutare a seguito dell'adozione di nuove strategie o la configurazione dei nuovi obiettivi. La multicanalità consiste nell’utilizzare diversi canali per interagire con i clienti, sia per scambiarsi informazioni che per vendere beni e servizi. Questo concetto si è evoluto nel tempo, adattandosi alle nuove realtà e tecnologie disponibili. In passato, il web era l’unico strumento principale per connettersi con il cliente, ma oggi anche altre piattaforme sono diventate parte integrante di questa interazione. La distinzione tra il digitale e il fisico è ormai più sfumata. Le aziende, infatti, oggi hanno a disposizione una varietà di canali per interagire con i propri clienti, creando un ecosistema più complesso. Il concetto di multicanalità si è evoluto in tre fasi fondamentali: 1) Multicanalità: in questa fase, le aziende utilizzano diversi canali in modo separato, senza una vera integrazione tra loro. Ogni canale funziona autonomamente, e il cliente interagisce con uno di essi in base alle sue preferenze, senza un percorso comune tra i vari canali. 2) Cross-Canalità: qui i canali vengono usati in modo complementare. Ad esempio, un cliente potrebbe iniziare un acquisto online e poi completarlo fisicamente in un negozio. I canali sono ancora distinti, ma il processo di acquisto si svolge in più fasi e sfrutta diverse modalità. 1. Omnicanalità: questo è il livello più avanzato, in cui i canali sono perfettamente integrati per offrire un’esperienza fluida e continua. Il cliente può interagire con il brand attraverso vari canali, come il negozio fisico, l’app mobile, il sito web, ecc., senza percepire la separazione tra di essi. L’azienda fornisce un’esperienza omogenea e senza interruzioni, creando una “shopping experience” unica e coerente. Tipi di commercio elettronico I diversi tipi di commercio elettronico vengono classificati in base ai soggetti direttamente coinvolti nell'attività di compravendita; quindi, aziende e consumatori. B2C (business to consumer) Quando un'azienda vende un prodotto al consumatore finale privato. Alcuni esempi possono essere Amazon, Alitalia, Feltrinelli ecc. I principali vantaggi di un sito e-commerce B2C sono: I clienti hanno accessibilità ai prodotti 24/7, possono effettuare acquisti in qualsiasi momento, senza le limitazioni degli orari dei negozi fisici. Le aziende possono conoscere meglio il cliente. Possono raccogliere dati sulle preferenze degli utenti tramite strumenti come i cookie, tracciando i profili per offrire prodotti più dettagliati. La personalizzazione di massa, ovvero la possibilità del cliente di personalizzare prodotti standard per soddisfare le loro esigenze specifiche. Targeting di piccoli gruppi di mercato. Un sito web consente alle aziende di andare oltre i gusti mainstream e di soddisfare le richieste di gruppi specifici che cercano prodotti personalizzati o di nicchia. L’e-commerce B2C elimina spesso la figura del distributore, permettendo alle aziende di vendere direttamente ai consumatori e offrire prezzi più vantaggiosi. Questo fenomeno è noto come disintermediazione. Nuovi Intermediari Nel panorama online, accanto alla disintermediazione, sono emersi nuovi tipi di intermediari, rendendo la situazione più complessa e diversificata. Da un lato, le aziende produttrici possono comunicare direttamente con i clienti, ma dall’altro, i consumatori hanno esigenze più specifiche che spesso richiedono l’intervento di intermediari innovativi. Un esempio di questa evoluzione si trova nel settore del turismo. Tradizionalmente, le agenzie di viaggio giocavano un ruolo centrale, ma oggi i consumatori possono acquistare direttamente biglietti aerei o pacchetti vacanza sui siti delle compagnie aeree e dei resort. Tuttavia, con il numero crescente di opzioni disponibili, i consumatori si trovano di fronte a difficoltà nel confrontare i diversi prodotti e fare una scelta consapevole. Per risolvere questo problema sono nati nuovi intermediari, come Booking.com e Trivago, che offrono soluzioni pratiche per comparare le offerte di diverse aziende e facilitare il processo decisionale dei consumatori. Questi nuovi intermediari rispondono a un bisogno che i consumatori da soli non riuscirebbero a soddisfare. In questo scenario, alcuni intermediari tradizionali stanno perdendo importanza, mentre le aziende che si propongono come nuovi intermediari stanno guadagnando terreno. Un esempio di questo cambiamento è Shopify, una piattaforma che consente di creare facilmente negozi online senza costi iniziali, sfruttando la logica del “cloud computing” per semplificare l’e-commerce. Il mondo online, quindi, cerca di sviluppare nuove strategie che oscillano tra disintermediazione e reintermediazione, creando opportunità di business in un contesto in continua evoluzione. I principali svantaggi dell'eCommerce B2C troviamo: La mancanza di fiducia verso l'azienda online per un timore che non ci sia una reale azienda o che l'acquisto effettuato non vada a buon fine. La mancanza di esperienza diretta del prodotto quindi della possibilità di provare e toccare il prodotto. La difficoltà nella ricezione o restituzione della merce quindi timore che la merce non venga consegnata nei tempi e nei modi prestabiliti. B2B (Business to Business) Il B2B si riferisce a quando un’azienda vende prodotti o servizi a un’altra azienda, senza coinvolgere direttamente il consumatore finale. In questo tipo di transazione, il commercio avviene esclusivamente tra imprese, che si scambiano beni, servizi o informazioni all’interno di un determinato settore. Un esempio comune di B2B è l’E-Procurement, cioè l’approvvigionamento elettronico, dove le aziende acquistano online i materiali o i beni necessari per la produzione dei loro prodotti principali. Esistono diversi tipi di piattaforme B2B utilizzate dalle aziende: Supplier Portal (Portale dei Fornitori): Un sito web che permette a un’azienda acquirente di gestire i propri fornitori per l’approvvigionamento delle risorse necessarie al proprio business. Ad esempio, un’azienda come Fiat potrebbe utilizzare un Supplier Portal per monitorare e coordinare i fornitori. Customer Portal (Portale delle Aziende Acquirenti): Un portale utilizzato dai fornitori per gestire le richieste e gli ordini di molteplici clienti. Ad esempio, Boeing potrebbe utilizzare questo tipo di piattaforma per interagire con i suoi clienti aziendali. Marketplace: Una piattaforma online che riunisce molti fornitori e acquirenti per facilitare lo scambio di beni e servizi. I marketplace possono essere generali, come Toboc, dove le aziende di vari settori possono scambiarsi prodotti, oppure specifici per settore, come Fibre2Fashion (settore tessile) o PaperIndex (settore cartario). C2C (Consumer to Consumer) Il C2C coinvolge la compravendita diretta tra consumatori privati, senza il coinvolgimento delle aziende. Un esempio classico di questo modello è eBay, dove gli utenti possono vendere e acquistare beni nuovi o usati, anche tramite aste online. Sebbene oggi eBay supporti anche transazioni B2B e B2C, il suo modello iniziale era focalizzato sul C2C, ovvero sul permettere ai privati di commerciare senza l’intermediazione delle aziende. C2B (Consumer to Business) Nel modello C2B, è il consumatore che offre prodotti o servizi a un’azienda. Un esempio di questo modello è iStockphoto, una piattaforma che permette ai consumatori (anche non professionisti) di vendere immagini e video alle aziende per utilizzarli nelle loro campagne pubblicitarie. Il C2B è anche alla base del concetto di Crowdsourcing, dove le aziende esternalizzano determinate attività a una “folla” di consumatori, che diventano così i principali fornitori di contenuti o servizi. I modelli di business Un modello di business costituisce la sintesi della strategia di un'azienda e delinea il modo in cui gli obiettivi verranno raggiunti, specificando le modalità attraverso le quali l'azienda crea e distribuisce valore. Identifica come l'organizzazione genererà ricavi e, quali saranno la proposta di valore, l'offerta in termini di prodotti e servizi e la clientela potenziale. Gli elementi che costituiscono un modello di business sono numerosi, i principali sono: Revenue model: modello che definisce come verranno generati i ricavi; Quali sono le fonti che creeranno profitto per l'azienda (pubblicità, abbonamenti ecc.)?, Value proposition (proposta di valore): l'utilità che il prodotto/servizio offre al consumatore. Qual è la proposta di valore insita nel prodotto offerto dall'azienda? Cosa differenzia la mia azienda da altre simili? Perché il consumatore dovrebbe scegliere la mia azienda? Competitive environment: analisi dell'ambiente competitivo di riferimento. Chi sono i concorrenti? Quali sono le loro caratteristiche? Quanto è forte la concorrenza in quel settore? Marketing strategy: il programma di promozione del prodotto. Qual è il piano per far sì che il potenziale cliente venga a conoscenza del prodotto? Management team: l'esperienza, il background, la conoscenza delle persone che devono gestire l'azienda. Cosa aggiungono i leader alla compagnia? Modelli di ricavo (revenue model) nel mondo digitale Vendita tradizionale: un consumatore acquista un prodotto/servizio dal sito web. il ricavo viene generato dalla vendita di un prodotto o servizio contesto offline fisicamente, nel contesto online tramite app o sito web). Le entrate delle aziende derivano dalle vendite. Abbonamento: gli utenti pagano canoni mensili o annuali per l’utilizzo del prodotto/servizio Licenza: gli utenti pagano un prezzo per utilizzare beni di proprietà intellettuale e protetta (per esempio un software). Pubblicità: si forniscono ai clienti servizi gratuiti, pagati da terzi. Freemium: free + premium. I servizi base vengono offerti gratuitamente, ma si paga un prezzo per funzionalità speciali o aggiuntive. Servono a creare un'ampia platea di clienti, chiedendo il pagamento di un prezzo solo per le versioni complete con funzioni aggiuntive. La possibilità di avere gratuitamente alcuni servizi, e la possibilità di avere servizi aggiuntivi tramite somma mediante abbonamento, combinando due modelli di ricavo. Esempio: Dropbox. Commissioni di transazione/intermediazione: si paga una commissione all’azienda in cambio dell’aiuto nella transazione. Esempio: Uber, AirBnB basano il proprio modello di ricavo su esso. Essi guadagnano sulle singole transizioni. Startup e nuovi modelli di business nel mondo digitale ICT abilitano nuovi modelli di business: Disintermediazione e reintermediazione Modelli di business basati su piattaforme Nei modelli di business tradizionali vige una logica pipe (tubatura), le imprese producono un bene, lo pubblicizzano e lo vendono a un consumatore finale secondo un flusso lineare. Come, ad esempio, le aziende manifatturiere (Barilla, Ferrero). Il modello di business basato su piattaforma digitale consente ad aziende e consumatori di collaborare a creare e consumare valore. Con tale modello di business si creano ambienti digitali nei quali alcuni soggetti creano beni e servizi che altri soggetti consumano, secondo una logica che prevede una collaborazione. Si pensi ad esempio ad Amazon marketplace, eBay (scambio di prodotti). Twitter, Wikipedia, YouTube (scambio di contenuti: essi sono creati dagli utenti che li mettono a disposizione di altri utenti per il consumo). Una condizione che permette a tali modelli di funzionare è l'effetto rete: è il concetto per cui il valore di una rete, strumento o applicazione, aumenta con l'aumentare del numero di utenti che consumano e creano beni e servizi. Si tratta di una condizione necessaria perché c’è bisogno di un numero consistente di utenti che da un lato creano e dall'altro consumano beni/servizi a tal punto da permettere la crescita della piattaforma. Modelli di business basati su servizi Tale modello è centrato sul fornire prodotti come servizi on demand. In base a tale modello, l'azienda non vende il proprio prodotto ma lo offre come servizio su richiesta dell'utente finale. (XaaS, acronimo di “X as a Service”) Alcuni produttori scelgono di offrire il prodotto stesso come servizio, oppure offrire servizi operativi e di ottimizzazione, o servizi informativi, come la vendita dei dati e delle informazioni generati dall'uso del prodotto da parte del cliente. Un esempio è il Pay-per-wash, la lavatrice non viene venduta come prodotto, ma bensì come servizio (quota mensile da pagare per la lavatrice e il servizio, compreso di elementi necessari per il bucato e per assistenza tecnica). Anche il Pay per use of Imaging and printing (…..) e Signify (posso scegliere se gestire autonomamente l’elettricità o se chiedere ad un’azienda di farlo al posto mio) rappresentano esempi di modello di business basato su servizi. Esiste il rischio di nuove bolle speculative? Esiste il timore che le bolle speculative possano tornare a scuotere i mercati, come accaduto un decennio fa con l’emergere delle aziende social (Facebook, LinkedIn, Twitter, ecc.). E oggi? Il focus è sull’intelligenza artificiale, una tecnologia che attira forte attenzione e genera un’euforia ciclica, simile a quella vissuta in passato con altre innovazioni. È importante, però, sviluppare una consapevolezza realistica sulle opportunità e i limiti di queste tecnologie per evitare aspettative irrealistiche. La trasformazione digitale e i trend digitali La trasformazione digitale È importante soffermarsi sul contesto che le aziende e i singoli individui stanno vivendo nell'epoca contemporanea. Tale periodo è caratterizzato dalla trasformazione digitale (digital transformation). Essa contempla la trasformazione in byte (0,1) di molte attività normalmente svolte nel contesto fisico (attività anche relazionali o che prevedono lo svolgimento di transazioni, ma anche la trasformazione di beni e servizi). La trasformazione digitale sta quindi trasformando le aziende rendendole sempre più automatizzate e interconnesse, alla ricerca di maggiore efficienza, innovazione e capacità di collaborazione tra i lavoratori. “Più automatizzate” significa che sempre più attività aziendali possono essere rese automatiche attraverso l'ausilio delle tecnologie dell'informazione e della comunicazione. Le attività che possono essere automatizzate sono quelle ripetitive che seguono una routine, attività standard. Ad esempio la gestione di una fattura, attività di pagamento. “Più interconnesse” significa che oggi le aziende sono sempre più interconnesse tra loro e con gli stakeholder esterni, con i clienti finali e ciò grazie allo sviluppo e all'utilizzo sempre più massiccio delle tecnologie dell'informazione e della comunicazione. Le aziende possono sfruttare il contesto online per innovare il proprio modello di business, i processi organizzativi, i prodotti e i servizi offerti. Le aziende possono sfruttare le tecnologie e le reti informatiche per supportare la comunicazione all'interno dell'azienda e anche all'esterno, lo scambio di informazioni e di documenti ma anche lo svolgimento di transazioni che oggi sono abilitate dal contesto online. Trend digitali, Social media Si inizia a parlare del contesto dei social media agli inizi del 2000. Nel 2004 affiora il concetto di Web 2.0: in una conferenza, attraverso un brainstorming, alcune persone hanno provato ad individuare quali fossero le nuove caratteristiche del contesto web che si stava delineando in quegli anni e si individua la possibilità che il World Wide Web non sia solo un mondo dove l'utente resta passivo, ma si inizia ad immaginare un ruolo dell'utente sempre più attivo. Con web 2.0 si intende questo nuovo modo di intendere il contesto del world wide web. Il Web 2.0 è una combinazione di: Nuove applicazioni per fornire un interattività di tipo avanzato da parte di un utente medio senza una formazione specifica. Ad esempio commenti, share, possibilità di recensire e votare, inviare ad un amico, blog, profilo utente, siti web come YouTube, Wikipedia e social media. Nuovo modo di intendere e di utilizzare la Rete, indirizzato a una sempre maggiore partecipazione e coinvolgimento degli utenti finali nella redazione dei contenuti che verranno pubblicati online. Un approccio user-generated content, UGC, dove i contenuti sono generati direttamente dall'utente finale. L'utente del web 2.0 è un utente comune, che utilizza applicazioni semplici da usare per interagire con il contesto online, senza avere un background informatico specifico. Non è un esperto della materia a cui si accinge a commentare. L'altro elemento da considerare è il coinvolgimento dell'utente finale, la volontà di partecipare ai contenuti da parte dell'utente finale è essenziale affinché il Web 2.0 possa funzionare. La rivoluzione del Web 2.0 è stata tale che il Time nel 2006 ha dedicato la copertina all'utente della rete (YOU: Yes you. You control the Information Age. Welcome to your world.): sottolinea il cambio di passo che sta avvenendo nel contesto online e il nuovo ruolo dell'utente nella rete internet, che non è più passivo, ma è interattivo e partecipa alla redazione di contenuti. II web 1.0 (1996) era principalmente di sola lettura; l'utente finale poteva acquisire i contenuti che venivano pubblicati da istituzioni, aziende, coloro che gestivano i siti web e pubblicavano contenuti controllati. Il numero di siti web e utenti era inferiore rispetto a quello odierno. (45 milioni di utenti). La componente dei contenuti generati dagli utenti finali era minima. II WEB 2.0 (2006) diventa un web di scrittura e lettura. Vi sono utenti interattivi, che partecipano alla redazione di contenuti(1 miliardo di utenti). Aumentano gli utenti della rete globale, ancora oggi una parte dei contenuti arrivano da fonti istituzionali certificate ma vi è maggiore possibilità di collaborazione Il numero di siti web disponibili online è notevolmente superiore. Quali implicazioni ha il contesto del social media nel mondo aziendale? I social media cambiano i modelli di comunicazione tra azienda e consumatore finale. Le aziende tendono a passare da un modello di comunicazione basato sul monologo a un modello basato sul dialogo: prima le aziende mandavano messaggi in modo unidirezionale ai clienti finali, che li recepivano e ne prendevano atto; mentre ora c'è una bidirezionalità del flusso di informazione (del messaggio). L'azienda lancia dei messaggi, e l'utente li riceve e risponde ad essi. Il ruolo del consumatore/utente è un ruolo attivo. Non è più un utente passivo, in quanto replica e risponde alle sollecitazioni da parte dell'azienda. Trend digitali, IOT (Internet of things) Si data il suo inizio nel 2009. Si tratta di un'ampia varietà di oggetti fisici, device, svariati oggetti comuni, dispositivi indossabili che, tramite tecnologie incorporate e attraverso la rete Internet, condividono autonomamente i dati relativi al loro stato e/o alle condizioni dell'ambiente che li circonda (Esempi: frigorifero di casa che rileva tramite sensori che i prodotti sono terminati, sveglia digitale). Dal 1988 al 2020 il numero di device connessi è aumentato notevolmente, negli anni '90 fino al 2008 gli oggetti connessi principali erano computer laptop ecc.; dall'inizio dell'IOT nel 2009 il tipo di device cambia, si affiancano anche oggetti di uso comune. Gli ambiti applicativi sono numerosi: Smart home: gli oggetti della casa che hanno sensori e tecnologie che consentono ad essi un interconnessione per scambiare dati relativi al loro funzionamento e all'ambiente che li circonda. Smart city: città che hanno l'obiettivo di rendere migliore la qualità della vita attraverso tecnologie che gestiscono meglio le risorse energetiche e i servizi pubblici (semafori intelligenti, arredi urbani smart, sensori wireless traffico, telecamere di controllo, sensori irrigazione, servizi pubblici intelligenti, gestione rifiuti, controllo consumo energetico degli edifici, smart car...) Smart factory: sfruttano tecnologie IOT per aumentare l'automazione e l'interconnessione tra i macchinari. Wearable things: l'uso di questi oggetti ha impatto su diversi contesti (settore sanitario, marketing e adv, sicurezza sul lavoro). Sono oggetti che possono essere indossati da un essere umano (abiti, scarpe, braccialetti, orologi) che sono in grado di rilevare dati relativi all'oggetto stesso, ma soprattutto alla persona che lo indossa. Anche le persone del marketing e della comunicazione utilizzano questi oggetti, utili perché sono in grado di fornire dati precisi e dettagliati sull'utente che li utilizza, consentendo alle aziende di effettuare operazioni di marketing dettagliate. Oggi l'evoluzione tecnologica è tale da garantire la presenza sul mercato di tecnologie a prezzi accessibili. L'accesso a tali tecnologie non è riservato a una nicchia di aziende o persone che hanno una disponibilità economica alta, ma è garantito l'accesso alla massa di persone e aziende che intendono svilupparla. Questi oggetti (driver di sviluppo) devono beneficiare di una trasmissione wireless per poter scambiare dati e informazioni. Il Mobile 5G è sicuramente una tappa dell'evoluzione tecnologica degna di nota, che riscuote un grande interesse. Le sfide La principale sfida dell'IOT è rappresentata dai dati e dalla loro gestione. Privacy e sicurezza dei dati: i dati generati e scambiati dagli oggetti dell'IOT sono spesso sensibili, riservati e la grande sfida è rispettare la privacy e la sicurezza dei dati stessi. Attendibilità dei dati: quanto sono attendibili i dati che provengono dagli oggetti. Importante saperlo perché a seguito dei dati forniti vengono prese delle decisioni, quindi è necessario che siano attendibili, anche perché vengono forniti in tempo reale. Gestione dei dati: i dati che vengono raccolti devono essere analizzati e interpretati in tempo reale per fornire informazioni all'oggetto, così che agisca di conseguenza. Vi è una relazione tra IOT e il Cloud Computing che fornisce quell'infrastruttura tecnologica che consente di supportare il mondo IOT e consente quell'analisi e interpretazione dei dati che le aziende non potrebbero fare con le macchine che possiedono. Trend digitali e quarta rivoluzione industriale Trend digitali, la telefonia mobile Il mobile rappresenta un trend digitale attuale, e il ruolo della telefonia mobile è fondamentale all'interno di un contesto mondiale sempre più interconnesso. L'origine della telefonia mobile risale agli anni ‘70. La prima telefonata pubblica con un telefono cellulare risale all'aprile del 1973, quando l'ingegnere di Motorola Martin Cooper chiama da una strada di Manhattan usando il telefono Motorola Dynatac. Le generazioni della telefonia mobile 1) TACS (Total Access Cellular System) Si sviluppa a partire dagli anni ‘80. Si basa sullo standard TACS, il sistema di comunicazione di tipo analogico, perciò non ancora digitale, che consente il trasferimento di sola voce e consente la comunicazione solo all'interno di confini nazionali (non dall'estero). È caratterizzata da device di grandi dimensioni, pesanti ed estremamente costosi (erano infatti acquistati da coloro che avevano esigenze professionali e di conseguenza la diffusione nel pubblico era molto limitata). 2) GSM (Global System for Mobile communication). Si sviluppa a partire dagli anni ‘90. Si basa sullo standard GSM, un sistema di trasmissione digitale, contribuendo così al processo di convergenza digitale che vede la trasformazione dei segnali analogici in segnali di tipo digitale (rappresentati da bit). La trasmissione digitale consente di migliorare la qualità di trasmissione, la capacità di sistema, nonché la copertura di segnale e la sicurezza delle comunicazioni telefoniche. Questo sistema, basato sulla commutazione di circuito, prevede un canale principale esclusivamente dedicato alla telefonia e un canale addizionale per il traffico dati. Ha garantito la piena compatibilità dei dispositivi mobili cellulari impiegati all'interno di una comunità di paesi grazie al concetto di roaming, cioè un insieme di normative e apparecchiature che permettono di mettere in comunicazione due o più reti distinte. Ha consentito la diffusione dello stesso sistema GSM ben oltre i confini dell'Europa occidentale, l'area per cui era stato concepito. Due elementi che caratterizzano questa generazione sono: Sim card: una card che permette di dissociare i dati relativi all'utente dal device che viene utilizzato (nella 1ª generazione il numero di telefono era direttamente associato al device in uso) Sms (Short Message Service): la possibilità data all'utente di scambiare con altri utenti brevi messaggi di testo (nella 1ª generazione l'unico tipo di comunicazione consentita era la telefonata traffico-voce) I device raggiungono prezzi accessibili che permettono di diffondersi nel grande pubblico e sono più piccoli e leggeri con uno schermo che permette all'utente di avere una maggiore interazione con il device. Con la GSM si iniziano a sviluppare anche dei protocolli applicativi per rendere il web wireless, cioè usare il device nella navigazione sul web. Uno di questi protocolli è il WAP (Wireless Application Protocol) e aveva la funzione di rendere l'accesso al web praticabile anche da un device di 2ª generazione, anche se i costi erano estremamente elevati. (Generazione 2.5) Con l'evolversi del 2G si assiste ad uno sviluppo progressivo che porta alla generazione 2,5, classificabile a metà tra il 2G e il 3G. Gli standard che la caratterizzano sono: GPRS (General Packet Radio Service) EDGE (Enhanced Data Rates for Global Evolution), consente l’erogazione di servizi e applicazioni multimediali. HSCSD (High Speed Circuit Switched Data) Si consente sempre di più lo scambio di informazioni in formato multimediale, con immagini, grafiche, e suoni oltre al testo, consentendo una velocità di trasmissione sempre maggiore. Questo avviene soprattutto attraverso lo standard GPRS che introduce nell'ambito della telefonia mobile il sistema di pacchetto della rete internet. Quest'evoluzione tecnologica favorisce sempre di più l'accesso ad internet da device mobili. I device stessi iniziano a cambiare: hanno uno schermo più grande e si avvicinano sempre di più al concetto di smartphone. 3) UMTS (Universal Mobile Telecommunication System) Si sviluppa a partire dagli anni 2000. Si basa sullo standard UMTS incremento della velocità di trasferimento dei dati e la possibilità di scambiare in modo massiccio i contenuti multimediali; si inizia così a parlare di "banda larga" anche nell'ambito del mobile perché la velocità di trasferimento dati è in deciso aumento e riesce a supportare il trasferimento di dati multimediali che fino a qualche tempo prima non era pensabile fare attraverso i device mobili. 4) LTE (Long Term Evolution) Si sviluppa a partire dal 2013. Si basa sullo standard LTE, il quale consente una velocità estremamente elevata tanto da dare un senso definitivo al concetto di banda larga in mobilità. La velocità di trasferimento dei dati con il 4G è estremamente alta tanto da arrivare secondo alcuni in maniera teorica ad 1GB/S. Si possono usare i device mobili per videoconferenze, accesso al cloud, visione di programmi in streaming con un livello molto alto di qualità e di servizio della trasmissione. Continua a crescere il numero di utenti mobile e vengono inclusi sempre più device connessi alla rete mobile. (Verso la 5ª generazione) I servizi della 5ª generazione vengono resi disponibili a partire dal 2020, e portano a una rivoluzione nell'ambito delle infrastrutture e dei servizi offerti: Incrementano ulteriormente la velocità di trasmissione dei dati fino ad arrivare ad una velocità massima teorica di 10 GB/S Riducono in modo considerevole i tempi di latenza, cioè l'intervallo di tempo che intercorre tra il momento in cui viene inviato un input ad un sistema e il momento in cui è disponibile il suo output Supportano un numero crescente di utenti e servizi che accederanno alla rete mobile, in particolare a quegli oggetti della IOT che accederanno alla rete mobile in maniera autonoma Il contesto mobile, soprattutto con il 5G sarà di supporto al contento dell'Internet of Things (esempi sono le smart cars, la realtà virtuale e la realtà aumentata,...). A partire dal 2017, nelle grandi aree metropolitane, tra cui Milano, sono in atto diverse sperimentazioni di 5G, poiché è oggetto di grande interesse. Big data Importanza dei dati al giorno d'oggi (copertina di The economist del 2017: the world's most valuable resource, data and the new rules of competition). I dati vengono definiti il petrolio dell'era digitale. Per le aziende è difficile gestire i dati, è possibile farlo con strumenti appositi: Database: è un contenitore di raccolta organizzata di dati correlati e strutturati (legati, correlati, coerenti)con l’obiettivo di raggruppare e integrare i dati, confrontarli, estrarli. (Ad esempio: il database di Zara raccoglierà dati come taglia, colore preferito, anagrafica cliente). Big data è un’enorme massa di dati proveniente da fonti interne all'azienda (operosità dell'azienda, transazioni giornaliere...) e da nuove fonti (Trend digitali: IOT, Social Media e Mobile generano un notevole incremento della quantità di dati potenzialmente utili alle aziende). Le caratteristiche dei big data: le quattro v 1) Volume: l’enorme quantità di dati (Si stima che ogni giorno vengano prodotti 2.5 quintilioni di byte, ogni azienda ha almeno 100 terabyte di dati immagazzinati). 2) Varietà: differenti forme di dati: strutturati (situati nei database) e destrutturati (ad esempio nei social media: like, post, gif, con doppi sensi, ironia..., o i mobile e IOT: dati di geolocalizzazione, sensori...). 3) Velocità di generazione (ad ogni istante) e analisi dei dati (devono avvenire in real time EX. macchina intelligente, IOT). 4) Veridicità: attendibilità dei dati. Esistono dati che volutamente sono stati falsificati e diffusi in maniera errata (fake news), dati incompleti, dati soggetti a errori durante il processo di immagazzinamento. Big Data Analytics L’enorme mole di dati, con tali caratteristiche, non può essere analizzata con strumenti tradizionali, ma sono necessari strumenti innovativi: i Big Data Analytics. Si tratta di strumenti utili ad analizzare grandi quantità di dati al fine di estrapolare valore. Sono software che si basano su modelli analitici, matematici e su algoritmi sofisticati che hanno l'obiettivo di trasformare i dati in informazioni. Una metafora interessante è rappresentata sulla copertina di The economist 2010 intitolata "Il diluvio di dati": è raffigurato un uomo con l'ombrello che cerca di raccogliere la grande quantità di gocce ovvero dati e convogliare in poche gocce necessarie per innaffiare un fiore. La metafora è nel fatto che siamo sommersi da grandi quantità di dati che necessitano di essere convogliati, altrimenti risulterebbero inutili. La quarta rivoluzione industriale I trend digitali sono tutti interconnessi tra di loro, e sono essi che contribuiscono nello scenario di trasformazione digitale, il quale è il terreno fertile su cui si è sviluppata la cosiddetta quarta rivoluzione industriale. 1) 1ª rivoluzione industriale (1784): è legata all'utilizzo della macchina a vapore e alla conseguente meccanizzazione della produzione. 2) 2ª rivoluzione industriale (1870): è legata all'introduzione dell'elettricità e ad altre fonti energetiche per supportare la produzione di massa. 3) 3ª rivoluzione industriale (1970): è legata all'introduzione di informatica ed elettronica nell'azienda, le quale supportano dei sempre maggiori livelli di automazione delle attività. 4) 4ª rivoluzione industriale (2011): contesto aziendale in cui una combinazione di tecnologie favorisce una produzione industriale quasi del tutto automatizzata e interconnessa. Si definisce così un nuovo paradigma economico che caratterizza il contesto lavorativo di oggi, cioè un contesto nel quale le tecnologie favoriscono livelli altissimi di automazione e interconnessione. Il contesto 4.0 rappresenta un’opportunità o una minaccia? La lettera aperta sull’economia digitale evidenzia come la rivoluzione digitale in corso rappresenti una delle migliori notizie economiche a livello globale, ma anche un tema controverso, tra minaccia e opportunità. Diversi autori, tra cui McAfee e Brynjolfsson, hanno esplorato questo concetto, in particolare nel loro libro “Race Against The Machine”. Gli autori analizzano i dati relativi alla produttività e innovazione tra il 2000 e il 2007, osservando un significativo aumento di entrambi, ma al contempo una contrazione dell’occupazione e una stagnazione del reddito medio. Questo crea un paradosso: ci si aspetterebbe che l’aumento della produttività portasse a una crescita dell’occupazione e del reddito, ma ciò non accade. Secondo McAfee e Brynjolfsson, una delle cause principali di questo paradosso è l’avanzamento tecnologico, che, attraverso l’automazione, ha aumentato la produttività ma ha anche sostituito il lavoro umano, riducendo così le opportunità occupazionali e i guadagni. Questa analisi introduce ad alcune domande che sono alla base del dibattito odierno, quali: La tecnologia creerà disoccupazione? Quali saranno le trasformazioni nel mercato del lavoro? Le macchine sostituiranno i lavoratori? Quali mansioni saranno ancora svolte dagli esseri umani? Quali occupazioni saranno oggetto di automazione? Timore che riguarda la disoccupazione Il binomio tecnologia-occupazione è sempre stato oggetto di analisi degli anni. La preoccupazione per la disoccupazione causata dalla tecnologia è emersa fin dalla prima rivoluzione industriale, quando il movimento luddista, composto da operai, sabotava le macchine temendo che queste sostituissero il lavoro umano nelle fabbriche. Nel 1930, Keynes introdusse il concetto di “disoccupazione tecnologica” per descrivere il fenomeno in cui l’automazione accelerata riduceva la necessità di manodopera, creando difficoltà nel trovare nuovi impieghi per i lavoratori in esubero. Negli anni ’60, un articolo della rivista TIME intitolato “The Automation Jobless” evidenziava come le tecnologie stessero progressivamente eliminando posti di lavoro. Questo tema tornò di attualità negli anni ‘70 e ‘80 con lo sviluppo della terza rivoluzione industriale, quando l’automazione e le nuove tecnologie continuarono a sollevare preoccupazioni sul futuro dell’occupazione. Come queste tecnologie intervengono nell’automazione di alcune attività lavorative Le tecnologie automatizzano principalmente le attività dei blue-collar worker, ossia gli operai delle fabbriche, le cui mansioni sono già in gran parte sostituite dall’automazione. Nelle smart factory moderne, tecnologie come l’Internet delle Cose (IoT) e l’intelligenza artificiale (IA) stanno automatizzando quasi completamente le catene di montaggio, con gli esseri umani relegati al ruolo di supervisori a distanza. Tuttavia, l’automazione non riguarda solo i lavoratori manuali, ma anche i white-collar worker, ossia coloro che operano in ufficio, come impiegati, funzionari pubblici, insegnanti e altri professionisti della conoscenza. La domanda che sorge è se le tecnologie possano sostituire anche questi lavoratori. Esempi di intelligenza artificiale in settori come il diritto (Lawtech), la medicina e la finanza sembrano suggerire che anche le professioni intellettuali possano essere minacciate dalla digitalizzazione. Cosa non sanno fare i sistemi di AI e i loro limiti I sistemi di intelligenza artificiale (AI) hanno diversi limiti e capacità ristrette: Gli AI non possiedono un’intelligenza generale come quella umana (Artificial General Intelligence), ma sono progettati per operare in ambiti molto specifici, quindi restano intelligenze strette e non in grado di adattarsi a contesti. Quando un AI viene addestrato a svolgere un secondo compito, può dimenticare il primo, dimostrando una limitazione nell’apprendimento sequenziale. Le macchine possono svolgere compiti senza comprendere ciò che stanno facendo, mancando di consapevolezza. Gli AI necessitano di enormi quantità di dati per imparare un compito, molto più rispetto agli esseri umani, il che rende essenziale il legame tra AI e Big Data. Spesso i sistemi AI sono difficili da interpretare e comprendere, generando risultati senza una chiara spiegazione dei processi logici che li hanno portati a tali conclusioni. Sono sistemi che non sono in grado di replicare attività tipicamente umane, tra cui: ○ Effettuare ragionamenti basati sul buon senso ○ Avere consapevolezza di ciò che stanno facendo ○ Capire le sfumature del linguaggio ○ Porre nuove domande ○ Esprimere volontà ○ Replicare l'intelligenza socio-emotiva ○ Essere creativi Per tutti questi aspetti risulta difficile che un sistema di Al possa sostituire un knowledge worker; probabilmente potrà supportarlo in alcune attività specifiche, ma non sostituirlo in toto, proprio per via di tutti questi limiti. Possibili scenari futuri L’uomo deve concentrarsi su competenze difficili da replicare dalle macchine, come abilità cognitive complesse, pensiero innovativo, creatività, intelligenza socio-emotiva, e capacità relazionali. Questi ambiti, che richiedono flessibilità, negoziazione e abilità manuali, continueranno a vedere un ruolo fondamentale per gli esseri umani. Secondo Brynjolfsson e McAfee, oggi è il miglior periodo per i lavoratori con capacità specifiche, poiché possono sfruttare la tecnologia per creare valore, mentre è il peggior momento per chi possiede solo abilità ordinarie, dato che macchine e tecnologie stanno rapidamente acquisendo queste capacità. Le tecnologie digitali necessitano comunque dell’intervento umano per essere sviluppate e gestite, il che porta alla creazione di nuove professioni. Sebbene alcune occupazioni possano essere eliminate, storicamente il progresso tecnologico ha creato nuove opportunità di lavoro, trasformando piuttosto che distruggendo il mercato del lavoro. In sintesi, si assiste a un processo di sostituzione e trasformazione, non di pura distruzione. Seminario intelligenza artificiale: struttura e logica L’intelligenza artificiale L’intelligenza artificiale è la capacità di un computer di simulare funzioni tipicamente umane (e. g. l'utilizzo del linguaggio naturale, la risoluzione di problemi, l'autoapprendimento, etc.). Con “simulare funzioni umane” si intende riprodurre risultati di operazioni che a un uomo richiederebbero l’uso della sua intelligenza. Non vi è però alcuna sovrapposizione tra uomo e l’intelligenza artificiale, se non in termine di risultati (non i processi attraverso i quali si giunge ad essi): per ottenere risultati un umano deve usare le facoltà cognitive, mentre i computer grazie all’intelligenza artificiale, per ottenere e migliorare questi stessi risultati non hanno bisogno di essere intelligenti. Nel 1955 McCarthy, Minsky, Rochester e Shannon firmano la “proposta di Dartmouth”. The artificial intelligence problem is [...] that of making a machine behave in ways that would be called intelligent if a human were so behaving. In questo documento appare per la prima volta nella comunità scientifica (per progettare un workshop di ricerca). Struttura e logica dell'intelligenza artificiale Luciano Floridi in un articolo del 2017 introduce il concetto di cleaving power delle tecnologie digitali come caratteristica fondamentale a cui è possibile ricondurre l’enorme portata rivoluzionaria di queste tecnologie: il digitale taglia e incolla gli aspetti della realtà. Queste tecnologie, in virtù della loro specificità di cleaving power, hanno la capacità di unire e separare, incollare e scollare, saldare e dividere i concetti e le categorie più generali sulla base dei quali noi diamo abitualmente forma alle nostre vite e interpretiamo il mondo. “To cleave” vuol dire sia separare che unire. Con questa espressione si intende la capacità tipica delle tecnologie digitali, di riorganizzare, talvolta unendo e talvolta separando alcuni dei concetti che usiamo per interpretare la realtà. Esempi sono: Separazione tra localizzazione e presenza Grazie al mondo digitale un individuo può essere fisicamente localizzato in un luogo e interattivamente presente in un altro (ad esempio una pagina Facebook). È una condizione a cui siamo abituati e a cui continueremo ad abituarci in futuro. In una società in cui le tecnologie digitali consentono alle informazioni di circolare in modo sempre più rapido e fluido, noi abbiamo a che fare sempre più spesso con la separazione radicale tra i concetti di localizzazione e presenza, anche se il più delle volte in maniera spontanea e inconsapevole. Fusione tra la nostra identità e l’aggregato dei nostri dati personali Prima del digitale, questi concetti non erano così incollati.in un mondo sommerso in maniera sempre più profonda dalle tecnologie digitali noi ci identifichiamo con l’aggregato dei nostri dati personali: la nostra identità si risolve nella galassia enorme incostante trasformazione dei dati che ci riguardano.privacy questa funzione è discussa in termini di dignità umana e identità personale. La violazione sistematica della nostra privacy, l’estrazione massiva dei Nostri dati personali non fa parte di un’operazione spionaggio, ma svolge un ruolo cruciale, necessario all’interno dei modelli di business precisi che per funzionare non possono farne a meno. L’estrazione dei nostri dati personali è funzionale ad una logica di tipo economico e commerciale. Relazione tra AI e il cleaving power delle tecnologie digitali L’intelligenza artificiale è un altro caso di scissione o saldatura. L’intelligenza artificiale è stata spesso presentata dalla stampa come la sintesi della potenza di calcolo delle macchine e l’intelligenza biologica di un essere vivente. In realtà è il contrario: è il risultato della netta separazione tra la capacità di agire con successo in vista di uno scopo (artificial agency) E il bisogno di essere intelligenti nel farlo (intelligent behaviour) Attribuendo un senso complessivo a ciò che si sta facendo per raggiungere i propri obiettivi. Nel caso dell’intelligenza artificiale non abbiamo prodotto l’equivalente non biologico dell’intelligenza biologica, non abbiamo ingegnerizzato una nuova forma di intelligenza, ma abbiamo sviluppato una nuova forma agency, di azione, una nuova capacità di agire che per essere efficiente accurata non ha alcun bisogno di essere intelligente e di essere dotata delle nostre stesse capacità di comprensione del mondo. L’obiettivo principale dell’intelligenza artificiale non è quello di replicare la nostra intelligenza biologica, ma bensì quello di svolgere con grandissima efficienza e accuratezza una serie sempre più lunga di operazioni che per molto tempo erano ritenute appannaggio esclusivo della nostra intelligenza. Machine Learning (apprendimento automatico) Il machine learning è l’insieme di tecniche statistiche che consentono al sistemi di intelligenza artificiale di migliorare autonomamente le proprie performance, elaborando quantità sempre maggiori di dati. I sistemi di intelligenza artificiale sono in grado di trovare all’interno degli insiemi di dati, dei pattern, degli schemi associativi e successivamente, sono in grado di produrre sulla base di questi pattern dei risultati, degli output.trattandosi di machine learning, all’aumentare della quantità di dati forniti all’intelligenza artificiale, aumenta l’efficienza di questi sistemi nel trovare all’interno di insiemi di dati dei pattern sulla base dei pattern per produrre dei risultati. Chat GPT L’intelligenza artificiale, come chat GPT, non produce testi come farebbe un essere umano. Invece, genera risposte basate su probabilità statistiche, analizzando i modelli ricorrenti nei dati con cui è stata addestrata. Non possiede capacità cognitive, ma semplicemente crea sequenze di parole che probabilmente si verificano in base ai testi su cui è stata addestrata. Si tratta di un motore statistico che identifica e riproduce relazioni tra parole e concetti, senza uscire dal perimetro di conoscenza su cui è stata formata. Il termine GPT sta per Generative Pre-trained Transformer, il che significa che l’intelligenza artificiale è pre-addestrata su una grande quantità di dati, ma non è un motore di ricerca in tempo reale. Il suo “bagaglio di conoscenze” si ferma a ottobre 2023. Un Transformer traduce parole in numeri (vettori numerici) e costruisce risposte cercando somiglianze tra questi numeri, che rappresentano concetti e relazioni tra parole nei testi di addestramento. Il sistema si basa sulla previsione: stabilisce probabilità sulle parole che potrebbero seguire, analizzando le relazioni tra di esse. L’intelligenza artificiale genera risposte statisticamente probabili in base ai dati su cui è stata addestrata, stabilendo correlazioni tra pattern. Questo processo è fondamentale per la generazione di contenuti da parte dell’intelligenza artificiale, ma non implica una comprensione del mondo o una “coscienza” umana. Il valore strategico dell’intelligenza artificiale deriva dalla sua capacità di fare previsioni accurate, creando nicchie di contenuti che attirano utenti con interessi simili. Questo processo di omologazione può portare a una crescente definizione di gruppi di utenti che consumano gli stessi contenuti, creando ecosistemi sempre più segmentati. Gli elementi che supportano il successo dell’IA includono: 1) Big Data: grandi quantità di dati a disposizione. 2) Aumento della potenza di calcolo: capacità di elaborare enormi volumi di dati. 3) Spazio di archiviazione crescente: grazie al cloud computing. 4) Abbassamento dei costi tecnologici: che rende queste tecnologie più accessibili. L’ambiente digitale è stato adattato per sfruttare al massimo queste tecnologie, che ora sono fondamentali per il benessere della società. La governance dell’intelligenza artificiale avviene nella progettazione e nello sviluppo delle tecnologie, e spetta agli esseri umani decidere come utilizzarle e regolarle. Il futuro della rivoluzione digitale dipende dalla sostenibilità e dalla capacità di sviluppare un pensiero critico per evitare che questi modelli tecnologici sfuggano al controllo. Digital marketing e advertising Parlando di marketing si fa riferimento a tutte le attività che servono per andare sul mercato. Sono attività preliminari alla vendita di un prodotto che servono per progettarlo, crearlo e successivamente venderlo. Per un'azienda significa progettare, creare, fare ricerca e analisi dei dati, tutte le modalità per allineare al meglio il proprio prodotto o servizio al target di riferimento. Il marketing è l'intera catena del valore necessaria a portare un'idea di un prodotto/servizio sul mercato. L’advertising è la fase finale della catena del marketing nel quale io porto a conoscenza del mio pubblico di riferimento il mio prodotto da vendere. È il processo per rendere un prodotto o un servizio conosciuto dall'audience. Il digital marketing e advertising sono sottocomponenti del marketing e dell'advertising che utilizzano internet e le tecnologie online basate sul digitale. È un termine molto ampio che comprende tutti i canali, tutte le attività, tutti i metodi che possono essere utilizzati per progettare, fare ricerca, e promuovere un determinato prodotto o servizio attraverso i canali digitali. Digital marketing e Digital advertising sono spesso considerati sinonimi proprio perché la parte di advertising, pur essendo un sotto elemento della più generale attività di marketing, nel mondo digitale è quella in cui si concentra la maggior parte degli investimenti e delle attività delle aziende. Nascita del digital marketing/advertising Fino a 30 anni fa, la pubblicità e le tecniche di marketing avvenivano attraverso i canali digitali. Se dovessimo consolidare una data di nascita dei concetti di digital marketing/advertising sarebbe il 1994, anno in cui appare la prima pubblicità digitale, sotto forma di banner (elemento grafico call to action, che invita ad un'azione, con l'obiettivo di portare l'utente ad un approfondimento di un prodotto o di un servizio). In quel periodo, internet era diventato uno strumento accessibile anche alle masse, quindi su internet iniziano ad apparire contenuti rivolti alle masse. Uno dei principali produttori di contenuti (publisher) era Wired Magazine, e nel 27/10/1994 all'interno di una pagina che parla di contenuti tecnologici appare un banner, posizionato sul sito dalla compagnia telefonica AT&T. Cliccando sul banner, l'utente si trovava su una landing page (pagina di atterraggio; pagine su cui atterra dopo aver risposto ad una CTA), dove AT&T promuoveva le sue capacità in termini di connettività e sviluppo di nuove applicazioni nel mondo internet. In 26 anni è successa una rivoluzione: quello che c'è oggi nel mondo Digital Marketing è un settore industriale enorme in costante crescita che dà occupazione a milioni di persone nel mondo. Attività di digital marketing Il settore del digital marketing è suddiviso in quelle che sono le varie fasi del marketing: Advertising & promotion Content & experience Social & relationships Commerce & sales Data Management Il mondo del digital marketing è un mercato molto semplice dove avviene uno scambio di servizi tra due soggetti principali: 1) Publisher Qualsiasi soggetto che grazie alle sue attività, grazie alla sua offerta nel corso degli anni, abbia a disposizione un ingente traffico di utenti. Offrendo contenuti e servizi, tipicamente a titolo gratuito all'utente finale, fa sì che sulle sue pagine ci siano milioni di persone che quotidianamente le visitano. Esempio di publisher: facebook, google, whatsapp, tripadvisor, ma anche content creator, influencer e youtuber che pubblicano gratuitamente la loro vita e guadagnano tramite gli advertiser. Una caratteristica che accomuna tutti i publisher è l’erogazione del prodotto o servizio in maniera gratuita. Hanno però il problema del guadagno: offrendo i servizi gratuitamente, essi non sanno come guadagnare. 2) Advertiser Brand che ambiscono a contattare il consumatore finale attraverso i canali digitali, ma non hanno gli strumenti, non hanno il traffico sufficiente sui loro siti per farlo. Hanno investimenti pubblicitari da mettere a disposizione, soldi da investire per raggiungere il loro target di riferimento, ma non dispongono di traffico sufficiente per raggiungerlo. Le esigenze di advertiser e publisher sono perfettamente complementari: i publisher hanno tanto traffico ma non sanno come monetizzarlo, e gli advertiser hanno denaro e cercano traffico. L'incontro tra questi due soggetti è potenzialmente un incontro perfetto. (Esempio: l'advertiser Coca Cola, può decidere di pagare il publisher Facebook per poter mostrare la pubblicità relativa ai suoi prodotti al pubblico che quotidianamente visita le pagine Facebook.) Inizialmente il rapporto era semplice: da un lato vi era Wired, il publisher, che cominciava a pubblicare i suoi contenuti gratuitamente online, (doveva capire come fare i soldi), e d'altra parte vi era AT&T, l'advertiser, che aveva la necessità di far conoscere i propri prodotti e servizi ad un potenziale pubblico di riferimento, il quale coincideva perfettamente con il pubblico di lettori di Wired, e che decide di investire in pubblicità sul sito di Wired. Advertiser e Publisher si sono resi conto di non andare d'accordo: il publisher cerca sempre più denaro, e l'advertiser cerca sempre più traffico qualificato, e ad un certo punto le due esigenze, una volta complementari, divergono. È quindi necessario introdurre nella catena di scambio degli intermediari: una serie di soggetti in grado di mitigare le divergenze delle esigenze dei due soggetti riportando la relazione in equilibrio. Esempi di intermediazione Retargeting: possibilità di riproporre ad uno stesso utente, indipendentemente dal sito del publisher che sta visitando, la pubblicità di uno stesso brand. Se cerco un hotel a Riccione, nelle due settimane successive, indipendentemente dal sito o dall'app che sto visitando, troverò pubblicità di quell'hotel. Affinchè ciò avvenga, la relazione diretta tra Publisher e Advertiser non è più sufficiente. Se io come advertiser di Hotel mi rivolgo al Corriere della Sera, lui sarà in grado di mostrare il mio banner soltanto al suo pubblico, e non al pubblico che su un altro sito, aveva cercato quello specifico Hotel. Ad networks/Ad exchanges: sono società che si occupano di individuare quali sono i Publisher migliori su cui mostrare uno specifico messaggio pubblicitario. Il principale ad network al mondo è google: oltre a vendere gli spazi pubblicitari sulle sue piattaforme, fa anche l'ad network, opera come distributore di pubblicità ad altri publisher. Modello per classificare forme di digital marketing Un modello utilizzato per classificare le forme di Digital Marketing in funzione del tipo di media disponibili si distingue tra: Earned, Owned e Paid Media. Owned media: possibilità di un brand di pubblicare i propri contenuti su delle sue proprietà (proprio sito web, applicazione mobile, blog ecc). Ha un punto di partenza fondamentale perché sul proprio sito fa convergere tutti i contenuti e tutti gli utenti che sono interessati ai miei contenuti. Plaid media: tutte le forme pubblicitarie a pagamento (rapporto tra advertiser e publisher). Earned media (media acquisiti): Tutte le forme di comunicazione di digital marketing basate sul passaparola (share, like, tweet, retweet, storie). Forme di digital advertising (paid media) Se nel 1994 vi era unica forma di Banner, oggi ne esistono differenti sia in termini di formati che di obiettivi che permettono di raggiungere. Possono essere riassunte sotto tre tipologie 1) Display advertising 2) Social media advertising 3) Search advertising Sono modelli di pubblicità digitale che differiscono tra di loro sia in termini di formato, sia in base alla diversa tipologia di target utenti e le modalità con cui raggiungere gli utenti. I modelli funzionano per qualsiasi tipo di brand o advertiser, mentre in termini di publisher che possono fornire queste tipologie ci sono delle differenze: 1) Display advertising Può essere offerto da qualsiasi property digitale, sia web, sia mobile, che abbia traffico. Se ho traffico posso posizionare nel mio sito delle pubblicità basate sul digital. È la forma primaria da cui tutto ha avuto inizio. Dal punto di vista del formato: tutto l’advertising è basato principalmente su contenuti e creatività di tipo grafico. Attraverso il quale provo a contattare utenti con interessi affini con quelli del mio prodotto o servizio (targetizzazione contestuale). I publisher possono decidere di dedicare degli spazi delle proprie property digitali, per mostrare banner o display advertising di diversi brand. Gli spazi che un publisher dedica ai banner si chiamano placement. 2) Social media advertising Ciò che differenzia il social media advertising dalle altre forme è che, in questo caso, un publisher ha l