La Rivoluzione Digitale: Frammentazione e Complessità PDF
Document Details
Uploaded by SimplestOnyx1253
Università degli Studi Suor Orsola Benincasa - Napoli
Tags
Related
- La Rivoluzione Copernicana (PDF) - Thomas Kuhn
- Rivoluzione Russa-NEP-Guerra Fredda ed Iperinflazione PDF
- Ai Confini Dell'Umano PDF
- 10 - La Prima Guerra Mondiale e la Rivoluzione Russa PDF
- Capitolo 3 - La Rivoluzione Industriale Britannica PDF
- La Moda Attraverso le Quattro Rivoluzioni Industriali PDF
Summary
L'articolo analizza la rivoluzione digitale, focalizzandosi sulla frammentazione e sulla complessità dei contenuti in rete. Esplora la storia dell'evoluzione dei dispositivi digitali, del software e delle ideologie economiche ad essi associate. Viene anche menzionata l'importanza delle competenze e della formazione per gestire la complessità della conoscenza digitale.
Full Transcript
La Rivoluzione Digitale: Frammentazione e Complessità Frammentazione e complessità La rivoluzione digitale ha portato a una trasformazione radicale del mondo in cui viviamo, con l'introduzione di nuove abitudini, pratiche lavorative e strumenti che sarebbero stati incomprensibili solo pochi decenni...
La Rivoluzione Digitale: Frammentazione e Complessità Frammentazione e complessità La rivoluzione digitale ha portato a una trasformazione radicale del mondo in cui viviamo, con l'introduzione di nuove abitudini, pratiche lavorative e strumenti che sarebbero stati incomprensibili solo pochi decenni fa. Nonostante la velocità dell'innovazione, il suo sviluppo non è lineare e può essere analizzato da molteplici prospettive. Una di queste prospettive è quella che vede una progressiva miniaturizzazione dei dispositivi e un aumento della loro potenza di calcolo e interconnessione. Tuttavia, esistono anche altre prospettive, come l'evoluzione del software e la cornice ideologica ed economica che ha accompagnato la rivoluzione digitale. Periodizzazione della rivoluzione digitale La rivoluzione digitale può essere suddivisa in diverse fasi, a partire dai grandi computer degli anni '50 e '60, basati su valvole e transistor e utilizzati principalmente per il calcolo numerico. Negli anni '80, con l'invenzione del microprocessore, si è assistito alla diffusione degli home e personal computer, seguiti dall'esplosione di Internet negli anni '90 e dall'era dell'Internet mobile e degli smartphone sempre connessi. Il futuro potrebbe portare ulteriori sviluppi, come l'introduzione di interfacce di 'human augmentation' e sistemi di intelligenza artificiale sempre più avanzati. Evoluzione del software Oltre all'evoluzione dell'hardware e delle infrastrutture, è importante considerare anche l'evoluzione del software nella rivoluzione digitale. Si è passati dai sistemi operativi a caratteri a quelli a grafici, dai videogiochi che hanno contribuito alla diffusione degli home computer ai social network e agli strumenti di videoconferenza che hanno accompagnato il periodo della pandemia. Il futuro potrebbe portare ulteriori sviluppi, come l'introduzione di ambienti intelligenti e sistemi di realtà aumentata e mista. Cornice ideologica ed economica della rivoluzione digitale La rivoluzione digitale è stata accompagnata da una cornice ideologica ed economica che ha subito diverse trasformazioni nel corso degli anni. Dagli anni '70, con l'ideologia della Silicon Valley che ha creato l'ambiente culturale per la diffusione dei personal computer, si è passati al turbocapitalismo neoliberista dei colossi Big Tech, in cui il controllo e lo sfruttamento dei dati personali sono diventati predominanti. Questa cornice ideologica ed economica continua a evolversi e a influenzare lo sviluppo della rivoluzione digitale. La rivoluzione digitale La rivoluzione digitale ha portato a un aumento della diffusione di contenuti e alla loro complessità. Negli anni '80 e '90, la rete era ancora agli inizi e i contenuti erano principalmente amatoriali e privati. Con l'avvento del web, i contenuti sono diventati sempre più numerosi e organizzati, simili a insediamenti urbani e agricoltura. Con il web 2.0, i contenuti generati dagli utenti hanno preso il sopravvento, con la possibilità di condividere e scambiare informazioni in modo virale. La frammentazione dei contenuti Con l'avvento del web 2.0, i contenuti sono diventati sempre più frammentati e granulari, con una tendenza verso la brevità. Questo è dovuto alla velocità di scrittura e condivisione dei contenuti, ma anche alla natura artigianale e autoprodotta dei contenuti generati dagli utenti sui social network. Tuttavia, la frammentazione non implica necessariamente una scarsa qualità o rilevanza dei contenuti, ma può anche portare a contenuti preziosi. Complessità e competenze La complessità dei contenuti e la conseguente perdita di competenze legate ad essa sono un fattore preoccupante. La costruzione di conoscenze e l'interpretazione del mondo richiedono la capacità di produrre e lavorare con contenuti complessi, raccogliere e organizzare dati e formulare teorie. Questa esigenza cresce con l'aumentare dei fattori e delle dimensioni in gioco, soprattutto in società sempre più interconnesse. Granularità e frammentazione La tendenza alla granularità e alla frammentazione dei contenuti digitali sembra essere legata alla situazione attuale e contingente dell'ecosistema digitale, più che a una sua caratteristica necessaria e permanente. Tuttavia, l'attenzione verso contenuti complessi non è mai sparita dall'orizzonte delle culture digitali e potrebbe esserci una tendenza alla riconquista della complessità in futuro. Età dell'artigianato e del commercio informativo L'età dell'artigianato e del commercio informativo sembra essere prevalente nell'ecosistema digitale attuale, ma potrebbe cedere il passo all'età delle cattedrali, ovvero alla costruzione collaborativa di architetture del sapere più sofisticate e meglio strutturate. Un esempio di questo è rappresentato da Wikipedia. Sistema formativo e competenze di complessità L'ipotesi di un progressivo recupero della complessità in ambiente digitale configura uno specifico bisogno formativo, legato alle competenze di complessità. Questo bisogno è trasversale rispetto a ordini e gradi scolastici e alle diverse discipline, e il sistema formativo deve orientare le sue politiche scolastiche e universitarie verso la necessità prioritaria di fornire agli studenti la capacità di produrre, comprendere, valutare, selezionare, conservare e diffondere contenuti strutturati e complessi, anche all'interno del nuovo ecosistema digitale. Critiche e risposte Le principali critiche alle tesi sostenute riguardano l'assenza di indizi sul fatto che in rete si stia effettivamente andando verso un recupero di contenuti complessi e l'impressione di un eccessivo ottimismo. Tuttavia, esistono diversi campi in cui il lavoro di costruzione di contenuti complessi sta avendo successo, favorendo lo sviluppo di strumenti più potenti e sofisticati. Inoltre, il libro cerca di rispondere a queste critiche esaminando questi campi e dimostrando che il recupero della complessità è possibile e auspicabile. Complessità e architettura della conoscenza Il concetto di complessità è strettamente legato all'architettura della conoscenza, che rappresenta un'idea fondamentale nell'ambito enciclopedico. Negli ultimi anni, si è assistito alla nascita di intelligenze artificiali generative che sembrano orientate verso una diversa forma di complessità. Inoltre, la conservazione delle memorie personali ha portato alla creazione di forme sempre più sofisticate di contenuti granulari come testi, immagini, video e dati personali. Tendenza alla frammentazione e inversione di direzione Negli ultimi anni, la tendenza alla frammentazione dei contenuti è stata esasperata dai meccanismi di funzionamento dei social network. Tuttavia, si sta assistendo a una possibile inversione di direzione, con una maggiore attenzione verso contenuti più ponderosi e meditati. Questo è evidente nella crescita della durata media dei video su piattaforme come YouTube, Instagram e TikTok, e nella maggiore propensione alla lettura di libri dopo la pandemia. Rischi della crescita della complessità Nonostante la crescita della complessità possa essere vista come un segno di sviluppo, è importante considerare i rischi che essa comporta. Una produzione di contenuti complessi non accompagnata da adeguate competenze di comprensione e valutazione può essere pericolosa. Inoltre, se non viene accompagnata da una diffusa crescita delle competenze necessarie a gestirla, la complessità può diventare un fattore di esclusione anziché di sviluppo. È quindi importante prestare attenzione alla formazione e alla politica culturale per evitare questo rischio. Il sogno di Wells: l'Enciclopedia Mondiale come cattedrale del sapere Herbert George Wells Herbert George Wells è stato uno scrittore e saggista inglese, noto soprattutto per i suoi romanzi di fantascienza. Tuttavia, ha anche scritto numerosi saggi su tematiche diverse, con un particolare interesse per il futuro. Wells è stato un sostenitore di un governo mondiale e ha cercato di individuare strategie per costruire un futuro migliore, basato sulla scienza e sull'istruzione di qualità. Il futuro Uno dei temi preferiti di Herbert George Wells è stato il futuro. Nei suoi romanzi, ha intrecciato anticipazione scientifica, utopia e distopia, mentre nei saggi ha esplorato le dimensioni politiche, culturali e sociali del futuro. Nonostante le sue posizioni filosofiche deterministiche, Wells ha cercato di individuare strategie per costruire un futuro migliore, senza guerre e guidato da un governo mondiale. Il "cervello mondiale" Nel suo saggio "World Brain", Herbert George Wells propone l'idea di un "cervello mondiale", ovvero una raccolta organizzata e sistematizzata del sapere umano, resa universalmente accessibile attraverso le nuove tecnologie. Questo "cervello mondiale" potrebbe essere utilizzato come fondamento per la risoluzione di conflitti e la collaborazione universale. L'enciclopedia mondiale Wells considera l'enciclopedia mondiale come uno strumento fondamentale per la costruzione del "cervello mondiale". Questa enciclopedia dovrebbe essere il contraltare conoscitivo della Società delle Nazioni, fornendo un adeguato fondamento epistemico per le scelte politiche. Inoltre, l'enciclopedia dovrebbe essere continuamente aggiornata e accessibile a tutti, svolgendo il ruolo di una "Bibbia antidogmatica" nella cultura laica. La ricerca di soluzioni per il futuro Nel periodo fra le due guerre mondiali, molti intellettuali europei, tra cui Herbert George Wells, cercavano disperatamente soluzioni per offrire stabilità politica e prevenire nuovi conflitti. Wells proponeva l'idea di un "cervello mondiale" e di un'enciclopedia mondiale come strumenti per costruire un futuro migliore, basato sul sapere e sulla collaborazione universale. L'importanza del sapere Secondo Wells, la politica non può funzionare senza un adeguato supporto di conoscenze e competenze solide. In questo senso, l'enciclopedia mondiale proposta da Wells dovrebbe aiutare a costruire complessità e struttura a partire dalla massa di conoscenze disponibili, diventando un "collante" che tiene insieme il mondo. L'idea di un'intelligenza artificiale superiore Nel testo viene menzionata l'idea di un'intelligenza artificiale di livello superiore rispetto a quella umana, che secondo l'autore potrebbe essere realizzata entro il 21006. Questa idea è stata proposta da molti autori, tra cui Arthur C. Clarke, che ha collegato l'enciclopedia mondiale alla biblioteca globale e ha sottolineato le date proposte per la realizzazione di un "cervello mondiale". Questa prospettiva è stata ripresa anche nella recente edizione del libro di H.G. Wells, che ha affidato le prefazioni a due esperti del mondo digitale. L'enciclopedia globale come progetto politico Secondo Wells, l'enciclopedia globale non è solo un progetto culturale, ma anche politico. Questo perché la lotta alla dispersione e alla frammentazione delle conoscenze è un'esigenza politica, soprattutto per affrontare temi complessi come il riscaldamento globale, la geopolitica e l'intelligenza artificiale. Inoltre, l'enciclopedia globale suggerisce che anche il lavoro politico, come quello parlamentare, richiede un approccio enciclopedico per affrontare temi complessi e garantire solidità e coerenza nelle decisioni legislative. La storia delle enciclopedie e dell'enciclopedismo La storia delle enciclopedie e dell'enciclopedismo è molto antica e comprende diversi modelli, come le enciclopedie sistematiche e alfabetiche. Non è possibile riassumerla in poche parole, ma ci sono molti testi di riferimento che approfondiscono questo tema. Tuttavia, è importante notare che già prima della nascita di Wikipedia, molti editori avevano abbandonato il formato cartaceo tradizionale per versioni online delle enciclopedie. L'evoluzione delle enciclopedie nel mondo digitale Nel mondo digitale, le enciclopedie si differenziano da altri prodotti editoriali perché sono più vicine al modello informatico della base di dati e sono destinate alla consultazione occasionale e puntuale. Questo ha portato molti editori a sviluppare versioni online delle enciclopedie, che sono meno dipendenti dalle caratteristiche della lettura lineare e prolungata rispetto ai libri tradizionali. Tuttavia, ci sono ancora alcuni vantaggi della carta rispetto ai dispositivi digitali di lettura. Le enciclopedie digitali Le enciclopedie digitali sono una forma di enciclopedia che utilizza il supporto digitale per fornire informazioni. Sono facilmente modificabili e aggiornabili, permettono l'aggiunta di risorse multimediali e l'utilizzo di link per esplorare riferimenti incrociati. Inoltre, hanno un costo marginale molto basso rispetto alle enciclopedie stampate. Le fasi dello sviluppo delle enciclopedie digitali Il processo di sviluppo delle enciclopedie digitali ha attraversato cinque fasi principali. La prima è stata l'epoca delle prime enciclopedie testuali online, seguita dall'era dei CD-ROM multimediali e dalla prima generazione di enciclopedie su web. Attualmente siamo nell'era delle enciclopedie semantiche orientate ai dati, ma si prevede un'ulteriore evoluzione verso l'integrazione con le intelligenze artificiali generative. Pionieri dell'enciclopedismo digitale Albert Ducrocq Albert Ducrocq è stato un giornalista, saggista e pioniere della cibernetica francese. Era molto popolare in Francia negli anni '40 e '50 per le sue frequenti apparizioni televisive e la sua vasta conoscenza di vari campi scientifici. Ha inventato diversi dispositivi cibernetici, tra cui animali-robot programmabili, una macchina per la generazione di testi e poesie chiamata Calliope e una macchina da scrivere elettronica chiamata Electro Styl. È anche considerato uno dei primi esempi di arte digitale, avendo creato opere in codice binario con una stampante rudimentale. Enciclopedismo digitale L'enciclopedismo digitale è nato negli anni '50 con le prime invenzioni e sperimentazioni di Albert Ducrocq. Nel 1954, ha presentato l'informateur électronique, un dispositivo interattivo di orientamento al lavoro. Nel 1958, è stata presentata la prima enciclopedia digitale, il Larousse elettronico, che funzionava su un computer con memoria a nucleo magnetico. Nel 1980, è stato lanciato il primo servizio di informazione domestica basato su computer, chiamato Channel 2000, che offriva l'accesso all'Academic American Encyclopedia e al catalogo integrato delle biblioteche di Columbus e Franklin, nell'Ohio. L'enciclopedia digitale è stata resa possibile grazie ai progressi tecnologici e alla disponibilità di collegamenti di rete. L'Academic American Encyclopedia L'Academic American Encyclopedia è stata pubblicata nel 1980 da Aretê Publishing, sussidiaria del gruppo editoriale olandese VNU. L'obiettivo era di creare un'enciclopedia accessibile a un pubblico non specialistico e in prevalenza giovanile, a un prezzo più basso rispetto alle altre enciclopedie del mercato. L'opera era composta da 21 volumi e venduta a 400 dollari. L'Academic American Encyclopedia è stata una delle prime enciclopedie a sperimentare l'utilizzo del digitale per la gestione dei contenuti. Il servizio OCLC Il servizio OCLC è stato il primo di questo tipo a essere rivolto a un pubblico generico, che accedeva a un'enciclopedia da casa. È stato utilizzato per la prima volta nel 1980 con l'Academic American Encyclopedia. L'obiettivo era di svecchiare i meccanismi produttivi e i canali distributivi tradizionalmente propri dell'editoria enciclopedica. Il servizio OCLC è stato anche il primo a offrire l'accesso a un'enciclopedia tramite terminali esterni, come quelli presenti nella biblioteca Hillman dell'università di Pittsburgh. La storia delle enciclopedie digitali La storia delle enciclopedie digitali inizia ben prima della data più spesso citata in letteratura, quella della prima enciclopedia su laserdisc. Traguardo che - come a questo punto non stupirà - sarà raggiunto ancora una volta dall'Academic American Encyclopedia. Siamo nel 1984, ma la commercializzazione di questo prodotto, denominato Grolier KnowledgeDisc, inizia l'anno dopo, quando Aretê è acquistata da Grolier, un editore statunitense specializzato in edizioni raffinate di opere classiche e che fin dal 1910 si era affacciato anche nel mercato delle opere di reference. Per l'enciclopedismo digitale inizia una nuova epoca. L'offerta di servizi di informazione online Negli anni '80, con l'avvento dell'informatica personale, iniziano a moltiplicarsi i servizi di informazione online a pagamento. Tra questi, molti includono enciclopedie digitali nella loro offerta, come l'Academic American Encyclopedia, che diventa presto la più diffusa tra i primi servizi di rete. Inoltre, l'enciclopedismo digitale si evolve ulteriormente con l'introduzione del Grolier KnowledgeDisc nel 1984, segnando l'inizio di una nuova era per le enciclopedie digitali. L'evoluzione delle enciclopedie digitali L'avvento delle enciclopedie digitali Negli anni '80 e '90, le enciclopedie digitali hanno iniziato a prendere il posto delle enciclopedie cartacee. La prima edizione su laserdisc dell'Academic American Encyclopedia ha dimostrato i vantaggi economici delle enciclopedie digitali rispetto a quelle cartacee. Negli anni successivi, molte altre enciclopedie sono state pubblicate su CD-ROM, con l'inclusione di contenuti audiovisivi. La Compton's Multimedia Encyclopedia Nel 1989, la Compton's Encyclopedia è stata pubblicata su CD-ROM, diventando la prima enciclopedia digitale della Britannica. Tuttavia, la pubblicità televisiva della Britannica del 1987 ha mostrato la difficoltà di gestire la transizione dalle enciclopedie cartacee a quelle digitali. Nel corso degli anni '90, molte altre enciclopedie sono state pubblicate su CD-ROM, con l'ingresso di nuovi editori nel mercato digitale. L'associazione fra computer ed enciclopedia Negli anni '90, l'associazione fra computer ed enciclopedia è diventata sempre più comune, con l'inclusione di enciclopedie su CD-ROM in offerte di computer. Nel 1995, sia l'Encyclopedia Americana che la Hachette Multimedia Encyclopedia sono state pubblicate su CD-ROM. In Italia, l'enciclopedia multimediale Omnia della De Agostini è stata uno dei maggiori successi, con adattamenti per altri paesi e versioni per bambini e per l'arte. L'ingresso di nuovi attori nel mercato delle enciclopedie digitali Negli anni '90, nuovi attori sono entrati nel mercato delle enciclopedie digitali, producendo enciclopedie sia adattate da versioni a stampa che prodotte da editori già attivi nel settore. Tuttavia, sono anche entrati nel mercato nuovi attori, come l'Istituto dell'Enciclopedia Italiana, che ha pubblicato una versione su CD-ROM della seconda edizione del Vocabolario Treccani. L'evoluzione delle enciclopedie tradizionali verso il formato digitale Nel corso degli anni '90, si è assistito ad un cambiamento significativo nel campo dell'editoria enciclopedica, con l'introduzione dei nuovi supporti digitali. Questo cambiamento ha avuto un impatto non solo sul mercato, ma anche sulle caratteristiche e sul formato delle enciclopedie. Gli editori tradizionali, preoccupati di perdere quote di mercato, hanno mantenuto prezzi elevati e hanno cercato di vendere la versione digitale solo in associazione a quella cartacea. Tuttavia, l'entrata in gioco di nuovi attori, come Microsoft, ha portato ad un cambiamento radicale nella distribuzione e nella fruizione delle enciclopedie. L'entrata in gioco di Microsoft nel mercato delle enciclopedie digitali Nel 1993, Microsoft ha lanciato sul mercato la sua prima enciclopedia digitale, Encarta. Questo prodotto, basato su materiale proveniente da diverse enciclopedie tradizionali, ha sfruttato il marchio e la diffusione diretta su CD- ROM dell'azienda per garantirsi una connotazione di prodotto innovativo. Nonostante un iniziale insuccesso, la seconda edizione di Encarta ha venduto un milione di copie in due anni, grazie anche al prezzo molto più accessibile rispetto alle enciclopedie tradizionali. Questo ha portato ad un cambiamento radicale nel mercato delle enciclopedie, con un aumento considerevole delle vendite e un impatto immediato sulla redditività dell'operazione. La sfida di Microsoft contro Encyclopaedia Britannica Microsoft ha lanciato Encarta, un'enciclopedia digitale, per competere con l'Encyclopaedia Britannica. Encarta offriva pacchetti scontati e aggiornamenti annuali in diverse lingue, diventando una minaccia per Britannica. Tuttavia, Britannica ha tentato di abbassare i prezzi e di lanciare un'edizione esclusivamente online, ma senza successo. Nel 1996, Britannica è stata venduta a un investitore privato per 135 milioni di dollari. La rincorsa di Britannica per sopravvivere Per affrontare la sfida di Encarta, Britannica ha tentato di abbassare i prezzi e di lanciare un'edizione esclusivamente online. Tuttavia, questi tentativi non hanno avuto successo e nel 1996 l'azienda è stata venduta a un investitore privato per 135 milioni di dollari. Nel periodo di massima diffusione, Britannica ha pubblicato diverse versioni, inclusa una per bambini e una dedicata alla storia e cultura africana. Tuttavia, gli accessi sono gradualmente diminuiti a favore di Wikipedia, portando Microsoft ad abbandonare il progetto nel 2009. Enciclopedie su CD-ROM Le enciclopedie su CD-ROM rappresentano un nuovo modello di enciclopedia multimediale, caratterizzato dalla presenza di audio e video, mappe interattive, quiz e giochi. Questo modello ha permesso di adattare i linguaggi e i codici comunicativi alle necessità specifiche dei singoli argomenti trattati e delle diverse tipologie di utenza. Inoltre, l'abbassamento dei costi rispetto alle enciclopedie a stampa ha reso possibile avvicinare un numero maggiore di persone, soprattutto giovani, alla conoscenza. Enciclomedia Enciclomedia è stata una delle prime enciclopedie su CD-ROM, diretta da Umberto Eco e Daniele Singer. Il progetto è iniziato nel 1993 e si è sviluppato in diversi formati, tra cui CD-ROM e versione online. Il suo obiettivo era quello di fornire una storia multimediale completa della civiltà europea, basata su voci indipendenti e arricchita da immagini, audio, video e ebook. Nonostante il prezzo elevato dei primi due CD-ROM, il progetto ha avuto un grande successo e ha rappresentato un esempio di integrazione tra strumenti digitali e modello enciclopedico di organizzazione del sapere. Multicodicalità e interattività Le enciclopedie su CD-ROM si distinguono per la loro multicodicalità e interattività, che permettono di integrare testo, immagini, audio e video in un unico prodotto. Questo sviluppo ha aumentato la complessità tecnica e architettonica dell'enciclopedia, ma ha anche migliorato la sua efficacia e comprensibilità. Grazie a questi elementi, l'enciclopedia è in grado di adattare i linguaggi e i codici comunicativi alle necessità specifiche dei singoli argomenti trattati e delle diverse tipologie di utenza. Editoria digitale Le enciclopedie su CD-ROM rappresentano uno dei pochi modelli di successo di realizzazione di contenuti 'arricchiti' nell'editoria digitale. A differenza dei libri elettronici aumentati, che non hanno avuto molto successo, le enciclopedie hanno trovato una loro strada di successo grazie alla loro capacità di adattare i linguaggi e i codici comunicativi alle necessità specifiche dei singoli argomenti trattati e delle diverse tipologie di utenza. Inoltre, l'abbassamento dei costi rispetto alle enciclopedie a stampa ha reso possibile avvicinare un numero maggiore di persone alla conoscenza. L'evoluzione delle enciclopedie online L'evoluzione delle enciclopedie multimediali Nel corso degli anni, le enciclopedie multimediali hanno subito un'evoluzione notevole, passando dalle prime versioni testuali a quelle multimediali su CD- ROM e DVD. Successivamente, con l'avvento del web, molte enciclopedie hanno iniziato a ibridarsi tra CD-ROM e Internet, fino ad arrivare alle versioni esclusivamente online. La nascita di Wikipedia Wikipedia è stata fondata nel 2001 come un progetto di enciclopedia online collaborativo e aperto. Tuttavia, già nel 1993, Rick Gates aveva proposto l'idea di un'enciclopedia online costruita in modo collaborativo. Inizialmente, il progetto di Wikipedia era chiamato Nupedia e si basava su redattori esperti, ma successivamente è diventato un progetto aperto a tutti. La storia di Wikipedia Wikipedia è stata fondata nel 2001 da Jimmy Wales e Larry Sanger. Inizialmente, Wales gestiva un portale di ricerca di musica pop chiamato Bomis, mentre Sanger era stato scelto come managing editor di Nupedia. Nel corso degli anni, Sanger ha lasciato Wikipedia per fondare due nuovi progetti: Citizendium e Everipedia. Attualmente, Sanger ha fondato la Knowledge Standards Foundation e il sito web Encyclosphere, che mira a collegare in una rete decentralizzata tutti i progetti di enciclopedia basati sul web. Il significato di Wikipedia Il termine "Wikipedia" deriva dalla combinazione di due parole: "wiki", che si riferisce al software utilizzato per gestire il sito web e il processo editoriale, e "pedia", che richiama la natura enciclopedica del progetto. Il termine "wiki" deriva dalla lingua hawaiana e significa "molto veloce", in riferimento al bus navetta dell'aeroporto di Honolulu chiamato "Wiki-Wiki". Il software Wiki è uno strumento che permette di creare e modificare pagine e siti web in modo collaborativo e veloce, tenendo traccia di tutte le modifiche apportate da ogni utente. Il funzionamento di Wikipedia Wikipedia utilizza il software Wiki chiamato Media Wiki, sviluppato appositamente per il progetto nel 2002. Questo software permette agli utenti di collaborare alla stesura delle voci dell'enciclopedia e di tenere traccia della storia di tutte le modifiche apportate a ciascuna voce. A differenza delle enciclopedie tradizionali, l'autorità e l'affidabilità di Wikipedia non derivano dall'autorialità, ma dal processo di scrittura e revisione collaborativo. Tuttavia, ci sono ancora dubbi sulla sua affidabilità, poiché le voci sono scritte da autori non identificabili e possono essere modificate da chiunque. Affidabilità di Wikipedia Affidabilità di Wikipedia Secondo uno studio condotto dalla rivista scientifica "Nature", Wikipedia risulta essere ragionevolmente affidabile, con una minima divergenza di qualità e affidabilità rispetto all'Encyclopaedia Britannica. Tuttavia, non si può essere del tutto certi dell'accuratezza di ogni informazione presente su Wikipedia, ma il tasso di affidabilità cresce in base alla quantità di interventi editoriali e al numero di utenti coinvolti nella stesura e revisione delle voci. Copertura di Wikipedia Wikipedia ha una copertura molto ampia, superiore a quella di qualsiasi enciclopedia tradizionale, soprattutto per quanto riguarda i settori legati alla cultura popolare come serie televisive, film e fumetti. Ciò è possibile grazie al carattere dinamico di Wikipedia, che permette un costante aggiornamento dei contenuti. Collaborazione su Wikipedia Il numero elevato di collaboratori su Wikipedia, associato alla capacità della piattaforma di tenere traccia della storia delle revisioni di ogni voce, contribuisce alla sua affidabilità. Inoltre, il sistema di "revert" e la possibilità di bloccare gli utenti che inseriscono contenuti errati o fuorvianti aiutano a mantenere la qualità delle voci. Neutralità dei punti di vista su Wikipedia Grazie alla collaborazione di un numero elevato di persone con punti di vista diversi, Wikipedia riesce a mantenere una certa neutralità nelle voci, anche su argomenti dibattuti. Il meccanismo di negoziazione redazionale delle voci aiuta a evitare pregiudizi dovuti al punto di vista personale degli autori. Tuttavia, non si può garantire una completa neutralità, poiché dipende dalle conoscenze e dalle opinioni di chi collabora. Wikipedia come enciclopedia Wikipedia è un'enciclopedia collaborativa online che si propone di organizzare conoscenze e informazioni in modo neutrale e obiettivo. Il progetto è basato su cinque pilastri fondamentali, tra cui la rilevanza delle voci e la scrittura da un punto di vista neutrale. Nonostante l'obiettivo di completezza e neutralità sia irraggiungibile, Wikipedia è comunque uno strumento utile per aumentare la copertura di argomenti e informazioni rispetto a un'enciclopedia tradizionale. Neutralità e obiettività in Wikipedia Wikipedia si impegna a scrivere le voci in modo neutrale, documentando e spiegando i principali punti di vista e dando loro il giusto peso. Tuttavia, l'obiettivo di completezza e neutralità è praticamente irraggiungibile e non esiste una verità assoluta. Gli ideali di neutralità e obiettività sono considerati come un ideale regolativo e il compito di risolvere i disaccordi è affidato alla negoziazione redazionale tramite la pagina di discussione presente in ogni voce. Rilevanza delle voci in Wikipedia Wikipedia si impegna a pubblicare solo voci rilevanti e di interesse generale, evitando di inserire informazioni su persone o argomenti di rilevanza solo settoriale o discutibile. Tuttavia, l'interpretazione del concetto di "rilevanza enciclopedica" può essere ampia e ciò consente a Wikipedia di coprire una vasta gamma di argomenti e informazioni rispetto a un'enciclopedia tradizionale. Contenuti liberi in Wikipedia Wikipedia è un progetto basato sulla condivisione e collaborazione aperta dei contenuti. Chiunque può utilizzare, modificare e distribuire le informazioni presenti su Wikipedia, grazie all'utilizzo di licenze Creative Commons e GNU Free Document. Questo permette di aumentare la diffusione delle conoscenze e di favorire la collaborazione tra gli utenti. I principi di Wikipedia Wikipedia è un'enciclopedia online che si basa su cinque principi fondamentali: neutralità, verificabilità, libertà di contenuti, rispetto reciproco e mancanza di regole rigide. Questi principi sono stati stabiliti per garantire la qualità e l'obiettività dei contenuti presenti su Wikipedia e sono considerati come linee guida per tutti i collaboratori del progetto. Il codice di condotta di Wikipedia Wikipedia ha un codice di condotta che raccomanda il rispetto reciproco tra i collaboratori e l'utilizzo del galateo di Wikipedia per evitare conflitti e attacchi personali. In caso di controversie, è prevista una procedura di risoluzione delle stesse. Questo codice di condotta è stato adattato dal principio di carità e mira a mantenere un ambiente collaborativo e non conflittuale. La flessibilità delle regole di Wikipedia Wikipedia non ha regole rigide, ma si basa su un insieme di principi che possono essere adattati e modificati in base alle esigenze del progetto. In passato, i cinque pilastri di Wikipedia erano considerati come regole rigide, ma una revisione del 2010 ha indebolito il loro status, rendendoli più flessibili e adattabili alle diverse situazioni. La collaborazione di esperti su Wikipedia Nonostante l'idea diffusa di un'enciclopedia costruita da dilettanti, oggi Wikipedia conta su un gran numero di collaboratori esperti che contribuiscono a migliorare la qualità dei contenuti. In particolare, sono stati sviluppati progetti specifici per coinvolgere esperti di determinati settori, come ad esempio la biblioteconomia e l'istruzione, per garantire una maggiore affidabilità delle voci relative a tali argomenti. L'interesse delle biblioteche per Wikipedia Le biblioteche italiane hanno mostrato un grande interesse per Wikipedia, considerata come il sesto sito più consultato al mondo. Ciò è dovuto alla crescente richiesta di conoscenze complesse da parte degli utenti online e alla necessità di promuovere una migliore comprensione di Wikipedia come strumento di ricerca. Sono stati sviluppati progetti specifici per coinvolgere le biblioteche nella redazione di voci di qualità su Wikipedia. La biblioteca come luogo di lavoro La biblioteca è il luogo in cui gli insegnanti esercitano la loro professione. La cura nella scelta delle enciclopedie cartacee è ora applicata alla verifica e all'arricchimento delle voci di Wikipedia, utilizzando fonti di qualità presenti in biblioteca. L'uso di Wikipedia nelle scuole e nelle università Wikipedia viene utilizzata sempre di più come strumento di riferimento da parte degli studenti e dei medici americani. Presso alcune scuole di medicina, gli studenti sono impegnati in attività volte a migliorare la qualità delle voci mediche su Wikipedia. Tuttavia, è importante prestare attenzione ai possibili pregiudizi presenti nelle voci, come quelli di genere o culturali. Il ruolo degli insegnanti nell'uso di Wikipedia Gli insegnanti hanno un ruolo importante nel migliorare le competenze degli studenti nell'utilizzo di Wikipedia e nella qualità delle voci. Alcune scuole di medicina hanno incluso attività di revisione delle voci di Wikipedia come parte del programma di studi. Tuttavia, è importante prestare attenzione ai possibili pregiudizi presenti nelle voci e insegnare agli studenti a valutare criticamente le informazioni trovate su Wikipedia. I pregiudizi presenti nelle voci di Wikipedia Nonostante il carattere collaborativo e aperto di Wikipedia, possono essere presenti pregiudizi nelle voci, come quelli di genere, culturali o legati a interessi commerciali, politici o ideologici. È importante prestare attenzione a questi possibili problemi e utilizzare gli strumenti di negoziazione redazionale per ridurre i disaccordi e raggiungere un ragionevole consenso. Il sogno del web semantico Il sogno del web semantico Il web semantico è un'ulteriore evoluzione dell'enciclopedismo online che mira a risolvere i problemi di affidabilità e validazione delle informazioni. Si basa su un database strutturato e semanticamente ricco, con rigorose ontologie formali. È principalmente utilizzato da agenti software per la ricerca e il recupero di informazioni, che possono anche agire direttamente sui dati o trasferirli ad altri agenti. Gli assistenti vocali conversazionali come Google Assistant, Alexa, Siri, Cortana e Bixby utilizzano il web semantico per rispondere alle domande degli utenti attraverso il linguaggio naturale e la sintesi vocale. DBpedia e la costruzione di una knowledge base DBpedia è una collezione di dati strutturati e formali provenienti da Wikipedia, disponibile con licenza aperta. È un esempio di knowledge base, ovvero una raccolta di dati organizzati in modo rigoroso. La costruzione di basi di dati come DBpedia si basa su ontologie, che sono sistemi di classificazione rigorosi. Ad esempio, per il concetto di "presidente degli Stati Uniti" ci sono due voci distinte: una sulla persona che ricopre la carica e una sulla carica stessa. Queste voci hanno caratteristiche diverse, come la data e il luogo di nascita della persona o il metodo di elezione della carica. Gli assistenti vocali utilizzano DBpedia per recuperare informazioni pertinenti alle domande degli utenti. OWL come linguaggio descrittivo OWL (Web Ontology Language) è un linguaggio descrittivo utilizzato per rappresentare conoscenze complesse relative a entità, gruppi di entità e relazioni fra entità. È stato sviluppato per rendere più rigoroso il lavoro di costruzione di sistemi classificatori, che hanno come obiettivo quello di mettere ordine nella realtà. OWL è considerato uno dei principali linguaggi descrittivi utilizzati per la costruzione di ontologie, ovvero sistemi di organizzazione concettuale del sapere. Ontologie e il loro ruolo nella rappresentazione della conoscenza Le ontologie sono sistemi di organizzazione concettuale del sapere, utilizzati per rappresentare informazioni su entità, gruppi di entità e relazioni fra entità. OWL è un linguaggio utilizzato per descrivere ontologie, e permette di esprimere in modo formale e rigoroso le informazioni di base sulle classi, sulle proprietà e sugli individui di cui si occupa l'ontologia. Le ontologie sono utilizzate principalmente in ambito informatico, per supportare l'elaborazione e l'analisi di grandi quantità di dati. Ontologie Le ontologie sono strumenti utilizzati per rappresentare in modo formale e strutturato le conoscenze su un determinato dominio di interesse. Sono composte da entità, proprietà e relazioni tra di esse, e possono essere utilizzate per descrivere e organizzare informazioni in modo preciso e coerente. Le ontologie sono spesso utilizzate nel contesto del web semantico, dove le relazioni tra elementi sono esplicite e possono essere utilizzate anche da agenti software. RDF RDF (Resource Description Framework) è uno standard per la descrizione e lo scambio di dati, utilizzato principalmente per lavorare sulle informazioni disponibili in rete. Le risorse RDF sono identificate attraverso URI (Uniform Resource Identifier) e le informazioni sono rappresentate in forma di triple soggetto-predicato-oggetto. RDF è spesso utilizzato in combinazione con ontologie per descrivere proprietà e relazioni tra entità. Web Semantico Il Web Semantico è un progetto proposto da Tim Berners-Lee alla fine degli anni '90 che ha portato al lavoro sui Linked Open Data (LOD). Questo progetto ha l'obiettivo di creare una versione semplificata ma più gestibile del web, in cui le ontologie sono fortemente relazionate e i dati sono aperti al riuso. Ciò permette l'integrazione di ontologie e basi di conoscenze parziali e settoriali in costruzioni di più alto livello. Enciclopedismo digitale Il web semantico e i Linked Open Data hanno dato all'architetto strumenti potenti per combattere la granularità e la frammentazione delle conoscenze. Tuttavia, resta aperto il problema della distinzione tra conoscenze e informazioni. Non tutte le informazioni presenti sul web sono conoscenze e la trasformazione di queste in basi di conoscenze richiede molto tempo e competenze specifiche. Inoltre, si sta esplorando una nuova direzione nella gestione delle conoscenze, grazie agli sviluppi delle reti neurali e dell'intelligenza artificiale. Modelli di organizzazione delle conoscenze Modello di organizzazione architettonica delle conoscenze Il modello di organizzazione architettonica delle conoscenze è un metodo di costruzione progressiva e gerarchica di complessità, a partire da blocchi costitutivi ben noti ed esaustivamente descritti. Esso si contrappone al modello di sviluppo organico, in cui i livelli inferiori sono in parte ignoti o comunque troppo ricchi per essere descritti in modo puntuale, mentre ai livelli superiori emergono proprietà e caratteristiche difficili da scomporre o ridurre meccanicamente alle loro componenti. Intelligenza artificiale classica (GOFAI) L'intelligenza artificiale classica, nota anche come GOFAI, si basa sull'utilizzo di logiche formali, rappresentazioni simboliche e modelli espliciti del mondo per lavorare sulla conoscenza in modo strutturato. Questo approccio è stato utilizzato soprattutto nella costruzione di basi di conoscenze esplicite, affidate all'architetto e non all'oracolo. Tuttavia, con l'avvento delle intelligenze artificiali generative, si sta assistendo a un cambiamento di paradigma, in cui i sistemi imparano a generare output appropriato a partire da enormi quantità di dati di addestramento, spesso non strutturati e difficili da comprendere o esprimere in termini simbolici o logici. Addestramento di una rete neurale L'addestramento di una rete neurale richiede mesi di lavoro parallelo di centinaia di processori ad alte prestazioni, che sono costosi ed esigenti in termini energetici. Questo processo è strettamente correlato alla dimensione del modello e i Large Language Models (LLM) sono notevolmente grandi. Inoltre, i corpora utilizzati per l'addestramento di LLM sono spesso disomogenei e viziati da pregiudizi, inclusi pregiudizi di genere e sottorappresentazione di diversità e minoranze. Costi e impatto ambientale L'addestramento di LLM richiede risorse significative in termini di costi finanziari e impatto ambientale. Inoltre, i pregiudizi presenti nei corpora di addestramento devono essere tenuti presenti e lavorare per ridurli o eliminarli è un obiettivo importante. Tuttavia, nonostante questi fattori, i risultati ottenuti lavorando su LLM sono notevoli e suggeriscono un salto qualitativo impressionante. Il modello organico di organizzazione e sviluppo delle conoscenze. Il modello organico di organizzazione e sviluppo delle conoscenze è un concetto che si basa sull'idea di una crescita e trasformazione continua delle conoscenze, senza una struttura rigida e definita. Questo modello è stato paragonato alla trasmissione orale di conoscenze prima dell'invenzione della scrittura, in cui il corpus conoscitivo cresceva e si trasformava nel tempo senza essere mai completamente esplicitato e organizzato. L'introduzione della scrittura è stata vista come uno sviluppo di tipo 'architettonico', con la divinità egizia Toth, inventore della scrittura, anche associato alla geometria e alla misurazione delle conoscenze. Le intelligenze artificiali generative. Le intelligenze artificiali generative sono sistemi che promettono cambiamenti radicali in molti ambiti professionali, inclusi quello della mediazione informativa e della produzione di conoscenze complesse. Questi sistemi si basano su meccanismi di funzionamento statistico-probabilistici, come l'embedding, che permettono loro di generare contenuti sulla base di una 'visione' anche se questa è in parte privata e non conoscibile dall'esterno. Alcuni esempi di intelligenze artificiali generative sono GPT e ChatGPT, basati sulla generazione di testi attraverso transformer. Tuttavia, ci sono ancora molti problemi da risolvere e l'impatto futuro di questi sistemi è ancora incerto. Intelligenza Artificiale e Reti Neurali Storia dell'intelligenza artificiale La riflessione sulla possibilità di costruire macchine 'intelligenti' è molto antica e risale all'epoca degli automi e degli esseri artificiali presenti nelle narrazioni omeriche. Tuttavia, il lavoro sull'intelligenza artificiale collegato agli sviluppi nel campo dell'informatica e alla rivoluzione digitale è più recente e inizia negli anni '50 del secolo scorso. Alan Turing e John McCarthy sono due dei principali protagonisti di questa disciplina. Intelligenza artificiale e intelligenza umana La riflessione sull'intelligenza artificiale è strettamente legata alla questione dell'intelligenza umana. Alan Turing, nel suo articolo del 1950, ha posto le basi teoriche per il rapporto fra le due forme di intelligenza. Inoltre, il seminario del 1956 al Dartmouth College ha dato origine all'idea di 'intelligenza artificiale forte', secondo la quale gli sviluppi dell'informatica potrebbero permettere di creare macchine dotate di un'intelligenza simile alla nostra. Linguaggio e intelligenza artificiale Uno dei principali aspetti dell'intelligenza umana è il linguaggio, attraverso il quale manifestiamo la nostra intelligenza. Inoltre, l'idea che il linguaggio possa essere considerato un sistema governato da regole e che queste regole possano essere programmate e utilizzate da un sistema informatico è alla base dell'idea di 'intelligenza artificiale forte'. Tuttavia, questa assunzione è stata messa in discussione da alcuni studiosi, come Noam Chomsky, che hanno evidenziato la complessità e la creatività del linguaggio umano. Intelligenza artificiale forte L'intelligenza artificiale forte è una corrente di pensiero che sostiene la possibilità di creare una macchina in grado di pensare e ragionare come un essere umano. Questa idea è stata influenzata dalla "svolta linguistica" della prima filosofia analitica e dagli sviluppi della logica formale nel panorama culturale del Novecento. Secondo questa prospettiva, se il linguaggio può essere considerato come un sistema governato da regole precise e formalizzabili, allora è possibile programmare un computer in modo da farlo utilizzare il linguaggio in modo intelligente. Test di Turing Il test di Turing è uno strumento proposto da Alan Turing per attribuire intelligenza a una macchina. Secondo questo test, se un computer è in grado di ingannare un esaminatore attraverso un comportamento linguistico indistinguibile da quello umano, allora dovrebbe essere considerato intelligente. Tuttavia, negli anni '70 sono state messe in discussione le premesse dell'intelligenza artificiale forte, in particolare l'idea che il linguaggio sia l'unico indicatore di intelligenza e che un comportamento linguistico intelligente sia sufficiente per attribuire intelligenza a una macchina. Intelligenza artificiale debole L'intelligenza artificiale debole è un termine che indica un insieme di indirizzi di ricerca meno ambiziosi rispetto all'IA forte, che si concentrano su ambiti specifici e ristretti. Tra questi, vi sono i sistemi esperti settoriali, che utilizzano strumenti di modellizzazione dei processi di inferenza logica, e il lavoro di automazione di processi o dispositivi dedicati a scopi particolari, come le macchine a guida autonoma. Reti neurali Le reti neurali sono un modello computazionale ispirato al funzionamento del cervello umano, proposto negli anni '40 dal neurofisiologo Warren McCulloch e dal logico e matematico Walter Pitts. Questo modello rappresenta il neurone come una macchina di computazione che riceve input dai dendriti e produce un output in base a una funzione. Le reti neurali sono state inizialmente considerate un ambito di lavoro dell'IA debole, ma negli ultimi decenni hanno visto uno sviluppo notevole e sono state applicate a diversi campi, come la robotica e la medicina. McCulloch e Pitts McCulloch e Pitts sono due scienziati che nel 1943 hanno proposto un modello matematico e logico per descrivere il funzionamento dei neuroni. Il loro modello è una semplificazione della realtà biologica, ma è stato fondamentale per lo sviluppo delle neuroscienze computazionali e delle reti neurali artificiali. Neuroni M-P I neuroni M-P sono una semplificazione dei neuroni reali proposta da McCulloch e Pitts nel 1943. Questi neuroni hanno input e output binari e sono rappresentati da un diagramma che mostra i collegamenti tra di loro. Nonostante siano una semplificazione, sono stati fondamentali per lo sviluppo delle reti neurali artificiali. Neuroni artificiali I neuroni artificiali sono elementi fondamentali delle reti neurali artificiali, che sono sistemi di intelligenza artificiale ispirati al funzionamento del cervello umano. I neuroni artificiali sono in grado di elaborare informazioni e di emettere un output in base ai valori di input ricevuti. In passato, i neuroni artificiali funzionavano in modo deterministico, ma oggi sono stati introdotti meccanismi di probabilità che rendono il loro funzionamento più realistico e permettono un addestramento più preciso. Addestramento delle reti neurali Le reti neurali vengono addestrate attraverso un processo di confronto tra l'output prodotto e quello desiderato, con l'obiettivo di minimizzare lo scostamento tra i due. Un algoritmo di retropropagazione dell'errore permette di modificare dinamicamente i pesi all'interno della rete in base alla distanza dal risultato atteso, ottenendo un apprendimento basato su feedback di rinforzo o di indebolimento. Le reti neurali profonde, caratterizzate da numerosi strati intermedi, sono in grado di costruire modelli di rappresentazioni dei dati in cui gli strati più bassi apprendono caratteristiche di basso livello e quelli più alti caratteristiche di livello superiore. Reti neurali profonde Le reti neurali profonde, conosciute anche come sistemi di deep learning, sono particolarmente efficaci nell'affrontare problemi complessi come il riconoscimento di immagini, la comprensione del linguaggio naturale e il riconoscimento vocale. Questi sistemi si basano sull'intelligenza artificiale debole e sono addestrati per scopi specifici, come il riconoscimento di forme o immagini. Intelligenza artificiale debole L'intelligenza artificiale debole si basa sull'utilizzo di reti neurali addestrate per scopi specifici, come il riconoscimento di forme o immagini. Questi sistemi sono in grado di migliorare la loro capacità di 'indovinare' correttamente attraverso opportuni rinforzi e indebolimenti. Intelligenze artificiali generative Le intelligenze artificiali generative sono in grado di produrre nuovi contenuti corrispondenti alle richieste degli utenti, come ad esempio immagini di gatti o cani. A differenza delle intelligenze artificiali deboli, queste reti non si limitano a 'classificare' il contenuto fornito loro dall'esterno, ma sono in grado di generare nuovi contenuti in maniera autonoma. Intelligenza artificiale forte L'intelligenza artificiale forte è un concetto che si avvicina all'idea di una intelligenza artificiale 'generalista', capace di affrontare una vasta gamma di situazioni e compiti. Questo concetto è spesso associato alla superintelligenza, ovvero una forma di intelligenza artificiale superiore a quella umana. Artificial General Intelligence (AGI) L'Artificial General Intelligence (AGI) è un tipo di intelligenza artificiale in grado di affrontare in maniera intelligente molte e diverse situazioni, simile a quella degli esseri umani. Questo concetto è considerato un passo verso forme di superintelligenza superiori all'intelligenza umana. Narrow AI La Narrow AI è un tipo di intelligenza artificiale che si concentra su un compito specifico, a differenza della AGI che è in grado di affrontare una vasta gamma di situazioni. Questo tipo di intelligenza artificiale è spesso utilizzato per scopi pratici, come il riconoscimento di immagini o la comprensione del linguaggio naturale. Singolarità tecnologica La singolarità tecnologica è un concetto che indica il momento in cui la crescita esplosiva della superintelligenza artificiale renderebbe superata l'intelligenza umana. Questo tema è oggetto di dibattito e speculazioni, ma sta diventando sempre più rilevante nel campo dell'intelligenza artificiale. INTELLIGENZA ARTIFICIALE GENERATIVA Reti neurali discriminative e generative Il testo presenta la distinzione tra reti neurali discriminative e generative, due tipologie di sistemi di intelligenza artificiale. Le reti neurali generative, basate sul deep learning, hanno come obiettivo la produzione di contenuti in risposta a un prompt testuale. Questi sistemi sono sviluppati a partire da un vasto corpus di testi e utilizzano la tokenizzazione per suddividere il testo in unità più piccole. Durante la fase di apprendimento autonomo, la rete neurale impara a predire il token successivo sulla base di quelli precedenti, creando così un Large Language Model (LLM) che rappresenta le correlazioni statistiche tra i token. Questo modello viene utilizzato per fornire un embedding, ovvero una rappresentazione numerica delle modalità d'uso delle parole nel linguaggio. Intelligenza artificiale generativa Il testo si sofferma sulle intelligenze artificiali generative, sistemi che producono contenuti in risposta a un prompt testuale. Questi sistemi possono essere utilizzati per generare immagini, testi, codice e programmi, giochi, ambienti virtuali e modelli 3D. La costruzione di questi sistemi avviene a partire da un vasto corpus di testi, utilizzato per creare un Large Language Model (LLM) che rappresenta le correlazioni statistiche tra i token. Durante la fase di apprendimento autonomo, la rete neurale impara a predire il token successivo sulla base di quelli precedenti, creando così un embedding che rappresenta le modalità d'uso delle parole nel linguaggio. Reti neurali ricorrenti (RNN) Le reti neurali ricorrenti (RNN) sono state utilizzate in passato per compiti simili a quelli dei sistemi di generazione di testo. A differenza delle reti neurali tradizionali, le RNN permettono di elaborare più cicli di rielaborazione dell'informazione da parte dello stesso strato della rete, il che le rende più efficaci nel ridurre l'errore. Tuttavia, le RNN hanno problemi di 'memoria semantica' e di costi computazionali. Transformer Nel 2017, un gruppo di ricercatori di Google ha introdotto un'architettura di rete più efficace delle RNN: quella basata su transformer. Questo tipo di rete utilizza un meccanismo di attenzione che tiene conto del contesto dei token, pesando i valori dei vettori di ogni token in funzione dei valori degli altri token. Ciò permette di disambiguare parole polisemiche e di avere una migliore 'memoria semantica'. Inoltre, il meccanismo di attenzione può essere ripetuto più volte per considerare diversi aspetti della frase, come la semantica e la sintassi. Modelli basati su transformer I modelli basati su transformer sono una tipologia di intelligenza artificiale che si occupa principalmente della generazione di testo. Questi modelli possono essere strutturati come encoder-decoder, solo encoder o solo decoder, a seconda degli obiettivi che si vogliono raggiungere. Un esempio di modello basato su transformer è BERT, che ha l'obiettivo di predire sia un token dato il suo contesto, sia la frase successiva di un dato contesto. Altri modelli basati su transformer, come quelli sviluppati da OpenAI, sono invece strutturati solo come decoder e sono finalizzati alla produzione di testo. Intelligenza artificiale generativa L'intelligenza artificiale generativa è una tipologia di intelligenza artificiale che si occupa della produzione di testo. Questi sistemi utilizzano principalmente decoder per predire il token successivo partendo dai token precedenti. Inoltre, durante la generazione del testo, viene utilizzata una componente stocastica che permette di selezionare a volte parole con punteggi leggermente più bassi, rendendo le risposte più interessanti. Tuttavia, nonostante si dica che questi sistemi non utilizzino semantica, in realtà lavorano anche con la sfera dei significati. Il modello di intelligenza artificiale generativa Il modello di intelligenza artificiale generativa è un sistema che utilizza algoritmi di apprendimento automatico per produrre testi in modo autonomo. Questo modello è stato sviluppato da OpenAI e si basa sull'utilizzo di reti neurali artificiali, in particolare i transformer. Il modello può essere ulteriormente perfezionato attraverso fasi di supervised learning e reinforcement learning, in cui vengono fornite coppie di input-output e gli addestratori valutano le risposte del sistema. Inoltre, possono essere utilizzati meccanismi di apprendimento in cui l'output è analizzato da altri sistemi di intelligenza artificiale o filtri a valle per limitare le allucinazioni del sistema. L'addestramento del sistema L'addestramento del sistema di intelligenza artificiale generativa avviene attraverso fasi di apprendimento non supervisionato, in cui il modello viene integrato con corpora specifici, e di supervised learning e reinforcement learning, in cui gli addestratori umani valutano le risposte del sistema. Inoltre, possono essere utilizzati meccanismi di apprendimento in cui l'output è analizzato da altri sistemi di intelligenza artificiale o filtri a valle per limitare le allucinazioni del sistema. L'obiettivo dell'addestramento è quello di migliorare la capacità del sistema di produrre testi coerenti e accettabili. IL FUNZIONAMENTO DI SISTEMI COME GPT E CHATGPT Funzionamento di sistemi come GPT e ChatGPT I sistemi GPT e ChatGPT producono testi in forma predittiva basandosi su modelli linguistici e un lungo addestramento. Non si basano su una copiatura meccanica delle informazioni, ma su previsioni statistiche e probabilistiche. La metafora dell'oracolo sembra più adeguata rispetto a quella del pappagallo. Discussione sulla natura, futuro e impatto sociale e culturale di GPT e ChatGPT Spesso le discussioni su GPT e ChatGPT sembrano prescindere dal loro effettivo funzionamento. Le opinioni su possibili effetti, benefici o nefasti, spesso non tengono conto del loro vero funzionamento. Tuttavia, questi sistemi hanno un impatto sociale e culturale notevole. Metafora dell'oracolo rispetto a quella del pappagallo La metafora dell'oracolo sembra più adeguata per descrivere il funzionamento di GPT e ChatGPT rispetto a quella del pappagallo. Questi sistemi producono previsioni statistiche e probabilistiche basate su un lungo addestramento, invece di copiare meccanicamente informazioni o estrarre informazioni rilevanti da un corpus di testi. Allucinazioni e pregiudizi di GPT e ChatGPT GPT e ChatGPT possono produrre risposte particolarmente insidiose, poiché si basano su previsioni statistiche e probabilistiche. In passato, ChatGPT-3.5 ha dato risposte errate su argomenti come l'introduzione dell'elettricità nella Firenze medievale, ma le versioni più recenti sono in grado di correggere questi errori grazie a un addestramento più ampio e supervisionato. Capacità di correggere errori di GPT e ChatGPT Le versioni più recenti di GPT e ChatGPT sono in grado di correggere errori grazie a un addestramento più ampio e supervisionato. Inoltre, il sistema è stato addestrato anche per limitare gli effetti dei frequenti tentativi di ingannare il sistema da parte degli utenti. Ciò dimostra la capacità di apprendimento e adattamento di questi sistemi. Addestramento supervisionato e per rinforzo Il sistema ChatGPT ha dovuto imparare a fornire risposte meno ingenuamente, grazie all'addestramento supervisionato e per rinforzo. Questo ha permesso di rinforzare il peso delle associazioni corrette e indebolire quello delle associazioni inventate. Correlazioni statistiche e valore conoscitivo Nonostante le correlazioni statistiche siano importanti, si sta cercando di insegnare a ChatGPT la differenza tra informazioni e conoscenze per ottenere risposte con un valore conoscitivo. Sistemi come AutoGPT e AgentGPT hanno dimostrato di essere capaci di fornire un valido supporto nella generazione di dimostrazioni, grazie all'attenzione verso l'analisi dettagliata delle procedure. Inoltre, l'utilizzo di meccanismi di supervisione e rinforzo ai singoli passaggi di un ragionamento può migliorare ulteriormente i risultati. Allargamento del contesto e limitazione delle allucinazioni È possibile permettere a ChatGPT di utilizzare informazioni più recenti addestrandolo su un contesto aggiunto in un secondo momento o ricavato in tempo reale dalla rete. Questo può limitare le allucinazioni, soprattutto se si utilizzano fonti verificate e validate. Tuttavia, le allucinazioni non possono essere completamente eliminate, ma solo ridotte grazie alle versioni sempre più perfezionate del modello. Inoltre, è interessante notare come questi sistemi possano assumere un punto di vista personale nelle risposte, nonostante sia scoraggiato dagli addestratori. Autonomia di giudizio dei sistemi di IA I sistemi di intelligenza artificiale, pur non avendo una coscienza, possono presentare una qualche forma di autonomia di giudizio. Questo può suscitare inquietudine negli utenti, ma in alcune situazioni il personal point of view può emergere come comportamento. Problemi dei sistemi di IA generativa I sistemi di IA generativa possono presentare diversi problemi, tra cui le allucinazioni e i bias. Questi ultimi sono pregiudizi o distorsioni sistematiche presenti nelle risposte dei sistemi, che possono essere introdotti durante la fase di apprendimento o derivare dai dati di addestramento. Inoltre, la composizione dei corpora di addestramento è diventata meno trasparente, rendendo difficile identificare i bias presenti. Distorsioni nei sistemi di IA ad alto rischio Le distorsioni nei sistemi di IA ad alto rischio sono un problema fondamentale per le persone interessate a questo campo. Queste distorsioni possono essere presenti nei dati di base utilizzati per addestrare gli algoritmi o nei dati generati dai sistemi in contesti reali. Ciò può portare a risultati influenzati dalle distorsioni, perpetuando e amplificando le discriminazioni esistenti, soprattutto nei confronti di minoranze vulnerabili o etniche. Sistemi di IA generativa I sistemi di IA generativa sono progettati per generare contenuti complessi come testi, immagini, audio o video con diversi livelli di autonomia. Tuttavia, ci sono preoccupazioni riguardo alla protezione del diritto d'autore e alla possibilità di costruire modelli orientati politicamente o ideologicamente. Inoltre, la chiusura dei corpora e delle metodologie utilizzate per addestrare questi sistemi solleva preoccupazioni sulla trasparenza e sulla gestione dei dati personali forniti dagli utenti. LE IA GENERATIVE E LA LORO SOMIGLIANZA CON GLI ESSERI UMANI Limitazioni delle IA generative Le IA generative hanno alcune limitazioni che potrebbero rendere difficile affidare loro funzioni complesse di mediazione informativa o la capacità di produrre ricerca innovativa in ambito umanistico. Inoltre, la loro capacità di produrre allucinazioni potrebbe essere un problema per affidare loro funzioni autonome che hanno effetti sul mondo reale. Capacità di produzione di testo delle IA generative Le IA generative hanno una capacità impressionante di produrre testo sintatticamente, semanticamente e contestualmente adeguato. Tuttavia, questo processo di 'costruzione' di risposte anziché selezionare contenuti già esistenti in rete può portare a potenziali svantaggi e problemi. Nonostante ciò, è probabile che sistemi come GPT, ChatGPT, Bard e LLaMA possano superare il test di Turing e ingannare un esaminatore privo di competenze specifiche di alto livello. Algoritmi di attribuzione dei testi Gli algoritmi di attribuzione dei testi sono utilizzati per cercare di attribuire un testo anonimo o sospetto a un autore specifico. Questi algoritmi non si basano più sull'analisi di aspetti stilistici o lessicali, ma sulla frequenza di n-grammi, ovvero sequenze di n caratteri. Questo dato potrebbe far pensare alla presenza di meccanismi statistico-probabilistici nella nostra produzione linguistica. Relazione fra cervello e coscienza Il rapporto fra cervello e coscienza è un tema dibattuto da secoli e ancora lontano dall'essere risolto. Se non si accettano forme di dualismo o spiritualismo, la coscienza può essere considerata come un fenomeno emergente a partire da un sostrato biologico. Tuttavia, il funzionamento di questo sostrato e la sua capacità di produrre e processare informazioni rimane ancora in gran parte oscura. Intelligenza artificiale generativa L'intelligenza artificiale generativa è un campo di ricerca che si occupa di sviluppare sistemi in grado di generare autonomamente nuove informazioni, senza l'intervento umano. Uno dei sistemi più noti in questo campo è ChatGPT, che è stato in grado di produrre testi di alta qualità. Tuttavia, è importante notare che l'intelligenza artificiale generativa non è ancora in grado di raggiungere un livello di intelligenza generale come quello umano. Agency e responsabilità etiche Con lo sviluppo dell'intelligenza artificiale generativa, sorge la questione se dobbiamo attribuire a questi sistemi anche responsabilità etiche e morali, e se dovremmo considerarli come "persone" in un certo senso. Alcuni filosofi, come Luciano Floridi, sostengono che sistemi come ChatGPT rappresentano un caso di agency senza intelligenza. Tuttavia, è importante considerare anche la possibilità di una intelligenza senza agency e le implicazioni etiche e morali che ciò potrebbe comportare. Possibili impatti sul mondo del libro e dell'editoria La diffusione rapida delle intelligenze artificiali generative potrebbe avere un impatto significativo sul mondo del libro e dell'editoria. Ad esempio, potrebbero essere utilizzate per produrre automaticamente metadati relativi a grandi quantità di dati, rappresentando una forma di collaborazione tra l'oracolo e l'architetto. Tuttavia, è importante considerare anche le possibili conseguenze di questa tecnologia sul lavoro degli editori e sulla qualità dei contenuti prodotti. Criticità nella discussione sull'intelligenza artificiale generativa Nonostante l'ampia diffusione del tema, la discussione sull'intelligenza artificiale generativa spesso è superficiale e imprecisa. Ciò è dovuto anche al fatto che molti non comprendono appieno le potenzialità e le limitazioni di questa tecnologia. È importante quindi approfondire la conoscenza sull'argomento e considerare criticamente le diverse prospettive. Intelligenza artificiale generativa L'intelligenza artificiale generativa è un campo di ricerca che si occupa di sviluppare sistemi in grado di generare contenuti originali, come testi e immagini, utilizzando algoritmi e reti neurali. Sebbene sia facile utilizzare questi sistemi lato utente, è molto più difficile comprendere i meccanismi effettivi del loro funzionamento. È importante avere conoscenze e competenze su tali meccanismi per evitare di trarre conclusioni errate. Inoltre, le IA generative possono produrre contenuti altamente originali se addestrate su corpora sufficientemente ampi e basate su reti neurali potenti. Limiti di originalità delle intelligenze artificiali generative È diffusa l'idea che le intelligenze artificiali generative abbiano limiti di originalità, poiché si limiterebbero a riproporre contenuti già presenti nel corpus sul quale sono state addestrate. Tuttavia, questo non è del tutto vero poiché le IA generative non sono semplici "pappagalli" che copiano informazioni dal corpus, ma utilizzano algoritmi e reti neurali per generare nuovi contenuti. Inoltre, se addestrate su corpora ampi e con reti neurali potenti, possono produrre contenuti altamente originali. Funzionamento delle intelligenze artificiali generative Le intelligenze artificiali generative funzionano sulla base di algoritmi e reti neurali, che sono diversi rispetto al funzionamento del cervello umano. Tuttavia, nonostante gli enormi progressi delle neuroscienze, sappiamo ancora troppo poco sul funzionamento del nostro cervello per poter affermare con certezza che la nostra intelligenza non sia replicabile utilizzando reti neurali artificiali. Inoltre, è possibile collegare le IA generative a un supporto fisico, come nel caso dell'Embodied AI Workshop, per integrare stimoli non solo linguistici ma anche sonori, visivi, tattili e olfattivi. Intelligenza artificiale e singolarità L'intelligenza artificiale è un campo di ricerca che si occupa di sviluppare sistemi intelligenti artificiali, in grado di superare le capacità umane in campi specifici. Una delle discussioni più ampie riguarda la possibilità di raggiungere la cosiddetta "singolarità", ovvero il momento in cui questi sistemi diventeranno altrettanto o più potenti dell'intelligenza umana. Nonostante non ci siano argomentazioni convincenti a favore o contro questa ipotesi, è probabile che si possano raggiungere delle "singolarità locali" in campi come il gioco degli scacchi o del go, la diagnostica medica e la formulazione di ipotesi e teorie in ambiti scientifici. Utilizzo dell'intelligenza artificiale in campo militare L'utilizzo dell'intelligenza artificiale in campo militare è fonte di preoccupazione per molte persone. Alcuni settori in cui l'IA potrebbe superare l'intelligenza umana sono presenti anche nelle scienze sociali, come l'analisi e la predizione di dati economici e finanziari. Inoltre, l'IA potrebbe essere utilizzata per la creazione di mappe multidimensionali e per la ricostruzione di oggetti a partire da frammenti archeologici. Tuttavia, è importante considerare le possibili implicazioni etiche e normative di un utilizzo così avanzato dell'IA in campo militare. L'utilizzo delle intelligenze artificiali generative nel settore editoriale Le intelligenze artificiali generative stanno rivoluzionando il settore editoriale, intervenendo in diversi ambiti come la produzione di contenuti, la grafica editoriale, l'impaginazione e la produzione di contenuti promozionali. Inoltre, si prevede che in futuro le IA generative saranno utilizzate anche per la produzione di sintesi dei testi, migliorando la qualità dei contenuti e identificando e richiamando contenuti integrativi. Ciò porterà ad un'ulteriore internazionalizzazione del mercato editoriale e alla diffusione delle interfacce di lettura digitali. Gli effetti occupazionali delle intelligenze artificiali generative nel settore editoriale L'utilizzo delle intelligenze artificiali generative nel settore editoriale avrà sicuramente effetti occupazionali, ma non necessariamente nel senso di una perdita generalizzata di lavoro umano. Si prevede infatti una diffusione di modelli di collaborazione tra professionalità umane e IA, che potranno indirizzare e finalizzare in maniera funzionale il lavoro delle IA. Tuttavia, ci saranno cambiamenti radicali nel tipo di conoscenze e competenze necessarie per svolgere molti dei lavori presenti nella filiera editoriale. Si ipotizza che la proporzione fra lavori persi e nuovi lavori possa corrispondere a quanto previsto da un recente report del World Economic Forum. L'utilizzo delle intelligenze artificiali generative nella produzione di metadati Le intelligenze artificiali generative saranno utilizzate anche nella produzione automatica di metadati, soprattutto in contesti come gli archivi, le biblioteche e i musei. Ciò permetterà di creare basi di dati più organizzate e strutturate a partire da raccolte di dati meno organizzate e strutturate. Inoltre, le IA generative potranno lavorare anche alla produzione di metadati per le memorie digitali personali, facilitando la descrizione dei contenuti editoriali. MEMORIE PERSONALI E MENTE ESTESA Memorie personali e mente estesa Il computer è diventato uno strumento di esternalizzazione della nostra memoria, personale e collettiva, grazie alla diffusione di Internet e dei dispositivi mobili. Le memorie informatiche sono diventate il nuovo supporto attraverso cui conserviamo tracce di conoscenze, avvenimenti, attività, persone, interazioni e impressioni. La rivoluzione digitale ha portato anche una rivoluzione della memoria, che è parte essenziale della nostra identità. Memorie digitali come banco di prova Le memorie digitali sono un banco di prova interessante per comprendere come organizziamo le nostre conoscenze e i nostri ricordi. Gli strumenti come le enciclopedie e le intelligenze artificiali generative si basano sulle memorie informatiche come supporto per la loro funzionalità. Inoltre, le memorie digitali sono anche un importante deposito delle nostre tracce e testimonianze personali e collettive. Architetto e oracolo L'architetto e l'oracolo sono due modelli che operano sulla base di archivi. Mentre l'architetto organizza e sistematizza l'archivio, l'oracolo lo utilizza come fonte per produrre nuovi contenuti. Entrambi i modelli sono connessi alla dimensione della memoria personale e collettiva. Organizzazione delle memorie personali Le memorie personali offrono un quadro variegato di tipologie, ancora più diverso rispetto alla documentazione prodotta da enti e istituzioni. Il passaggio dalla carta al digitale ha cambiato la natura e l'organizzazione delle memorie personali. Inoltre, il rapporto tra le memorie personali e i modelli dell'architetto e dell'oracolo è molto importante per comprendere come utilizziamo il nuovo ecosistema digitale per conservare tracce del passato. La teoria della mente estesa La teoria della mente estesa, proposta nel 1998 da Andy Clark e David Chalmers, sottolinea come la nostra mente utilizzi per i suoi processi cognitivi non solo il cervello biologico ma anche molte sue 'estensioni' esterne, naturali e sempre più spesso anche artificiali o culturali. Questa prospettiva mette in discussione la tradizionale concezione dell'io come entità autonoma e indipendente dal mondo esterno. Le memorie personali digitali e la teoria della mente estesa Il tema delle memorie personali digitali ha una notevole rilevanza per il dibattito sulla mente estesa, poiché la nostra identità personale è strettamente legata al ruolo svolto dalle memorie 'fuori di noi'. La quantità e la qualità delle memorie prodotte nell'ambito del nuovo ecosistema digitale potrebbe essere interpretata come una modificazione nel funzionamento stesso della nostra mente. Inoltre, la produzione di intelligenze artificiali generative addestrate su corpora personali potrebbe portare alla creazione di un 'gemello digitale' del produttore originario. Processo di digitalizzazione di memorie personali Il processo di digitalizzazione di memorie personali nate su supporti tradizionali è in corso da decenni e coinvolge diverse tipologie documentali come corrispondenza, fotografie, manoscritti e dattiloscritti. La digitalizzazione può essere effettuata dalle istituzioni di conservazione o da privati, e negli ultimi anni si stanno diffondendo forme di digitalizzazione "ibrida". Questo processo non è solo una riproposizione degli oggetti documentali originali, ma produce nuovi oggetti documentali con caratteristiche specifiche. Caratteristiche dei contenuti prodotti dalla digitalizzazione I contenuti prodotti dalla digitalizzazione hanno caratteristiche specifiche che vanno oltre la semplice funzione di riproduzione dell'originale. Essi sono oggetti documentali nuovi e non una mera riproposizione degli oggetti documentali di partenza. Inoltre, con il passaggio al digitale, archivi e biblioteche diventano soggetti produttori di oggetti documentali di tipo nuovo, e non solo soggetti preposti alla conservazione e all'accesso. La rivoluzione digitale e l'immagine dell'archivista La rivoluzione digitale ha portato alla luce l'ingenuità dell'immagine dell'archivista come figura neutrale e senza interpretazioni o creatività. La digitalizzazione ha permesso un facile riutilizzo e ricombinazione dei prodotti, soprattutto nel campo delle memorie personali. La facilità di riutilizzo e ricombinazione delle memorie personali La digitalizzazione ha reso possibile un facile riutilizzo e ricombinazione delle memorie personali, grazie alla loro natura granulare e meno organizzata rispetto a quelle prodotte da istituzioni. Ciò ha permesso la creazione di nuove forme di raccolta e rielaborazione delle memorie, come la costruzione di memorie collettive o la creazione di memofilm. Il progetto Jena4D e la ricostruzione collaborativa della storia di Jena Il progetto Jena4D, promosso dall'Università di Jena e dalla Thüringer Universitäts- und Landesbibliothek, si propone di aggregare fotografie della città di Jena provenienti da collezioni personali per ricostruirne collaborativamente la storia. Attraverso l'applicazione web 4dcity.org è possibile proiettare fotografie cronoreferenziate su una ricostruzione 3D della città e navigarle interattivamente nel tempo e nello spazio. I memofilm e la costruzione di filmati personali I memofilm sono nati come strumento terapeutico per lottare contro l'Alzheimer, grazie all'intuizione dello sceneggiatore e regista Ernesto Melloni. Si tratta di filmati che, partendo da fotografie, immagini, suoni e narrazioni, ricostruiscono la storia personale di un individuo. Questo progetto ha suscitato l'interesse di diverse istituzioni e ha portato alla creazione di un'associazione e di un libro che racconta la casistica dei memofilm. IL SOGNO DELLA MEMORIA TOTALE Il sogno della memoria totale L'idea di una memoria completa della propria vita attraverso l'uso di dispositivi digitali personali è stata proposta da Nathan Myhrvold e Gordon Bell. Questo sogno è reso possibile dalle nuove potenzialità dei dispositivi digitali, che permettono di registrare e conservare in modo integrale tutti i testi e materiali letti e prodotti. La diffusione dello smartphone Lo smartphone è diventato uno strumento sempre più presente nella vita quotidiana delle persone. Oltre a essere un dispositivo di comunicazione, è anche una macchina fotografica e di ripresa sempre disponibile, con caratteristiche innovative di gestione e manipolazione dei contenuti prodotti. La digitalizzazione delle memorie personali Negli ultimi anni, molte tipologie di memorie personali sono state digitalizzate: dalle lettere alle mail, dalla fotografia su pellicola alla fotografia digitale, dal diario ai blog. Questo processo comporta la produzione di oggetti informativi con caratteristiche del tutto nuove, come la facilità di duplicazione e pubblicazione e la moltiplicazione dei contesti di uso o riuso. Il passaggio al digitale Il passaggio al digitale comporta la produzione di oggetti informativi con caratteristiche del tutto nuove, come la moltiplicazione dei supporti, la facilità di duplicazione e pubblicazione e la moltiplicazione dei contesti di uso o riuso. Questo processo è stato studiato e conosciuto in molte tipologie di memorie personali, come le lettere, le fotografie e i diari. La registrazione continua e automatica di video e audio Un esempio estremo ma significativo è la possibilità di costruire una sorta di 'memoria completa' della propria vita attraverso l'uso di dispositivi personali per la registrazione continua e automatica di video e audio. Questo sogno è stato proposto da Nathan Myhrvold e Gordon Bell, e sarebbe stato sicuramente affascinante per Borges e Perec. La registrazione totale Nel testo si parla della possibilità di registrare in modo totale la propria vita attraverso l'utilizzo di dispositivi tecnologici come videocamere, GPS e software di archiviazione. Questo progetto, chiamato MyLifeBits, è stato avviato da Gordon Bell nel 2001 e ha come obiettivo la conservazione e l'accessibilità totale delle memorie personali. L'idea di una registrazione totale solleva però dubbi e preoccupazioni riguardo alla privacy e al controllo delle informazioni personali. L'utilizzo di dispositivi di registrazione personale Nel testo si evidenzia come sempre più persone utilizzino dispositivi di registrazione personale, come videocamere e GPS, per documentare la propria vita e avere una memoria digitale di tutto ciò che fanno e dicono. Questo fenomeno è stato favorito dalla diffusione di tecnologie sempre più avanzate e accessibili, ma solleva anche questioni etiche e legali riguardo alla privacy e all'utilizzo delle informazioni registrate. Evoluzione dell'ecosistema digitale e pervasività degli smartphone L'evoluzione dell'ecosistema digitale e la diffusione sempre maggiore degli smartphone hanno portato a una nuova forma di memorie digitali personali. Oggi, gli smartphone archiviano molti dei nostri dati e ci ripropongono in maniera autonoma ricordi su ciò che abbiamo fatto o fotografato in passato. Questo fenomeno ha un grande impatto sulla gestione delle nostre memorie digitali e ci fa ripensare alla stessa idea di memorie personali. Progetto MyLifeBits Il progetto MyLifeBits rappresenta un'innovativa integrazione tra le memorie digitali tradizionali (come fotografie, documenti e registrazioni audio) e le nuove memorie digitali, come i dati sugli spostamenti ricavati da un sistema GPS. Questo progetto ha l'obiettivo di offrire una maggiore continuità rispetto al passato analogico e di gestire in maniera più efficace le nostre memorie digitali. Nuove tipologie di memorie personali digitali Con l'avvento delle nuove tecnologie, sono emerse molte tipologie di memorie personali digitali. Tra queste, possiamo citare i post sui social network, le videoconferenze, i sistemi di instant messaging e i dati relativi alla gestione di 'memorie' all'interno di un videogioco online. Ogni forma di memoria digitale ha le sue caratteristiche e spesso è difficile paragonarle alle forme di documentalità tradizionale del passato. Ricerca sulle comunità virtuali online Gli antropologi digitali, come Tom Boellstorff, hanno studiato le comunità virtuali online, come Second Life, analizzando il comportamento degli utenti e la formazione delle comunità nel corso del tempo. Queste ricerche spesso si basano sulla ricostruzione della 'storia interna' delle comunità, attraverso interviste e lo studio di tracce e memorie all'interno del mondo virtuale. Utilizzo delle tecnologie nella vita quotidiana Nella vita quotidiana, le tecnologie sono sempre più presenti e utilizzate per gestire le nostre attività. Ad esempio, al risveglio, controlliamo i dati sul sonno registrati dallo smartphone, gli impegni proposti da assistenti vocali come Alexa e i messaggi su WhatsApp e Telegram. Durante la giornata, utilizziamo applicazioni come Google Maps, Audible, Storytel e Spotify per gestire i nostri spostamenti, la lettura e l'ascolto di contenuti. Queste tecnologie ci aiutano a tenere traccia delle nostre attività e a conservare le nostre memorie digitali. Utilizzo delle tecnologie digitali nella vita quotidiana Nella vita quotidiana, l'utilizzo delle tecnologie digitali è sempre più presente e diffuso. Ad esempio, si può utilizzare Spotify per ascoltare musica e ricevere una classifica dei brani più ascoltati, si può avviare lo streaming e la registrazione delle lezioni con l'ausilio di Prezi, si può consultare un forum di discussione sul Moodle del corso per porre domande e ricevere risposte in qualsiasi momento, si può utilizzare un'app sul telefonino per calcolare e tenere traccia delle calorie dei pasti, si può leggere su un ereader o su carta con la possibilità di annotare e gestire note e appunti tramite smartphone, si possono effettuare videoconferenze su diverse piattaforme, si può utilizzare Google o Alexa per gestire la lista della spesa e controllare le luci di casa, si può guardare la televisione e ricevere suggerimenti di contenuti in base alle scelte precedenti. Questi sono solo alcuni esempi di come le tecnologie digitali sono sempre più integrate nella vita quotidiana. Conservazione dei dati personali tramite le tecnologie digitali Le tecnologie digitali permettono anche di conservare e gestire i propri dati personali in modo sempre più efficiente. Ad esempio, Google Photo e Amazon Photo conservano fotografie e video, Instagram e Facebook conservano impressioni e annotazioni, Swarm tiene traccia delle pause gastronomiche o delle visite a musei, WikiLoc permette di registrare le camminate in montagna. Inoltre, molte di queste piattaforme sono in grado di suggerire contenuti in base alle scelte precedenti, rendendo la gestione dei dati personali sempre più automatizzata e personalizzata. Nuove memorie digitali personali Le nuove memorie digitali personali sono caratterizzate da diversi aspetti: sono molte e molto diverse fra loro, inflattive, prodotte e gestite sempre più spesso attraverso la mediazione di app e sistemi intelligenti anziché direttamente dall'utente, basate sulla conservazione di dati personali su cloud e facilmente duplicabili e condivisibili attraverso uno spettro di strumenti digitali. Questo processo di esternalizzazione della memoria ha fatto un salto quantitativo e qualitativo impressionante, che può essere considerato come un indizio di un passaggio evolutivo. Human Digital Memories (HDM) Le Human Digital Memories (HDM) sono diverse dagli archivi tradizionali e presentano diverse sfide in termini di selezione, gestione, conservazione, ricerca e accesso. Sono caratterizzate dalla combinazione di diversi tipi di media, dalla presenza di rumore e dalla difficoltà di descrivere ciò che si sta cercando. Inoltre, gli elementi presenti nelle HDM sono specifici per ogni singolo individuo e le memorie legate a elementi come la creazione e l'accesso sono a loro volta memorie individuali. Per questo motivo, è necessario sviluppare tecniche di recupero specifiche per il dominio degli archivi personali. Big data e memorie personali digitali Il tema delle memorie personali digitali si arricchisce di nuove dimensioni nella prospettiva dei big data. Ci sono ancora molte questioni da esplorare, come ad esempio l'utilizzo di strumenti di data mining, data analytics e data visualization per analizzare le memorie digitali personali. Inoltre, si pone il problema di come generare automaticamente metadati e su quali ontologie basarsi. Anche le strategie di archiviazione e la protezione dei dati sono temi importanti da considerare, soprattutto dopo la morte del soggetto produttore. Si potrebbe anche ipotizzare l'utilizzo di strategie di 'distant reading' per esplorare le memorie digitali personali. Intelligenza artificiale e memorie personali digitali Le memorie personali digitali hanno suscitato interesse per la loro possibile associazione con i nuovi sviluppi dell'intelligenza artificiale. Si sta lavorando sull'addestramento di intelligenze artificiali generative basate su corpora personali, che potrebbero simulare il comportamento linguistico di un individuo e far riferimento alla sua memoria esternalizzata. Tuttavia, è ancora troppo presto per trarre conclusioni e il rischio è quello di creare prototipi più per stupire che per far avanzare la ricerca. Ci sono anche questioni etiche e di privacy da considerare riguardo all'utilizzo di questi dati. FANTASCIENZA E CONSERVAZIONE DEL SAPERE Fantascienza La fantascienza è un genere letterario che si occupa di immaginare e speculare sul futuro, esplorando le possibili direzioni verso cui ci stiamo incamminando nel presente. Non si tratta di una previsione del futuro, ma di una riflessione sulle prospettive e le paure della cultura che ha generato la rivoluzione digitale. La fantascienza può essere considerata un modo per esplorare il confine tra ricerca scientifica e immaginazione, e spesso si basa su tematiche legate alla conservazione e organizzazione del sapere. Ciclo della Fondazione di Isaac Asimov Il ciclo della Fondazione di Isaac Asimov è una delle pietre miliari della fantascienza contemporanea. Questa saga letteraria rappresenta uno dei pochi casi in cui l'immaginazione si basa su un sistema di organizzazione del sapere, in particolare sull'idea di una fondazione che si occupa di preservare la conoscenza e guidare l'evoluzione della società. Intelligenze artificiali generative Le intelligenze artificiali generative sono un tema ricorrente nella letteratura di fantascienza. Si tratta di sistemi di intelligenza artificiale che sono in grado di produrre nuove conoscenze e idee, simili al lavoro delle intelligenze umane. Questo tema è spesso legato alla riflessione sulla possibilità di sostituire l'uomo con macchine in grado di creare e organizzare il sapere. L'organizzazione del sapere Nel testo si parla di due strumenti tradizionali di organizzazione del sapere: l'enciclopedia e la biblioteca. Questi due strumenti sono considerati i principali fulcri tematici della narrazione di un futuro possibile. Inoltre, si sottolinea che la fantascienza si è occupata maggiormente di biblioteche rispetto alle enciclopedie, poiché la biblioteca rappresenta un luogo di particolare interesse per la distinzione fra concezione architettonica e organico-oracolare del sapere. L'enciclopedia e la biblioteca come topos letterario Nel testo si fa riferimento alla presenza della biblioteca nell'immaginario letterario, cinematografico e televisivo. Si sottolinea che la biblioteca è un topos letterario ben noto da tempo, con esempi notevoli come Borges e Eco. Inoltre, si fa riferimento alla biblioteca vivente presente nel romanzo Fahrenbeit 451 di Ray Bradbury, che rappresenta un'immagine più organica e oracolare rispetto a quella architettonica e sistematica. L'evoluzione della biblioteca nell'era digitale Nel testo si evidenzia come l'esplosione dei dati legata alla rivoluzione digitale abbia messo in crisi l'immagine tradizionale della biblioteca come luogo di organizzazione sistematica del sapere. Si sottolinea che questa evoluzione richiede nuovi strumenti di ricerca dell'informazione e influenza la professionalità dei bibliotecari, che devono acquisire nuove competenze per gestire l'enorme quantità di dati. Inoltre, si fa riferimento al ricorso sempre più frequente alle intelligenze artificiali per soddisfare queste nuove esigenze. LA BIBLIOTECA E L'IMPERO Il ciclo della fondazione di Isaac Asimov Il ciclo della fondazione di Isaac Asimov è un corpus letterario di fantascienza che si basa sulla storia del declino e della caduta del primo impero galattico. L'ispirazione per questo ciclo è stata la "History of the Decline and Fall of the Roman Empire" di Edward Gibbon. Il protagonista principale è Hari Seldon, un matematico che ha scoperto la psicostoria, una disciplina che permette di prevedere l'evoluzione futura di un sistema sociale complesso. Seldon prevede che l'impero cadrà e che seguirà un periodo di trentamila anni di anarchia e barbarie prima della costituzione di un secondo impero galattico. Per limitare questo periodo di caos, Seldon crea due fondazioni, una a Terminus e una segreta, chiamata la seconda fondazione. L'Enciclopedia Galattica e la biblioteca di Trantor Nel ciclo della fondazione di Isaac Asimov, l'Enciclopedia Galattica e la biblioteca di Trantor sono due elementi fondamentali per il successo del progetto di Hari Seldon. L'enciclopedia è un'opera che raccoglie tutte le conoscenze dell'impero galattico e ha lo scopo di preservarle per il futuro. La biblioteca di Trantor, invece, è la sede della seconda fondazione e ha il compito di sorvegliare lo sviluppo del progetto e di introdurre eventuali correzioni. Entrambe sono essenziali per garantire la trasmissione delle conoscenze e per evitare un prolungamento del periodo di barbarie. Il ruolo della biblioteca nella fondazione dell'impero galattico Nel ciclo narrativo di Asimov, la biblioteca di Trantor ha un ruolo fondamentale nella fondazione dell'impero galattico. Essa è infatti il luogo in cui Seldon ha lavorato allo sviluppo della psicostoria e in cui sono conservate le informazioni e i dati necessari al lavoro degli psicostorici. Inoltre, la biblioteca è anche la sede in cui gli enciclopedisti lavorano alla creazione dell'Enciclopedia Galattica, un progetto fondamentale per limitare la durata dell'interregno e salvare le conoscenze dell'umanità. La biblioteca come condizione di possibilità per l'enciclopedia Secondo Asimov, la biblioteca è una condizione di possibilità per la creazione dell'Enciclopedia Galattica. Infatti, solo grazie alla presenza dei bibliotecari e delle loro conoscenze, gli enciclopedisti possono svolgere il loro lavoro e mantenere vive la scienza e la tecnologia del primo impero. In un certo senso, la biblioteca è il fondamento su cui si basa l'enciclopedia e il suo ruolo è fondamentale per il successo del progetto Seldon. La biblioteca come luogo di competizioni La biblioteca è un luogo di competizioni fra studenti relative alla rapidità e alla precisione della ricerca bibliografica. Queste competizioni sono destinate alle matricole dell'università e sono organizzate per incentivare l'uso della biblioteca e la ricerca bibliografica. La biblioteca come istituzione storica La biblioteca è una delle istituzioni più antiche e riverite dell'Impero. I bibliotecari rappresentano una gilda con una lunga tradizione e una grande autorità. La biblioteca difende strenuamente la sua indipendenza dal potere politico e dall'imperatore, ed è guidata da un consiglio di bibliotecari presieduto dal bibliotecario capo. La biblioteca come simbolo della grandezza dell'Impero La biblioteca di Trantor, conosciuta anche come Biblioteca Imperiale, era la più grande della Galassia e conteneva tutte le opere creative e le conoscenze dell'umanità. Era considerata un simbolo della grandezza dell'Impero e della sua capitale, Trantor, che era stata la città più vasta e popolosa mai conosciuta. La biblioteca come luogo di conservazione La biblioteca è un luogo di conservazione delle conoscenze e delle opere dell'umanità. Durante il periodo di interregno, la biblioteca di Trantor diventa un deposito e un simbolo della perduta grandezza dell'Impero. Inoltre, la biblioteca è considerata un modello per le biblioteche di altri pianeti e per la progressiva ricostruzione di un servizio bibliotecario interplanetario. La presenza delle biblioteche nel ciclo di Fondazione di Isaac Asimov Nel ciclo di Fondazione di Isaac Asimov, le biblioteche hanno un ruolo centrale nella società e nella geopolitica. Oltre alla biblioteca imperiale di Trantor, vengono introdotte diverse altre biblioteche, spesso associate alla ricerca di informazioni sulle leggende pre-imperiali relative al ruolo della Terra come pianeta di origine dell'umanità. Asimov, inoltre, non immagina biblioteche futuribili con tecnologie radicalmente innovative, ma piuttosto le descrive come luoghi familiari e già invecchiati, dove i bibliotecari svolgono ancora un ruolo fondamentale. Il ruolo politico delle biblioteche nell'universo della Fondazione Asimov attribuisce alle biblioteche un ruolo politico fondamentale nell'universo della Fondazione. La centralità delle biblioteche all'interno della sua opera riflette la centralità del ruolo che Asimov stesso attribuisce loro nella società. Inoltre, il ruolo delle biblioteche è visto come un baluardo della civiltà galattica in disgregazione e come strumento indispensabile per favorirne la rinascita. Questa visione è probabilmente influenzata dal debito personale di Asimov verso l'istituzione bibliotecaria, che egli stesso ha descritto come una "porta aperta sulle meraviglie e sulla possibilità di realizzarsi". La biblioteca imperiale di Trantor La biblioteca imperiale di Trantor è una delle più grandi biblioteche del mondo immaginario di Asimov. È stata descritta come una culla per l'Enciclopedia Galattica, che rappresenta un'importante fonte di conoscenza per gli abitanti di Trantor. Tuttavia, con il passare del tempo, la biblioteca è diventata anche un luogo di accesso al darknet, dove è possibile trovare una vasta collezione di testi pirata. Il fondatore del sito, Las Zenow, ha scelto di fare riferimento al lavoro di Asimov come omaggio al suo autore preferito e per sottolineare il carattere universale della sua biblioteca pirata. L'Enciclopedia Galattica L'Enciclopedia Galattica è strettamente collegata alla biblioteca imperiale di Trantor. È stata descritta come una culla per l'Enciclopedia, che rappresenta un'importante fonte di conoscenza per gli abitanti di Trantor. Tuttavia, con il passare del tempo, l'Enciclopedia è diventata anche un monumento storico alla grandezza del passato, incapace di favorire la creazione di nuove conoscenze. Solo dopo la fase peggiore di decadenza dell'impero galattico, il progetto originario è stato sostituito da un nuovo progetto enciclopedico costantemente aggiornato. La psicostoria di Asimov La psicostoria è una scienza immaginaria creata da Isaac Asimov e descritta nella sua trilogia "Fondazione". Essa si basa sulle leggi della statistica e permette di prevedere il comportamento futuro di grandi masse di individui. Asimov ha dichiarato che l'idea della psicostoria è nata dalle sue discussioni con John W. Campbell, direttore della rivista di fantascienza "Astounding Science Fiction". Inoltre, nei romanzi successivi Asimov suggerisce che sia stato il robot R. Daneel Olivaw a indirizzare Hari Seldon verso la scoperta della psicostoria. L'enciclopedia galattica di Asimov L'Enciclopedia Galattica è un'enciclopedia immaginaria descritta da Asimov nella sua trilogia "Fondazione". Nonostante la sua collocazione interplanetaria, essa è pensata come un'enciclopedia tradizionale, strumento statico di organizzazione delle conoscenze del passato. Tuttavia, nei romanzi più tardi Asimov suggerisce che l'enciclopedia potrebbe essere stata proiettata nel futuro dal suo autore, Hari Seldon. Inoltre, Asimov introduce anche enciclopedie elettroniche nel suo mondo futuro, simili a quelle presenti negli anni '80. BIBLIOTECHE NEL METAVERSO Intelligenze artificiali Le intelligenze artificiali sono un tema molto presente nella produzione fantascientifica legata al metaverso. Esse sono spesso descritte come strumenti di mediazione informativa e di organizzazione del sapere, e il loro ruolo è esplorato in diverse opere. In particolare, il romanzo "Snow Crash" di Neal Stephenson presenta un futuro in cui le intelligenze artificiali sono utilizzate per reperire e vendere informazioni all'interno di un ambiente virtuale. Biblioteche nel metaverso Le biblioteche sono un elemento importante all'interno del metaverso descritto nel romanzo "Snow Crash". In questo futuro, la Library of Congress si è trasformata in un database privato chiamato CIC Database, che funge da piattaforma di brokeraggio informativo. Le biblioteche sono quindi diventate dei giganteschi depositi di informazioni, accessibili a chiunque abbia i mezzi per accedervi. La virtualizzazione dei contenuti Nel testo si parla di come la biblioteca, grazie alla tecnologia, abbia subito una trasformazione che ha portato alla virtualizzazione dei contenuti. Questo significa che i contenuti non sono più organizzati in maniera strutturata e gerarchica, ma sono frammenti che possono essere facilmente ricercati e recuperati grazie a strumenti di ricerca intelligenti. La biblioteca come servizio privato Nel testo si sottolinea come la finalità della biblioteca sia cambiata nel tempo. Non è più uno strumento pubblico e gratuito di accesso alla conoscenza, ma è diventata un servizio privato finalizzato a generare profitti. Questo è dovuto al fatto che la società valuta le cose solo in termini di utilità e l'informazione, se non è utile, non genera profitti. La costruzione di controparti virtuali Nel testo si fa riferimento alla costruzione di controparti virtuali all'interno degli ambienti virtuali, come il metaverso descritto da Stephenson. Non solo le persone, ma anche gli agenti software e i supporti fisici dell'informazione possono essere rappresentati in forma virtuale. Questo processo di virtualizzazione è presente in molte narrazioni cyberpunk e permette di creare un'infinità di informazioni all'interno di una hypercard virtuale. Gli agenti software nella biblioteca virtuale Nel testo si parla degli agenti software, o 'demoni', che popolano la biblioteca virtuale descritta da Stephenson. Questi agenti sono dotati di intelligenza artificiale e possono aiutare gli utenti a gestire le informazioni presenti nella biblioteca. In particolare, viene descritto il Librarian, un agente software che ha un ruolo di rilievo nella narrazione e che rappresenta un interlocutore privilegiato per il protagonista. Il Librarian come assistente virtuale Il Librarian è un personaggio virtuale creato da Stephenson nel romanzo "Snow Crash". Non è una AGI, ovvero un'intelligenza artificiale generale, ma un assistente virtuale con capacità limitate. Non può "pensare" in modo autonomo, ma è in grado di apprendere dall'esperienza e di fornire informazioni utili ai suoi interlocutori. È stato programmato da un ricercatore della Library of Congress, il dottor Emanuel Lagos, che ha affrontato il problema di dover passare al setaccio grandi quantità di informazioni per trovare quelle significative. Non possiede una memoria indipendente, ma utilizza la Biblioteca come memoria. Non è in grado di formulare ipotesi speculative o di esprimere giudizi o valutazioni autonome. La natura del Librarian Il Librarian è un personaggio virtuale che si comporta in maniera simile a un assistente virtuale. Non possiede una vera e propria memoria, ma utilizza la Biblioteca come memoria. Non è in grado di formulare ipotesi speculative o di esprimere giudizi o valutazioni autonome. Non può "pensare" in modo autonomo, ma è in grado di apprendere dall'esperienza e di fornire informazioni utili ai suoi interlocutori. È stato programmato da un ricercatore della Library of Congress, il dottor Emanuel Lagos, che ha affrontato il problema di dover passare al setaccio grandi quantità di informazioni per trovare quelle significative. Non è in grado di utilizzare battut