Domande E Risposte Informatica 2022 PDF
Document Details
Uploaded by Deleted User
2022
Eleonora Dell'Oste
Tags
Summary
This is a past paper from the 2022 Informatica exam. It includes questions about computer architecture concepts including CPU components, memory units (RAM, ROM, cache), and buses. The author is Eleonora Dell'Oste.
Full Transcript
DOMANDE E RISPOSTE INFORMATICA ED. 2022 1) COS’E’ LA CPU? (CARATTERISTICHE CPU) L’acronimo CPU, dall’inglese Central Processing Unit, fa specificatamente riferimento all’unità centrale di elaborazione presente all’interno della scheda madre contenuta dagli odierni calcolatori elettronici. Tale u...
DOMANDE E RISPOSTE INFORMATICA ED. 2022 1) COS’E’ LA CPU? (CARATTERISTICHE CPU) L’acronimo CPU, dall’inglese Central Processing Unit, fa specificatamente riferimento all’unità centrale di elaborazione presente all’interno della scheda madre contenuta dagli odierni calcolatori elettronici. Tale unità detiene la funzione di coordinare in maniera centralizzata le restanti componenti del calcolatore stesso e quella di consentire l’esecuzione dei programmi. La CPU è, a sua volta, costituita da ulteriori elementi quali: l’unità aritmetica e logica (ALU), l’unità di controllo (CU), i registri e i clock. L’unità aritmetica e logica, anche definita ALU, costituisce l’unità responsabile dell’esecuzione di calcoli aritmetici e dell’applicazione di funzioni logiche (funzioni AND, OR, XOR, NOT). Le operazioni compiute dalla ALU sono gestite e coordinate dall’unità di controllo, ovvero la CU. I registri sono adoperati al fine di garantire il salvataggio dei risultati ottenuti senza necessariamente attendere che questi vengano archiviati sulla memoria centrale. La velocità di memorizzazione dei registri è pari a quella della CPU e ciò garantisce elevate prestazioni. Il clock è paragonabile all’orologio del sistema stesso e rappresenta una componente di fondamentale rilevanza poiché le operazioni compiute dalla CPU sono cicliche. Il clock ha la funzione di scandire il periodo del ciclo. La frequenza del ciclo è spesso definita indice generale delle prestazioni del calcolatore, poiché esprime la quantità di operazioni eseguibili dal processore. Un aumento eccessivo della frequenza non implica necessariamente un miglioramento delle prestazioni generali per via del fatto che esso comporti, a sua volta, un aumento dell’energia dissipata e, di conseguenza, del calore rilevabile nel processore stesso. Inoltre, le operazioni svolte dalla CPU non dipendono esclusivamente dalla frequenza del ciclo, quanto piuttosto dall’attività coordinata di più componenti. 2) CHE COSA SONO LE UNITA’ DI MEMORIA? (RAM, ROM, MEMORIE DI MASSA E CACHE) Le unità di memoria sono componenti hardware addette alla conservazione di dati e programmi. È necessario compiere una prima distinzione tra memoria centrale, o primaria, e memoria di massa, o secondaria. La memoria centrale, generalmente indicata tramite l’acronimo RAM (Random Access Memory), costituisce un tipo di memoria sulla quale la CPU ha la possibilità di scrivere e leggere informazioni e memorizzare dati e programmi da elaborare in maniera estremamente celere. Essendo la velocità di esecuzione caratterizzante tale memoria particolarmente elevata, il suo costo unitario è maggiore rispetto alle restanti tipologie di memoria esistenti e le sue dimensioni all’interno del calcolatore risultano chiaramente ridotte. Inoltre, la RAM è volatile: le informazioni su essa archiviate non sono disponibili a seguito dello spegnimento del dispositivo adoperato dall’utente. Le memorie di massa costituiscono un insieme di dispositivi differenti quali l’Hard Disk, i nastri magnetici e i CD, con capienza nettamente maggiore a quella caratterizzante la memoria centrale. Ciò ne determina una minore velocità di esecuzione. Infine, tali dispositivi hanno la possibilità di essere sia integrati che removibili. Ulteriori tipologie di memoria esistenti sono la ROM e la cache. La ROM (Read Only Memory) è associata a istruzioni macchina per le singole componenti del calcolatore stesso. Le istruzioni in questione, anche definite firmware, determinano il funzionamento delle differenti unità ed è questo il motivo per cui sono archiviate all’interno di una memoria di sola lettura difficilmente modificabile o eliminabile dall’utente. Il termine firmware deriva dagli etimi inglese “firm”, ditta, e “software”, il che indica il fatto che spesso queste istruzioni vengano fornite direttamente all’utente dalla ditta che fornisce le singole componenti. Infine, la memoria cache, dal francese “cachè”, ovvero nascosta, indica un tipo di memoria frapposta tra la memoria centrale e la CPU. Essa è addetta alla memorizzazione di quella serie di informazioni che sono salvate sulla RAM ma la cui utilizzazione avviene con maggiore frequenza dalla CPU. Un uso accorto della memoria cache può determinare un aumento generale delle prestazioni e la diminuzione dei tempi di accesso. 3) CHE COSA SONO I BUS? I BUS (Binary Unit System) sono collegamenti hardware necessari alla comunicazione e lo scambio di informazioni e dati tra memoria centrale e periferiche di input e output. I BUS possono essere suddivisi in BUS dei dati, BUS degli indirizzi e BUS di controllo. I BUS dei dati vengono adoperati nello scambio di dati o informazioni tra più dispositivi e ne possono usufruire tutte le restanti componenti del calcolatore. I BUS dei dati sono bidirezionali e sono costituiti da tanti fili quanti sono i bit che compongono l’unità di trasferimento. Il BUS degli indirizzi, al contrario, è unilaterale poiché consente alla CPU di individuare gli indirizzi contenuti dalla memoria centrale presso i quali scrivere o leggere informazioni Il BUS di controllo, infine, gestisce e coordina il traffico dati degli altri BUS. 4) PERIFERICHE DI INPUT E OUTPUT Le periferiche di input e output costituiscono quella serie di dispositivi che determinano rispettivamente la possibilità di immettere dati dall’esterno o di fornire i dati elaborati all’esterno. La struttura di questi dispositivi è dipendente dalla direzione del flusso di dati e dalla tipologia di dati in questione. Sono presenti oggigiorno periferiche che consentono di indirizzare i dati in entrambe le direzioni, tra i quali le memorie di massa e il touchscreen caratterizzante la prevalenza dei dispositivi elettronici oggigiorno in uso. 5) L’ARCHITETTURA DI VON NEUMANN L’architettura di Von Neumann costituisce l’architettura alla base della struttura caratterizzante gli odierni calcolatori elettronici. Essa risale agli anni ’40 del ventesimo secolo, decennio nel corso del quale Von Neumann tentò di costruire il dispositivo EDVAC: il primo calcolatore programmabile tramite software, la cui realizzazione non venne mai sfortunatamente effettuata. L’architettura ideata da Von Neumann prevedeva l’inserimento di alcune componenti fondamentali: l’unità di elaborazione centrale, corrispondente all’attuale CPU, l’unità di memoria, paragonabile alla RAM, le unità di input/output e dei collegamenti hardware in grado di coordinare il funzionamento generale delle componenti, anche definiti BUS. Il funzionamento alla base dell’architettura in questione prevede un’iniziale immissione all’interno del calcolatore di dati e programmi, i quali, sono successivamente archiviati e salvati sull’unità di memoria centrale. Tale trasferimento determina la possibilità da parte del processore, o anche definito unità centrale di elaborazione, di accedere ai dati presenti sulla memoria e di elaborarli tramite sue opportune e specifiche componenti interne, quali l’unità logica e aritmetica (ALU) e l’unità di controllo (CU). Infine, i risultati delle elaborazioni condotte dal processore sono indirizzate verso l’esterno tramite le unità di output, adoperate al fine di restituire risultati all’utente, ad un’altra periferica o ad una memoria di massa. Affinché il processo si svolga in maniera coordinata ed efficiente sono necessarie tre classi differenti di collegamenti hardware tra le varie componenti coinvolte. 6) IL PROCESSORE E LE SUE FASI DI FUNZIONAMENTO Il processore, o anche definito unità centrale di elaborazione (CPU), è paragonabile al cervello degli odierni sistemi computazionali ed esegue operazioni cicliche il cui ciclo è scomponibile in tre fasi principali: la fase di accesso e lettura dell’istruzione da eseguire, e la sua conseguente memorizzazione su apposito registro; la fase di decodifica dell’istruzione e, infine, la fase di esecuzione. Queste tre fasi sono più comunemente indicate tramite gli etimi inglesi fetch-code- execute. I risultati ottenuti in conclusione del ciclo del processore sono memorizzati in maniera tale da poter essere utilizzati nuovamente in cicli successivi o essere reindirizzati ad un output. Il processore esegue, dunque, istruzioni associate ad un singolo programma e nonostante l’uso contemporaneo di più programmi da parte dell’utente le istruzioni vengono eseguite sequenzialmente. Oggigiorno esistono dispositivi multiprocessore, o anche definiti multicore, tramite i quali risulta possibile eseguire più istruzioni in parallelo su processori differenti per poi essere riunificate e presentate in output. 7) GLI STRATI DI SOFTWARE Oggigiorno i calcolatori elettronici necessitano di eseguire una molteplicità di funzioni differenti contemporaneamente, armonizzare le risorse a disposizione per l’utente e, al contempo, comunicare con l’hardware sottostante le operazioni compiute. È questo il motivo per il quale si è stabilito nel tempo un ordine gerarchico attraverso il quale classificare le informazioni e le istruzioni presenti all’interno dei calcolatori. Tale gerarchia prevede la successione di differenti strati di software e ha inizio a partire dal livello di BIOS o firmware, il quale dialoga direttamente con l’hardware, per poi giungere al livello del sistema operativo sul quale poggia, infine, il livello delle applicazioni e dei programmi. Il livello di BIOS/firmware è costituito da software contenenti le istruzioni di uso fondamentali al funzionamento basilare delle singole componenti hardware del calcolatore. Essendo le istruzioni in questione tanto rilevanti, sono memorizzate tramite un tipo di memoria di sola lettura non volatile né tantomeno modificabile dall’utente. Il livello dei sistemi operativi include software che presiedono alla gestione e al funzionamento generali del calcolatore. Infine, poggiano sul livello dei sistemi operativi le cosiddette applicazioni: software di elaborazione dati ideati al fine di compiere una specifica operazione. Esse costituiscono lo strato di software maggiormente prossimo alla logica dell’utente e la loro installazione è possibile in relazione alla compatibilità dell’applicazione con il sistema operativo adottato dalla macchina. 8) CARATTERISTICHE E FUNZIONI DEL SISTEMA OPERATIVO Il sistema operativo è definibile come insieme di programmi che presiedono il funzionamento generale del calcolatore. In particolar modo, le funzioni generali del sistema in questione consentono la gestione armonizzata delle risorse hardware e software del calcolatore e il successivo accesso a quest’ultime da parte di tutta quella serie di operazioni e programmi che ne richiedono l’utilizzazione. Inoltre, il sistema operativo è addetto alla gestione dei malfunzionamenti, all’esecuzione di programmi esecutivi e all’archiviazione di dati e programmi. Tra i sistemi operativi oggigiorno maggiormente in uso in ambito di Personal Computer è senz’altro necessario menzionare i sistemi “Windows” e quelli “Linux”. 9) ORGANIZZAZIONE SISTEMA OPERATIVO La molteplicità di funzioni che caratterizzano il ruolo ricoperto dal sistema operativo all’interno di un calcolatore implica la necessità di strutturare tale sistema secondo una gerarchia di componenti differenti: il kernel, il gestore della memoria, il gestore delle periferiche, il gestore dei file, più comunemente definito File System, e l’interprete dei comandi. Il Kernel, o anche definito “nucleo” del sistema, comunica direttamente con l’hardware, consente l’esecuzione dei programmi e risponde alle periferiche di input/output. Tramite questa componente è anche garantita la gestione armonizzata delle restanti unità. Il gestore della memoria è addetto alla gestione e all’assegnazione della memoria centrale a quella serie di operazioni che ne necessitano l’utilizzo. Il gestore della memoria costituisce un enorme vantaggio per l’utente poiché garantisce efficaci prestazioni da parte della RAM, la quale, oltre ad essere caratterizzata da un costo unitario particolarmente elevato, rappresenta il luogo logico dal quale il processore trae le proprie computazioni. Il gestore delle periferiche gestisce le periferiche di input e output e ne consente l’accesso da parte di quei processi che ne richiedano l’utilizzo. Tale gestore adopera frequentemente driver che contengono istruzioni specifiche per la periferica in questione. Un esempio di driver è senz’altro lo spooler di stampa, il quale gestisce autonomamente il processo di stampa al fine di alleggerire la CPU e garantire prestazioni generali più elevate da parte del calcolatore. Il gestore dei file, o File System, è un modulo che garantisce un’efficiente gestione e organizzazione dei file archiviati sulla memoria di massa. Inoltre, garantisce gli accessi ai file stessi. Infine, l’interprete dei comandi riceve, interpreta ed esegue comandi impartiti dall’utente tramite riga di comando o altri input, quali la pressione del mouse. 10) FILE SYSTEM Il File System costituisce un modulo attraverso il quale è garantita un’efficiente gestione e organizzazione dei file archiviati sulla memoria di massa. Esso fornisce un meccanismo univoco di identificazione dei file e un’organizzazione gerarchica di quest’ultimi, rappresentabile tramite l’immagine di un albero. Nei sistemi operativi a base Windows la directory root è indicata con un carattere alfabetico seguito dai due punti e solitamente il disco fisso è etichettato dalla sequenza “C:”. I file di sistema sono organizzati in una cartella denominata “Windows”, mentre i file riferiti ad ognuno degli utenti sono contenuti in sottocartelle della “directory users”. È possibile distinguere tre tipologie di utenti differenti: utente normale, l’utente amministratore, o root, e l’utente di servizio. L’utente normale ha la possibilità di usufruire di una propria directory, di una sottodirectory della directory users o di una sottodirectory della directory home. L’amministratore ha accesso a tutti i file presenti sulla memoria, mentre l’utente di servizio solo a determinate directory del gestore. Ogni file, infine, è caratterizzato da una serie di attributi: il permesso di lettura, scrittura ed esecuzione. 11) COMPONENTI RETE INTERNET (NODO, HOST, NODO DI COMUNICAZIONE, DNS) La rete internet, seppur oggigiorno più frequentemente associata alla connessione wireless, è di fatto costituita da un’infrastruttura fisica. Essa prevede l’esistenza di nodi e collegamenti tra nodi. Qualsiasi entità annessa alla rete è definita nodo. A sua volta il nodo può essere definito host, nel caso in cui la sua partecipazione alla rete venga resa manifesta a livello di applicazione, o nodo di commutazione, nel caso opposto in cui la partecipazione dell’entità sia richiesta al solo fine di consentire lo spostamento delle informazioni. I nodi terminali e i nodi intermedi sono tra loro comunicanti tramite una serie di collegamenti. Il DNS, Domain Name System, è un sistema per assegnare nomi ai nodi della rete. I nomi possono essere adoperati in sostituzione agli indirizzi IP originali e il servizio è spesso basato su un database distribuito. 12) SCHEDA DI RETE, SWITCH, ROUTER E MODEM Una delle componenti indubbiamente più rilevanti e necessarie alla rete internet è la scheda di rete. Essa consente l’effettiva connessione dei dispositivi alla rete e il conseguente scambio di dati. In altri termini, la scheda di rete è una periferica addetta allo scambio di informazioni con l’esterno. Esistono differenti tipologie di schede, le più frequentemente adoperate sono quelle via cavo e wireless. Ogni scheda è univocamente riconosciuta tramite un codice costituito da 48 bit e definito MAC address. Solitamente esso è scomposto in 8 byte e codificato adoperando il sistema numerale esadecimale. Lo switch consente la connessione tra più dispositivi e la conseguente creazione di una rete locale. La rete è costruita poiché ogni nodo è riconosciuto tramite il MAC address univoco che lo identifica. Il router determina la possibilità di connettere più reti tra loro smistando il traffico dei pacchetti dati. Al fine di compiere ciò adopera tabelle specifiche, denominate tabelle di routing, all’interno delle quali sono contenuti alcuni degli indirizzi dei nodi annessi alla rete. Infine, il modem assume la funzione di modulatore e demodulatore, trasformando i caratteri 0 e 1 caratterizzanti il sistema binario adoperato dal calcolatore in segnali fisici che hanno la possibilità di essere trasmessi tramite dispositivi altrettanto fisici. 13) PROTOCOLLO TCP/IP: COS’E’ E LIVELLI Un protocollo di comunicazione è un insieme di regole che vengono stabilite al fine di garantire un’efficace e corretta comunicazione. Il rispetto di tali protocolli consente a due software in esecuzione su dispositivi differenti di comunicare efficacemente, nonostante questi siano stati realizzati l’uno indipendentemente dall’altro. Garantiscono, in altri termini, ciò che è definita interoperabilità. Affinché i pacchetti di dati possano essere trasportati da un host A ad un host B è necessario che questi siano sottoposti ad una serie di livelli. Il primo livello è quello applicativo, il quale garantisce un’interfaccia con l’utente. Solitamente l’interfaccia in questione è costituita da un browser attraverso il quale l’utente ha la possibilità di instradare una richiesta. I dati instradati giungono, in seguito, al livello di trasporto. Al livello di trasporto i pacchetti di dati sono scomposti e ad ogni frammento viene aggiunta un’intestazione contente informazioni fondamentali relative ai pacchetti stessi, quali il numero progressivo del pacchetto. I livelli si distanziano progressivamente dalla logica dell’utente al fine di essere più semplicemente interpretabili dalla macchina stessa. Ogni nodo della rete è univocamente identificato dal cosiddetto codice IP (Internet Protocol) che nella sua versione IPV4 è costituito da 4 byte, ognuno dei quali è rappresentato tramite il sistema numerale decimale. A livello di rete i pacchetti sono arricchiti di un’intestazione contenente i codici IP del mittente e del destinatario. Infine, al livello di collegamento di rete, o anche definito link, i pacchetti sono ulteriormente incapsulati a causa di un’intestazione necessaria a definire i codici MAC address delle schede di rete addette alla gestione della comunicazione in corso. Giunti all’host B i pacchetti sono privati delle loro intestazioni e riordinati. 14) MOTORI DI RICERCA: COSA SONO, FUNZIONAMENTO E OPERATORI LOGICI BOOLEANI Il modello di trasferimento dati caratterizzante la rete internet è rimasta nel corso del proprio sviluppo sostanzialmente invariato ed è tutt’oggi denominato Client-Server. Il modello in questione prevede che l’utente, ricercando informazioni, instradi automaticamente una richiesta che è indirizzata tramite l’utilizzo di un Client. La richiesta giunge ad un server remoto, il quale restituisce il risultato della ricerca compiuta dall’utente a quest’ultimo. Il risultato è infine interpretato nuovamente dal Client e visualizzato a schermo. Il motore di ricerca è un esempio di WebApp, consiste in uno scambio di informazioni tra Client e server nel corso del quale parte dell’elaborazione avviene sul piano del server stesso. L’elaborazione consiste in una serie di procedure, tra le quali la più rilevante è individuare un database proprietario del motore di ricerca stesso corrispondente ai risultati della ricerca compiuta dall’utente, spesso denominata “query”. Le fasi di funzionamento di un motore di ricerca sono 3: analisi delle pagine e delle risorse disponibili in rete, la catalogazione e la restituzione all’utente dei risultati. Nel corso della prima fase di funzionamento sono adoperati specifici software denominati Crawler, la cui funzione è quella di setacciare il contenuto delle pagine annotando tutti i link reperibili in un elenco di pagine da visitare e analizzare. Il contenuto e i collegamenti reciproci tra pagine sono indicizzati e archiviati. Nel corso della fase di catalogazione interviene la tipologia specifica di algoritmo adottata dal sistema. Più in generale questa fase prevede di confrontare il contenuto delle pagine elencate confrontandole ad alcune parole chiave immesse dall’utente stesso, ciò consente di poter indicizzare e catalogare le pagine effettivamente corrispondenti alle parole chiave in questione e, infine, restituire all’utente il risultato della propria query. Spesso il numero di risultati restituiti è spropositato, ma è possibile raffinare la propria ricerca adoperando differenti strumenti. Tra questi vi sono gli operatori booleani. Gli operatori booleani permettono di associare più termini con degli operatori logici, ad esempio AND inserito tra due parole ci restituirà risultati dove compaiono esattamente entrambe le parole e non una sola. OR invece è un operatore logico che ci restituisce la presenza di una o l’altra. Di particolare interesse può essere l'uso dell’operatore NOT specie quando un termine è associato ad esempio a due campi del sapere diversi e vogliamo limitare i risultati di ricerca a uno solo di questi. 16) PAGE RANK Il Page Rank è un algoritmo attraverso il quale attribuire un peso ad ogni documento collegato ad un link e fu ideato da Larry Page, cognome dal quale è tratto il nome stesso dell’algoritmo. Larry Page rappresenta uno dei primi fondatori di Google e, difatti, il Page Rank è tra gli algoritmi più adoperati da quest’ultimo. Il peso attribuito al contributo di ogni pagina nella fase di catalogazione dipende dalla popolarità della pagina stessa e dal numero di pagine alle quali è collegata. Fortunatamente il Page Rank non è l’unico criterio adoperato, poiché nel caso contrario lo fosse si verificherebbe un grosso blocco relativo alla possibilità data alle nuove pagine di affermarsi. 17) I SOCIAL NETWORK Nel corso del tempo si è verificato un radicale cambio di approccio che ha determinato il costruirsi di vere e proprie comunità sociali all’interno della rete, le cosiddette social network. La rete è passata dal rappresentare un luogo ospitante contenuti prettamente individuali, al poter essere definita luogo tramite il quale consentire ad una molteplicità di individui, non necessariamente informatici, di connettersi ed interagire. I social network sono più correttamente definiti come tutta quella serie di servizi web che permettono la creazione di un profilo pubblico o semi pubblico all'interno di un sistema vincolato, l’articolazione di una lista di contatti e la possibilità di scorrere la lista di amici dei propri contatti. È possibile compiere una distinzione di tali servizi riferendosi al tipo ti relazione posta alla base della comunità in questione, o definendo la tipologia di contenuto condivisibile con gli altri utenti. I passaggi necessari affinché l’utente possa usufruire della piattaforma sono: la creazione di un profilo, l’inserimento di dati rilevanti per l’uso e, infine, la creazione di rapporti interpersonali. Questi si formano sulla base della teoria dei 6 gradi di separazione di Milgram, il quale ritiene possibile ricondurre una persona ad un’altra casualmente selezionate tramite, in media, 6 intermediari. I social network hanno comportato una serie di conseguenze di differente natura; tra quelle negative vi è senz’altro la diffusione del principio “simile ama simile”, il quale determina spesso la creazione di bolle sociali e camere d’eco: gruppi particolarmente ristretti presenti in rete che sostengono visioni polarizzate rispetto a specifiche questioni, sena tenere l’intrinseca complessità e differenziazione delle opinioni esistenti. Inoltre, si è diffuso un generale affanno di apparire e la diffusione di fake news a causa del cosiddetto bias di conferma: la tendenza dell’individuo umano a ritenere vere quella serie di prove che risultano concordi alla propria visione e, al contempo, ignorare o sminuire le prove a favore delle opinioni contrastanti. Alcune conseguenze positive dei social network sono state una crescita del mercato, la nascita di nuove occupazioni che prima non esistevano e, soprattutto per quanto riguarda le giovani generazioni, delle possibilità nuove di rappresentazione come elementi autonomi ed indipendenti. 18) WORD Microsoft Word è indubbiamente uno tra i più longevi e celebri programmi addetti alla videoscrittura. A partire dagli anni ’80 la fama di tale programma è divenuta tale da trasformare il termine Word come archetipo per indicare una qualsiasi versione di programma per la scrittura a schermo. Una delle caratteristiche fondamentali di Microsoft Word è il fatto che esso metta a disposizione dell’utente più di livelli di controllo di formattazione. In particolare, sono distinti due livelli differenti: quello relativo al solo contenuto testuale immesso dall’utente e quello legato alla maniera attraverso la quale il contenuto in questione è veicolato è presentato. Formattazione paragrafi/carattere → Il gruppo di formattazione selezionabile dal menù multifunzione costituente parte dell’interfaccia del programma consente di modificare alcuni attributi caratterizzanti un paragrafo o il carattere adoperato nel completarlo. Alcune delle modificazioni possibili sono il carattere stesso, il tipo di allineamento del carattere, il rientro di paragrafo rispetto ai margini della pagina, la spaziatura e l’interlinea, ovvero lo spazio che intercorre fra una linea e l'altra all'interno dello stesso paragrafo. Organizzazione di un documento Word → È possibile definire un documento Word come un’incrementale gerarchia di una serie di paragrafi, su ognuno dei quali è possibile compiere una serie di modificazioni grafiche e di formattazione. L’unità di base è dunque il paragrafo. Le sezioni aiutano a raccogliere i paragrafi in maniera omogenea, mentre gli stili e i temi consentono di organizzare la formattazione. Modelli → I modelli sono file già impostati secondo un progetto che si personalizzano cambiandone il contenuto. Essi aiutano a superare l'impaccio della pagina vuota e possono essere fonte di ispirazione nella creazione di documenti personalizzati e usabili per i propri scopi. Questo rende molto facile creare documenti aventi già una propria uniformità, perché pensati per produrre un certo tipo di documento. Barra multifunzione → La barra multifunzione costituisce una delle componenti base dell’interfaccia del programma (menù multifunzione, area di pagina e barra di stato) e può essere definita come una serie di schede che racchiudono, a loro volta, gruppi di operazioni similari. Sommari e indici → Un uso ragionato e combinato della scheda “riferimenti” e degli stili, consente la produzione automatica di sommari e indici particolarmente utili all’interno di scritti accademici. Gli stili dei titoli formano una gerarchia dei capitoli visualizzabili nel sommario con i riferimenti di pagina aggiornabili. 18) GLI ASSIOMI DELLA COMUNICAZIONE L’utente ha la possibilità di adoperare in maniera più mirata ed efficiente programmi addetti alla produzione di presentazioni, approfondendo alcune nozioni base proprie della pragmatica della comunicazione. La pragmatica è una disciplina, o più precisamente una branca della linguistica, incentrata sullo studio degli effetti pratici che la comunicazione sollecita nell’individuo umano sul piano comportamentale. Alcune delle nozioni più rilevanti associate al campo d’indagine in questione sono contenute all’interno di un’opera risalente al 1967 intitolata “La pragmatica della comunicazione umana”. Essa presenta un elenco di 5 assiomi principali della comunicazione, di cui 3 sono specificatamente applicabili e riscontrabili nella particolare sottospecie di comunicazione adottata tramite le presentazioni. L’assioma 1 afferma l’impossibilità di non comunicare o, in altri termini, il fatto che non esista l’opposto della comunicazione. Ciò risulta vero poiché nel momento in cui è stabilita una relazione umana, ogni azione è interpretabile e costituisce un messaggio. L’azione del mittente è dunque codificata dal destinatario come fosse un messaggio a prescindere dalla volontà del mittente che essa lo sia o meno. L’assioma 2 afferma che ogni comunicazione presenta un aspetto di contenuto e un aspetto di relazione. L’aspetto di contenuto fa riferimento a ciò che il mittente ha intenzione di raggiungere tramite il proprio messaggio e al messaggio stesso; l’aspetto di relazione, al contrario, definisce il modo attraverso il quale il messaggio in questione è veicolato e, di conseguenza, presentato al destinatario. Quest’ultimo determina il tipo di relazione stabilita con il destinatario. I due aspetti sono tra loro inevitabilmente complementari e, dunque, non risulta possibile scorporarli. L’assioma 4, infine, afferma che la comunicazione avviene tramite canali verbali e non verbali. Il termine verbale fa riferimento alla parola scritta e al contenuto di ciò che il mittente espone oralmente; il non verbale definisce tutto ciò che è escluso da tale definizione, tra cui la gestualità, l’aspetto fisico, il ritmo, ecc. 19) DOMANDE DA PORSI PRIMA DI REALIZZARE UNA PRESENTAZIONE 1. Qual è il vostro obiettivo? 2. A chi è rivolta la presentazione? Che conoscenze ha il ricevente? Che obiettivi ha il ricevente? 3. Qual è il contesto formale? (riunione aziendale, seminario pubblico, lezione) 4. Quanto tempo ho a disposizione? 5. Che strumenti tecnici ho a disposizione? (uso il mio PC, lo schermo di proiezione è grande? Ho anche una lavagna?) 6. La presentazione resta agli atti come documento o è solo un supporto alla discussione? In maniera più specifica, esistono riceventi che avranno accesso ad essa? 20) ACCORGIMENTI PER UNA PRESENTAZIONE EFFICACE Alcuni tra gli errori più frequentemente commessi nel realizzare una presentazione sono relativi al carattere adoperato nel presentare il contenuto testuale della presentazione in questione. Risulta dunque necessario prestare attenzione ad eventuali incoerenze di taglia e stile del carattere, le quali potrebbero distrarre il destinatario e ostacolare la sua esperienza. Inoltre, è preferibile adottare un linguaggio particolarmente sintetico la cui freddezza è successivamente compensata dall’intervento orale del mittente stesso. Il linguaggio in questione prevede frasi di lunghezza inferiore alle 3 righe, elenchi con meno di 5 punti e la parziale assenza di punteggiatura. Nell’inserire elementi grafici è spesso consigliato di immettere e verificare manualmente lo spessore e le misure delle linee che li costituiscono. Elementi grafici il cui utilizzo risulta particolarmente conveniente all’interno di una presentazione sono i cosiddetti connettori. Le immagini possono essere modificate tramite strumenti opportuni, quali “ritaglia immagine”, ed inserite nella presentazione sulla base della loro effettiva accessibilità, tematica a sua volta legata alla gestione del copyright. Gli ultimi accorgimenti sono relativi all’esposizione orale della presentazione realizzata, la quale necessita di poche ma chiare parole per poter risultare efficace. In particolar modo, il mittente deve assicurarsi che il gergo eventualmente adoperato sia effettivamente condiviso dal destinatario e che il proprio discorso non risulti più o meno esteso di quanto dovuto. È inoltre rilevante regolare la propria postura, il tono della voce e il ritmo del discorso (tramite l’utilizzo di opportune pause). 21) CREATIVE COMMONS Le Creative Commons sono strumenti che i titolari dei diritti d’autore possono utilizzare per consentire di condividere e riutilizzare le proprie opere. In altri termini, le Creative Commons consentono al proprietario dei diritti di autore di stabilire condizioni specifiche attraverso le quali determinare o meno la possibilità di accedere e condividere il proprio contenuto. Ad esempio, il proprietario di un’immagine potrebbe voler rendere quest’ultima accessibile ed utilizzabile purché non vi siano fini commerciali. 22) STORIA DI INTERNET Nel corso degli anni ’50 la diffusione di supporti elettronici, quali i transistor, necessari all’implementazione di funzioni logiche e algoritmi determinò la nascita dei primi computer per uso civile e dei primi linguaggi di programmazione. Agli albori dell’informatica stessa i calcolatori non presentavano la possibilità di stabilire una connessione con dispositivi distanti nello spazio e, di conseguenza, il trasferimento di dati da un computer ad un altro necessitava di essere compiuto fisicamente. Durante la Guerra Fredda, però, ebbe origine l’esigenza di stabilire comunicazioni robuste tra centri di ricerca di apparati addetti alla gestione di dati militari. Tale esigenza determinò, a sua volta, la nascita del progetto ARPANET e di progetti analoghi in parti differenti del globo che consentirono la connessione tra più calcolatori. Negli anni ’70 vennero introdotte le cosiddette tabelle di routing, necessarie ad instradare le comunicazioni e stabilire quale percorso i pacchetti di dati debbano seguire al fine di giungere efficientemente ad ulteriori nodi connessi alla rete. Inoltre, furono introdotti protocolli gerarchizzati su più livelli al fine di distinguere il ruolo dell’utente da quello ricoperto dal gestore della rete stessa. Tra i protocolli introdotti è indubbiamente necessario menzionare i protocolli TCP/IP tutt’oggi adoperati. La diffusione del termine Internet si verificò in particolar modo nel corso degli anni 80’ grazie allo sviluppo di una serie di reti differenti. Il termine Internet nacque, dunque, per indicare la rete di queste reti. Il protocollo DNS venne introdotto al fine di consentire all’utente di associare nomi ai nodi connessi alla rete piuttosto che inserire i loro rispettivi codici IP. Negli anni 90’ avvenne la nascita dei primi siti Internet per via della diffusione dei protocolli necessari allo sviluppo di tale tecnologia: l’HTTP, un protocollo di scambio dati tramite il quale gestire gli ipertesti, e l’HTML, il linguaggio specificatamente adoperato nella stesura di pagine web. Inoltre, nacque anche il concetto di URL, ovvero l’indirizzo web. La diffusione capillare di Internet, accompagnato ad un sempre più frequente ed esteso utilizzo dei cosiddetti Personal Computer, comportò l’esigenza di sviluppare software attraverso i quali facilitare la navigazione Internet. Dal 2000 in poi le rivoluzioni più rilevanti in ambito informatico sono state relative alla diffusione di dispositivi portatili e al cosiddetto Cloud, un sistema di erogazione di servizi offerti da un fornitore a un cliente attraverso la rete internet impiegando risorse in remoto preesistenti e configurabili. 23) SVILUPPO DEI COMPUTER: BREVE STORIA In antichità, o più precisamente nel corso del Medioevo, l’individuo umano era solito adoperare macchine quali l’abaco, l’astrolabio e la macchina di Anticitera. In età moderna Leibniz sviluppò la cosiddetta calcolatrice, in grado di eseguire le quattro operazioni aritmetiche fondamentali. Le tecnologie menzionate condividevano con gli odierni calcolatori elettronici il fatto di essere progettate al fine di sveltire calcoli aritmetici e la possibilità di essere adoperate da chiunque fosse dotato di un opportuno algoritmo. I limiti di queste tecnologie erano legati al fatto che esse fossero in grado di elaborare un solo tipo particolare di informazione. Inoltre, in antichità le tecnologie adoperate non risultavano ancora programmabili e compievano, dunque, continuativamente la medesima operazione. Fu Babbage il primo che, nell’Ottocento, tentò di sviluppare un calcolatore programmabile tramite il software. La macchina prevedeva una memoria interna separata fisicamente dall’unità di calcolo, e delle periferiche di input e output. Una seconda macchina molto importante storicamente è quella tabulatrice di Hollerith, la quale era in grado di leggere e analizzare schede perforate. Fu utilizzata a fine dell’800 per analizzare i dati di un censimento negli Stati Uniti d’America. In qualche modo è una macchina più primitiva di quella di Babbage, poiché non programmabile. Negli anni 40’ iniziano a diffondersi calcolatori strutturati sulla base dell’architettura proposta da Von Neumann, quali le Z1, Z2 e Z3 sviluppate da Konrad Zuse. Esse erano elettromeccaniche, programmabili, adoperavano il sistema binario e presentavano un’unità di memoria separata da quella di calcolo. Dagli anni 50’ in poi si è verificata un’effettiva rivoluzione delle tecnologie grazie all’introduzione in quantità sempre maggiore dei cosiddetti transistor e il conseguente aumento delle prestazioni di calcolo in dispositivi con dimensioni proporzionalmente ridotte. 24) PROTOCOLLI IPV4 E IPV6 Ad ogni nodo connesso alla rete è univocamente associato un indirizzo IP, il quale, nella sua versione IPV4, è costituito da una serie di 4 byte. Tale versione consente, dunque, di stabilire un totale di 4,3 miliardi di combinazioni differenti. Oggigiorno sono rilevati circa 50 miliardi di dispositivi connessi alla rete, di conseguenza il protocollo IPV4 ci si aspetta verrà progressivamente superato in favore del protocollo IPV6. Quest’ultimo è costituito da una sequenza di 128 bit, suddivisi in 16 byte, e consente di effettuare un numero nettamente superiore di combinazioni. Inoltre, il protocollo IPV6 è consuetamente rappresentato in esadecimale. 25) MALWARE (VIRUS, TROJAN, SPYWARE, RANSOMWARE) Parallelamente all’evoluzione di Internet si è verificato lo sviluppo di attacchi informatici e, di conseguenza, la necessità di introdurre la cosiddetta “sicurezza informatica”: un insieme di tecnologie, processi e pratiche adoperati al fine di garantire la protezione di reti, dispositivi, programmi e dati da attacchi o accessi non autorizzati. Agli inizi di Internet gli attacchi in questione risultavano paragonabili a veri e propri atti vandalici, per lo più compiuti da singoli individui spesso volenterosi di testare le proprie abilità in ambito di programmazione. Con l’avvento di Internet e la successiva trasformazione di quest’ultimo in un’economia fiorente globalmente, si è giunti alla formazione di effettive organizzazioni criminali strutturate che fanno degli attacchi cibernetici il proprio business. Ognuno dei software maligni adoperati al fine di danneggiare informazioni e apparecchiature o appropriarsene illecitamente detiene caratteristiche proprie che hanno determinato nel tempo la possibilità di formulare una tassonomia di tali software, più comunemente definiti “malware”. Il virus è un programma autoreplicante che infetta altri file eseguibili e si diffonde nel sistema. Seppur il termine venga solitamente adoperato in riferimento ad un qualsiasi attacco cibernetico, di fatto il virus costituisce una tipologia di malware specifica con caratteristiche che ricordano quelle dei virus biologici. Il Trojan trae il proprio nome dal mito del cavallo di Troia, difatti è un malware mascherato da software legittimo. L’utente è indotto a scaricare il software in questione che però, di fatto, è introdotto all’interno del dispositivo dell’utente stesso al fine di ottenere illecitamente una serie di permessi e accessi. Questa specifica tipologia di malware spesso sfrutta dunque l’ingenuità dell’utente. Lo Spyware è un malware attraverso il quale sono raccolte informazioni riguardanti l’attività dell’utente senza il consenso di quest’ultimo. Solitamente l’attacco cibernetico in questione è operato da organizzazioni criminali e diretto ad enti e aziende. Il Ransomware blocca e cripta file e dati dell’utente con la minaccia di cancellarli a meno che non venga pagato un riscatto. Difatti il termine stesso associato al malware in questione contiene l’etimo inglese “ransom”, tradotto in italiano come “riscatto”. 26) DATI PERSONALI E PHISHING Seppur non sia possibile ridurre a zero il rischio di divenire vittime di un attacco cibernetico, l’utente è incoraggiato ad adottare una serie di comportamenti prudenti in grado di prevenire l’insediamento di eventuali malware e tutelare i propri dati personali. Un primo consiglio è legato al fatto di prestare particolare attenzione ai contenuti che l’utente stesso condivide volontariamente in rete e che potrebbero essere adoperati legalmente o illegalmente da terzi contro di lui. Un primo modo attraverso il quale proteggere i propri dati è dunque quello di non renderli in primis volontariamente pubblici. Il phishing è una truffa finalizzata a convincere la vittima a fornire dati personali fingendosi un utente affidabile. È un neologismo ispirato al termine inglese che indica l’atto di pescare, il quale prevede di avvicinare l’animale tramite un’esca di cibo apparentemente innocua che di fatto è adoperata al fine di catturarlo. È possibile evitare di divenire vittime di tale truffa adottando strategie indipendenti da quelle proposte dall’utente sospetto che consentano di verificarne l’effettiva affidabilità. 27) PASSWORD E PROTEZIONE DEI DATI PERSONALI Una password è una sequenza di caratteri alfanumerici e di simboli sempre più frequentemente richiesta. Password sono facilmente violabili da software automatici. Risulta dunque necessario all’utente definire password complesse per algoritmi addetti alla loro ricerca e, al contempo, facilmente ricordabili. Evitare password semplici implica evitare parole ovvie o direttamente associabili all’account dell’utente, sostituire lettere e numeri e inserire parole al contrario. Oggigiorno sono resi disponibili servizi online addetti alla misurazione della complessità delle password, il cui utilizzo è consigliato immettendo sequenze differenti da quelle costituenti le password effettive dell’utente. Tra i comportamenti prudenti consigliati al fine di proteggere i propri dati vi è quello relativo all’aggiornamento dei sistemi operativi. Sfortunatamente gli attacchi cibernetici sono spesso non completamente gestibili dal singolo utente poiché questo non detiene il controllo sul proprio sistema operativo o le competenze necessarie ad ottenerlo. Ciò determina la necessità da parte del produttore del software o del sistema operativo di evidenziare eventuali vulnerabilità ed erogare un aggiornamento che consenta di mantenere solida l’immagine del proprio sistema. Di conseguenza, è consigliato all’utente di seguire come minimo gli aggiornamenti suggeriti. 28) CLOUD COMPUTING: COS’E’, VANTAGGI/SVANTAGGI E ARCHITETTURA Il Cloud Computing, letteralmente tradotto “nuvola informatica”, è il termine adoperato in riferimento alla tecnologia che, appoggiandosi al servizio Internet, consente l’accesso ad applicazioni e risorse di archiviazione ospitate su un hardware remoto anziché su supporti locali. Essa costituisce un modello di business innovative poiché determina la possibilità di usufruire a distanza del prodotto, senza la necessità da parte dell’utente di disporne fisicamente. Esistono tre differenti modalità di distribuzione dei servizi cloud, corrispondenti a tre ulteriori tipologie di architetture presso le quali sono implementati tali servizi: il cloud pubblico, il cloud privato e quello ibrido. In un cloud pubblico l’hardware, il software e l’infrastruttura di supporto appartengono ad un provider di servizi terzo, il quale li gestisce direttamente e fornisce all’utente le risorse richieste tramite Internet. Il termine “cloud private” fa specificatamente riferimento alle risorse di cloud computing adoperate esclusivamente da una singola azienda od organizzazione. Esso può essere ospitato nel data center locale della società o da un provider di servizi terzo a pagamento. La gestione dei servizi avviene in una rete privata. Infine il cloud ibrido è una combinazione tra cloud privato e pubblico che consente la condivisione di dati e applicazioni tra i due tipi di cloud. Le tre tipologie di infrastruttura corrispondenti ai servizi cloud menzionati sono: l’infrastruttura come servizio (IaaS), la piattaforma distribuita come servizio (PaaS) e il software come servizio (SaaS). L’infrastruttura distribuita come servizio costituisce la categoria base dei servizi di cloud computing, poiché tramite questa soluzione l’infrastruttura IT è affittata da un provider di servizi cloud e il pagamento del servizio è calcolato sulla base dell’effettivo consumo di quest’ultimo. La PaaS si riferisce a servizi di cloud computing che forniscono un ambiente su richiesta per lo sviluppo, il test, la distribuzione e la gestione di applicazioni software. In altri termini, i servizi in questione facilitano il compito svolto dagli sviluppatori, i quali non necessitano di prestare attenzione alla configurazione e alla gestione del server sottostante, della rete di archiviazione e dei database necessari. A differenza dell’IaaS, la PaaS offre un pacchetto organico di hardware e software. Il SaaS è un metodo per la distribuzione di applicazioni software tramite Internet e avviene su richiesta e in base a una sottoscrizione immessa dall’utente stesso accedendo, generalmente, ad un Web browser. Il provider gestisce direttamente l’applicazione e l’infrastruttura essa sottostante, ed è colui addetto all’attività di manutenzione. Il modello in questione è quello caratterizzante la maggior parte dei servizi oggigiorno disponibili. VANTAGGI: RISPARMIO SUI COSTI → le politiche di prezzo relative all’utilizzo dei servizi di cloud computing sono generalmente basate sul calcolo del consumo effettivo del servizio in questione piuttosto che prevedere un importo fisso periodico. Ciò consente una riduzione delle spese variabili e la possibilità da parte delle aziende di concentrarsi su aspetti altrettanto rilevanti della propria attività, quali la cura del prodotto e l’assistenza fornita all’utente. Inoltre, sono eliminate le spese per l’acquisto di hardware e software ed è ridotto il costo dell’elettricità per l’alimentazione e il raffreddamento, e per l’assunzione di esperti IT. AGILITA’ E SCALABILITA’ GLOBALE → l’utilizzo dei servizi cloud determina la possibilità di ridimensionare le risorse in modo elastico e fornire, dunque, la giusta quantità di risorse. Inoltre, adoperando tali servizi, è possibile migliorare e modificare con maggiore libertà l’esperienza dell’utente. PRESTAZIONI → i più grandi servizi di cloud computing vengono eseguiti su una rete mondiale di data center sicuri e aggiornati regolarmente tramite hardware di ultima generazione AFFIDABILITA’ → aumenta la semplicità e riduce i costi di backup, ripristino di emergenza e continuità aziendale SICUREZZA → provider con ampia gamma di criteri, tecnologie e controlli che rafforzano la sicurezza complessiva SVANTAGGI: DIPENDENZA DALLA CONNESSIONE INTERNET → i sistemi e le applicazioni cloud computing basano il loro funzionamento sulla condivisione in rete di qualsiasi natura; dunque, un’eventuale assenza di connessione Internet potrebbe bloccare completamente l’operatività di un’azienda. SICUREZZA INFORMATICA E PRIVACY → molti dei rischi presenti in rete richiedono conoscenze settoriali e specifiche spesso mantenute sconosciute agli utenti finali. Dato che lo scambio e la gestione di un’enorme quantità di dati avviene per mezzo della rete, la possibilità che queste informazioni subiscano furti e compromissioni è potenzialmente sempre dietro l’angolo. CONTINUITA’ DEI SERVIZI → l’atto stesso di delegare a un provider esterno la gestione dei propri dati, la quale include anche la loro condivisione tramite la rete, pone l’utente in una condizione di svantaggio nel momento in cui i servizi non siano disponibili. Eventuali malfunzionamenti comporterebbero seri danni ad un numero ingente di utenti in tutto il mondo MIGRAZIONE DEI SERVIZI NEL CASO DI CAMBIO DI PROVIDER → non esistendo standard uniformi tra i gestori dei servizi cloud, un eventuale cambio di operatore comporterebbe complicazioni di molte operazioni e ne conseguirebbe un rallentamento notevole anche delle attività quotidiane