🎧 New: AI-Generated Podcasts Turn your study notes into engaging audio conversations. Learn more

docsity-domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022.pdf

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Document Details

AstonishedSanctuary8709

Uploaded by AstonishedSanctuary8709

2022

Università telematica eCampus

Tags

computer science system software application software programming

Full Transcript

Domande aperte - Fondamenti di Informatica - Donantonio Lucia/ Botteri - ecampus 2022 Fondamenti di informatica Università telematica eCampus (UN...

Domande aperte - Fondamenti di Informatica - Donantonio Lucia/ Botteri - ecampus 2022 Fondamenti di informatica Università telematica eCampus (UNIECAMPUS) 22 pag. Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) Fino a lezione 24 Domande Aperte - Fondamenti di Informatica (Botteri Riccardo & Donantonio) LEZIONE 01: -Quali sono le differenze tra Software di Sistema e Software Applicativo? Il software di sistema è, di fatto, il sistema operativo;in genere viene fornito preinstallato dal costruttore del computer (ad esempio Windows 7).Il software di sistema si occupa della gestione delle risorse hardware del computer e ne permette il funzionamento, mentre il software applicativo serve per risolvere i problemi dell'utente. Esempi di software applicativo sono Word ed Excel. Generalmente di uno stesso software ci sono più versioni: tale molteplicità è dovuta principalmente a:la correzione di errori (bug) presenti in versioni precedenti e/o l'introduzione di nuove funzionalità. -Quali sono le principali funzioni di un Sistema Operativo? Le principali funzioni di un sistema operativo sono:la gestione della CPU;l’inizio e la fine della sessione di lavoro del calcolatore;la gestione della memoria; la gestione delle periferiche di input e di output; la gestione dei file registrati sulla memoria di massa; la gestione degli accessi. I programmi applicativi di uso più comune sono gli elaboratori di testo (per creare,modificare e formattare testi), i fogli elettronici (per eseguire automaticamente calcoli e creare grafici), i database (per gestire al meglio grandi quantità di dati), i browser web(per navigare in internet), i programmi di desktop publishing (per la creazione di volantini, manifesti, biglietti e calendari), i programmi di contabilità. -Quali sono le componenti hardware che compongono una CPU? Quali compiti sono deputati a svolgere? L'hardware rappresenta la parte fisica dell'elaboratore, cioè la parte meccanica ed è costituita da quattro elementi funzionali fondamentali:l'unità centrale di elaborazione (CPU); la memoria centrale;il bus di sistema e le interfacce verso le periferiche; La CPU è costituita da tre parti: l'unità di controllo (Control Unit, CU), l'unità aritmeticologica (Arithmetic Logic Unit) ed i registri. La CU stabilisce quali operazioni devono essere eseguite e comanda la ALU. La ALU esegue i calcoli, effettua le operazioni logiche ed i confronti richiesti dalla CU. I registri sono delle celle di memoria contenute nella CPU che permetto no alla CU di memorizzare temporaneamente alcuni informazioni utili all'elaborazione, come ad esempio dati e risultati oppure indirizzi di celle di memoria RAM in cui sono contenute informazioni utili all'elaborazione. La velocità delle CPU presenti sul mercato è in continuo aumento. La velocità di una CPU (frequenza) si misura in MHz (MegaHertz) o in GHz (GigaHertz). Un MHz corrisponde ad un milione di operazioni al secondo, un GHz ad un miliardo di operazioni al secondo. Ad oggi la velocità delle CPU si aggira intorno ai 4 GHz (quattro miliardi di operazioni al secondo). Solo qualche anno fa si aggirava intorno ai 700 MHz (settecento milioni di operazioni al secondo).Parallelamente alle prestazioni, però, cresce anche il consumo di tali circuiti e, soprattutto, la produzione di calore che deve essere smaltita tramite alette di raffreddamento di dimensioni sempre maggiori. Ciò rappresenta un grave limite anche per i sistemi portatili. Per tale motivo i produttori da alcuni anni hanno abbandonato la continua corsa a velocità sempre superiori, orientandosi verso l'aggregazione di due o più microprocessori di media velocità in un unico involucro: in questo modo è possibile contenere i consumi, ridurre drasticamente la produzione di calore e contare sulla potenza di elaborazione di più CPU. Sono così nati i microprocessori dual-core, che ospitano in un unico dispositivo due CPU di media potenza, i quad-core (quattro CPU), gli 8-core (otto CPU). -Fornire una definizione di Algoritmo. Un algoritmo è una sequenza di istruzioni che può essere impiegata per rappresentare lo sviluppo di un processo qualsiasi, partendo da uno stadio iniziale (input) fino ad arrivare ad uno stadio finale (output), tramite in insieme di istruzioni (o passi) ben definite. Nell'informatica gli algoritmi sono usati come metodologia per descrivere un'attività di elaborazione dei dati. Per esempio vengono costruiti algoritmi per calcolare il minimo comune multiplo di un determinato insieme di numeri, o per ordinare (alfabeticamente) delle parole o (in senso crescente, ad esempio) un elenco di numeri. Le singole istruzioni (o un gruppo di istruzioni) che compongono l'algoritmo possono essere eseguite una volta sola o più volte: in quest'ultimo caso vengono chiamate cicli; può anche succedere che un'istruzione (o un gruppo di istruzioni) non viene eseguita affatto, perché l'esecuzione è subordinata al verificarsi di una specifica condizione. -In merito ai linguaggi di programmazione, quali sono le differenze tra linguaggio di basso livello e linguaggio di alto livello? Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) I linguaggi che i programmatori usano per comunicare con il computer si possono suddividere in due macrocategorie. 1-Linguaggio macchina: è un linguaggio di basso livello che i componenti interni del computer sono in grado di interpretare immediatamente, con il limite che consente di svolgere solo operazioni molto semplici; tale linguaggio è anche definito come linguaggio Assembly ed è specifico per ogni modello di macchina. 2- Linguaggi procedurali: proprio per non dover programmare solo con elementi semplici, i programmatori hanno sviluppato linguaggi di alto livello che consentono di far svolgere al computer particolari operazioni senza essere costretti a specificare tutti i dettagli microscopici. I linguaggi procedurali più utilizzati al giorno d'oggi sono il PHP, il Java, il C, il Perl e moltissimi altri. Nativamente il computer non è in grado di comprendere il contenuto dei linguaggi di alto livello: perciò risulta necessario utilizzare programmi di "traduzione", che sono cioè in grado di trasformare il linguaggio procedurale in linguaggio macchina. Esistono due diversi sistemi di "traduzione". Compilatore: è un programma che traduce quanto realizzato in linguaggio procedurale, in linguaggio macchina, quindi comprensibile al computer. La compilazione produce come risultato un file eseguibile che, lanciato sulla macchina, viene direttamente eseguito dal computer. Interprete: è un programma che legge le istruzioni (codice) del programma scritto in linguaggio procedurale e lo trasforma in tempo reale in codice macchina, che viene eseguito direttamente dal computer. Il "C" ed il "Pascal" sono tipici esempi di linguaggi compilati, mentre il "PHP" ed il "Perl" sono linguaggi interpretati. -Fornire una definizione di Informatica, intesa come scienza. L’Informatica è la scienza che si propone di raccogliere, organizzare, conservare e distribuire le informazioni tramite sistemi automatici di elaborazione dei dati. Il termine deriva dalla fusione delle parole I NFORmazione autoMATICA. -Cos'è una periferica? Fornire degli esempi di periferiche di input e di output. Le periferiche sono quei dispositivi che consentono all’elaboratore di comunicare co n l’esterno. Esistono le periferiche di input , per l’immissione di dati , e di output, per la restituzione di informazioni all’esterno. Le principali periferiche di input di un computer sono il mouse, il trackball, la tastiera, lo scanner, il touchpad, le penne ottiche, il joystick, la macchina fotografica digitale, il microfono. Le principali periferiche di output di un computer sono il monitor, le stampanti, i plotter e gli altoparlanti. -Descrivere in maniera dettagliata i principali fattori che influenzano le prestazioni di un computer: Le prestazioni di un computer, cioè la sua velocità nell'eseguire le operazioni richieste,dipendono da vari fattori, tra cui: la frequenza della CPU: più è elevata la frequenza della CPU, tanto maggiore sarà la velocità del computer; la dimensione della RAM: la RAM contiene tutti i dati ed i programmi che sono coinvolti nell'elaborazione corrente. Per poter essere elaborato un dato deve essere prima trasferito nella memoria RAM, lo stesso vale per un programma per poter essere eseguito. Perciò una RAM veloce e capiente rende il computer più rapido;il numero di applicazioni in esecuzione contemporanea: maggiore è il numero di applicazioni in esecuzione, maggiore è il tempo necessario per portare a termine ogni singola elaborazione. -Cosa si intende con il termine "Ciclo di Vita del Software"? Elencare le diverse fasi. L'insieme delle fasi che accompagnano un software durante la sua vita si chiamano "ciclo di vita del software". Il ciclo di vita di un software si può scomporre in queste fasi:analisi e progettazione, nelle quali si analizzano il problema da risolvere, le esigenze dell'utente, le risorse disponibili e viene sviluppata l'architettura del progetto (costruzione dell'algoritmo, vedi paragrafo seguente); programmazione (o sviluppo), nella quale viene scritto il codice del software; test, nella quale viene testato il software realizzato e vengono corretti gli eventuali bug riscontrati;rilascio, nella quale viene consegnata all’utente la versione definitiva del software. -Descrivere in maniera proficua le differenze tra una memoria di tipo RAM e una memoria di tipo ROM. All'interno del computer sono presenti altri dispositivi di memorizzazione, come ad esempio la memoria RAM e la memoria ROM. La memoria RAM (Random Access Memory) è una memoria di tipo volatile: ciò significa che i dati in essa contenuti vanno perduti non appena si spegne il computer. La memoria ROM invece (Read-Only Memory, memoria di sola lettura) è un tipo di memoria non volatile sulla quale è possibile effettuare solo operazioni di lettura. Viene scritta una sola volta, dal costruttore, e contiene le informazioni necessarie all'avvio del sistemi LEZIONE 02: -In un sistema operativo Windows, a cosa serve il Task Manager? Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) Il Task Manager permette di terminare forzatamente un programma; questo è molto utile nei casi in cui l’applicazione non risponde. Per cercare di porre rimedio a questa situazione, cioè per chiudere il programma che si è bloccato, è necessario premere contemporaneamente i tasti Ctrl-Alt-Canc. Appare quindi una finestra in cui scegliere il pulsante “Gestione attività", che esegue un'applicazione (“Task Manager” ) dalla quale è possibile terminare forzatamente il programma che si era bloccato, selezionandolo dalla scheda “Processi". LEZIONE 03: -Cos'è un Antivirus? Quali sono gli strumenti e le operazioni disponibili? Un antivirus è un software che controlla l'attività dell'utente del computer identificando i file infetti da virus e impedendogli di aprirli o eseguirli. Una volta che l'antivirus rileva un file infetto tenta prima di ripararlo eliminando il virus, se non ci riesce permette di eliminarlo. L'antivirus riconosce i virus grazie alle definizioni degli stessi che ha in memoria, i quali sono dei file che descrivono tutti i virus conosciuti. Gli antivirus più evoluti permettono anche di riconoscere virus sconosciuti analizzando il comportamento del programma o il contenuto del file in questione alla ricerca di comportamenti sospetti. Un’operazione compiuta dagli antivirus è quella di “scansione”, che permette di controllare file e cartelle sospette. Poiché ogni giorno vengono scoperti, identificati e classificati virus nuovi e quindi vengono create nuove definizioni, è necessario aggiornare le proprie definizioni, altrimenti c'è il rischio che l'antivirus non riconosca un nuovo virus come tale. -Cosa sono i virus informatici? Quali possono essere gli effetti che comportano? Un virus è un programma costruito appositamente per danneggiare un computer all'insaputa dell'utente, danneggiandone i file e il software, ad esempio cancellandoli o alterandoli, o addirittura formattando il disco fisso e, nei casi più gravi, l'hardware. Un virus aggiunge copie di se stesso ad altri file. Spesso con il termine "virus" si intendono anche altri programmi, come ad esempio i worm , che sono --programmi che copiano se stessi in memoria tantissime volte contemporaneamente, rallentando moltissimo il computer, e i “cavalli di troia” , che sono programmi all'apparenza utili e divertenti e che quindi invitano gli utenti ad eseguirli, ma che in realtà hanno uno scopo nascosto che consiste nel danneggiare il computer o inserire un virus. Un computer viene “infettato” quando viene eseguito un programma infetto, oppure quando viene avviato da un disco i cui file di sistema sono infetti, oppure quando viene aperto un documento infetto. Normalmente se viene eseguito un programma infetto, infetta anche tutti gli altri programmi attivi in quel momento. LEZIONE 07: -Come ed in che modo è possibile inserire, modificare e cancellare i dati in una cella Excel? Descrivere le azioni necessarie: Per inserire i dati nelle celle bisogna individuare dove si vogliono inserire, fare click sopra con il mouse ed iniziare a scrivere. Per modificare il contenuto di una cella è necessario fare doppio click sopra, in modo che appaia il cursore lampeggiante, ed effettuare le modifiche desiderate; è possibile modificare i dati anche agendo sulla barra delle formule. Per cancellare il contenuto di una cella bisogna cliccarci sopra e premere Canc sulla tastiera. È possibile inserire i dati direttamente nella cella oppure nella barra della formula. -Descrivere le differenze che intercorrono tra una cartella di lavoro Excel e un foglio di lavoro Excel. Una cartella di lavoro è un programma che permette di eseguire calcoli e disegnare grafici sui dati inseriti. I dati si inseriscono in appositi spazi, detti celle, che vengono identificati da un numero,per la riga. e una lettera, per la colonna. Una cartella di lavoro è generalmente costituita da più fogli di lavoro; ogni foglio di lavoro è composto da più celle. Pertanto si può dire che la cartella di lavoro è l’intero documento, mentre il foglio di lavoro è una pagina del documento. LEZIONE 09: -In MS Excel come è possibile inserire un grafico a partire da una tabella di dati? Descrivere i passaggi. Per creare con Excel un grafico, si devono prima di tutto preparare i dati di origine del grafico, cioè quei dati, in forma tabellare, che il grafico andrà a rappresentare. Una volta pronta una tabella con i dati che si desidera rappresentare in un grafico, è necessario selezionarli , cliccare su Inserisci, poi nel gruppo “Grafici” della barra multifunzione bisogna scegliere quello desiderato: se non è presente tra le scelte preimpostate, si può aprire la finestra di dialogo “Inserisci grafico” per visualizzare, e scegliere ulteriori anteprime dei grafici. Scegliere il grafico desiderato e premere su ok. Nella nuova scheda che si apre è possibile modificare la sorgente dei dati del grafico. Se prima di creare il grafico si sono selezionati i dati di origine, le serie sono già state create Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) automaticamente da Excel e nella scheda “Progettazione" si può scegliere s e raggruppare i dati per righe o per colonne. LEZIONE 11 -Che cos'è una presentazione PowerPoint e da quali elementi è caratterizzata? Una presentazione PowerPoint è una sequenza di diapositive, caratterizzate dalla possibilità di avere layout differenti, che possono essere proiettate o distribuite in un altro modo, ad esempio tramite internet. Gli elementi che la caratterizzano sono: testo, immagini, grafici, suoni, video. LEZIONE 12: -Elencare e descrivere la procedura per inserire almeno tre differenti elementi in una presentazione PowerPoint Consideriamo l’inserimento di tre diversi oggetti: clipart, grafico, organigramma. Per inserire una clipart in una diapositiva si dev e cliccare su Inserisci-Illustrazioni-ClipArt e scegliere la clipart desiderata dall'elenco nella finestra che si apre. Per inserire un grafico all'interno di una diapositiva si deve cliccare su Inserisci -Illustrazioni-Grafico oppure fare doppio clic nell'apposito spazio di una diapositiva che prevede la presenza di un grafico; si apre una finestra in cui si devono inserire i da ti di origine del grafico in forma tabellare. Una volta inseriti tutti i dati necessari, è possibile cambiare il tipo di grafico cliccando con il tasto destro del mouse sul grafico, scegliendo “Tipodigrafico"; si apre una finestra che consente di effettuare la nuova scelta del grafico. Per inserire un organigramma all'interno di una diapositiva s i deve selezionare Inserisci- Illustrazioni- SmartArt, poi “Gerarchie”, quindi effettuare la scelta del modello nel campo centrale della finestra. Per inserire un nuovo blocco basta scegliere “Aggiungi forma” dal menù di scelta rapida che compare utilizzando il tasto destro del mouse, quando il puntatore viene sovrapposto ad uno dei rami dell’organigramma-base. Una volta conclusa la creazione dell'organigramma, per terminare basta chiudere la finestra a sinistra dell'organigramma. LEZIONE 14: -In cosa consiste una rete di calcolatori? Quali sono i vantaggi? Elencare infine le diverse tipologie di rete viste a lezione. Una rete di calcolatori è un insieme di calcolatori, cavi di connessione e software specifico progettato per l’elaborazione e lo scambio delle informazioni. Trami te l’utilizzo di queste reti si hanno vantaggi per quanto riguarda la condivisione di risorse e la comunicazione in generale. Le reti vengono classificate in genere in base all a loro estensione. Una rete LAN (Local Area Network) individua una rete di computer di estensione locale, connette computer appartenenti allo stesso edificio o ad edifici adiacenti; una caratteristica della LAN è l’alta velocità del trasporto dei dati e dal basso tasso di errore, grazie alla ridotta estensione ed all’uso di cablaggi; un a LAN viene utilizzata per condividere informazioni e hardware quali stampanti, scanner e modem. Una rete WAN (Wide Area Network) individua una rete geografica, di estensione vari abile da una città all'intero pianeta; un esempio di WAN è internet.; una rete così estesa ha limiti in fatto di velocità, perché in molti punti utilizza come mezzo di trasmissione la rete telefonica già esistente; le reti WAN possono utilizzare, oltre ai cavi, anche satelliti e ponti radio. -A cosa serve un browser? Dettagliare la risposta descrivendo le funzioni principali. Un browser è un programma che permette di navigare in internet. La sua funzione principale è quella che permette di visualizzare le pagine web e di interagire con esse. Un’altra funzione è quella che permette di memorizzare i cookie; è possibile anche definire delle regole per stabilire se e da quali siti accettarli; infine, è anche possibile eliminare quelli già memorizzati. Un’ulteriore funzionalità riguarda la gestione della cache, attraverso la quale il browser memorizza le pagine visualizzate in internet; questo permette di velocizzare la navigazione. Attraverso la barra degli indirizzi di un browser è possibile sapere se le informazioni scambiate con il sito sono crittografate; infatti, se lo sono compare una s che sta per “secure”. Il browser permette anche di definire la pagina iniziale desiderata, di spostarsi avanti e indietro sulle pagine web visitate, di salvar e la cronologia delle pagine visitate, e di assegnare un segnalibro ad una pagina web senza doversi ricordare necessariamente l’indirizzo per raggiungerla. -Descrivere e confrontare una rete Client-Server con una rete Peer-to-Peer, evidenziando le differenze tra le due tipologie. Una rete client-server utilizza un modello basato su due diverse tipologie di computer collegati tra loro tramite una rete: un computer "server" che fornisce certi servizi ai computer della rete e gli altri computer, Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) detti "client", che fruiscono del servizio messo a disposizione dal server. Contrariamente una rete peer-to- peer è una rete i cui nodi sono equivalenti e possono fungere, pertanto, sia da client che da server. -In merito ai comandi di ricerca in Google, descrivere le differenze che intercorrono tra l'utilizzo dell'operatore AND e l'utilizzo dell'operatore OR. Gli operatori booleani servono anche per rendere più efficace la ricerca all'interno dei motori; non sono "case sensitive", ovvero non tengo no conto delle lettere maiuscole o minuscole,e sono stati standardizzati dai più celebri motori di ricerca, tra i quali anche Google. L’operatore AND, in alternativa al quale può usarsi il segno "+", consente di collegare due o più parole. In questo modo il motore restituirà in risposta tutti i documenti indicizzati che contengono tutte le parole inserite, e non soltanto una di esse considerata singolarmente. L’operatore OR è utilizzato quando la ricerca si concentra su diversi termini, e non è necessario che li comprenda tutti, ma anche solo uno di essi. LEZIONE 15: -Che cos'è la posta elettronica certificata e per cosa si differenzia dalla posta elettronica? La PEC (Poste Elettronica Certificata) è un tipo particolare di posta elettronica per la quale sono garantite: autenticità, ovvero la certezza dell’identità di chi ha inviato il messaggio di posta elettronica; integrità, ovvero la sicurezza che il messaggio di posta elettronica non sia stato modificato In seguito al suo invio; il valore legale del messaggio di posta elettronica, in quanto questo non può essere ripudiato da chi lo ha firmato. Quello che differenzia la posta elettronica certificata dalla posta elettronica è il meccanismo attraverso il quale vengono mandati i messaggi. Difatti per dotarsi di posta elettronica certificata è necessario rivolgersi ad un certificatore accreditato, il quale genererà un certificato che darà le suddette garanzie. In definitiva il messaggio di posta elettronica certificata sarà costituito dal messaggio scritto dal mittente, dal certificato fornito dall’ente certificatore ed un hash che li mette in corrispondenza. LEZIONE 16: -In merito all'informatica giuridica, definire il concetto di "Copyright". Copyright è il diritto d’autore, tradizionalmente all’autore sono collegati due generi di diritti, la cui caratteristica principale è l’esclusività. I diritti morali, per i quali l’autore ha il diritto di essere riconosciuto quale creatore dell’opera; tale diritto è inalienabile, e l’autore ha il diritto, personale e intrasmissibile, di ritirarla dal commercio. I diritti patrimoniali, per i quali l’autore ha il diritto di sfruttare economica mente il prodotto del proprio lavoro intellettuale. LEZIONE 17: -Fornire una definizione generale di calcolatore digitale comprensiva delle tre caratteristiche fondamentali. Un calcolatore (o personal computer ) è una macchina che può risolvere alcuni problemi eseguendo le istruzioni che le vengono gli vengono fornite. Una sequenza di istruzioni che descrive come eseguire un c erto compito è detto , appunto , programma.I calcolatori sono dotati di un numero elevato di circuiti che possono eseguire direttamente solo poche istruzioni che devono poi essere convertite , tramite artifici matematici , in istruzioni elementari. Le operazioni di base eseguite da un calcolat ore digitale sono essenzialmente le seguenti: 1. FARE SOMME; 2. VERIFICARE LA DIFFERENZA DI UN NUMERO DALLO ZERO; 3. SPOSTARE DATI IN DIVERSE PORZIONI DI MEMORIA. L’insieme di tutte le istruzioni elementari e non, eseguite da un calcolatore digitale,formano un linguaggio macchina che consente al programmatore umano di comunicare con il calcolatore. È il progettista del calcolatore a decidere quali istruzioni elementari faranno parte del linguaggio macchina necessario per comunicare con il calcolatore. -Cos’è una macchina virtuale? Perché è stato così importante introdurre questo concetto? Una macchina virtuale o ipotetico computer è un software il cui linguaggio macchina è Y e non X che permette di cambiare modo di ragionare, infatti non si ragiona più in termini di traduzio ne o interpretazione. Con l’utilizzo di una macchina virtuale non ci sarebbe bisogno del linguaggio X né di una macchina capace di eseguire programmi X. Gli utenti potrebbero semplicemente scrivere i loro programmi in Y, che verrebbero eseguiti direttamente dal computer. Si possono scrivere programmi per macchine virtuali come se queste esistessero veramente. Tuttavia per rendere la traduzione o l'interpretazione utilizzabili in Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) pratica, i linguaggi X e Y non devono essere "troppo" diversi fra loro. La macchina virtuale avrebbe dovuto sollevare il programmatore dall'onere di esprimere algoritmi in un linguaggio più adatto alle macchine che agli utenti. L’approccio più ovvio consiste nell'inventare un nuovo insieme di istruzioni che sia, rispetto a Y, maggiormente orientato agli utenti piuttosto che alle macchine. Anche questo terzo insieme forma a sua volta un linguaggio, che chiamiamo Z. Si possono scrivere direttamente programmi in Z come se esistesse realmente una macchina virtuale dotata di tale linguaggio macchina. Questi programmi possono essere tradotti in Y oppure eseguiti da un interprete scritto in Y. -Descrivere nel modo più semplice possibile la differenza tra INTERPRETE e TRADUTTORE. L’interprete e il traduttore permettono di superare il problema della differenza tra il modo di ragionare umano e quello della macchina. Entrambi prevedono la definizione di un nuovo insieme di istruzioni che sia più facile da utilizzare rispetto a quanto non lo siano le istruzioni macchina predefinite. Queste nuove istruzioni formano un linguaggio che chiamiamo “X”, mentre le istruzioni macchina formano un linguaggio che chiamiamo “Y”. La differenza è che il traduttore converte interamente un programma X in un programma Y. Il programma Y può essere gettato via, mentre il programma in X viene caricato nella memoria del computer per essere eseguito. Durante l'esecuzione il computer ha il controllo del nuovo programma in X. L’interprete esamina e decodifica ciascuna istruzione Y, e quindi esegue direttamente senza generare alcun pro gramma tradotto. In questo caso il computer ha il controllo del programma interprete, mentre il programma Y è visto come un insieme di dati. LEZIONE 18: -Descrivere la figura di Ada Lovelace e la sua relazione con Babbage. Charles Babbage è il creatore della macchina differenziale. Questo dispositivo meccanico era in grado di calcolare tabelle di numeri utili per la navigazione. L’intera costruzione della macchina fu pensa ta per eseguire un solo algoritmo, il metodo matematico delle differenze finite. La macchina differenziale funzionava in modo abbastanza soddisfacente tuttavia Babbage si stancò presto di una macchina capace di eseguire un solo algoritmo. Cosi giunge alla progettazione della macchina analitica , che era composta da quattro componenti : il magazzino che rappresentava la memoria, il mulino che era l'unità computazionale , il dispositivo di input ovvero le schede perforate e i dispositivi di output ossia output stampato e perforato. La macchina analitica era programmabile mediante un semplice linguaggio assemblativo, ed era necessario produrre il software. A tale scopo, Babbage assunse la giovane Ada Augusta Lovelace , figlia del famoso poeta inglese Lord Byron, incaricandole la traduzione in inglese dei lavori del matematico italiano Luigi Menabrea proprio sulla Macchina di Babbage , che aggiunse delle note alla traduzione compreso un algoritmo per il calcolo dei numeri di Bernoulli. Per questo motivo fu riconosciuta come la prima programmatrice della storia e in suo onore fu chiamato il linguaggio di programmazione Ada. Sfortunatamente Babbage non riuscì ad ottenete un hardware completamente privo di errori. Il problema nasceva dalla necessità di avere migliaia e migliaia di rotelle e ingranaggi per ottenere un grado di precisione che la tecnologia del XIX secolo non era ancora in grado di fornire. -Perché John Atanasoff e John Von Neumann sono considerati i padri dei calcolatori moderni? La macchina di Atanasoff era un calcolatore basato su valvole termoioniche e in grado di operare su cifre binarie e utilizzava dei condensatori per la memoria. Affinché la loro carica non si disperdesse, la memoria veniva periodicamente aggiornata, secondo un processo che Atanasoff chiamò “Jogging the memory”. Le moderne memorie dinamiche funzionano secondo lo stesso principio. Tuttavia la macchina non vide mai la luce del successo a causa dell'inadeguatezza tecnologica del tempo che non ne consentì la realizzazione. Durante la seconda guerra mondiale l’esercito aveva la necessità di costruire tabelle per impostare la mira dell'artiglieria pesante che venivano realizzate per mezzo di calcolatori manuali. Tuttavia era una proceduta molto lenta e vi era sempre il rischio dell’errore umano. Così John Mauchly, che aveva studiato sia i lavori di Atanasoff sia quelli di Stibitz, venne a sapere che l'esercito era interessato alla costruzione di calcolatori meccanici e richiese ed ottenne la sovvenzione per finanziare la costruzione di un calcolatore elettronico. L’elaboratore venne chiamato ENIAC ed era costituito da 18.000 valvole termoioniche e 1500 relè, pesava 30 tonnellate e consumava 140 KW di energia , dotata di 20 registri, ciascuno dei quali in grado di memorizzare un numero decimale a 10 cifre. ENIAC veniva programmato regolando 6000 interruttori multi- posizione e connettendo una moltitudine di prese con una vera e propria foresta di cavi. La macchina fu terminata nel 1946 , costruita insieme allo studente P. Eckert. Tuttavia attraverso una serie di eventi accaduti in ambito legale, dove gli autori dell’ENIAC sostenevano di essere gli unici ideatori del computer digitale, si riuscì a dimostrare che il titolare della progettazione del primo computer della storia, pur non avendolo mai brevettato , era stato John Atanasoff. Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) LEZIONE 19: -Qual è la differenza tra la tecnologia a valvole e quella a transistor? L'arrivo dei transistor che novità a portato nella costruzione dei calcolatori digitali? La prima generazione di calcolatori è stata realizzata utilizzando la tecnologia a valvole, con l’introduzione dei transistor nasce la seconda generazione. Con il transistor si riuscivano ad ottenere le stesse funzioni della valvola termoionica con una dimensione decisamente inferiore, inoltre a parità di ingombro è stato possibile realizzare dei calcolatori con capacità di calcolo più elevate. Con l’arrivo dei transistor si abbassarono i costi e pertanto ci fu il primo passo verso la nascita dell’industria dei micro-computer. Anche dal punto di vista della capacità di memoria ci furono dei miglioramenti considerevoli, infatti i 4000 byte del modello IBM 1401 erano una dimensione stupefacente all’epoca. Successivamente con l’avvento della microelettronica si è iniziato ad inserire più transistor all’interno di circuiti integrati, i quali rappresentano la terza generazione di calcolatori che sono più piccoli, più veloci e più economici rispetto ai predecessori. -Citare almeno tre calcolatori digitali a circuiti integrati. Elaboratore PDP-n. Il PDP-1 era dotato di 4096 parole da 18bit e poteva eseguire 200.000 istruzioni al secondo. Queste prestazioni corrispondevano alla metà di quelle dell'IBM7090, successore a transistor del modello 709, nonché il più veloce computer al mondo dell'epoca. Il PDP-1 costava però 120.000 dollari, mentre il modello 7090 ne costava milioni. Una delle principali innovazioni del PDP -1 era costituito da un display visuale e dalla capacità di disegnare punti in qualsiasi zona dello schermo. Il modello PDP-8 è una macchina a 12bit, mo lto più economica del PDP-1 (16.000dollari). La principale innovazione introdotta dal PDP-8 è quella di avere un unico bus,chiamato omnibus. Un bus è un insieme di cavi paralleli utilizzati per connettere i diversi componenti di un computer. Questa architettura fu un grande passo in avanti rispetto alla macchina IAS, che era centralizzata rispetto alla memoria, e fu adottata d a quasi tutti i successivi computer di piccole dimensioni. IBM 1401. Questa macchina era in grado di leggere e scrivere nastri magnetici, leggere e perforare schede e stampare output a una velocità paragonabile a quella del modello 7094, il tutto a una frazione del prezzo. Era quindi perfetta per la gestione dei dati aziendali, ma aveva pessime prestazioni nei calcoli scientifici. L'architettura del modello 1401 era insolita, dato che non aveva alcun registro e neppure una lunghezza fissa di parola. La sua memoria era composta da 4000 byte da 8bit.CDC 6600. Venne introdotto dalla Control Data Corporation (CDC) nel 1964, era quasi un ordine di grandezza più veloce rispetto al 7094. Il segreto della sua velocità, e il motivo per cui fosse molto più veloce del modello 7094, stava nel fatto che la CPU era, al suo interno, una macchina altamente parallela. Era dotata di varie unità funzionali che potevano lavorare contemporaneamente: alcune erano destinate a svolgere addizioni, altre moltiplicazioni e altre anco ra divisioni. -Citare almeno tre tipi di calcolatori digitali a transistor. DEC PDP-11. PDP-11, è un successore a 16 bit del modello PDP-8. Sotto molti punti di vista la serie PDP-11 era una sorta di “piccolo fratello” della serie 360 così come il computer PDP-1 lo era stato per il modello 7094. Entrambi i computer 360 e PDP-11 avevano i registri orientati alla parola e la memoria orientata al byte, e tutti e due vennero prodotti in una gamma in cui il rapporto prezzo/prestazioni variava. 1-IBM SYSTEM/360 Model 30. Andava a sostituire il modello 1401.2-IBM SYSTEM/360 Model 75. Andava a sostituire il modello 7094. Il model 75 era il più grande, il più veloce e anche il più caro. L’idea della serie 360 era quella di avere una famiglia di computer, infatti il software scritto per un piccolo modello funzionava senza problemi su un modello più grande, ma quando ci si spostava verso un modello di dimensioni inferiori si poteva avere il problema che il programma non entrava in memoria. Una grande innovazione della serie 360 fu la multiprogrammazione, grazie alla quale è possibile avere più programmi in memoria allo stesso tempo. Questo permet te un maggiore utilizzo della CPU. Con il 360 di fatto vennero emulati altri computer, tale emulazione risultava facile perché tutti i modelli erano microprogrammati e questa flessibilità fu uno dei motivi principali per cui fu introdotta la microprogrammazione. Con l’utilizzo di 16 registri da 32 bit per l’aritmetica binaria parallela venne risolto il dilemma dell’aritmetica binaria e di quella decimale seriale. Inoltre attraverso l’introduzione degli indirizzi a 32 bit venne risolto il problema della memoria che era inimmaginabile qualche anno prima, ma venne abbandonata in parte la contabilità. LEZIONE 20: -Il PDP-1: descriverne il funzionamento e le novità apportate ai computer digitali. Il PDP-1 era dotato di 4096 parole da 18bit e poteva eseguire 20 0.000 istruzioni al secondo. Queste prestazioni corrispondevano alla metà di quelle dell' IBM7090, successore a transistor del mode llo 709, Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) nonché il più veloce computer al mondo dell'epoca. Il PDP-1 costava però120.000 dollari, mentre il modello 7090 ne costava milioni. DEC vendette decine di PDP-1e questo rappresentò la nascita dell'industria dei microcomputer. Una delle principali innovazioni del PDP-1 era costituito da un display visuale e dalla capacità di disegnare punti in qualsiasi zona dello schermo da 512 per 512 linee. Da lì a breve gli studenti programmarono la macchina PDP-1 per poter giocare a Spacewar, facendo così conoscere al mondo il primo videogame della storia. -Fornire una definizione generale di VLSI. La tecnologia VLSI ( Very Large Scale Integration, "integrazione a larghissima scala") permise di inserire in un unico chip prima decine di migliaia, poi centinaia di migliaia e infine milioni di transistor. Questo sviluppo portò velocemente alla realizzazione di computer più piccoli e più veloci. Prima i computer erano talmente grandi e costosi che, per farli funzionare, aziende e università dovevano disporre di specifici uffici chiamati cent ri di calcolo mentre, con l'avvento dei microcomputer, ogni dipartimento poteva dotarsi di un proprio elaboratore. I prezzi crollarono al punto che anche i privati potevano permettersi di possedere un computer: ebbe così inizio l'era dei personal computer. -Perché l'INTEL 386 viene definito il primo Pentium della storia? L’ INTEL 386 fu introdotto nel 1985 e viene considerato il primo Pentium. Gli attuali Pentium infatti, sebbene siano molto più veloci, dal punto di vista dell'architettura non sono che una versione "truccata" del 386. LEZIONE 21: -La nascita di internet: la preistoria. Descriverne il periodo e le prime applicazioni. Dopo la seconda guerra mondiale gli Stati Uniti decedettero di applicare metodi scientifici per condurre le operazioni militari. Per favorire queste ricerche nacquero gli Operation Research con lo scopo di combattere lo sviluppo dell’ URSS e della 'Red China'. E’ il periodo della guerra fredda e la preoccupazione è quella di sopravvivere ad un attacco termonucleare. Per questo motivo viene costruita una zona protetta presso la White Soulphur Springs, nella quale avrebbe avuto riparo il Presidente ed i membri del congresso. Il piano, detto della Nuclear Survivability, viene redatto consultando il RAND per quanto riguarda il collegamento e la comunicazione verso l’esterno ma viene abolita la possibilità di utilizzare la rete telefonica, in quanto vulnerabile agli attacchi esterni. Così viene varata la possibilità di creare una rete di comunicazione alternativa e questo progetto fu affidato ad una degli OR , ovvero ad ARPA. Va detto che questi OR erano costituiti soprattutto da università, che venivano sovvenzionati dal Pentagono per portare avanti le ricerche. L’idea di base era quella di condividere le risorse attraverso il collegamento di circa 30 computer delle università in tutto il paese dove si studiava informatica e che ricevevano fondi dall'Arpa. Ciò non aveva niente a che fare con le bombe atomiche ma portò alla nascita della prima rete internet. La realizzazione tecnica fu resa possibile dall’idea del Packet Switching, alla quale stava lavorando Paul Baran e parallelamente, senza alcun legame, Donald Davies dei laboratori dell’Inghilterra coniando il termine packet. Alla commutazione di pacchetto lavoravano altri ricercatori come Leonard Kleinrock che guidando la UCLA organizzarono un meeting di 40 persone che portò all'implementazione del primo interface message processor. Quindi persone diverse ,che lavorarono contemporaneamente al progetto, portarono alla creazione dell'ARPAnet, la rete dell'OR ARPA. Il progetto su ArpaNET iniziò nell'ambito delle ricerche dell’Agenzia per i Progetti di Ricerca Avanzata sulla Difesa, organo facente parte del Dipartimento militare di Difesa americano. Arpanet voleva utilizzare linee telefoniche per collegare i computer tra di l oro. Intorno al 1969 venne indetta una gara d’appalto, che venne vinta dalla Bolt Beranek e Newman. Per collegare due computer con un packet switching network la BBN realizzò un interface Message Processor (IMP) basato su un Honeywell DDP 516 che aveva il compito di “pacchettizzare” i dati da man dare sulla linea di trasmissione, o di ricostruire dati che venivano trasmessi in pacchetti. Nel Labour Day del 1969, venne installato il primo IMP all’University of California Campus at Los angeles (UC LA). Per la prima volta si collegò un computer ad una macchina che permise di trasportare dati verso un altro computer. Nonostante ci si aspettasse che il progetto fallisse la s ua prima applicazione riuscì al primo colpo. La seconda installazione vide la montatura di un IMP allo Stanford Research Institute. L'esperimento fu di fondamentale importanza, poiché testò il sistema sulla distanza lungo una linea esterna, mentre la prima era stata testata solo su una rete locale. Si procedette alle successive installazioni, prima all’University of California Campus di Santa Barbara, poi fu la volta dell’University of Utah a Salt Lake City, divenendo i primi quattro nodi di quella rete che ai giorni nostri conta milioni di nodi. Nel 1971 vennero definiti gli standard di trasmissione con l’NTP, un protocollo di trasmissione dati precursore del TCP; vennero aggiunte altre università ed il prestigioso MIT. La rete che si formò venne chiamata ARPAnet in onore del suo sponsor. Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) -Descrivere in generale il progetto ARPAnet. L’idea di Arpanet iniziò nell'ambito delle ricerche dell’Agenzia per i Progetti di Ricerca Avanzata sulla Difesa americana. Il loro interesse era quello di trovare un altro modo di comunicare nel corso di una battaglia usando i computer. Arpanet voleva usare le linee telefoniche per collegare i computer tra di loro. Nel 1969 ,dopo che la ricerca iniziò a dare i primi frutti venne indetta una gara d’appalto per tentar ne la realizzazione pratica di una rete in packet switching. Questa venne vinta da Bolt Beranek e Newman. Per collegare due computer con un packet switching network la BBN realizza un interface Message Processor (IMP) basato su un Honeywell DDP 516 che aveva il compito di “pacchettizzare” i dati da mandare sulla linea di trasmissione, o di ricostruire dati che venivano trasmessi in pacchetti. Nel Labour Day del 1969 venne installato con successo il primo IMP all’University of California Campus at Los Angeles (UCLA). Per la prima volta si collegò un computer ad una macchina che permise di trasportare dati verso un altro computer. Ad Ottobre segue la seconda installazione allo Stanford Research Institute che si dimostra di fondamentale importanza, poiché testa il sistema sulla distanza lungo una linea esterna, mentre la prima applicazione era stata testata solo su una rete locale. La procedura preparata consiste nel dare il comando “login” al sistema per metà da UCLA e metà da SRI. I programmator i avevano delle cuffie per sentirsi per via telefonica. All'UCLA dovevano scrivere “log” , allo Stanford “in”. All'UCLA venne battuta la lettera “l” e dallo SRI risposero che arrivò la “l”. Seguirono le successive installazioni, prima all’University of California Campus di Santa Barbara, poi nell’University of Utah a Salt Lake City, che divennero i primi quattro nodi di quella rete che ai giorni nostri conta milioni di nodi. Nel 1971 vennero definiti gli standard di trasmissione con l’NTP, un protocollo di trasm issione dati precursore del TCP e vennero aggiunte altre università ed il prestigioso MIT. La rete che si formò venne chiamata Arpanet in onore dello sponsor. Nel 1972, anno della Computer Comunication Conference all’Hilton Hotel, Ray Tomlinson inviò il primo messaggio ufficiale di posta elettronica sull’Arpanet e venne riconosciuto il formidabile valore del sistema e fondato l’InterNet Working Group a capo del quale venne posto Vintorn Cerf, che si occupò del futuro sviluppo dell’Arpanet.Lez 22 10. Gli anni '80: gli albori di internet e il protocollo TCP/IP. Esporre brevemente l'argomento.Il protocollo TCP/IP viene ufficialmente adottato dalle organizzazioni militari per lo sviluppo dei sistemi di comunicazione. Ma la semplicità e la funzionalità del protocollo attirano l’attenzione di chi lavora su altri tipi di rete; presto si assiste alla migrazione di reti preesistenti dal protocollo nativo al protocollo TCP/IP; FIDOnet. Eunet, EARnet, BITnet ed altre ret i decidono di utilizzare questo protocollo, adottando opportuni gateways in uscita tra la loro rete e ARPAnet. Aggiungendo altre reti si incrementa il numero di nodi in TCP/IP; nel momento in cui le reti aggiunte sono preponderanti rispetto all’ARPAnet il nuovo insieme formato non può più chiamarsi ARPAnet ma gli deve essere dato un nom e che rappresenti l’interconnessione tra diverse reti: internet, col significato globale di internetworking. -USEnet, il primo sistema di messaggistica: per quale piattaforma era stato creato? Fornire esempi di sistemi di messaggistica contemporanei. Uno dei primi importanti sistemi di messaggistica distribuiti fu l’Unix User Network o Usenet, che implementava il protocollo UUCP per trasportare messaggi e notizie. Dopo un primo inizio con andamento altalenante a causa di alcune incongruenze tecniche dovute alle distanze culturali tra gli amministratori ed i gestori del sistema il sistema di messaggistica si diffonde e si evolve. Il sistema corrisponde ad una architettura client-server nella quale il client richiede le notizie presenti su un gruppo di discussione ed il server, eventualmente collegandosi con altre macchine, fornisce i messaggi richiesti. Usenet nel 1986 è amministrata in modo rigido da un gruppo di amministratori c he decidono quali gruppi devono esistere e su quali computer devono risiedere. Esempi di messaggistica contemporanea sono whatsapp , messenger, telegram. LEZIONE 23: -Perché i social network sono considerati terreno fertile per lo sviluppo di nuove dinamiche di relazione? I social network sono considerati un terreno fertile per lo sviluppo di nuove dinamiche di relazione che vanno oltre qualsiasi barriera territoriale, sociale e culturale perché a prescindere della preferenza di utilizzo toccano i principali ambiti della vita in genere con un potenziale esponenziale di ampio raggio , sia per quanto riguarda la sfera personale che per quanto riguarda quella professionale con nuovi sbocchi e possibilità lavorative. L’utilizzo dei social network per quanto riguarda la comunicazione e condivisione della sfera personale ma anche l’adozione della rete come mezzo per trarne profitto fa notare come ha influito in modo notevole nella percezione di agire e pensare di ogni singolo individuo andando oltre i confini tradizionali. -I social network: quale impatto hanno avuto sulle grandi masse? Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) I social network partono dagli USA e come un virus virale si sono diffusi in tutto il mondo. Sono entrati a far parte della vita quotidiana , vengono utilizzati per chattare , conoscere nuove persone , tenersi in contatto con familiari e amici che si trovano dall’altra parte del mondo , ma anche a scopo professionale, per instaurare rapporti di lavoro e per pubblicizzare le proprie attività. Sono miliardi le persone che intessono relazioni sociali attraverso la mediazione di computer , software e siti web. Internet viene utilizzato dagli adolescenti ove le relazioni personali online diventano parte integrante del quotidiano. Rapporti ch e riguardano la sfera sentimentale e sessuale ma spesso anche amicizie,condivisioni di hobby ed interessi. I social network , ed internet in senso più ampio, sono diventati una fonte di potere potenziale per chiunque , come una sorta di spazio democratico dove qualsiasi utente può ritagliarsi il proprio spazio virtuale e dire la sua. L ‘ impatto dei social network sulle masse ha portato ad una rivalutazione del concetto di privacy, di relazione e si sono evoluti gli orizzonti professionali concedendo la possibilità di ampliare il raggio d’azione e connessione con diverse parti del mondo senza limiti. -Fornire una descrizione accurata dell'Internet Addiction Disorder: IAD. L’ Addiction Disorder viene considerato dagli esperti della relazione di cura e d’aiuto come un disturbo da abuso della rete telematica. Ai giorni nostri Internet fa parte della nostra vita quotidiana ,chiacchieriamo in chat, mandiamo e-mail, conosciamo persone che non abbiamo mai visto, teniamo i contatti con amici e familiari che si trovano dall’altra parte del mondo. Internet ha una vasta gamma di applicazioni ed uso nonostante possa essere considera ta potenzialmente una minaccia se utilizzata in maniera disfunzionale , non si può nemmeno negare la dimensione di normalità e quotidianità che riveste questa tecnologia. Le recenti ricerche internazionali hanno constatato che l’utilizzo in maniera disfunzionale e assidua della rete può indurre dipendenza psicologica e danni psichici e fisici per il soggetto. Il termine di IAD è stato coniato dallo psichiatra americano Ivan Goldberg che in tempi recenti ha proposto di introdurre nel DSM questa sindrome, indicando i criteri diagnostici utili al riconoscimento di tale disturbo. Tuttavia questo argomento suscita molte controversie, il dibattito verte sulla possibilità o meno di considerare che l’abuso da Internet conduca ad un vera e propria dipendenza, poiché si necessitano di ulteriori e convalidate prove scientifiche al riguardo. Tuttavia è comprovato che l’IAD comporta difficoltà soprattutto nell’area relazionale dell’individuo, il quale viene assorbito dalla sua esperienza virtuale rimanendo collegato per ore ed ore alla rete oltre ai problemi fisici che possono sopraggiungere stando a lungo seduti davanti al computer come ad esempio disturbi del sonno, irregolarità dei pasti, scarsa cura del corpo, mal di schiena, stanchezza agli occhi, mal di testa, sindrome del Tunnel Carpale. -Qual è la sfida principale della Psicologia circa lo studio del mondo virtuale? La sfida principale della Psicologia , è quella legata alla velocità con cui si modifica il mondo virtuale e alla relativa necessità di rielaborare di continuo i modelli concettuali e gli strumenti di ricerca. La Psicologia dovrà mantenere il proprio focus di attenzione sulle forme emergenti di e-cognition , che influenzano profondamente il nostro modo di percepire, di comunicare, apprendere, pensare e relazionarci. La Psicologia non può e non deve soffermarsi solo sugli aspetti percettivi o patologici della relazione e della comunicazione mediata dal computer, ma deve el aborare sempre nuovi paradigmi teorici che possano servire ad indirizzare l'utente del web verso condotte sane ed un uso responsabile e consapevole delle nuove tecnologie. LEZIONE 25: -Spiegare perché un'applicazione di diagnostica medica è un classico esempio di sistema esperto. La diagnostica medica è un sistema esperto perché sulla base dei sintomi appresi nel dialogo il computer produce una diagnosi. A tale scopo sono necessarie due componenti. Prima di tutto è necessaria una base di conoscenza specialistica su un certo dominio indispensabile per affrontare e risolvere problemi in quel campo e secondariamente serve un motore inferenziale che sia in grado di dedurre, a partire dalla base di conoscenza, le conclusioni che costituiscono la soluzione a un dato problema che rientra nel dominio. Un’applicazione di intelligenza artificiale in campo medico è basata essenzialmente sulla seguente equazione: PROGRAMMA = CONOSCENZA + CONTROLLO Facendo dunque un paragone con l’essere umano, possiamo dire che per risolvere un problema è sì necessaria una certa cultura in materia (la base di conoscenza), ma è anche fondamentale essere in grado di mettere in pratica ciò che si è appreso tramite il controllo delle proprie conoscenze e la capacità di applicare le regole al caso particolare (il motore inferenziale). -Cos'è un sistema esperto? Per quali caratteristiche differisce da un sistema di produzione? Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) Un sistema esperto è un programma che cerca di riprodurre le prestazioni di una o più persone esperte in un determinato campo di attività, mentre, quelli di produzione sono dei programmi che sfruttano un insieme di conoscenze organizzate in base di dati per ottenere risposte a domande precise. I sistemi esperti hanno poi sostituito i sistemi di produzione per via delle difficoltà incontrate da questi ultimi, con particolare riferimento alla necessità di fornire inizialmente la conoscenza in forma esplicita e la poca flessibilità delle regole di produzione. Al contrario dei tradizionali sistemi algoritmici, la cui conoscenza è direttamente implementata nel procedimento di risoluzione, la conoscenza rappresentata in un sistema esperto è dinamica, può crescere, il che significa anche che essa può all'inizio essere incompleta e persino contraddittoria. Il sistema espert o tiene ben distinte le conoscenze ed i procedimenti, per assicurare una maggiore modularità e riutilizzabilità della base di conoscenza appresa. -Descrivere gli aspetti fondamentali del linguaggio LISP. Il linguaggio di programmazione Lisp è stato progettato nel 1960 da John McCarthy ed è di gran lunga il linguaggio più utilizzato nel campo dell’intelligenza artificiale e dell’elaborazione simbolica in generale. Il Lisp è un linguaggio funzionale per l’elaborazione di strutture simboliche, ovvero una struttura dati adatta a rappresentare espressioni formali, come ad esempio le formule della matematica e della logica simbolica. Nonostante tale linguaggio sia considerato solo accademico, complessi software LISP sono tutt’oggi in funzione presso enti governativi, militari, aerospaziali, compagnie aeree e compagnie petrolifere, nonché per complessi giochi di simulazione e valutazione di strategie operative, dimostrando che i pro getti scritti in LISP di Intelligenza Artificiale mediante linguaggio simbolico sono validi e tutt'ora non eguagliati da altri lin guaggi. -In cosa consiste il gioco dell'imitazione proposto da Alan Turing? Alan Turing propose il gioco dell'imitazione ovvero un paradigma per stabilire se una macchina è intelligente. Il gioco dell’imitazione proposto da Turing consisteva nel porre un osservatore di fronte a due telescriventi. Una delle due veniva comandata da un uomo mentre l'altra da una calcolatore programmato. Se non si riusciva a distinguere il calcolatore dell'interlocutore umano, allora si poteva dire che il calcolato re era intelligente. Nell'articolo Computing Machinery and Intelligence venne indicata la possibilità di creare un programma al fine di far comportare un computer in maniera intelligente. Il Test di Turing è stato più volte superato dai programmi e di conseguenza più volte è stato riformulato. -Cosa indica il termine "Intelligenza artificiale"? Con il termine intelligenza artificiale si intende di norma l'abilità di un computer di svolgere funzioni e ragionamenti tipici della mente umana. Nell’ambito dell’informatica, essa comprende la teoria e le tecniche per lo sviluppo di algoritmi che consentano alle macchine di mostrare un’abilità o un’attività intelligente quantomeno in determinati ambiti. Tuttavia non è semplice attribuire una definizione esaustiva dell’IA e dei suoi obiettivi che metta in accordo la comunità scientifica. L’origine di questa diatriba sta nel fatto che tale disciplina si presenta con un duplice intento. Da una parte la disciplina ingegneristica si pone l’ obiettivo di costruire macchine in grado di assistere l’uomo e magari anche di competere con esso in compiti soprattutto intellettuali, mentre dall’altra parte la disciplina psicologica si pone come intento quello di costruire macchine le quali, riproducendo da vicino le caratteristiche essenziali dell’attività cognitiva umana, gettino una nuova luce su alcuni tradizionali enigmi della mente, ad esempio sul cosiddetto problema mente-corpo. Tuttavia la base programmatica dell’IA più comunemente accettata è ancora oggi quella presentata nel seminario organizzato nel giugno del 1956 negli Stati Uniti, a Dartmouth (New Hampshire), nella quale si legg e:«In linea di principio si può descrivere ogni aspetto dell’apprendimento e dell’intelligenza con una precisione tale da permetterne la simulazione con macchine appositamente costruite. Si cercherà di costruire macchine in grado di usare il linguaggio, di formare astrazioni e concetti, di migliorare se stesse e risolvere problemi che sono ancora di esclusiva pertinenza degli esseri umani». Nel corso di questo seminario si gettarono le basi dell’intelligenza artificiale individuando alcune are e di ricerca rimaste classiche e presentando i primi programmi per i calcolatori cosiddetti "intelligenti". LEZIONE 26: -In cosa diverge l'intelligenza artificiale forte dall'intelligenza artificiale debole? L’intelligenza artificiale forte ritiene che un computer correttamente programmato possa essere veramente dotato di una intelligenza pura, non distinguibile dall'intelligenza umana. L'idea alla ba se di questa teoria è il concetto che risale al filosofo empirista inglese Thomas Hobbes, il quale sosteneva che ragionare non è nient'altro che calcolare: la mente umana sarebbe dunque il prodotto di un complesso insieme di calcoli eseguiti dal cervello. Mentre l’intelligenza artificiale debole, sostiene che un computer non sarà mai in grado Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) di eguagliare la mente umana, ma potrà solo arrivare a simulare alcuni processi cognitivi umani senza riuscire a riprodurli nella loro totale complessità. -Dare una definizione del termine "robotica" e analizzare i motivi della sua espansione a livello industriale. La robotica è la scienza che studia i comportamenti degli esseri intelligenti, cercando di sviluppare delle metodologie che permettano ad un robot, dotato di opportuni dispositivi atti a percepire l'ambiente circostante ed interagire con esso, di eseguire dei compiti specifici. E’ una scienza interdisciplinare perché in essa confluiscono diverse conoscenze come la biologia, la fisiologia, la linguistica, la psicologia e la scienza. La robotica si è diffusa soprattutto in campo industriale che si proponeva di dispensare l’uomo da lavori faticosi e ripetitivi. Infatti il loro impiego nelle catene di montaggio ha permesso alle aziende di abbattere notevolmente i costi accelerando e migliorando la produzione. Fra i robot più utilizzati dall'industria vi è il braccio robotico costruito a imitazione del braccio umano, una macchina che si occupa di svariate mansioni tra cui la verniciatura, saldatura o montaggio. -In merito all'Intelligenza Artificiale, cos’è una rete neurale? Una rete neurale è una drastica esemplificazione del neurone biologico ed è stato proposto da McCulloch e Pitts.Consiste in un’unità logica in grado di fornire un’uscita binaria (zero oppure uno) in base al risultato di un semplice calcolo effettuato sui valori assunti da un certo numero di dati che si trovano sui suoi canali d’ingresso.A ognuno dei canali di ingresso viene assegnato un valore numerico, o peso. L’unità logica è caratterizzata da un valore soglia ed ogni singola unità logica confronta continuamente la somma pesata dei dati che si presentano ai suoi canali di ingresso con questo valore. Se questo viene superato allora sul canale di uscita si troverà il valore uno, altrimenti l’output sarà zero. Risulta evidente come la rete neurale artificiale si fonda su un grande numero di unità elementari connesse tra loro su cui si distribuisce l’apprendimento. Esse hanno la capacità di apprendere da esempi senza alcun bisogno di un meccanismo che ne determini a priori il comportamento. Questo meccanismo viene utilizzato in diversi ambiti soprattutto in quelli in cui l'analisi statistica di tutte le variabili di un problema risulti difficoltosa o dispendiosa in termini di calcolo. L’ambito medico, inoltre, è uno dei prima campi di applicazione che ha fatto largo uso di questo meccanismo per migliorare la qualità delle diagnosi su malattie in genere e sui tumori in particolare. Un esempio di programma basato sulle rete neurali è quello sviluppato dalla Medical Neural Engineering SRL per il settore medico. -In relazione a quale analisi nasce la logica Fuzzy? La logica introdotta dal prof. Lofti A. Zadeh, è incentrata a colmare le lacune dell’algebra Booleana in cui ad ogni evento potevano essere associate 0 o 1, in altre parole su qualsiasi elaborazione si potevano definire relazioni chiare tra Input e Output. Tuttavia l’algebra Booleana non teneva conto dei valori intermedi così venne definita una nuova logica che teneva conto anche delle sfumature. Nella Fuzzy Logic la veridicità di una proposizione poteva assumere valori compresi nell'intervallo tra 0 e 1 e non solo ai suoi estremi. -Discutere del cosiddetto "effetto ELIZA", analizzando le riflessioni prodotte dall'autore J.Weizenbaum. L’effetto Eliza è il fenomeno psicologico che si verifica quando una persona attribuisce al computer più intelligenza di quanto ne possegga. Weizenbaum all’epoca rimase tramortito dal successo ottenuto da Eliza, secondo lui immotivato, tale da abbandonare la ricerca sull’intelligenza artificiale. In realtà, per quanto famoso, il programma Eliza non poteva essere considerato un vero e proprio programma di intelligenza artificiale in quanto non indagava sul significato delle parole ma si limitava a rielaborare le par ole digitate dall'utente ricercando delle frasi preconfezionate. Per molti versi si presentava come una sorta di parodia di un terapeuta che formulava al suo paziente delle domande sulla bas e delle sue affermazioni. Weizenbaum motivò lo “shock” causatogli da Eliza affermando che fosse incredibile come certe persone conversassero con il computer come se fosse un soggetto umano a cui ci si poteva rivolgere per confidare i propri pensieri più intimi. Inoltre aggiunse che un numero consistente di psichiatri credette seriamente che quel programma di computer avrebbe potuto sfociare in una nuova forma, quasi completamente automatizzata, di terapia senza dover partecipare all’esperienza di quei problemi e arrivare a capirli grazie al coinvolgimento empatico. -Come funzionava il famoso programma ELIZA degli anni '60? Nel campo della psicoterapia in un periodo antecedente il MYCIN e meno complesso nacque il programma Eliza sviluppato da Joseph Weizenbaum nel 1965. Questo fu il primo tentativo di interazione uomo computer attraverso il dialogo o, meglio, l’illusione di un dialogo. Eliza doveva simulare il dialogo fra un paziente ed un terapista dove il programma si limitava a rielaborare le parole digitate dall’utente ricercando delle frasi preconfezionate. Ad esempio all’affermazione “Il mio ragazzo mi ha fatto venire qui” Eliza Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) risponeva “Il tuo ragazzo ti ha fatto venire qui? ”. Inoltre il programma fu così chiamato perché prendeva spunto dalla protagonista della commedia Pigmalione di George Shaw, Eliza Doolittle, che pur essendo incolta e dialettale apprese l'uso delle espressioni raffinate semplicemente rielaborando le frasi degli altri. Allo stesso modo si comportava il programma informatico sviluppato da Weizenbaum che nonostante i suoi limiti ebbe il pregio di aver introdotto il tema dell'intelligenza artificiale. Weizenbaum inoltre affermò che Eliza era una parodia delle domande di un psicoterapista all’inizio di un intervento psichiatrico e che scelse la psicoterapia per evitare il problema di dare al programma una vera conoscenza, la seduta terapeutica è una di quelle poche situazioni in cui un essere umano può rispondere ad una affermazione con una domanda che parte da quella poca conoscenza del soggetto in discussione. -Descrivere il funzionamento del sistema MYCIN. Il MYCIN, Medical Expert Systems è uno dei primi sistemi esperti sviluppato nello specifico per il campo medico ed è stato sviluppato negli anni ‘70 ,sfruttando il linguaggio di programmazione LISP, come tesi di dottorato di Edward Shortliffe alla Stanford University. La rivoluzione portata in atto dal sistema MYCIN è nell'uso di regole di giudizio che avevano elementi di incertezza ad essi associati. In altre parole nasceva l’esigenza del trattamento dell'incertezza, che è parte costituente della realtà e delle problematiche più comuni. Questo sistema esperto fu progettato per identificare i batteri che causavano infezioni gravi, come la batteriemia e la meningite, e di prescrivere i giusti antibiotici, con il dosaggio relazionato al peso corporeo del paziente. Il nome MYCIN deriva dal suffisso mycin che molti antibiotici dell’epoca avevano. Il sistema fu utilizzato successivamente anche per la diagnosi delle malattie del sangue. Il MYCIN disponeva di una base di conoscenza di circa 600 regole, alla quale attingeva durante l’interazione con il medico. Quest’ultimo doveva rispondere ad una serie di precise domande affinché il sistema potesse restituire una lista delle probabili diagnosi, delle terapie consigliate e il relativo grado di sicurezza che il software riteneva di associare a ciascun a risposta. Le domande poste e riguardanti il paziente in esame risultavano necessarie per giungere ad una dettagliata schermata finale che riassumeva in ordine l’elenco dei batteri colpevoli dell’infezione, la diagnosi e il ragionamento utilizzato per formularla e la cura medica da prescrivere al paziente. Il MYCIN non è mai stato effettivamente usato nella pratica, ma degli studi hanno confermato quanto esso sia stato in grado di suggerire una terapia corretta nel 69% dei casi, percentuale che all’epoca era molto più alta delle prestazioni di esperti di malattie infettive. Inoltre alcuni ricercatori sollevarono questioni di natura etica e legali connessi con l'uso dei computer in medicina. La diatriba verteva sulla possibilità di una diagnosi o terapia erronea proposta da un programma e chi doveva essere ritenuto responsabile, se il computer o il medico. Tale controversia provocò una serie di dissensi e incertezze che nel tempo e nonostante i progressi della scienza sono rimasti per certi versi immutati. -Grazie a quali strumenti l’informatica aiuta psicologi e insegnanti nei disturbi dell’apprendimento? I disturbi dell’apprendimento si riferiscono ad un gruppo di disabilità in cui si presentano significative difficoltà nell’acquisizione e utilizzazione della lettura, della scrittura e d el calcolo. L’approccio ai disturbi dell’apprendimento utilizza le nuove tecnologie informatiche, come supporto per far fronte ai diversi tipi di disturbi, nei soggetti che incontrano difficoltà nell’apprendere attraverso le metodologie didattiche tradizionali. In particolare grazie all’uso degli ipertesti che favoriscono la progettazione di percorsi di studio personalizzati alle diverse esigenze. La possibilità di utilizzare suoni, messaggi vocali, animazioni e video permetterà ad un bambino (ma anche ad un adulto) che ha difficoltà ad apprendere di rimanere sempre e comunque ancorato alla programmazione scolastica o del corso che sta seguendo. Inoltre esistono dei software specifici per la riabilitazione di alcuni deficit come ad esempio l’acquisizione del processo di lettura o il rafforzamento delle capacità mnemoniche. -Descrivere gli aspetti fondamentali della teoria HIP. Intorno agli anni ’40 e ’50 , nel campo della psicologia dello sviluppo si venne affermando un approccio allo studio dello sviluppo cognitivo che prese il nome di HIP. La sigla stava per "Human Information Processing", cioè elaborazione delle informazioni nell’uomo. L’assunto di base era che l’attività cognitiva umana poteva essere paragonata all’attività di un computer o meglio di un elaboratore elettronico. Molti ricercatori iniziarono ad utilizzare il calcolatore come prototipo di cervello meccanico da paragonare con il cervello umano. Verso la fine degli anni ‘60 i numerosi studi sull’elaborazione delle informazioni nei bambini favorì lo sviluppo di un approccio di tipo psico-elettronico, l’utilizzo del computer permise diversi studi sperimentali nonché nuove metodologie di indagine. L’obiettivo più importante che gli psicologi dell'HIP si prefiggevano era l’individuazione del cosiddetto software, ovvero i programmi che determinavano i diversi comportamenti del bambino, intendendo tali programmi come sequenze di istruzioni, ovvero il modo in cui le informazi oni provenienti dall'esterno venivano percepite, elaborate, interpretate, immagazzinate e di conseguenza le metodologie più idonee utilizzate per risolvere i problemi privilegiando quelle utili e Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) scartando quelle inutili per la loro risoluzione. Gli esperimenti prendono in considerazione problematiche semplici dove viene misurato il tempo che intercorre tra l’input ovvero la nascita del problema, e l’output cioè la risoluzione del problema. Successivamente vengono analizzate le risposte per constatare quali regole il bambino utilizza per la risoluzione dei problemi. Lo sviluppo della memoria e l’organizzazione delle conoscenze produrrà nel bambino che si fa uomo e nel calcolatore che acquisisce regole un utilizzo migliore delle energie nel raggiungere un determinato scopo. LEZIONE 27 -In che modo e con quali strumenti è implementata una lettura di tipo non-lineare degli ipertesti? La lettura non lineare è la caratteristica principale di un ipertesto, ovvero qualsiasi documento della rete può essere "il successivo", in base alla scelta del lettore di quale link (o parola chiave) usare. L’ipertesto è una tecnologia che permette di organizzare l’informazione in maniera più efficiente e logica. Gli strumenti utilizzati per implementare la lettura non linea re sono: Il link (o legame) che è una struttura di collegamento che unisce con estrema facilità e rapidità nodi diversi dell’ipertesto, permettendo in questo modo al lettore la possibilità di esaminare i contenuti secondo un modello di lettura esplorativa; la mappa di navigazione che è un nodo speciale che contiene la rappresentazione grafica di tutti i nodi dell’ipertesto. -Cos'è una mappa di navigazione? Che ruolo riveste nella struttura generale di un ipertesto? La mappa di navigazione è un nodo speciale che contiene la rappresentazione grafica di tutti i nodi dell’ipertesto. L’utente può utilizzare questo strumento per orientarsi, evitando così fenomeni di disorientamento e allo stesso tempo per muoversi più agevolmente all’interno della rete di nodi e legami. La mappa in definitiva può identificarsi come una sorte di indice o menu che raccoglie i link ai vari nodi. -Da quali elementi è composto lo spazio grafico-visivo di un ipertesto? Gli elementi che compongono la pagina grafica di un ipertesto sono la pagina così come viene visualizzata sul monitor e su questo sfondo si dispongono poi i diversi elementi informativi che la compongono, per i quali assumo rilevanza semantica alcune scelte relative al colore utilizzato o sulla simulazione di superfici reali (texture). Altri elementi grafici che compongono una pag ina possono essere linee, forme e oggetti iconici; inoltre a sua volta la pagina può essere suddivisa in più frame ognuno dei quali contiene a sua volta oggetti grafici. I criteri che guidano queste scelte progettuali riguardano in particolare il peso visivo che assumono i diversi elementi in gioco, le linee di forza v isiva che essi generano, i rapporti di equilibrio o di contrasto tra sfondo e figure che si possono trasmettere e più in generale i nuovi significati che si aggiungono con tecniche evocative. Nell’analisi di dimensione visiva e grafica dell’ipertesto rimane comunque centrale il ruolo giocato dal testo alfabetico attraverso lo spazio che occupa nell’impaginazione. -Cosa si intende con "spazio logico" di un ipertesto? Lo spazio logico dell’ipertesto permette di individuare la rete di connessioni che legano tra loro i diversi nodi di contenuto. Questi legami identificano la struttura logica di organizzazione delle informazioni. Attualmente la configurazione di massima di un ipertesto è la cosiddetta struttura a rete (o referenziale); in genere le distinguiamo in: assiale, gerarchica e referenziale. -Descrivere le diverse tipologie strutturali di ipertesto. Le diverse tipologie di ipertesto sono assiale, gerarchica e referenziale. Nella struttura assiale i vari nodi si differenziano in nodi primari e nodi secondari. La sequenza di informazioni risulta essere abbastanza lineare, difatti i nodi primari sono interconnessi tra l oro in maniera sequenziale ma ciascun nodo primario può indirizzare ad uno o più nodi secondari che solitamente hanno lo scopo di approfondire l’argomento trattato dal nodo primario. Nella struttura gerarchica i vari nodi sono posti su livelli diversi. Ciascun nodo detiene un nodo ‘figlio’, come una struttura ad albero che ha inizio da un nodo principale (root) che a sua volta definisce uno o più nodi figlio che hanno lo scopo di continuare, tramite un opportuno collegamento, l’argomento trattato dal nodo ‘padre’. La navigazione all’interno della struttura gerarchica è dall'alto verso il basso con la presenza di un nodo principale che funge da crocevia per la trattazione di argomenti diversi. Nella struttura di rete i nodi sono posti allo stesso livello e interconnessi tra loro in maniera non sequenziale. Ciascun nodo può avere un collegamento con uno o più nodi e possono esistere nodi che fungono da crocevia per il raggiungimento di un gruppo ben definito di nodi. In questa struttura il grado di libertà è molto alto ed è compito del progettista dell’ipertesto realizzare i collegamenti tra le varie informazioni in manie ra tale che ci si possa orientare senza per questo perdere l’orientamento. -Descrivere le differenze sostanziali tra gli ipertesti e gli ipermedia. Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) L’ipertesto è composto esclusivamente da una serie di testi e conseguenti link di collegamento. Tuttavia lo sviluppo sempre maggiore della tecnologia informatica e la conseguente progettazione e realizzazione di strumenti per la visualizzazione dei contenuti ha permesso l’evoluzione degli ipertesti verso la multimedialità, ovvero l’ipermedia, la quale ingloba al suo interno immagini, suoni, video e animazioni. Un’ipermedia non è altro che l’evoluzione naturale degli ipertesti verso il mondo web che attualmente ci circonda, composto non solo da testo ma da numerosi oggetti multimediali. LEZIONE 28 -In merito al linguaggio HTML, cos'è un tag? A cosa serve un attributo? I tag sono parole speciali che creano la formattazione del documento e che vengono interpretate dal browser al fine della visualizzazione a video. Consistono di una parentesi angolare aperta. CONTENUTO è il formato di tag utilizzato in presenza di un contenuto da formattare, mentre nel caso di as senza di un contenuto si utilizza il seguente tag. Gli attributi sono informazioni aggiuntive associate a un tag, aiutano quindi ad associare una particolare proprietà in fase di formattazione dell’elemento. La sintassi utilizzata è Contenuto. Nel momento in cui il browser interpreta il contenuto del tag, associa il valore specificato alla proprietà definita in nomeAttributo. La maggior parte degli attributi definiscono regole di visualizzazione e stile ed è quindi buona norma che questi vengano definiti a parte e non all’interno del file html. -Scrivere un semplice documento HTML che visualizzi al centro della finestra il proprio nome e cognome. Presentazione Consiglia Calabr&ograve -In merito al linguaggio HTML, a cosa servono i tag META? Il tag META viene definito all’interno dell’HEAD ed è utilizzato per conservare informazioni sul documento, caricare o ricaricare una pagina web e includere file di suoni. Il tag META nasce inizialmente come supporto per i motori di ricerca. Più precisamente all’interno del tag vengono definite parole chiave e sintesi del contenuto della pagina, per far si che i motori di ricerca cataloghino il documento in maniera più proficua. Molte delle informazioni del tag META sono individuate dalla coppia NAME -CONTENT, dove NAME identifica il nome della proprietà e CONTENT identifica il valore della proprietà. La sintassi è la seguente: -Cosa si intende con il termine Html? HTML è l’acronimo di HyperText Markup Language e definisce un linguaggio di formattazione del testo per pubblicare documenti sul web. Il linguaggio HTML non è da definirsi come un vero e proprio linguaggio di programmazione, ma come un “raccoglitore” di parole chiave con le quali identificare le singole parti che compongono una pagina web. È nato essenzialmente con l’obiettivo di consentire la definizione di documenti ipertestuali distribuiti su una rete di computer. LEZIONE 29 -In HTML, a cosa serve il tag ? Il tag permette di inserire un’interruzione di riga, permette quindi di andare a capo. Infatti, andare a capo nel codice html, all’interno di un paragrafo, non riproduce lo stesso effetto visualizzato nel browser.. Essendo questo un tag vuoto e non un contenitore come , nella sintassi verrà definito senza contenuto e quindi senza la coppia di tag di apertura e chiusura. Utilizzando semplicemente una coppia d i tag si ottiene di conseguenza una linea bianca. Document shared on https://www.docsity.com/it/domande-aperte-fondamenti-di-informatica-donantonio-lucia-botteri-ecampus-2022/8578300/ Downloaded by: borgo-borghi ([email protected]) -Perché è utile indentare il codice HTML? La tecnica di indentazione consiste nel far trovare allo stesso livello apertura e chiusura del tag, mentre il contenuto vien e spostato verso destra di un tab. Non si tratta, quindi, soltanto di un fattore visivo, ma l'allineamento di apertura e chiusura tag viene mantenuto anche se scorriamo in verticale il documento con il cursore. Infatti è una buona norma utilizzare dei caratteri di tabulazione per far rientrare il testo ogni volta che ci troviamo in presenza di un annidamento e man mano che entriamo più in profondità nel documento. Grazie a questa tecnica di stesura del codice, il codice stesso risulta più leggibile e facilmente modificabile in fasi successive. Un esempio di indentazione è il seguente: Questo è un testo Seguito da un testo in un div -In cosa consiste la nidificazione dei tag HTML? La nidificazione dei tag, in HTML, consiste nell’annidare i tag l'uno dentro l'altro. Questa è una caratteristica molto importante del codice HTML, infatti molto spesso è necessario farlo. In presenza di nidificazioni di tag. È possibile definire più livelli di nidificazioni di tag. Un esempio di codice HTML con nidificazione è il seguente: Questo è un testo Seguito da un testo in un div -Perché è opportuno prestare particolare attenzione, in termini di sicurezza, ai commenti che inseriamo nel codice HTML? L’utilizzo dei commenti permette di rendere il codice più leggibile. Tutto ciò che compare all’interno dei commenti viene ignorato in fase di visualizzazione nel browser, ma resta comunque leggibile e accessibile da chiunque perché presente nel codice HTML. E’ quindi preferibile non utilizzare i commenti per inserire informazioni sensibili onde evitare problemi di sicurezza. -Qual è la sintassi da utilizzare per definire un commento all'interno del codice HTML? L’utilizzo dei commenti permette di rendere il codice più leggibile, infatti è consigliabile inserire dei commenti nei punti più significativi. Si tratta di indicazioni significative per il webmaster, ma invisibili al browser. Inserire commenti i n punti specifici del documento permette di mantenere l'orientamento anche in file molto complessi e lunghi. La sintassi è la seguente:

Use Quizgecko on...
Browser
Browser