Industria 4.0 e Settore Alimentare PDF
Document Details
Uploaded by Deleted User
Tags
Summary
Questo documento fornisce una panoramica sull'Industria 4.0, con particolare attenzione alle sue applicazioni nel settore alimentare. Vengono introdotte definizioni di IoT, AI e Big Data, mostrando come queste tecnologie possano essere utilizzate per ottimizzare processi e decisioni. Sono descritti i benefici dell'analisi dei big data per previsioni e strategie.
Full Transcript
INDUSTRIA 4.0 APLLICATA AL SETTORE ALIMENTARE Alcune definizioni … IoT ovvero l'Internet of Things: comprende qualsiasi oggetto – o “cosa” – collegabile in wireless a una rete internet. Attualmente con il termine IoT ci si riferisce a oggetti connessi provvisti di sensori, software e a...
INDUSTRIA 4.0 APLLICATA AL SETTORE ALIMENTARE Alcune definizioni … IoT ovvero l'Internet of Things: comprende qualsiasi oggetto – o “cosa” – collegabile in wireless a una rete internet. Attualmente con il termine IoT ci si riferisce a oggetti connessi provvisti di sensori, software e altre tecnologie che consentono loro di trasmettere e ricevere dati allo scopo di informare gli utenti o di automatizzare un'azione. Una volta che i dispositivi IoT raccolgono e trasmettono i dati, il punto finale è quello di imparare il più possibile da essi e farli fornire output e insight (informazioni) sempre più accurati e sofisticati. In questo contesto entrano in gioco le tecnologie AI (intelligenza artificiale) ossia aumentare le reti IoT con la potenza dell'analisi avanzata e del machine learning. Sono insiemi di dati dal volume talmente elevato da non poter essere gestiti dagli strumenti convenzionali, bensì da tecnologie e metodi innovativi in grado di raccoglierli, elaborarli e analizzarli, in modo da poterli sfruttare per fare previsioni su trend di comportamento e così prendere delle decisioni più efficienti. L’espressione “big data” può essere impiegata sia in riferimento alla grande velocità con cui vengono attualmente generati i dati sia in funzione della capacità sempre crescente di immagazzinarli, elaborarli ed analizzarli. Noti anche come “megadati“, sono stati definiti da Gartner, nel 2001, come «risorse informative a elevato volume, velocità e varietà che richiedono forme di elaborazione delle informazioni economiche e innovative per potenziare la comprensione, la presa di decisioni e l’automazione dei processi». Le 5V dei big data La definizione big data mette in evidenza tre proprietà o caratteristiche. 1) Elevato Volume: il riferimento è all’enorme mole di dati generata ogni secondo, dalle email ai messaggi e ai post sui social network (foto, video, dati generati da sensori). Oggi si parla di zettabyte e addirittura di brontobyte di dati, quantità ben superiori al terabyte. Si tratta ovviamente di una quantità di dati che non può essere immagazzinata o elaborata dai sistemi convenzionali di gestione dei dati e che richiede delle tecnologie ad hoc. 2) Elevata velocità: con cui vengono generati nuovi dati e con cui si “spostano” gli stessi. Ad esempio i contenuti virali e la rapidità con cui vengono condivisi dagli utenti tramite i social network, ma anche a procedure che richiedono spostamenti di dati che avvengono in millesimi di secondi, come il controllo sicurezza che viene effettuato in una transazione con carta di credito per evitare situazioni di frode. 3) Grande varietà: si tratta di differenti tipi di dati che vengono generati, raccolti e analizzati. Questi possono essere strutturati (ossia organizzati secondo schemi predefiniti, in tabelle per esempio, come i dati di vendita per paese o per tipo di prodotto, ecc.) e dati non strutturati. Buona parte dei dati generati, però, è non strutturata e può essere di tanti tipi diversi (fotografie, messaggi scritti, registrazioni vocali, video, ecc.). Più di recente, poi, sono state analizzate altre due dimensioni che interessano i big data. 4) Veridicità: considerando che i dati analizzati possano essere usati come base per la presa di decisioni, si intuisce l’importanza di effettuare un “controllo qualità” adeguato. Chiaramente, il grande volume di dati generati al secondo rende difficile garantirne l’affidabilità e l’accuratezza. A seconda della tipologia di dati, essi possono essere più o meno facili da controllare (si pensi per esempio ai tweet o ad altri post pubblicati sui social network). 5) Valore: capacità di “trasformare” i dati in valore, cioè di sfruttarli per esempio per fare delle previsioni che consentono di ottimizzare la presa di decisione. Il classico esempio è quello di un’azienda che si basa sull’analisi dei dati relativi ai consumi per prevedere il comportamento di acquisto dei consumatori e proporre dei prodotti, dei servizi o dei cambiamenti nel business, sulla base di queste previsioni. Questa veloce analisi di grandi volumi di dati consente di ottimizzare la presa di decisione, portando all’automazione dei processi per quanto riguarda per esempio la capacità di fornire delle risposte adeguate (sia in termini di assistenza al cliente che di scelta degli annunci pubblicitari), in maniera veloce, ai clienti, sulla base dei loro comportamenti online (e anche offline). ORIGINE DEI BIG DATA: BREVI CENNI STORICI Per molti anni la raccolta e immagazzinamento di grandi volumi di dati sono stati appannaggio dei governi. Il primo dispositivo di elaborazione di dati è nato nel 1943 ed è stato sviluppato dal governo britannico per decifrare le comunicazioni provenienti dal regime nazista, durante la seconda guerra mondiale. Colossus era in grado di identificare dei modelli o pattern all’interno dei messaggi a una velocità di 5 mila caratteri per secondo, un’enorme innovazione per l’epoca. Nel 1965 il governo americano ha creato un data center per immagazzinare dati dei cittadini, ma la tecnologia in questione era ancora ben lontana da quella a cui è possibile accedere oggi. Con la creazione del World Wide Web per la raccolta e lo scambio di dati, però, servivano strumenti più sofisticati. Nel 1992 il Teradata DBC 1012 è così diventato il primo sistema in grado di memorizzare e analizzare grandi volumi di dati corrispondenti a 1 Terabyte (l’equivalente di 1000 GB). Sempre nel 2005 è stato creato Hadoop di Yahoo! e poco più tardi Spark, framework open source che sarebbero diventati cruciali per la gestione e l’immagazzinamento veloce ed efficiente dei big data. Successivamente, con lo sviluppo dell’internet of things sono state raccolte grandi quantità di dati provenienti da ogni tipo di oggetto e dispositivo, facilitando in questo modo l’accesso alle aziende a nuove tipologie di dati che consentono di identificare dei pattern di utilizzo di prodotti da parte dei consumatori e, di conseguenza, di ottimizzare le soluzioni offerte. Aumenta così in maniera massiccia non solo il volume di dati raccolti, ma anche la varietà di questi ultimi, che negli ultimi anni vengono sfruttati dalle aziende per le più svariate applicazioni. ANALISI DEI BIG DATA L’analisi dei big data, anche detta “big data analytics”, consiste nell’uso di tecniche di analisi altamente sofisticate su grandi volumi di dati (strutturati, semi-strutturati e non strutturati), allo scopo di descrivere degli eventi o delle situazioni, identificare dei pattern, delle correlazioni o delle tendenze e trasformare così i dati in informazioni utili e funzionali per l’ottimizzazione della presa di decisioni. La big data analytics consente a diversi operatori (analisti, business e ricercatori) di prendere delle decisioni in maniera veloce e basate su dati concreti che, senza gli strumenti adeguati, risultavano prima inaccessibili. Attualmente, ci sono diverse aziende che mettono a disposizione degli strumenti di business intelligence e di analytics in grado di gestire questi dati: è il caso per esempio di Microsoft, Qlick o Tableau. Grazie a tecnologie, tecniche o strumenti come machine learning, analitica predittiva, elaborazione di linguaggio naturale e data mining è oggi possibile analizzare grandi volumi di dati di diversi tipi ed estrarre informazioni rilevanti per i più svariati settori e utili a diversi fini. Tipi di data analytics È possibile distinguere quattro categorie principali di data analytics a seconda dello scopo dell’analisi. 1) Analisi descrittiva: risulta essenziale per la realizzazione di report e viene realizzata effettuando un’analisi riassuntiva e appunto descrittiva degli eventi che consenta di avere una visione globale di un contesto o di una situazione e di rispondere a domande come “Cosa è successo?“; 2) Analisi predittiva: è una delle tipologie di data analytics più usate e consente di identificare delle tendenze, delle correlazioni o delle relazioni di causa-effetto fra i dati. È un tipo di analisi che permette di delineare degli scenari di sviluppo futuri in differenti contesti o situazioni. L’analisi predittiva consente di determinare “Cosa potrebbe accadere in futuro“; 3) Analisi prescrittiva: grazie a innovazioni come il maching learning e, dunque, al supporto dell’intelligenza artificiale è oggi possibile non solo fare delle previsioni relativamente a risultati specifici, ma anche riguardo alle azioni ottimali da intraprendere. L’analisi prescrittiva consente di comprendere “Cosa succederebbe se scegliessimo l’opzione A“, risparmiando così le risorse che verrebbero impiegate per provare tutte le soluzioni a disposizione e consentendo di effettuare la scelta (probabilmente) più efficace fin dall’inizio. Tale analisi consente di rispondere alla domanda “Come potremmo rispondere ad un evento futuro?“; 4) Analisi diagnostica: è il tipo di analisi che serve a identificare nello specifico il perché di qualcosa o di un dato evento, consentendo di trovare le cause che hanno portato alla situazione attuale. A tale scopo le aziende spesso usano tecniche come drill-down e data mining per determinare le cause di trend o avvenimenti e per poter così identificare, ripetere e ottimizzare le azioni che hanno portato a dei risultati positivi. Questo genere di analisi consente di rispondere a domande come “Perché qualcosa è successo?“. APPLICAZIONI DEI BIG DATA Governi e politica L’analisi dei big data può essere sfruttata in diversi modi per cause di interesse pubblico. Si pensi, per esempio, alle applicazioni da parte di un ente governativo per la sicurezza stradale, ottenendo così dati relativi agli incidenti stradali o a zone e orari più trafficati per guidare la pianificazione urbana e rendere più sicure le strade. Grandi volumi di dati vengono anche usati in periodi di elezioni, da un lato per conoscere orientamenti, abitudini e preferenze dei cittadini, dall’altro per fare previsioni sui risultati elettorali. Educazione, agricoltura e salute Nel campo dell’agricoltura le aziende di biotecnologia riescono oggi grazie ai dati provenienti da sensori ad hoc a ottimizzare l’efficienza delle coltivazioni. Attraverso simulazioni o test di coltivazioni vengono monitorate le risposte delle piante a differenti condizioni climatiche o comunque a delle variazioni nell’ambiente. Sulla base dei dati raccolti è possibile adeguare, man mano, la temperatura, l’acqua, la composizione della terra, tra i vari operatori, per riuscire a identificare qual è l’ambiente ottimale per la crescita delle differenti tipologie di piante. In ambito medico, invece, è possibile utilizzare sensori altamente sofisticati e particolarmente precisi inseriti sia negli strumenti medici sia nel corpo dei pazienti, ma anche nei dispositivi indossabili come orologi o occhiali. Questi ultimi, per esempio, consentono di monitorare in tempo reale lo stato di salute di pazienti con problemi specifici, permettendo ai medici di ottenere delle informazioni molto precise sulla situazione dell’individuo e di poter agire in maniera tempestiva. Una grande raccolta di dati in questo ambito risulta di particolare rilevanza per la ricerca di nuovi farmaci e terapie più efficaci. Nel campo dell’educazione sono stati sviluppati diversi software in grado di sfruttare dati sull’apprendimento e la valutazione degli studenti per proporre dei piani didattici che si adattino alle loro esigenze. Come l’app chiamata Knewton che fornisce al professore delle previsioni sui contenuti appresi da uno studente, individuando, sulla base di queste, i moduli più adatti al caso specifico. Altre app, come iParadigms, consentono di confrontare la grafia degli elaborati degli studenti, garantendo così che tutti i materiali consegnati siano stati scritti effettivamente dallo studente in questione. Aziende di vari settori Sempre più imprese ricorrono alla figura del data scientist perché i risultati positivi di un’analisi efficiente dei dati, in termini di profitto, sono evidenti. Più sono grandi il volume e la varietà dei dati, più funzionale risulterà la loro analisi ai fini del business. Dati provenienti per esempio dai social network possono aiutare a definire bene il target (o i differenti target di un’azienda) e a migliorare i prodotti o i servizi sulla base delle preferenze espresse dagli utenti. Le tecniche di analytics consentono inoltre di guidare la progettazione di campagne di marketing in maniera mirata. È possibile prevedere quali prodotti potrebbero avere un maggior o minor successo sul mercato una volta lanciati e comprendere se una strategia di rebranding potrebbe essere adatta o meno al target che si intende raggiungere. Grazie all’IOT le aziende possono anche ottenere dei dati provenienti dai impianti industriali e così identificare velocemente eventuali problemi tecnici e risolverli in maniera più efficiente. Ugualmente importante è l’utilizzo di questi dati per evitare casi di frode o almeno per ridurne i danni, cercando di prevenire situazioni future. Infatti, è possibile migliorare la qualità dei prodotti e processi produttivi, ottimizzando la loro manutenzione presso i clienti e abbassando anche i costi di produzione grazie alla riduzione di guasti inaspettati. Entriamo nel vivo dell’argomento… La quarta rivoluzione industriale, denominata anche Industria 4.0, sta trasformando il modo in cui produciamo beni attraverso la digitalizzazione, che rende possibile la raccolta e l'analisi dei dati attraverso macchine, sensori e sistemi IT. Grazie all’elevata velocità, flessibilità ed efficienza delle operazioni si possono realizzare prodotti di alta qualità a costi ridotti. Il settore alimentare sta abbracciando l'Industria 4.0, ovvero gli alimenti 4.0, per aumentare la produttività, la crescita, i turni e l'efficienza della forza lavoro e per rimanere competitivi nelle dinamiche di mercato in rapida evoluzione. Le nove tecnologie che costituiscono gli elementi costitutivi dell’industria 4.0 nel settore alimentare sono le seguenti. 1) Robot autonomi; 2) Simulazioni; 3) Integrazione orizzontale e verticale; 4) Internet delle cose (loT); 5) Sicurezza informatica; 6) Cloud; 7) Realtà aumentata; 8) Manifattura additiva (il processo industriale che, grazie a diverse tecnologie, fabbrica componenti, semilavorati o prodotti finiti attraverso la sovrapposizione di strati di materiale); 9) Big data e analisi di beni. In questa recente era di globalizzazione, il settore alimentare è costantemente sotto pressione per avanzare, migliorare la competitività e ottenere risultati migliori rispetto ai concorrenti sul mercato mondiale. L’Industria 4.0 apporta una serie di applicazioni essenziali per raggiungere questi obiettivi attraverso la robotica e l’automazione, la digitalizzazione, la riduzione degli errori nei processi, una migliore capacità di prendere decisioni informate, una maggiore efficienza e produttività, una riduzione dei costi e, in generale, consentendo di ottenere di più con meno. L’Industria 4.0 ha portato a processi, prodotti e servizi innovativi. Ha trasformato il settore, portando a un miglioramento della produttività. Questo è ciò che ha motivato diverse grandi aziende alimentari a seguire l’approccio della digitalizzazione come mezzo per rimanere competitive e sostenibili. Industria 4.0 è una delle grandi parole d’ordine del momento. Si riferisce fondamentalmente alla quarta rivoluzione industriale, che ha visto le tecnologie trasformative cambiare le industrie e riguarda le fabbriche intelligenti macchine connesse e robot intelligenti. La figura 4.1 mostra che iniziò tutto «con la prima rivoluzione industriale nel 1770, quando si passò dal lavoro manuale alle macchine, dalle fattorie alle fabbriche, utilizzando il vapore e l'energia idroelettrica». Cento anni dopo, con la successiva rivoluzione industriale arrivò l’elettricità, che rese le macchine automatiche e nacquero le catene di montaggio dando vita alle fabbriche.