Abbonati ora!

L’Intelligenza Artificiale come supporto per l’Industria 4.0

L'ascesa dell'intelligenza artificiale è destinata a rivoluzionare il modo in cui le aziende gestiscono le loro linee di produzione. La trasformazione digitale impiegherà nuove tecnologie come l'apprendimento automatico e l'intelligenza artificiale, con supporto dell'Internet delle cose per rendere la produzione ancora più smart.

Introduzione

L'automazione e la robotica contribuiscono alla forza lavoro per Industry 4.0, le telecamere e altri sensori forniscono invece i sensi, mentre i dati e la connettività rappresentano il sistema centrale di gestione. Ma il vero cervello dietro questa rivoluzione industriale è l'intelligenza artificiale (AI). L'IoT industriale non è un nuovo concetto; infatti, è stato in giro per decenni. Attualmente è definita come una fusione tra sistemi informatici e fisici che incorporano macchinari connessi che, con l'aiuto di software e big data, non solo possono analizzare e prendere decisioni, ma sono anche predittivi, utilizzando dati provenienti da un'ampia gamma di sensori. Per anni, molte fabbriche si sono affidati a sensori intelligenti per monitorare e controllare le loro linee di produzione. Nell'Industry 3.0, ad esempio, le fabbriche di auto erano già configurate per essere monitorate da tali sensori. Qualche anno fa, questo era un costoso privilegio riservato a pochi; oggi, nell'industria 4.0 questi sensori non solo sono diventati più intelligenti, ma anche più economici. Di conseguenza, perfezionare i processi di produzione è diventato più semplice che mai e, a sua volta, la tecnologia a nostra disposizione ci consente anche di massimizzare l'efficienza produttiva. Un esempio di IIoT è con linee di produzione manifatturiere in grado di prevedere futuri guasti e quindi pianificare la propria manutenzione preventiva. Utilizzando Machine Learning possono persino cercare modelli nei loro dati operativi per perfezionare qualsiasi previsione. L'obiettivo è zero tempi di inattività per il produttore.

L'intelligenza delle macchine

La tecnologia stessa si sta lentamente muovendo verso un'autosufficienza e fiducia. Considerando l'inevitabile emergere dell'intelligenza artificiale (AI), le aziende non dovranno più dipendere esclusivamente dall'input dei propri dipendenti, il che contribuirà sicuramente a ridurre l'errore produttivo. È interessante notare come le aziende stiano anche cercando di ridurre i tempi di inattività delle macchine, soprattutto perché ci stiamo avvicinando a un punto in cui tutto dovrebbe essere monitorato da robot e dove l'unico scopo della risorsa umana sarebbe quello di produrre (e saper programmare) più robot e analizzare dati.

L'IoT industriale alla fine produrrà una quantità indiscernibile di grandi dati che possono essere utilizzati per trasformare in realtà l'intelligenza artificiale. Le possibilità sono infinite e il macchinario predittivo e autosufficiente è solo un esempio. Analizzare questa somma di dati, tuttavia, non sarà facile. Per questo motivo, è importante migliorare la velocità e la precisione dell'analisi dei big data. Industry 4.0 sta prendendo forma in base a tre caratteristiche chiave. Il primo di questi è l'interoperabilità che viene definita come "la capacità dei sistemi informatici o del software di scambiare e utilizzare le informazioni". In altre parole, l'interoperabilità si riferisce alla capacità di integrare sistemi diversi e di funzionare senza problemi di intervento umano. Mentre le aziende stanno adottando sistemi ibridi, acquistando da diversi fornitori per ridurre i costi, stanno anche attraversando un processo di integrazione per collegare le loro attrezzature e proteggerle. La seconda caratteristica è il decentramento, la rimozione di questi ingombranti data center centralizzati e la creazione di una rete IoT di dispositivi connessi. Questi, ovviamente, hanno una serie di sfide in termini di sicurezza che possono essere affrontate con l'avvento di nuove soluzioni informatiche. La terza caratteristica è il funzionamento in tempo reale o la capacità di dispositivi e sistemi di connettersi, comunicare e reagire in tempo reale in base alla condivisione dei dati.

Secondo una ricerca di McKinsey, l'applicazione dell'AI consentirà la crescita della produttività e altri benefici non solo per le imprese, ma anche per intere economie. Le stime da un punto di vista macroeconomico indicano che l'automazione da sola potrebbe aumentare la crescita della produttività su base globale di molti fattori percentuali ogni anno. Sebbene l'idea di intelligenza artificiale non sia nuova, il ritmo delle recenti scoperte lo è sicuramente. Ci sono tre fattori principali che favoriscono questa accelerazione: capacità di calcolo, gli avanzamenti stanno emergendo verso unità di elaborazione grafica (GPU) e data center scalabili ed accessibili attraverso il cloud. Big Data: enormi quantità di informazioni (immagini, voce, video, posizione, informazioni sui sensori ...) sono raccolte attraverso i processi IoT e possono essere utilizzate per addestrare i modelli di intelligenza artificiale. Gli algoritmi di Machine Learning (ML): tecniche di apprendimento automatico attraverso lo sviluppo dell'apprendimento profondo (Deep Learning, DL) basato su reti neurali (figura 1).

Figura 1: l'intelligenza artificiale e i suoi sotto-sistemi

Le principali società mediche e farmaceutiche stanno già sfruttando il potere dell'intelligenza artificiale con ottimi risultati. La produzione è stata una delle prime industrie a sfruttarne l'efficacia utilizzando robot per assemblare prodotti e confezionarli per la spedizione. I nuovi sviluppi robotici porteranno le cose al livello successivo grazie alla possibilità di assemblare oggetti più complicati, come l'elettronica e le auto. La tecnologia AI alla base delle auto a guida autonoma può essere applicata in varie situazioni riducendo il rischio di incidenti, alleviando la congestione del traffico e diminuendo i costi energetici.

Big Data e Machine learning

Intrinsecamente, l'apprendimento automatico (Machine learning) è definito come un'applicazione avanzata di AI in macchine e periferiche interconnesse, garantendo loro l'accesso ai database in modo che possano imparare da soli in modo programmato.

L'apprendimento automatico richiede molti dati per creare, testare e "addestrare" l'intelligenza artificiale. Quindi, dal momento che l'intelligenza artificiale sta diventando più importante per l'economia, lo sono anche i dati. Poiché la dimensione dei big data è in continua crescita e vengono analizzate nuove soluzioni e le relative implicazioni, sta diventando sempre più significativo e contestualmente rilevante per le macchine avere una migliore idea delle loro funzioni con l'aiuto dell'analisi dei big data.

Il concetto di fabbrica intelligente è strettamente associato ai Big Data e alle relative tecnologie di analisi. La capacità di utilizzare quantità copiose di dati è fondamentale per una perfetta configurazione di Industry 4.0 e contribuisce all'innovazione e ai miglioramenti nell'intero ecosistema produttivo. Big Data aiuta le aziende a risparmiare milioni di dollari e tempo contemporaneamente, identificando tendenze e modelli all'interno di vasti set di dati industriali (figura 2).

Figura 2: Machine learning e Industry 4.0. Una volta che le informazioni siano state ricevute e analizzate,
e quindi prese le relative decisioni, un altro passo logico consiste nell'effettiva esecuzione di misure/operazioni. Nel contesto del settore 4.0 con AI sono presenti robot di autoapprendimento e auto-configuranti, in completa collaborazione con gli operatori.

GPU

L'intelligenza artificiale è il futuro di ogni settore e mercato, e il motore dell'AI è la piattaforma di calcolo della GPU. Le unità di elaborazione grafica (GPU) si sono evolute molto rapidamente trasformandosi in processori programmabili ad alte prestazioni. Sebbene le GPU siano state progettate per calcolare algoritmi grafici, la loro potenza e flessibilità li rendono una piattaforma molto interessante per l'informatica generale. Negli ultimi anni sono stati utilizzati per accelerare i calcoli in fisica, visione artificiale, operazioni di database, ecc.

Le GPU e le unità di elaborazione centrale (CPU) sono misurate in operazioni in virgola mobile al secondo (flops). Le CPU, come la CPU Intel i9 Extreme Edition, possono eseguire un trilione di FLOP. Questo è abbastanza per una CPU, ma non è nulla in confronto ai 112 teraflop che le GPU di NVIDIA possono produrre. Le GPU hanno molti più core rispetto alle CPU e eseguono istruzioni in blocco. Le CPU hanno meno core, ma sono di qualità superiore ed eseguono istruzioni indipendentemente l'una dall'altra. Tutto ciò che può essere elaborato in parallelo, come gli algoritmi di apprendimento automatico (ML) e approfondito (DP), dovrebbe essere indirizzato alla GPU in base alla progettazione. L'apprendimento approfondito è un sottoinsieme di ML. Usa algoritmi per risolvere problemi del mondo reale con reti neurali che simulano il processo decisionale umano.

L'apprendimento approfondito o deep learning si basa su sofisticati calcoli matematici e statistici. Reti neurali artificiali (ANN), Reti neurali convoluzionali (CNN) e Reti neurali ricorrenti (RNN) sono alcune delle moderne implementazioni dell'apprendimento profondo/approfondito. Queste reti neurali emulano cervelli umani con una stretta rassomiglianza con le neuroscienze. Ogni tipo di rete neurale è allineato con un caso d'uso complesso come classificazione, raggruppamento e previsione. Ad esempio, il riconoscimento di immagini e quello facciale utilizzano CNN mentre Natural Language Processing (NLP) si basa su RNN. ANN, il tipo più semplice di rete neurale, viene spesso utilizzato nelle previsioni che coinvolgono dati numerici (Figura 3).

Figura 3: l'accelerazione delle GPU

Conclusioni

La giusta combinazione di sensori, intelligenza artificiale e persino design robotico sono fondamentali nella nuova industria. L'intelligenza artificiale - apprendimento automatico (ML) e apprendimento profondo (DL) - stanno avanzando rapidamente. Le fabbriche intelligenti di Industry 4.0 forniranno, attraverso l'Internet of Things e la condivisione dei dati, una massiccia quantità di informazioni per una formazione accurata ML/DL. Gli ambienti industriali stanno attualmente impostando le fondamenta per un nuovo cambiamento nei processi di produzione, allontanandosi dalla staticità delle catene di produzione verso una più efficiente idea di fabbrica. I grandi flussi di informazioni in questi sistemi embedded necessitano di tecnologie che possano facilitare l'automazione; e Big Data può essere una soluzione, migliorando ulteriori  variabili come mobilità, flessibilità ed efficienza energetica, e fornendo nello stesso tempo un accesso temporalmente e spazialmente indipendente. Il cloud computing è, d'altra parte, fondamentalmente su larga scala, come unità di elaborazione flessibile e a basso costo.

 

Una risposta

  1. Maurizio Di Paolo Emilio Maurizio Di Paolo Emilio 11 aprile 2018

Scrivi un commento

EOS-Academy