L’intelligenza si trasferisce alla periferia della rete

I XXIII Giochi Olimpici Invernali che si sono svolti in Corea non sono stati solamente un evento sportivo che ha visto gareggiare atleti delle discipline che si svolgono su neve e ghiaccio. Essi sono stati anche un'importante vetrina per mostrare le potenzialità della prima rete wireless che sfrutta i sensibili miglioramenti in termini di prestazioni offerti dallo standard internazionale per le comunicazioni mobili 5G.

Introduzione

Un bus a guida autonoma adibito al trasporto degli spettatori attorno all'area di Alpensia dove si è svolto un certo numero di competizioni ha sfruttato la tecnologia 5G come ausilio per la navigazione. Al suo interno, invece, ha utilizzato il collegamento wireless a elevata ampiezza di banda per inviare immagini dal vivo in 3D agli schermi destinati all'intrattenimento dei passeggeri. Sul percorso di sci di fondo gli sciatori indossavano ricevitori GNSS grazie ai quali i server erano in grado di conoscere la loro posizione in ogni momento della gara. I computer utilizzavano i dati acquisiti mediante il rilevamento lungo la pista per generare riprese dal vivo di ciò che gli sciatori potevano vedere davanti a loro. Successivamente, il video veniva inviato a tutti coloro che erano in possesso degli handset 5G sperimentali.

Sebbene le prove condotte da Korea Telecom siano state focalizzate sull'utilizzo della tecnologia 5G per applicazioni di intrattenimento, questo standard per reti wireless rivestirà un ruolo fondamentale in una vasta gamma di nuove applicazioni in campo industriale. Le dimostrazioni tenute durante le Olimpiadi hanno avuto fondamentalmente lo scopo di dimostrare i sensibili miglioramenti, in termini di ampiezza di banda, rispetto al 4G. In ogni caso val la pena sottolineare che è un altro parametro, e più precisamente la latenza, che favorirà l'adozione della tecnologia 5G nelle applicazioni industriali e mission-critical in real-time.

Le attuali reti wireless sono caratterizzare da latenze di andata e ritorno da un nodo della rete a un altro di una unità di informazione (round-trip) dell'ordine delle centinaia di millisecondi. Al fine di migliorare la velocità di trasferimento dati aggregata, i messaggi provenienti da più handset e altri dispositivi in roaming sono interlacciate ed elaborate insieme. La tecnologia 5G, per contro, prevede un'altra modalità per consentire una risposta ai messaggi in entrata in un tempo che può essere di un solo millisecondo. Una riduzione di tale entità della latenza consente di implementare il concetto di elaborazione distribuita in sistemi real-time che un tempo richiedevano l'uso di risorse di calcolo dedicate su base esclusivamente locale.

Realtà Virtuale

Uno dei principali problemi della realtà virtuale (VR) immersiva è il ritardo che intercorre tra lo spostamento della testa dell'utente e la visualizzazione dell'immagine aggiornata nell'apposito visore. Solitamente l'utente si può aspettare una latenza "motion-to-photon" (che è appunto il ritardo tra il movimento e la visualizzazione sul display) che può arrivare fino a 20 ms. Ciò può provocare l'insorgere di problemi di cinetosi (motion sickness): in questo caso non si tratta di un disturbo morfologico neuronale ma da una condizione percettiva indotta che deriva dal contrasto tra il segnale percepito dal proprio corpo riguardo la realtà fisica e quello in cui la propria mente è immersa. Uno dei vantaggi legati al trasferimento dell'elaborazione VR ai server remoti è legato alla drastica riduzione dei consumi dei dispositivi elettronici che vengono indossati e alla conseguente eliminazione del fastidio dovuto al calore generato dai dispositivi stessi. Riducendo la latenza a un valore nettamente inferiore rispetto a quello imposto dalla "barriera"  "motion-to-photon", la realtà virtuale può trarre indubbi vantaggi dall'adozione della tecnologia 5G. Sistemi VR più avanzati potranno essere utilizzati per applicazioni industriali, come ad esempio il controllo remoto di robot che effettuano riparazioni in luoghi pericolosi.

Nelle applicazioni di realtà virtuale, i sistemi robottizzati con un maggior numero di gradi di libertà di movimento evidenziano i medesimi problemi appena sopra menzionati. Per garantire la stabilità, gli algoritmi di controllo essi devono poter far affidamento su tempi di latenza ridotti. Nel caso di robot chiamati ad assolvere compiti relativamente semplici, come quelli utilizzati sulle linee produttive per grandi volumi, ciò non rappresenta sicuramente il principale problema. Ma la tendenza dei robot è trasformarsi in cobot (robot collaborativi), quindi non più "ingabbiati" all'interno di celle di lavoro. Essi lavorano a stretto contatto con il personale e altri robot, spostandosi liberamente all'interno del luogo di lavoro. Per questo motivo è necessario ricorrere a un software più sofisticato, che supporta la nuova ondata di tecnologie di tipo "compute-intensive" (ovvero che richiedono una grossa mole di calcoli) basate sul concetto di deep learning (apprendimento approfondito).

I robot mobili saranno alimentati a batteria e non opereranno più isolati all'interno di uno stabilimento. Nel momento in cui i robot verranno utilizzati in ambiti applicativi quali la logistica e l'agricoltura, essi dovranno operare nel mondo esterno e in questo caso il consumo di potenza sarà il maggior ostacolo all'integrazione a bordo dei robot dei complessi algoritmi che essi devono far girare. Le reti wireless 5G, dal canto loro, hanno la possibilità di far girare questi software che richiedono un notevole dispendio di potenza da parte dei sistemi di elaborazione ospitati nei robot  su server remoti alimentati in modo più affidabile tramite la rete di distribuzione dell'energia elettrica. Il risultato di questa ripartizione di responsabilità è rappresentato da un gruppo di robot in grado di apprendere attraverso esperienze condivise senza "prosciugare" le loro batterie nel giro di pochi minuti.

I server, in ogni caso, non devono essere posizionati in posizioni troppo remote. La velocità della luce che passa attraverso i cavi in fibra ottica e i ritardi di commutazione abbinati a ciascun router presente sul percorso rivestono un ruolo importante nel determinare la rapidità di risposta della rete. In linea generale si può affermare che ogni 100 chilometri il ritardo aumenta di 1 millisecondo in ciascuna direzione. Per sfruttare i vantaggi della bassa latenza tipica della tecnologia 5G, i sistemi autonomi dovranno rendere disponibili le risorse del server più vicino al punto in cui si genera la richiesta rispetto a quanto accade attualmente. Ciò ha portato allo sviluppo del mercato dell'edge computing (ovvero dell'elaborazione alla periferia della rete).

I server destinati al mercato dell'edge computing possono essere posizionati all'interno di un campus industriale. Ad esempio un operatore minerario che fa largo uso di veicoli autonomi per spostare il materiale all'interno del sito può scegliere di installare i propri micro data center. In molti casi essi avranno la possibilità di far ricorso a servizi condivisi basati su cloud situati non molto distanti che forniscono le risorse necessarie per l'elaborazione periferica. Sebbene le miniere si trovino spesso in località remote, molte sono situate abbastanza vicine ai centri urbani per consentire ai fornitori di servizi di predisporre le proprie risorse di elaborazione periferica che sono condivise con altri utenti operanti nei settori industriale e agricolo.

Anche i veicoli autonomi, che hanno iniziato a fare la loro comparsa sulle strade, sfrutteranno i vantaggi disponibili alla periferia del cloud. Tali servizi trasmetteranno in tempo reale informazioni sulle condizioni del traffico al fine di semplificare la pianificazione del percorso e contribuiranno ad aumentare il livello di intelligenza (artificiale) necessaria per tradurre in realtà il concetto di veicolo autonomo.

L'elaborazione alla periferia del cloud non è destinata a soppiantare i server centralizzati che costituiscono la base delle odierne architetture di rete. Ci sarà ancora bisogno di una pianificazione sul lungo periodo che sarà gestita da un secondo livello di software il cui nucleo centrale sarà costituito dagli algoritmi di machine learning. Le sezioni che richiedono una risposta in tempo reale saranno gestite dai cosiddetti "cloudlet" situati tra i nodi wireless e i server del cloud principale.

L'elaborazione effettuata nei cloudlet (che sono in pratica mini data center) richiede una modifica dell'approccio utilizzato nella progettazione dei server destinati ai tradizionali data center. Anche se le prestazioni restano un parametro critico, i server utilizzati nei cloudlet devono essere compatti, affidabili ed efficienti dal punto di vista energetico. Molto probabilmente, il progetto degli elementi di elaborazione è molto più simile a quello di una stazione base cellulare che non a quello di un server blade di fascia alta. Gli elementi da tenere in considerazione sono la riduzione dello spazio occupato, delle esigenze di raffreddamento e delle attività di manutenzione. Alcuni cloudlet di dimensioni più piccole potrebbero coesistere con le apparecchiature telecom all'interno delle cabine poste lungo la strada, mentre altri saranno integrati in appositi contenitori per garantire semplicità e rapidità di installazione e messa in esercizio.

Le architetture progettate per i cloudlet faranno largo uso di tecnologie di accelerazione per l'esecuzione di compiti come ad esempio il "machine learning". Gli acceleratori assicurano un miglior rapporto tra prestazioni e consumi rispetto ai processori multicore di tipo general purpose. L'affidabilità di funzionamento può essere ottenuta mediante il ricorso a nodi ridondanti, ma uno dei principali problemi da affrontare è quello della sicurezza. Nel caso dei cloudlet, la sicurezza fisica è molto più difficile da garantire rispetto ai data center di grandi dimensioni. E' necessario poter rilevare eventuali tentativi di instrusione e manomissione in modo tale che se gli aggressori riescono ad avere accesso ai sistemi hardware risulti possibile mettere in atto tutte le azioni  necessarie per trasferire i carichi di lavoro ai cloudlet posti nelle vicinanze non soggetti ad attacchi.

Il progetto del computer riveste un ruolo chiave nel garantire la sicurezza contro attacchi lanciati sulla rete. Al fine di garantire un elevato grado di utilizzo delle risorse, è necessario far girare contemporaneamente applicazioni molto differenti tra di loro sui sistemi hardware del cloudlet. I sistemi presenti in un cloudlet devono essere capaci di assicurare che le applicazioni che girano su un nodo non interferiscano le une con le altre, al fine di prevenire l'intercettazione di dati privati o l'interruzione di alcune operazioni. Tecnologie come la virtualizzazione e il ricorso ai "software container" renderà più semplice l'espletamento di operazioni quali il mantenimento della separazione delle applicazioni e il monitoraggio del comportamento, oltre a permette agli amministratori di bloccare i cosiddetti "bad actors" (ovvero entità che cercano di far girare software dannoso che sfrutta una vulnerabilità del sistema). Il software che gira nei container sarà più semplice da trasferire nel momento in cui cambiano i requisiti delle risorse, aiutando in questo modo gli operatori del cloudlet a ottimizzare le loro infrastrutture e garantire i livelli di prestazione necessari.

Conclusioni

L'arrivo della tecnologia 5G rappresenta l'inizio del prossimo stadio dell'evoluzione del cloud computing. Attraverso i miglioramenti dell'hardware e della tecnologia software, i cloudlet posizionati nei pressi dei punti in cui si genera la richiesta renderanno possibile la realizzazione di una nuova generazione di sistemi real-time che sfruttano le potenzialità dell'intelligenza artificiale e saranno gli elementi trainanti della prossima rivoluzione industriale.

A cura di Mark Patrick, Mouser Electronics Distributore autorizzato - www.mouser.it

 

 

Una risposta

  1. Maurizio Di Paolo Emilio Maurizio Di Paolo Emilio 20 aprile 2018

Scrivi un commento