Sistemi aperti e sicuri per l’automazione industriale

Negli Anni '80 e '90, i sistemi di automazione industriale venivano realizzati con software e hardware proprietari che non offrivano alcuna interoperabilità tra soluzioni di vendor differenti [1]. Di conseguenza le aziende erano vincolate alle piattaforme che sceglievano; e se volevano una funzionalità esistente altrove, dovevano prepararsi a una lunga battaglia prima di poterla avere a disposizione sul proprio sistema.

Introduzione

Una volta che una soluzione di automazione industriale risultava implementata, i costi per poterla sostituire o aggiornare con le tecnologie più recenti diventavano proibitivi.  Alla fine degli Anni '90 l'industria, scontenta dello status quo, ha iniziato a richiedere soluzioni interoperabili. Questo ha portato allo sviluppo dello standard Open Platform Communications (OPC) che ha permesso la comunicazione tra sistemi proprietari. Alcune aziende hanno iniziato a scrivere il proprio codice, mentre altre hanno assunto sviluppatori per implementare le funzionalità desiderate.  “Intorno al 2005, il pendolo è tornato ad oscillare nella direzione opposta. I clienti hanno cominciato a restare su piattaforme che potevano essere manutenute dal proprio staff interno e acquistando prodotti COTS compatibili con esse”, ricorda Stefanczak.

I punti deboli delle soluzioni proprietarie

Affidarsi a un unico fornitore di automazione industriale ha i suoi vantaggi, in particolare quello di avere a che fare con un solo punto di riferimento per ottenere soluzioni end-to-end pre-convalidate. Vi sono tuttavia anche alcune controindicazioni, come quelle illustrate in figura 1 e approfondite nei paragrafi successivi.

Figura 1: I punti deboli delle soluzioni proprietarie

Alti costi fissi e variabili 

A causa dei volumi di produzione inferiori, le soluzioni proprietarie non sfruttano le stesse economie di scala delle soluzioni basate su COTS. Le soluzioni di automazione proprietarie possono essere inoltre costose da acquistare e mantenere dal momento che tipicamente possiedono una serie di componenti specializzati a ciascun livello ISA (International Society of Automation). Al contrario, il mercato COTS è altamente competitivo, fatto che incrementa la pressione sui costi nei confronti dei fornitori.

Inflessibilità

Nonostante lo standard OPC, le aziende continuano a non avere la flessibilità per poter scegliere tra vendor differenti dal momento che l'interoperabilità rimane un problema all'interno del  settore. La flessibilità può essere un problema anche all'interno della linea di prodotti dello stesso vendor, come accade quando gli utenti tentano di spostare il codice scritto per un componente a uno differente. Ciò è probabilmente anche dovuto a un'insufficiente astrazione dei dettagli implementativi del componente — che è lo scopo di una API (Application Programming Interface). Quando un componente diviene obsoleto, è facile che gli utenti debbano riscrivere il codice in funzione del componente di nuova generazione. Questo paradigma sta cambiando grazie alla tecnologia di virtualizzazione e alle tecniche NFV che stanno aprendo nuovi scenari nei quali far girare il software e nuovi metodi per astrarlo dall'hardware sottostante.

Carenze di security

La security di dati e dispositivi non può essere un aspetto secondario, ma va integrata fin dall'inizio. Troppo spesso chi produce soluzioni di automazione non ha l'esperienza necessaria per implementare un sistema di difesa a strati esteso su hardware, BIOS, sistemi operativi, anti-malware, cifratura dati, VPN, prodotti SIEM (Security Information and Event Management) e altre tecnologie. Al contrario, i fornitori di sistemi COTS collaborano insieme per integrare fin da subito — anziché aggiungere successivamente — la security e mantenere aggiornate le misure di protezione all'interno dei rispettivi prodotti.

Limiti all'innovazione

Nessuna azienda è disposta a far dipendere il ritmo della propria innovazione dalle capacità o dalle motivazioni dei suoi fornitori. Che si tratti di manutenzione predittiva, big data o realtà virtuale [2], gli utenti vogliono poter adottare le tecnologie “best-of-breed” nel momento che ritengono più opportuno.

L'architettura software-defined

Come il mercato dell'automazione industriale, anche l'IT (Information Technology) ha dovuto affrontare i suoi problemi con interfacce di comunicazione proprietarie che isolavano i sistemi informativi enterprise gli uni dagli altri. La soluzione è stata quella di adottare Ethernet e TCP/UDP/IP con un focus sugli standard aperti e sulle piattaforme aperte. Il data center moderno è pieno di server COTS virtualizzati poco costosi che fanno girare software per la gestione cloud e che supportano IP (Internet Protocol) per la comunicazione e backplane di rete standard come l’ Ethernet.

Questi concetti IT vengono oggi applicati all'automazione industriale secondo una tendenza nota come architettura software-defined. La premessa è che la maggior parte delle funzioni residenti nei layer da L1 a L3 del modello ISA-95, mostrato nella figura 2, possono essere fatte girare su server COTS in grado di soddisfare i requisiti di performance real-time degli ambienti industriali. Di conseguenza, i singoli prodotti L1-L3 esistenti nelle attuali soluzioni di automazione proprietarie possono essere consolidati su server che offrono vantaggi equivalenti al data center IT. Come l'IT, anche l'architettura software-defined si avvale di standard aperti e piattaforme aperte, estendendole allo scopo di soddisfare le esigenze industriali , riducendone i costi fissi e variabili (CapEx e OpEx) e concretizzandone i vantaggi del cloud IT.

Figura 2: Il modello ISA-95 per lo sviluppo di un'interfaccia automatizzata tra sistemi enterprise e sistemi di controllo [3]

Più nello specifico, controller digitali basati su software, PLC/DCS, software SCADA, HMI, process historian e applicazioni L1–L3 possono girare all'interno di un'architettura industriale software-defined come mostrato in figura 3. I server si interfacciano con sensori, attuatori e altri dispositivi industriali fisici attraverso nodi di controllo distribuiti. L'architettura software-defined rende il data center ”industrial grade” concretizzando i vantaggi di un approccio basato su IT in termini di costi fissi e costi variabili, e allo stesso tempo soddisfa i requisiti industriali — come alta disponibilità, determinismo real-time, gestione del ciclo di vita e aggiornamenti trasparenti — che le soluzioni IT per data center tipicamente non rispettano.

Figura 3: L'architettura software-defined consolida su server COTS real-time ad alta disponibilità le funzioni L1-L3 di ISA-95 basate su software [4]

I vantaggi dell'architettura software-defined

Basata su standard aperti e piattaforme aperte, l'architettura software-defined permette all'industria di evitare il lock-in di singoli fornitori e le controindicazioni delle soluzioni proprietarie.

Riduzione dei costi fissi e variabili 

Rispetto alle soluzioni su misura, l'architettura software-defined abbatte i costi fissi dell'hardware rimpiazzando piattaforme informatiche custom prodotte in volumi ridotti con un set limitato di server COTS fabbricati su vasta scala. Questi server possono essere più semplici da gestire rispetto a un gran numero di singoli dispositivi proprietari, riducendo così anche i costi operativi. L'architettura software-defined riduce inoltre i costi fissi e variabili della logistica diminuendo significativamente il numero di componenti differenti che devono essere tenuti a portata di mano  a scopo di manutenzione e i costi necessari per formare e supportare il personale su una quantità di articoli specifici.

L'architettura software-defined è scalabile e può essere estesa più facilmente dal momento che ha bisogno di meno fili, cavi e sistemi da gestire, minimizzando così i costi legati alla connettività. Le soluzioni di questo tipo occupano anche minor spazio fisico nelle vicinanze degli apparati industriali che controllano.  I sistemi basati su architettura software-defined richiedono meno assistenza sul campo rispetto ai sistemi tradizionali dal momento che possono essere sottoposti a monitoraggio, diagnostica e aggiornamenti in real-time da remoto senza dover inviare tecnici in loco, riducendo così ulteriormente i costi variabili. In caso di guasto, meccanismi di failover ad alta disponibilità aiutano a ridurre la necessità di interventi di emergenza, ben più costosi di quelli di routine.  La lunga vita utile dei sistemi industriali introduce problemi di obsolescenza, e la separazione delle funzioni implementate in software dalle piattaforme hardware/software sottostanti permette all'architettura software-defined di mitigare i costi fissi e variabili associati agli aggiornamenti di piattaforma necessari a contrastare l'obsolescenza.

Flessibilità 

L'architettura software-defined è disegnata con piattaforme aperte che permettono a utenti, ISV (Independent Software Vendor), systems integrator, applicazioni commerciali best-in-class ecc. di sviluppare più facilmente componenti interoperabili rispetto a quanto è possibile con le soluzioni proprietarie. Dal momento che il software è slegato dall'hardware del server, esso può essere facilmente migrato e riutilizzato. Sono inoltre disponibili framework per la gestione e l'orchestrazione, come OpenStack ad esempio, per far sì che la soluzione di automazione industriale possa essere flessibile e funzionare con efficienza.

Accorgimenti di security integrati

Con l'architettura software-defined, la piattaforma hardware primaria è un server che può essere protetto più facilmente  rispetto al gran numero di piattaforme custom che si ritrovano nelle soluzioni di automazione proprietarie. Il settore IT ha sviluppato varie tecnologie hardware e software per la protezione dei server che possono essere riportate sull'architettura software-defined allo scopo di implementare una robusta security stratificata.  Anche gli aspetti dell'architettura software-defined inerenti le funzioni virtualizzate permettono di incorporare all'interno del sistema tecniche best-in-class per la sicurezza di rete (e dell'automazione industriale) in modo facile ed economico, praticamente come avviene con le soluzioni NFV nelle telecomunicazioni. Queste funzioni possono comprendere firewall, concentratori VPN, sistemi IDS/IPS (Intrusion Detection System/Intrusion Prevention System), SIEM e persino funzionalità di security che devono ancora essere sviluppate.

Innovazione più veloce

Dal momento che l'architettura software-defined si basa su piattaforme aperte, l'industria è libera di scegliere qualsiasi fornitore desideri per adottare le tecnologie e le innovazioni di processo più recenti. Dal momento che queste soluzioni girano su server COTS, è relativamente facile propagare queste innovazioni attraverso l'ambiente aziendale e persino sui sistemi enterprise, ottenendo pertanto un più consistente ritorno dall'investimento.

I requisiti di un'infrastruttura basata su architettura software-defined

Le soluzioni che rientrano in un'architettura software-defined devono funzionare in modo sicuro e affidabile raccogliendo dati industriali e attivando le relative risposte in tempo reale. Per fare ciò, un'infrastruttura basata su architettura software-defined deve consolidare le operazioni e le funzioni di controllo e soddisfare i seguenti criteri:

  • Virtualizzazione a bassa latenza: I server presenti nell'architettura software-defined devono supportare la virtualizzazione allo scopo di far girare le diverse funzioni e applicazioni presenti in ambito industriale. La tecnologia di virtualizzazione deve avere un overhead minimale per poter garantire le prestazioni deterministiche real-time delle applicazioni critiche e ottimizzare le risorse di quelle non critiche.
  • Networking deterministico: Una comunicazione real-time totalmente deterministica attraverso Ethernet è necessaria per le funzioni di controllo negli ambienti industriali. Time Sensitive Networking (TSN) soddisfa questo requisito creando un senso globale del tempo e una schedulazione  tra i vari componenti industriali.
  • Alta disponibilità: Nell’eventualità di un malfunzionamento del software, i server e le applicazioni presenti nell'architettura software-defined devono essere in grado di effettuare il failover automatico in modo sufficientemente rapido da supportare l'integrità del sistema di controllo. I requisiti di velocità del failover sono spesso di  ordini di grandezza molto più rapidi rispetto a quelli delle soluzioni IT standard, mentre le soluzioni NFV per telecomunicazioni di livello carrier si stanno avvicinando alle velocità di failover automatico richieste dall'architettura software-defined. La tecnologia di virtualizzazione agevola il failover in vari modi, come per esempio far ripartire un'immagine software di backup pulita senza bisogno di reboot del sistema o trasferendo il controllo a un server completamente ridondato per superare problemi di anomalie hardware o software.
  • Security : L'architettura software-defined permette di integrare tecnologie di security internamente e attraverso piattaforme hardware, middleware, applicazioni, comunicazione e infrastruttura. La flessibilità dell'architettura software-defined permette alle soluzioni di security di adattarsi nel tempo per rispondere ai cambiamenti dei sistemi e delle minacce. Le tecnologie richieste comprendono Secure Boot, ”roots of trust” (p. es. Trusted Platform Module [TPM]), generatori digitali di numeri casuali, identità sicure, attestazioni locali e remote, anti-malware, cifratura dei dati, firewall, autenticazione, autorizzazione ed accounting (AAA), IDS/IPS, SIEM e tunnel VPN.
  • Gestione del ciclo di vita: Un framework integrato per la gestione e l'orchestrazione dovrebbe supportare un ambiente di automazione dei processi progettato per restare costantemente attivo per interi anni. Gli utenti devono poter svolgere operazioni legate al ciclo di vita come aggiornamenti software, applicazione di patch su sistemi in funzione, espansione della capacità, aggiornamenti e sostituzioni hardware, e modifiche al networking logico e fisico senza alcuna interruzione del servizio. La facilità di installazione e provisioning (p. es. deployment da remoto o con una singola chiavetta USB e attraverso orchestrazione e gestione) agevola la gestione del ciclo di vita in una vasta gamma di scenari operativi compresi quelli dove un'eventuale interruzione richiede accesso fisico per poter rimediare all'inconveniente. Allarmi, log e monitoraggio esteso di piattaforme, hardware, applicazioni e servizi sono inoltre essenziali per mantenere un sistema di automazione efficiente e altamente disponibile.
  • Superiore consapevolezza e monitoraggio della piattaforma: Le soluzioni presenti in un'architettura software-defined devono supportare le funzionalità hardware, lo stato di hardware e software, e la capacità di allineare questi elementi ai requisiti applicativi allo scopo di garantire i livelli di servizio richiesti. Queste funzioni di consapevolezza e monitoraggio della piattaforma permettono di allocare automaticamente le risorse e riallocarle per adattarsi ai cambiamenti pur conservando le proprietà critiche di prestazioni, security e ridondanza.
  • Applicazioni best-in-class: Basate su un'architettura di virtualizzazione x86 aperta che si avvale di hardware COTS, le soluzioni destinate a un'architettura software-defined devono supportare l'integrazione facilitata di tecnologie IT (Hadoop, Apache Storm, engine analitici Java, Linux e container Linux). Allo stesso tempo, queste soluzioni devono implementare tecnologie OT capaci di soddisfare requisiti real-time che sono più vincolanti rispetto a quelli vigenti nell'IT attraverso l'utilizzo di sistemi operativi come Linux o VxWorks per ottenere prestazioni real-time. Ciò permette di far migrare queste tecnologie attraverso l'ambiente industriale e riduce le barriere d'ingresso per i solution provider che desiderino aggiungere valore al sistema. Systems integrator e operatori possono quindi sfruttare la soluzione aperta per includere ISV e applicazioni best-in-class.

Da dove cominciare

Molti dei requisiti dell'architettura software-defined sono già stati risolti dalle reti di telecomunicazione che implementano NFV. Il portafoglio di prodotti Wind River Titanium Cloud rappresenta la prima piattaforma software totalmente integrata e funzionalmente completa per la virtualizzazione di rete, garantendo livelli ultraelevati di affidabilità e performance eccezionali supportando nel contempo le latenze estremamente basse richieste dai workload real-time.

Titanium Control fa parte di queste soluzioni ed è  un prodotto realizzato appositamente per il mercato industriale. I solution provider specializzati nell'architettura software-defined possono avviare immediatamente lo sviluppo su questa piattaforma progettata per avvalersi di server hardware COTS. Per maggiori informazioni su Titanium Control è possibile visitare www.windriver.com/products/titanium-control.

Riferimenti

[1] Corey Stefanczak, “Custom Automation vs. Commercial-Off-the-Shelf, or Both?” Control Engineering, 21 agosto 2013

[2] Industrial Virtual Reality Institute

[3] Dato basato su quanto riportato da Nicholas Sheble, InTech Magazine https://www.isa.org/standards-and-publications/isa-publications/intech-magazine/2007/march/channel-chat-iec-62264-and-isa-95-enterprise-control-system-integration

[4] Il dato è basato sulla presentazione Lockheed Martin/ExxonMobil Next Generation Open Automation System Industry Day tenuta il 26 gennaio 2016.

 

A cura di Gareth Noyes, Chief Strategy Officer - Wind River

 

Una risposta

Scrivi un commento

ESPertino è la nuova scheda per IoT compatibile ARDUINO.
Scopri come averla GRATIS!