La localizzazione è uno dei moduli chiave di un sistema di guida autonoma. Conoscere la posizione precisa del veicolo è di fondamentale importanza per la percezione e i controlli. I sensori LiDAR si sono dimostrati molto utili per risolvere le sfide di localizzazione, grazie alle loro rappresentazioni accurate e dense dell'area circostante il veicolo. I risultati di localizzazione ottenuti dai LiDAR possono essere ulteriormente migliorati sulla base di mappe 3D costruite concatenando nuvole di punti allineati utilizzando dati aggiuntivi provenienti da altri sensori. In questo articolo, analizzeremo un approccio innovativo basato su nuvole di punti LiDAR e OpenStreetMaps (OSM) attraverso un filtro particellare vincolato che, come vedremo, può migliorare significativamente l'accuratezza della localizzazione del veicolo, con un errore di posizione inferiore a 3 m.
Light Detection And Ranging
Poche persone sanno esattamente cosa sia la tecnologia LiDAR e come funziona. Tuttavia, si tratta di un sistema sempre più importante per lo sviluppo di nuovi veicoli a guida autonoma. L’acronimo LiDAR (Light Detection And Ranging) identifica la tecnologia che misura la distanza da un oggetto illuminandolo con una luce laser. In questa maniera, è in grado di restituire informazioni tridimensionali ad alta risoluzione sull'ambiente circostante. Tipicamente, utilizza componenti come laser e fotorilevatori. Si tratta, in pratica, di un sistema simile ad un radar, che utilizza però la luce pulsata come segnale. Ma i risultati delle localizzazioni basati su tecnologia LiDAR possono essere migliorati sulla base di mappe tridimensionali. Sebbene questi tipi di mappe possano contribuire a raggiungere un'elevata precisione nel tracciamento del veicolo, presentano tuttavia degli svantaggi che ne rendono molto difficile l'impiego, a causa degli attuali problemi tecnologici. Ad esempio, sono costose e richiedono molto tempo. Costruire e mantenere tali mappe richiede di percorrere ripetutamente tutte le aree in cui siamo interessati a localizzare i veicoli. Inoltre, è necessario un grande spazio di archiviazione; le mappe HD sono notoriamente molto grandi a causa dei milioni di punti che contengono, il che può rendere difficile la loro distribuzione in tempo reale. Pertanto, le nuvole di punti 3D potrebbero non essere il formato migliore da utilizzare per le mappe. Al contrario, si potrebbe combinare il LiDAR con una mappa ampiamente disponibile, gratuita e aggiornata di routine, ovvero OpenStreetMaps (OSM).
LiDAR e OSM
I sensori LiDAR eccellono nella rappresentazione delle caratteristiche geometriche dell'ambiente circostante. Nel caso di un veicolo che circola in un ambiente urbano, l'ambiente circostante è composto principalmente dalla strada e dagli edifici e oggetti vicini, come le automobili. Naturalmente, queste classi di oggetti sono comunemente etichettate in OSM e un modo intuitivo di utilizzarle sarebbe quello di abbinarle tra le varie modalità per localizzare un veicolo. Sebbene siano stati compiuti progressi notevoli nell'allineamento con reti neurali tra telecamere e LiDAR, la corrispondenza tra immagini RGB estratte da una mappa astratta come OSM e nuvole di punti il più accurati possibili per la localizzazione è molto impegnativa. Per risolvere questo problema, si potrebbe utilizzare il raycasting, combinato con una maschera di edifici estratta da OSM, in modo da produrre immagini LiDAR simulate, realizzando una mappa secondaria in cui localizzeremo i veicoli sulla strada estratta dalle nuvole di punti di input ed una mappa di vincolo per assicurarci che il risultato finale della localizzazione non esca dalla strada, nel caso di un input rumoroso del sensore.
La difficoltà di allineare le nuvole di punti LiDAR con OSM è dovuta principalmente al divario di modalità tra queste due rappresentazioni. Le nuvole di punti restituite da un LiDAR sono tipicamente rappresentate da un array non ordinato che rappresenta le posizioni e la riflettività di ciascun punto. Al contrario, la rappresentazione OSM è un'immagine RGB che rappresenta una vista dall'alto dell'ambiente, con diverse classi etichettate di conseguenza. Un primo passo comune quando si cerca di localizzare nuvole di punti 3D in mappe aeree 2D è quello di procedere a una proiezione a volo d'uccello. Questo significa prima ritagliare la nuvola di punti in una regione di interesse accettabile, poi proiettarla sul piano di terra e ridimensionarla in base a una scala predefinita, in modo da poterla rappresentare come un'immagine 2D. In questo modo, si ottiene una rappresentazione dall'alto della nuvola di punti LiDAR e un aspetto visivo più simile alla mappa 2D dall'alto. Tuttavia, anche dopo aver proceduto con questa proiezione, il divario tra le modalità è ancora troppo grande per tentare una corrispondenza diretta tra queste due. Per risolvere il problema, si può estrarre da OSM una maschera di strade ed edifici, che sono le classi di oggetti più comuni in un ambiente urbano. Queste maschere vengono poi utilizzate per generare immagini LiDAR simulate dall'alto. Utilizziamo un filtro particellare a doppio ingresso che tenta di allineare le immagini LiDAR simulate con le immagini della nuvola di punti in ingresso. Poiché è ragionevole supporre che il nostro veicolo non debba mai uscire dalla strada, utilizziamo anche la maschera stradale per vincolare il filtro particellare, assicurandoci che la soluzione finale si trovi sempre all'interno della regione vincolata. Questo metodo non si basa su alcun tipo di apprendimento automatico e utilizza solo mappe open-source per la localizzazione basata su LiDAR. Può essere utilizzato ovunque, purché OSM sia disponibile, e può sostituire il GPS quando il sensore GPS o il segnale GPS non sono disponibili.
ATTENZIONE: quello che hai appena letto è solo un estratto, l'Articolo Tecnico completo è composto da ben 2082 parole ed è riservato agli ABBONATI. Con l'Abbonamento avrai anche accesso a tutti gli altri Articoli Tecnici che potrai leggere in formato PDF per un anno. ABBONATI ORA, è semplice e sicuro.