CORDIS - Risultati della ricerca dell’UE
CORDIS

Cloud Large Scale Video Analysis

Article Category

Article available in the following languages:

Annotazione video automatica per auto senza conducente a prova di rischio

Annotare manualmente gli enormi volumi di dati video utilizzati per testare e addestrare veicoli autonomi e garantire che reagiscano in modo sicuro a qualsiasi oggetto o evento sarebbe un’impresa titanica. Grazie al lavoro svolto nell’ambito del progetto Cloud-LSVA, sarà presto possibile combinare i megadati e il cloud computing per eseguire automaticamente questo compito.

Economia digitale icon Economia digitale

La corsa per immettere sul mercato la prima auto senza conducente è in corso e abbiamo già una buona idea di come questa si presenterà: un’auto coperta da qualsiasi genere di telecamere e sensori che registreranno e analizzeranno tutto ciò che accade nell’ambiente circostante, in tempo reale. Secondo gli esperti, si tratta di 10 terabyte di dati generati ogni giorno solo per quanto concerne i video. Si prevede che le future auto senza conducente includeranno circa 10 telecamere CMOS in dotazione ai loro sistemi di guida assistita (ADAS, active driving assisted systems); annotare i dati che generano in merito a oggetti nel traffico, eventi e luoghi sarà fondamentale per testare e addestrare i sistemi visivi del computer, senza i quali l’auto non sarebbe in grado di prendere la decisione giusta al momento giusto. Tuttavia, c’è una lacuna: al momento mancano set di dati video etichettati e realistici di dimensioni, complessità e completezza sufficienti per addestrare la visione artificiale delle future auto senza conducente. «La generazione o l’etichettatura dei metadati è un lavoro noioso. Di solito viene svolto manualmente disegnando scatole o pixel ed etichettandoli singolarmente, fotogramma per fotogramma. Tale annotazione umana è lenta, incoerente ed eccessivamente costosa. Inoltre, l’opportunità di acquisire questa conoscenza umana durante l’annotazione e di riportarla nel processo di addestramento non viene sfruttata appieno», spiega la dottoressa Oihana Otaegui, responsabile dei sistemi di trasporto intelligente e dell’ingegneria presso Vicomtech, un centro di ricerca spagnolo specializzato nella visione artificiale. Questi problemi potrebbero essere facilmente superati mediante la tecnologia di analisi video basata sul cloud, insieme a strumenti per fondere i video con altre fonti di dati. Ed è proprio in questo che consiste il progetto Cloud-LSVA (Cloud Large Scale Video Analysis): creare grandi set di dati di addestramento da utilizzare in sistemi di rilevamento basati sulla visione, insieme a descrizioni di luoghi basate su oggetti ed eventi al fine di valutare le prestazioni di algoritmi e sistemi installati nell’automobile. «La nostra piattaforma di megadati può pre-annotare automaticamente grandi set di dati video e caricarli su un’infrastruttura cloud. Successivamente, ogni scena registrata verrà analizzata e scomposta per rilevare e classificare oggetti ed eventi rilevanti per scenari specifici», spiega la dottoressa Otaegui, proseguendo: «Nella seconda fase, lo strumento di annotazione aiuta gli utenti a perfezionare e incrementare le annotazioni. Infine, vengono applicate tecniche di apprendimento online per aggiornare i modelli di rilevamento e classificazione e per integrare le conoscenze umane nei processi automatici. In alcuni scenari saranno inclusi anche meccanismi di ragionamento per consentire l’annotazione automatica di concetti complessi non precedentemente inseriti o etichettati da operatori umani, fornendo descrizioni automatiche dei luoghi». Da lì, gli utenti e le applicazioni possono eseguire query semantiche su archivi video tramite meta-lingue e query per consentire una rapida condivisione dei risultati: l’analisi di megadati video online diviene a portata di mano. 
 Sebbene sia principalmente rivolto alle funzioni ADAS per i veicoli automatizzati e alla generazione di cartografia HD, Cloud-LSVA prevede anche l’utilizzo di cataloghi dei luoghi da iniziative di analisi degli incidenti (GIDAS, German In Depth Accident Study) o valutazione della qualità dei sistemi all’interno del veicolo (Euro NCAP, programma europeo di valutazione dei nuovi modelli di automobili). Oltre all’industria automobilistica, altre applicazioni possono riguardare il campo della robotica e dell’assistenza sanitaria (che ha una richiesta analoga per quanto riguarda l’annotazione delle immagini mediche). Progetti per il futuro Il progetto sarà completato alla fine del 2018. A quel punto, la squadra dovrà ancora chiudere completamente il ciclo tra le abilità di elaborazione all’interno del veicolo e il calcolo a livello cloud, in modo da fornire un ciclo di elaborazione completamente ricorsivo: il cloud apprende dalle annotazioni, aggiorna i modelli e li consegna ai veicoli per aumentare le prestazioni nel tempo. Scaduto tale termine, la dottoressa Otaegui prevede anche come, in «uno scenario non troppo lontano, flotte di auto di prova, e possibilmente auto di trasporto privato, guideranno e raccoglieranno volumi di dati ancora più grandi, che richiederanno quindi un incremento equivalente in capacità di cloud computing e comunicazione della piattaforma per quanto concerne l’importazione e l’elaborazione dei dati». Cloud-LSVA sta già affrontando questo problema futuro adottando un’architettura di calcolo in cui le capacità di elaborazione vengono avvicinate alla fonte dei dati, cioè all’automobile. «La partecipazione di Valeo e IBM al progetto ha offerto la possibilità di esplorare gli ultimi sviluppi della visione artificiale integrata all’interno di un veicolo con l’obiettivo di pre-annotare tutti i dati in tempo reale durante la registrazione», afferma la dottoressa Otaegui.

Parole chiave

Cloud-LSVA, megadati, annotazione video, telecamera CMOS, ADAS

Scopri altri articoli nello stesso settore di applicazione