Casa » Approvvigionamento di prodotti » Ricambi e accessori per veicoli » Helm.ai presenta il modello di base di intelligenza artificiale generativa multisensore Worldgen-1 per la guida autonoma

Helm.ai presenta il modello di base di intelligenza artificiale generativa multisensore Worldgen-1 per la guida autonoma

All'interno dell'auto

Helm.ai, un fornitore di software di intelligenza artificiale per ADAS di fascia alta, guida autonoma di livello 4 e robotica, ha lanciato un modello di base di intelligenza artificiale generativa multisensore per simulare l'intero stack di veicoli autonomi.

WorldGen-1 sintetizza dati di sensori e percezioni altamente realistici attraverso più modalità e prospettive simultaneamente, estrapola i dati dei sensori da una modalità all'altra e prevede il comportamento dell'ego-veicolo e di altri agenti nell'ambiente di guida. Queste funzionalità di simulazione basate sull’intelligenza artificiale semplificano lo sviluppo e la convalida dei sistemi di guida autonomi.

Sfruttando l'innovazione nelle architetture DNN generative e nel Deep Teaching, una tecnologia di addestramento senza supervisione altamente efficiente, WorldGen-1 viene addestrato su migliaia di ore di dati di guida diversi, coprendo ogni livello dello stack di guida autonoma, inclusi visione, percezione, lidar e odometria.

WorldGen-1 genera simultaneamente dati di sensori altamente realistici per telecamere con vista circostante, segmentazione semantica a livello di percezione, vista frontale lidar, vista a volo d'uccello lidar e percorso del veicolo dell'ego in coordinate fisiche. Generando dati di sensori, percezioni e percorsi in modo coerente nell'intero stack AV, WorldGen-1 replica accuratamente le potenziali situazioni del mondo reale dal punto di vista del veicolo a guida autonoma. Questa funzionalità completa di simulazione dei sensori consente la generazione di dati etichettati multisensore ad alta fedeltà per risolvere e convalidare una miriade di casi limite impegnativi.

Inoltre, WorldGen-1 può estrapolare dai dati reali della telecamera a molteplici altre modalità, tra cui la segmentazione semantica, la vista frontale lidar, la vista a volo d'uccello lidar e il percorso del veicolo dell'ego. Questa funzionalità consente l’ampliamento dei set di dati esistenti relativi alle sole fotocamere in set di dati sintetici multisensore, aumentando la ricchezza dei set di dati relativi alle sole fotocamere e riducendo i costi di raccolta dei dati.

Oltre alla simulazione e all’estrapolazione dei sensori, WorldGen-1 può prevedere, sulla base di una sequenza di input osservata, i comportamenti di pedoni, veicoli e dell’ego-veicolo in relazione all’ambiente circostante, generando sequenze temporali realistiche della durata fino a minuti. Ciò consente la generazione dell’intelligenza artificiale di un’ampia gamma di scenari potenziali, inclusi rari casi limite.

WorldGen-1 può modellare molteplici risultati potenziali sulla base dei dati di input osservati, dimostrando la sua capacità di pianificazione e previsione avanzata multi-agente. La comprensione dell'ambiente di guida da parte di WorldGen-1 e la sua capacità predittiva lo rendono uno strumento prezioso per la previsione delle intenzioni e la pianificazione del percorso, sia come mezzo di sviluppo e convalida, sia come tecnologia di base che prende decisioni di guida in tempo reale.

Fonte da Congresso Green Car

Dichiarazione di non responsabilità: le informazioni sopra riportate sono fornite da greencarcongress.com indipendentemente da Chovm.com. Chovm.com non rilascia alcuna dichiarazione o garanzia in merito alla qualità e all'affidabilità del venditore e dei prodotti. Chovm.com declina espressamente qualsiasi responsabilità per violazioni relative al diritto d'autore dei contenuti.

Circa l'autore

Lascia un tuo commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

Scorrere fino a Top