Helm.ai, un fournisseur de logiciels d'IA pour l'ADAS haut de gamme, la conduite autonome de niveau 4 et la robotique, a lancé un modèle de base d'IA générative multi-capteurs pour simuler l'ensemble de la pile de véhicules autonomes.
WorldGen-1 synthétise simultanément des données de capteurs et de perception très réalistes sur plusieurs modalités et perspectives, extrapole les données des capteurs d'une modalité à une autre et prédit le comportement de l'ego-véhicule et d'autres agents dans l'environnement de conduite. Ces capacités de simulation basées sur l'IA rationalisent le développement et la validation des systèmes de conduite autonome.
Tirant parti de l'innovation dans les architectures DNN génératives et du Deep Teaching, une technologie de formation non supervisée très efficace, WorldGen-1 est formé sur des milliers d'heures de données de conduite diverses, couvrant chaque couche de la pile de conduite autonome, y compris la vision, la perception, le lidar et l'odométrie.
WorldGen-1 génère simultanément des données de capteur très réalistes pour les caméras à vision panoramique, la segmentation sémantique au niveau de la couche de perception, la vue de face lidar, la vue à vol d'oiseau lidar et le trajet ego-véhicule en coordonnées physiques. En générant des données de capteurs, de perception et de trajectoire de manière cohérente sur l'ensemble de la pile audiovisuelle, WorldGen-1 reproduit avec précision les situations potentielles du monde réel du point de vue du véhicule autonome. Cette capacité complète de simulation de capteurs permet de générer des données étiquetées multi-capteurs haute fidélité pour résoudre et valider une myriade de cas difficiles.
De plus, WorldGen-1 peut extrapoler à partir de données de caméra réelles vers plusieurs autres modalités, notamment la segmentation sémantique, la vue frontale lidar, la vue aérienne lidar et la trajectoire du véhicule de l'ego. Cette capacité permet d'augmenter les ensembles de données existants uniquement pour les caméras en ensembles de données synthétiques multi-capteurs, augmentant ainsi la richesse des ensembles de données uniquement pour les caméras et réduisant les coûts de collecte de données.
Au-delà de la simulation et de l'extrapolation des capteurs, WorldGen-1 peut prédire, sur la base d'une séquence d'entrée observée, les comportements des piétons, des véhicules et de l'ego-véhicule par rapport à l'environnement, générant des séquences temporelles réalistes pouvant durer jusqu'à quelques minutes. Cela permet de générer par l’IA un large éventail de scénarios potentiels, y compris des cas rares.
WorldGen-1 peut modéliser plusieurs résultats potentiels sur la base des données d’entrée observées, démontrant ainsi sa capacité de planification et de prédiction multi-agents avancées. La compréhension de WorldGen-1 de l'environnement de conduite et sa capacité prédictive en font un outil précieux pour la prédiction d'intention et la planification de trajectoire, à la fois comme moyen de développement et de validation, ainsi que comme technologie de base qui prend des décisions de conduite en temps réel.
Source à partir de Congrès des voitures vertes
Avis de non-responsabilité : les informations présentées ci-dessus sont fournies par greencarcongress.com indépendamment d'Chovm.com. Chovm.com ne fait aucune représentation ni garantie quant à la qualité et à la fiabilité du vendeur et des produits. Chovm.com décline expressément toute responsabilité en cas de violation du droit d'auteur du contenu.