Helm.ai, ein Anbieter von KI-Software für High-End-ADAS, autonomes Fahren der Stufe 4 und Robotik, hat ein multisensorisches generatives KI-Grundmodell zur Simulation des gesamten autonomen Fahrzeug-Stacks auf den Markt gebracht.
WorldGen-1 synthetisiert hochrealistische Sensor- und Wahrnehmungsdaten über mehrere Modalitäten und Perspektiven hinweg gleichzeitig, extrapoliert Sensordaten von einer Modalität auf eine andere und prognostiziert das Verhalten des Ego-Fahrzeugs und anderer Agenten in der Fahrumgebung. Diese KI-basierten Simulationsfunktionen rationalisieren die Entwicklung und Validierung autonomer Fahrsysteme.
WorldGen-1 nutzt Innovationen in generativen DNN-Architekturen und Deep Teaching, einer hocheffizienten unbeaufsichtigten Trainingstechnologie, und wird anhand von Tausenden von Stunden unterschiedlicher Fahrdaten trainiert, die jede Ebene des autonomen Fahrstapels abdecken, einschließlich Sehen, Wahrnehmung, Lidar und Odometrie.
WorldGen-1 generiert gleichzeitig hochrealistische Sensordaten für Rundumsichtkameras, semantische Segmentierung auf der Wahrnehmungsebene, Lidar-Frontansicht, Lidar-Vogelperspektive und den Ego-Fahrzeugpfad in physikalischen Koordinaten. Durch die konsistente Generierung von Sensor-, Wahrnehmungs- und Pfaddaten über den gesamten AV-Stack hinweg repliziert WorldGen-1 potenzielle reale Situationen aus der Perspektive des selbstfahrenden Fahrzeugs präzise. Diese umfassende Sensorsimulationsfunktion ermöglicht die Generierung hochpräziser, mit mehreren Sensoren gekennzeichneter Daten, um eine Vielzahl anspruchsvoller Sonderfälle zu lösen und zu validieren.
Darüber hinaus kann WorldGen-1 von echten Kameradaten auf zahlreiche andere Modalitäten extrapolieren, darunter semantische Segmentierung, Lidar-Frontansicht, Lidar-Vogelperspektive und den Weg des eigenen Fahrzeugs. Diese Fähigkeit ermöglicht die Erweiterung bestehender Nur-Kamera-Datensätze zu synthetischen Multisensor-Datensätzen, wodurch der Umfang von Nur-Kamera-Datensätzen erhöht und die Kosten der Datenerfassung gesenkt werden.
Über die Sensorsimulation und Extrapolation hinaus kann WorldGen-1 auf der Grundlage einer beobachteten Eingabesequenz das Verhalten von Fußgängern, Fahrzeugen und dem Ego-Fahrzeug in Bezug auf die Umgebung vorhersagen und realistische Zeitsequenzen mit einer Länge von bis zu Minuten generieren. Dies ermöglicht die KI-Generierung einer breiten Palette potenzieller Szenarien, einschließlich seltener Sonderfälle.
WorldGen-1 kann mehrere mögliche Ergebnisse auf der Grundlage beobachteter Eingabedaten modellieren und so seine Fähigkeit zur erweiterten Multi-Agenten-Planung und -Vorhersage unter Beweis stellen. WorldGen-1s Verständnis der Fahrumgebung und seine Vorhersagefähigkeit machen es zu einem wertvollen Werkzeug für die Absichtsvorhersage und die Wegplanung, sowohl als Mittel zur Entwicklung und Validierung als auch als Kerntechnologie, die Fahrentscheidungen in Echtzeit trifft.
Quelle aus Green Car Kongress
Haftungsausschluss: Die oben aufgeführten Informationen werden von greencarcongress.com unabhängig von Chovm.com bereitgestellt. Chovm.com übernimmt keine Zusicherungen und Gewährleistungen hinsichtlich der Qualität und Zuverlässigkeit des Verkäufers und der Produkte. Chovm.com lehnt ausdrücklich jegliche Haftung für Verstöße gegen das Urheberrecht der Inhalte ab.