-

Helm.ai kündigt VidGen-1 an: hochmodernes generatives KI-Video für autonomes Fahren

REDWOOD CITY, Kalifornien--(BUSINESS WIRE)--Helm.ai, ein führender Anbieter von fortschrittlicher KI-Software für High-End-ADAS, autonomes Fahren L4 und Robotik, gab heute die Einführung von VidGen-1 bekannt, ein generatives KI-Modell, das hochrealistische Videosequenzen von Fahrszenen für die Entwicklung und Validierung von autonomem Fahren produziert. Diese innovative KI-Technologie folgt auf die Ankündigung von Helm.ai zu GenSim-1 für KI-generierte, beschriftete Bilder und ist bedeutend sowohl für Vorhersageaufgaben als auch für generative Simulationen.

Das generative KI-Videomodell von Helm.ai, das auf tausenden Stunden diverser Fahraufnahmen trainiert wurde, nutzt innovative Deep-Neural-Network-(DNN)-Architekturen in Kombination mit Deep Teaching – einer hocheffizienten, unbeaufsichtigten Trainingstechnologie –, um realistische Videosequenzen von Fahrszenen zu erstellen. Die Videos, die in einer Auflösung von 384 x 640, mit variablen Bildraten von bis zu 30 Bildern pro Sekunde und bis zu mehreren Minuten Länge produziert werden, können ohne Eingabeaufforderung oder mit einem einzigen Bild oder Eingangsvideo erstellt werden.

VidGen-1 ist in der Lage, Videos von Fahrszenen in verschiedenen geografischen Regionen und für verschiedene Kameratypen und Fahrzeugperspektiven zu generieren. Das Modell erzeugt nicht nur hochrealistische Erscheinungen und zeitlich abgestimmte Objektbewegungen, sondern lernt und reproduziert auch menschliches Fahrverhalten, indem es die Bewegungen des eigenen Fahrzeugs und der umliegenden Verkehrsteilnehmer gemäß den Verkehrsregeln nachbildet. Das Modell simuliert realistische Videoaufnahmen verschiedener Szenarien in mehreren Städten weltweit, die urbane und vorstädtische Umgebungen, verschiedene Fahrzeuge, Fußgänger, Radfahrer, Kreuzungen, Kurven, Wetterbedingungen (z.B. Regen, Nebel), Beleuchtungseffekte (z.B. Blendung, Nachtfahrten) und sogar genaue Reflexionen auf nassen Fahrbahnen, reflektierenden Gebäudewänden und der Motorhaube des eigenen Fahrzeugs umfassen.

Videodaten sind die informationsreichste sensorische Modalität im autonomen Fahren und stammen von dem kostengünstigsten Sensor – der Kamera. Allerdings stellt die hohe Dimensionalität von Videodaten eine Herausforderung für die KI-Videoerzeugung dar. Es ist allgemein bekannt, dass es schwierig ist, bei der Videogenerierung sowohl eine hohe Bildqualität zu erreichen als auch die Dynamik einer sich bewegenden Szene präzise zu modellieren, um ein realistisches Video zu erzeugen.

„Wir haben einen technischen Durchbruch in der generativen KI für Videos erzielt und VidGen-1 entwickelt, womit wir einen neuen Maßstab im Bereich des autonomen Fahrens setzen. Die Kombination unserer Deep-Teaching-Technologie, die wir seit Jahren entwickeln, mit zusätzlicher hausinterner Innovation bei generativen DNN-Architekturen führt zu einer hocheffektiven und skalierbaren Methode zur Erstellung realistischer KI-generierter Videos. Unsere Technologie ist allgemein und kann ebenso effektiv auf autonomes Fahren, Robotik und jedes andere Gebiet der Videoerzeugung angewendet werden, ohne Änderungen vorzunehmen“, sagte Vladislav Voroninski, Mitbegründer und CEO von Helm.ai.

VidGen-1 bietet Automobilherstellern erhebliche Vorteile in Bezug auf Skalierung im Vergleich zu traditionellen, nicht auf KI basierenden Simulationen, indem es eine schnelle Asset-Generierung ermöglicht und die Akteure in der Simulation mit ausgefeilten realen Verhaltensweisen ausstattet. Der Ansatz von Helm.ai reduziert nicht nur die Entwicklungszeit und -kosten, sondern schließt auch effektiv die Lücke zwischen Simulation und Realität und bietet eine äußerst realistische und effiziente Lösung, die die Anwendbarkeit simulationsbasierter Schulung und Validierung erheblich erweitert.

„Die Vorhersage des nächsten Bildes in einem Video ist vergleichbar mit der Vorhersage des nächsten Wortes in einem Satz, aber viel hochdimensionaler“, fügte Voroninski hinzu. „Die Generierung realistischer Videosequenzen einer Fahrszene stellt die fortschrittlichste Form der Vorhersage für das autonome Fahren dar, da sie eine genaue Modellierung des Erscheinungsbildes der realen Welt erfordert und sowohl die Absichtsvorhersage als auch die Pfadplanung als implizite Teilaufgaben auf der höchsten Ebene des Stacks beinhaltet. Diese Fähigkeit ist für das autonome Fahren von entscheidender Bedeutung, da es beim Fahren im Wesentlichen darum geht, vorherzusagen, was als Nächstes passieren wird.“

Über Helm.ai

Helm.ai entwickelt die nächste Generation von KI-Software für High-End-ADAS, autonomes Fahren L4 und Robotik. Das 2016 gegründete Unternehmen mit Sitz in Redwood City, Kalifornien, hat eine neue Art der Entwicklung von KI-Software eingeführt, um wirklich skalierbares autonomes Fahren Realität werden zu lassen. Weitere Informationen über Helm.ai, einschließlich der Produkte, des SDK und offener Karrieremöglichkeiten, finden Sie unter https://www.helm.ai/. Folgen Sie auch Helm.ai auf LinkedIn.

Die Ausgangssprache, in der der Originaltext veröffentlicht wird, ist die offizielle und autorisierte Version. Übersetzungen werden zur besseren Verständigung mitgeliefert. Nur die Sprachversion, die im Original veröffentlicht wurde, ist rechtsgültig. Gleichen Sie deshalb Übersetzungen mit der originalen Sprachversion der Veröffentlichung ab.

Contacts

Medienkontakt:
Satoko Nakayama
Helm.ai
press@helm.ai

Helm.ai


Release Versions

Contacts

Medienkontakt:
Satoko Nakayama
Helm.ai
press@helm.ai

More News From Helm.ai

Helm.ai und Honda Motor Co. vereinbaren mehrjährige ADAS-Entwicklungszusammenarbeit für Massenproduktion von Personenkraftwagen

REDWOOD CITY, Kalif.--(BUSINESS WIRE)--Helm.ai, ein führender Anbieter von KI-Software für autonomes Fahren, hat heute ein Abkommen mit Honda Motor Co. über eine mehrjährige Zusammenarbeit im Bereich Entwicklung bekannt gegeben. Dadurch beschleunigen die beiden Unternehmen die Entwicklung von Honda’s Funktionen für autonomes Fahren der kommenden Generation, einschließlich der Plattform Navigate on Autopilot (NOA). Die Partnerschaft konzentriert sich auf Advanced Driver Assistance Systems (ADAS)...

Helm.ai kündigt Level 3-System für die Erkennung von städtischen Umgebungen mit ISO 26262-Komponenten an

REDWOOD CITY, Kalif.--(BUSINESS WIRE)--Helm.ai ist ein führender Anbieter von fortschrittlicher KI-Software für hochwertiges ADAS, autonomes Fahren und Robotik. Heute hat das Unternehmen Helm.ai Vision vorgestellt, ein System auf Produktionsebene für die Erkennung von städtischen Umgebungen für Level 2+ und Level 3 autonomes Fahren in Fahrzeugen für den Massenmarkt. Helm.ai Vision bietet genaue, zuverlässige und umfassende Erkennung und stellt für Automobilproduzenten eine skalierbare, kostenef...

Helm.ai präsentiert Helm.ai Driver – ein neuronales Netzwerk für Vision-basierte Echtzeit-Pfadvorhersagen im Stadtverkehr

REDWOOD CITY, Kalifornien, USA--(BUSINESS WIRE)--Helm.ai, ein führender Anbieter von moderner KI-Software für hochentwickelte Fahrerassistenzsysteme, autonomes Fahren und Roboterautomatisierung, hat heute Helm.ai Driver vorgestellt. Das auf einem Deep Neural Network (DNN) basierende Echtzeit-Transformersystem zur Pfadvorhersage ist für autonomes Fahren der Level 2 bis 4 auf Autobahnen und in Städten konzipiert. Das Unternehmen demonstriert die Pfadvorhersagefähigkeiten des Modells in einer Clos...
Back to Newsroom