Helm.ai dévoile Vision, un système de perception urbaine pour les véhicules semi-autonomes

La start-up américaine édite des logiciels de conduite autonome qui s'appuient sur une forme d'apprentissage non supervisé, évitant de recourir à de grands ensembles de données étiquetés et annotés. Homologué pour une production en série, son système Vision de niveaux 2+ et 3 est optimisé pour les plateformes de Qualcomm et Nvidia.

Helm.ai conduite semi autonome
Helm.ai conduite semi autonome

Helm.ai, start-up californienne spécialisée dans le développement de logiciels d'IA pour les systèmes d'aide à la conduite (ADAS), a présenté le 19 mai Vision, un système de perception urbaine basé sur des caméras pouvant être intégré dans des véhicules de série.

Cette solution est conçue pour les voitures autonomes de niveau 2+, où le conducteur reste responsable mais où le système peut détecter des obstacles et fournir une assistance au maintien sur la voie, et de niveau 3, où le système peut prendre le contrôle du véhicule dans certaines conditions (sur l'autoroute ou dans les bouchons, par exemple).

Un système qui classifie automatiquement les données

À la différence de bon nombre de ses concurrents, Helm.ai a mis au point une technologie d'apprentissage “non supervisé”, intitulée Deep Teaching. Autrement dit, l'algorithme est entraîné sur de grands ensembles de données n'ayant pas été annotés et étiquetés manuellement par l'humain. La start-up utilise certains capteurs pour des modèles de base, mais son offre repose surtout sur l'utilisation de caméras, sans combinaison avec des radars ou des Lidar comme c'est le cas chez Waymo ou May Mobility. Une manière de limiter les coûts de développement et d'intégration.

Après avoir collecté les données, la solution traite les images et les classifie automatiquement. Helm.ai explique que son système Vision “effectue la détection d'objets 3D en temps réel, la segmentation de la scène entière et la fusion de vues panoramiques multi-caméras, permettant au véhicule d'interpréter son environnement avec une grande précision”.

Intégration prévue dans des véhicules Honda

En particulier, Vision fusionne les données de plusieurs caméras pour créer une représentation du véhicule et de son environnement sous forme de vue aérienne (cf. image ci-dessous), afin d'être plus efficace dans la prédiction et la planification des intentions. Le système a d'ores et déjà été validé pour une production en masse. La start-up ajoute que Vision est optimisé pour un déploiement sur les principales plateformes pour véhicules intelligents, notamment celles de Qualcomm, Nvidia, Texas Instruments et Ambarella.

Helm.ai système Vision vue panoramique

La jeune pousse travaille actuellement avec Honda pour intégrer son système dans la gamme de véhicules électriques “série 0”, prévue pour l'année prochaine. Elle a également déclaré être en pourparlers avec d'autres constructeurs automobiles. Étant donné que ce système n'est pas entièrement autonome, il pourrait équiper certains modèles sur nos routes : depuis septembre 2022, les systèmes autonomes de conduite de niveau 3 sont autorisés en France.

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.