Automobile : l’apprentissage automatique vient aux processeurs de vision artificielle embarqués

[EDITION ABONNES] A l'heure du véhicule semi ou 100% autonome, la vision artificielle, éventuellement couplée à des algorithmes d'apprentissage automatique, permet aux automobiles de mieux appréhender l'environnement qui les entoure. Elle devient une brique indispensable à intégrer dans les circuits intégrés de type SoC hétérogènes. Les dernières annonces en la matière en témoignent. ...  

« Les équipements qui appréhendent le mieux l’environnement qui les entourent sont habituellement ceux qui offrent le plus de fonctionnalités et qui sont les plus autonomes, les plus sûrs et les plus simples à utiliser. » C’est en ces termes que Jeff Bier, le fondateur de l’Embedded Vision Alliance, salue la récente annonce du DSP Tensilica Vision P6 de Cadence qui se positionne clairement sur le marché de la vision artificielle et de l’apprentissage profond (deep learning), méthode de modélisation de données à un haut niveau d’abstraction de plus en plus utilisées dans l’analyse des signaux sonores et visuels. Comme sa labellisation l’indique, le DSP Vision P6 vient compléter par le haut son prédécesseur, le DSP Vision P5, lancé en 2015 pour venir prêter main forte aux processeurs d’application généralistes embarqués dans les smartphones, les tablettes, les TV numériques, les drones, les automobiles et les dispositifs électroniques portés sur soi haut de gamme.

Aujourd’hui bien positionné sur le marché des mobiles (si l’on en croit Cadence), le Vision P5, qui aurait déjà été adopté par deux fabricants majeurs de processeurs SoC d’application pour smartphones, peut prendre à sa charge des algorithmes complexes de traitement d’image et de vision artificielle comme la réduction de bruit multitrame, la stabilisation vidéo, l’imagerie à grande gamme dynamique HDR (High Dynamic Range), la reconnaissance et le suivi d’objets et de visages, le zoom numérique, la reconnaissance de gestes, etc. Et ce avec des performances de quatre à cent fois supérieures à celles du traditionnel couple CPU+GPU pour une consommation bien plus faible, affirme Cadence.

Des performances quadruplées

Avec le DSP Vision P6, dont l’échantillonnage est prévu dans l’année, la société américaine place le curseur encore un peu plus loin en quadruplant les performances du Vision P5, et notamment les performances en opérations de multiplication-accumulation (MAC). Une caractéristique qui cible tout particulièrement les applications de réseaux de neurones à convolution (CNN) fortement gourmands en opérations MAC, les CNN étant des architectures typiquement utilisées pour l’apprentissage profond. Par ailleurs, assure Cadence, si on le compare à un processeur graphique traditionnel, le DSP Tensilica Vision P6 peut travailler à une fréquence d’image deux fois plus rapide sur une implémentation de réseau de neurones typique pour une consommation beaucoup plus faible.

Pour d’autres fonctions de vision clés, telles que la convolution, les filtres à réponse impulsionnelle finie (FIR) et la multiplication matricielle, le dernier-né des cœurs DSP de l’Américain afficherait là aussi des performances quadruplées grâce à ses capacités arithmétiques 8 bits et 16 bits. De plus, le processeur Tensilica Vision P6 implémente une technologie de compression des données à la volée afin de réduire de façon significative l’encombrement mémoire et la bande passante que requièrent les couches de réseaux neuronaux « intégralement connectées ». Le calcul en virgule flottante n’a pas été oublié avec des performances doublées par rapport au DSP Vision P5. Côté logiciel, Cadence assure la prise en charge des types de données en nombre entier, virgule fixe et virgule flottante, et propose une chaîne d’outils adapté avec un compilateur C à auto-vectorisation ainsi que le support des bibliothèques standard de traitement d’image et de vision artificielle OpenCV et OpenVX.

Un moteur d'éxécution de réseaux de neurones

Compatriote de Cadence et également acteur majeur du marché de la CAO électronique, Synopsys est lui aussi présent sur le marché des cœurs de processeur de vision. Et il met lui aussi l’accent sur les réseaux de neurones ! La société vient à cet effet de dévoiler la famille de processeurs DesignWare EV6x censés développer des performances cent fois supérieures aux modèles de la génération précédente EV5x afin de répondre aux besoins des applications exigeantes comme les systèmes d’aide évoluée à la conduite automobile (ADAS), la vidéosurveillance par drone ou la réalité virtuelle ou augmentée.

Bâtis sur une architecture hétérogène et adaptés aux images de haute résolution (jusqu’à 4K), les processeurs EV61, EV62 et EV64 intègrent un, deux ou quatre cœurs dédiés à la vision ainsi qu’un moteur programmable d’exécution de réseaux de neurones à convolution CNN. Ce dernier fonctionne en parallèle des autres cœurs sur les opérations de détection d’objets à haute précision, de classification d’image et de segmentation sémantique et ce pour une fraction de la consommation des solutions de vision concurrentes, précise Synopsys. Dans le détail, chaque cœur de vision s’articule autour d’une unité de calcul scalaire 32 bits et d’un DSP pour calcul vectoriel de largeur 512 bits, le tout pouvant être configuré pour des opérations sur 8, 16 ou 32 bits. Dans la configuration maximale à quatre cœurs, le processeur délivre une puissance de 620 giga-opérations par seconde, tandis que le moteur CNN (optionnel) délivre une puissance de calcul de 800 opérations MAC par cycle. Selon Synopsys, les processeurs EV61, EV62 et EV64 seront disponibles au mois d’octobre 2016, sachant qu’un kit de développement MetaWare et un kit logiciel ad hoc (avec bibliothèque OpenCV, framework d’exécution OpenVX et compilateur C OpenCL) sera proposé dès ce mois de juin.

Intel et ARM en embuscade

Les annonces de Cadence et de Synopsys interviennent au moment-même où les grandes sociétés de semi-conducteurs s’engagent dans une guerre de position pour ne pas passer à côté du marché de la vision artificielle et de l’apprentissage profond, chevilles ouvrières d’applications majeures comme le véhicule semi-autonome ou autonome, la robotique ou les drones. Ainsi Intel vient-il de mettre la main sur un spécialiste de la vision artificielle. Le 25 mai, le géant américain a signé un accord définitif de reprise de la société d’origine russe Itseez, passée experte dans les algorithmes de vision artificielle et leur implémentation sur des plates-formes matérielles embarquées et/ou spécifiques. Créé en 2005 et partie prenante dans l’élaboration de standards comme OpenCV ou OpenVX, Itseez est présent sur les marchés du grand public (avec un logiciel de capture 3D pour téléphones mobiles), de la vidéo, des systèmes de sécurité, de la robotique et de l’automobile.

Quelques semaines avant, c’est le britannique ARM qui s’était offert son compatriote Apical, une société créée en 2002 et spécialisée elle aussi dans les technologies de vision artificielle et de traitement d’images embarqué. Si les produits d’Apical sont aujourd’hui présents dans plus de 1,5 milliard de smartphones et dans environ 300 millions de terminaux industriels et grand public (caméras IP, appareils photos numériques, tablettes…), l’acquisition vise surtout à renforcer la présence de l’écosystème ARM sur des marchés comme les véhicules connectés, les robots, les villes intelligentes, les systèmes de sécurité, les applications industrielles et l’Internet des objets.

STMicroelectronics pense à l'avenir !

Enfin, alors que Nvidia et Qualcomm rivalisent d’annonces en matière de plates-formes embarquées « intelligentes » pour les futurs véhicules autonomes, les fournisseurs de semi-conducteurs présents depuis longtemps sur le marché de l’automobile ne restent pas inactifs, loin s’en faut. Après Renesas (et son SoC R-Car H3 prévu pour 2018), STMicroelectronics et NXP ont récemment abattu leurs cartes en la matière. Le premier vient ainsi d’annoncer un partenariat renforcé avec la société israélienne Mobileye afin de développer un SoC de 5e génération capable d’agir en tant que plate-forme de traitement centralisé, dédiée aux opérations de fusion de données issues des capteurs des véhicules 100% autonomes qui verront le jour à partir de 2020.

Labellisé EyeQ5, ce circuit, dont l’échantillonnage est prévu dans le courant du premier semestre 2018, sera conçu en technologie FinFET 10 nm ou moins et architecturé autour de huit cœurs de processeur à double thread couplés à dix-huit cœurs de processeur de vision de nouvelle génération. Ensemble, ces améliorations permettront de multiplier par 8 les performances affichées par l'actuel EyeQ4, assure STMicroelectronics qui parie sur une puissance de plus de 12 téra-opérations par seconde tout en maintenant la consommation d'énergie au-dessous de 5 W. NXP, pour sa part, met notamment ses espoirs dans le processeur S32V qui associe des cœurs ARM Cortex-A53, des moteurs graphiques, des accélérateurs dédiés de traitement d’image, une fonction de fusion de capteurs et la technologie Apex d’analyse et d’interprétation des éléments d’une image (issue de CogniVue, société acquise par NXP, alors Freescale, en septembre 2015).