"Des prototypes de voitures autonomes embarqueront des processeurs multicoeurs de Kalray dès 2017-2018"

Stéphane Cordova

Jusqu'ici positionnée sur le secteur de l'embarqué critique (Défense, aéronautique...) et sur le marché des cartes d’interface réseau ou de stockage pour les centres de données et les serveurs dans le cloud, la société française Kalray, spécialiste des processeurs massivement multicoeurs, trouve aujourd'hui de nouvelles opportunités sur le créneau de la voiture autonome. Explications de Stéphane Cordova, directeur de l’unité Voitures autonomes de la firme grenobloise...

Depuis sa création en 2008, Kalray s’est fait le champion des architectures de processeurs « many-core » pour les applications nécessitant performances élevées et consommation raisonnée. Quels sont les marchés aujourd’hui les plus sensibles à cette offre ?

STEPHANE CORDOVA Kalray cible deux marchés différents avec ses processeurs massivement parallèles. Le premier est celui des cartes d’interface réseau ou de stockage pour les centres de données et les serveurs dans le cloud qui ont besoin de processeurs intelligents pour accélérer les traitements ou effectuer de la cryptographie à des vitesses de près de 100 Gbit/s. Dans ce cadre, nos processeurs MPPA de 2e génération à 288 cœurs de calcul se distinguent par leur capacité à gérer aussi de l’Ethernet rapide. Notre deuxième marché est celui de l’embarqué et, historiquement, celui de l’embarqué critique dans des secteurs comme l’aéronautique et la Défense. Ici, notre avantage est de nous positionner comme l’un des rares fournisseurs à disposer d’un processeur puissant « made in Europe », ce qui est stratégique sur ces marchés. Sur des secteurs comme l’avionique ou le médical, la consommation énergétique limitée de nos processeurs et leur capacité à traiter des contraintes de temps réel dur les positionnent aussi comme des alternatives aux FPGA et unités de calcul graphique (GPU). Enfin, depuis un an et demi, le domaine de l’automobile, qui exprime de plus en plus des besoins énormes en performances de calcul tout en assurant la sûreté de fonctionnement, montre un intérêt croissant pour notre architecture.

Comment vous positionnez-vous par rapport aux fournisseurs traditionnels de semi-conducteurs pour l’automobile ou à de nouveaux entrants très entreprenants comme Nvidia ou Qualcomm ?

STEPHANE CORDOVA Nous nous positionnons ici clairement comme un challenger par rapport aux fournisseurs traditionnels de semi-conducteurs pour l’automobile qui, à l’instant où nous parlons, ne disposent pas de circuits développant une performance de type CPU équivalente… même si des annonces ont été faites pour des circuits qui devraient voir le jour plutôt en 2018. Sur ce terrain de l’automobile, nous travaillons d’ores et déjà avec un partenaire japonais, que nous ne pouvons pas encore citer, et nous avons entamé un travail de prospection auprès des fabricants de voitures en insistant sur la valeur apportée par Kalray qui n’est pas, pour le moment, proposée par d’autres et qui peut venir en complément de solutions existantes.

Ce qu’il faut bien voir, c’est qu’aujourd’hui, l’industrie automobile est confrontée à une problématique sérieuse. Avec entre soixante et quatre-vingts unités de contrôle ECU par véhicule (des chiffres qui pourraient être multipliés par trois voire quatre avec la voiture autonome), l’architecture informatique des automobiles est devenue trop complexe avec trop d’électronique distribuée. Les constructeurs envisagent maintenant de consolider les fonctions sur un nombre restreint d’ECU et de simplifier l’architecture réseau avec notamment une migration vers des variantes d’Ethernet. Cette évolution en cours va aussi dans le sens d’une plus grande fiabilité et d’une plus grande sûreté de fonctionnement du simple fait qu’il y a moins de composants électroniques. En fait, la structure « many-core » de notre circuit, qui se répartit en seize groupes multicœurs dotés chacun de leur propre mémoire et interconnectés par un réseau intégré sur la puce, est bien adaptée à cette évolution. Comme il n’y a pas de mémoire partagée entre ces groupes, il est possible de faire tourner sur le processeur des applications diverses et variées, éventuellement dotées de niveaux de criticité différents (fusion de capteurs, assistance évoluée à la conduite, intelligence artificielle, etc.). Notre architecture s’avère d’ailleurs très efficace pour tout ce qui touche aux traitements du signal, de l’image ou de la vidéo, traitements qui vont se multiplier avec la voiture autonome. Mais nos processeurs MPPA sont aussi de très bons CPU généralistes pour l’exécution de programmes écrits en C ou C++ comme les logiciels d’intelligence artificielle qui joueront un rôle primordial dans la future voiture autonome.

Vous insistez beaucoup sur cet aspect de complémentarité avec d’autres solutions dédiées à la voiture autonome. Pourquoi ?

STEPHANE CORDOVA En matière d’architectures de leurs futures voitures autonomes, les constructeurs ne savent pas vraiment où ils vont. Il est donc très important de leur proposer une solution qui s’avère complémentaire d’un choix qu’ils ont éventuellement déjà fait aujourd’hui et qu’ils pourront éventuellement modifier aisément à l’avenir. Dans ce cadre, notre processeur MPPA a un avantage car il est basé sur de vrais CPU (et non pas des cœurs de type GPU qui imposent des restrictions sur le langage de programmation), et il peut être éventuellement accompagné de circuits dédiés au traitement de bas niveau. Mais c’est aussi une unité d’accélération des traitements qui peut venir en complément d’un ou de plusieurs processeurs généralistes. De plus, ses connexions Ethernet à 10 Gbit/s permettent de les interfacer à faible latence à ces processeurs et à des capteurs au sein d’un système hétérogène multiprocesseur. A charge alors pour le constructeur de répartir les traitements sachant que l’architecture MPPA est orientée vers le temps réel et le déterminisme des temps de réponse, ce qui la positionne idéalement pour les applications critiques.

Reste qu’à l’heure actuelle, la plus grosse problématique à laquelle sont confrontés les constructeurs de véhicules autonomes, c’est la puissance de calcul des processeurs de type CPU car celle-ci s’avère encore trop limitée pour les besoins attendus dans le domaine de l’intelligence artificielle. Mais cette augmentation de puissance ne doit pas se faire au détriment de la consommation et de la dissipation thermique. Pour les constructeurs, il n’est pas envisageable d’intégrer de la dissipation active dans les véhicules autonomes. On considère d’ailleurs que l’enveloppe thermique des processeurs embarqués dans les prototypes de voitures autonomes ne doit pas excéder 10 W, une valeur qui devra certainement descendre à 5 W demain. Les architectures massivement multicœurs comme celles de nos processeurs MPPA sont par nature adaptées à satisfaire cette contrainte. Quoi qu’il en soit, afin de répondre aux nouvelles exigences de puissance de calcul, nous travaillons aujourd'hui sur notre 3e génération de processeurs MPPA qui devrait voir le jour en 2018. Parallèlement, les projets que nous avons en cours avec certains partenaires nous laissent penser qu’à l’échéance 2017-2018 des prototypes de véhicules autonomes avec des processeurs MPPA à bord rouleront sur les routes. Et il n’est pas interdit d’envisager des petites séries dès 2020 !

Propos recueillis par Pierrick Arlot