Le français NeurXcore lance des processeurs neuronaux sous forme d’IP bâtis sur une technologie open source de Nvidia

NeurXcore

Alors que les initiatives dans le domaine des puces IA (intelligence artificielle) destinées aux marchés de l’embarqué et de la périphérie de réseau (edge) se multiplient partout dans le monde, l’Hexagone n’est pas en reste. L’annonce de la jeune entreprise grenobloise NeurXcore en est la preuve flagrante. Se définissant comme une société de semi-conducteurs fabless, la start-up annonce sous le nom de SNVDLA une gamme de processeurs neuronaux NPU (Neural Processing Unit) éco-efficaces, commercialisés sous forme d’IP et adaptés à un large éventail d'applications, comme la vision artificielle et l'IA générative.

Caractéristique originale, ces puces, qui ont vocation à accélérer des réseaux de neurones dans les phases d’inférence, s’appuient sur une version largement modifiée et étendue de la microarchitecture d’accélération open source NVDLA (Nvidia Deep Learning Accelerator) de Nvidia.

Selon la configuration, précise NeurXcore sur son site, l’IP SNVDLA est plus de 100 fois plus rapide qu'un processeur graphique (GPU) pour l'accélération IA et 1 000 fois plus rapide qu'un processeur généraliste (CPU). Déjà qualifiée sur silicium (dans un procédé de fabrication 22 nm du fondeur TSMC), une implémentation typique du moteur d'inférence de la start-up française consomme moins de 10 mW lors de l'exécution de tâches de classification d'images à la fréquence d'images des films. D'autre part, ajoute la jeune pousse, des performances ultra-élevées (de l’ordre de plusieurs centaines de Tops) et la capacité d’effectuer diverses tâches en simultané sont réalisables grâce à l’architecture évolutive et multicœur.

NeurXcore précise qu’une carte électronique intégrant son processeur neuronal a été réalisée. Cette dernière permet de valider les fonctionnalités et démontrer l’efficacité du composant lors de l’exécution d’applications IA comme la reconnaissance d’images.

Au global, le processeur SNVDLA promet à terme une économie d'énergie ou une performance environ dix fois supérieure à celles de solutions commerciales équivalentes actuelles grâce à une technologie brevetée de calcul en mémoire développée au niveau transistor.

« Nous sommes extrêmement fiers d’avoir été capable d’atteindre de telles performances et du travail de l'équipe derrière ce produit révolutionnaire », indique dans un communiqué de presse Virgile Javerliac, fondateur et P-DG de NeurXcore. (On se souviendra que Virgile Javerliac avait cofondé il y a quelques années la défunte société eVaderis, dont l’Embarqué avait dressé le portrait en 2014.)

Dans la pratique, les processeurs de NeurXcore, qui combinent des technologies propriétaires brevetées avec le cœur d’accélération ouvert de Nvidia, sont proposés sous licence sous forme de blocs d’IP, les utilisateurs peuvant les utiliser dans leurs propres composants électroniques ou puces-systèmes de manière flexible.

La jeune pousse compte aussi proposer à terme ses processeurs sous forme de "chiplets", soit des puces de silicium prêtes à être intégrées dans des boîtiers-systèmes, pour les combiner à d'autres chiplets réalisant diverses fonctions (Bluetooth, caméra, etc.). Cette approche multipuce, contrairement à un seule puce-système, offre plus de flexibilité dans certains cas, notamment en permettant la combinaison de différents processus de fabrication, tout en optimisant les coûts au niveau densité, intégration et échelonnabilité.

Au-delà de ses blocs d’IP proprement dits, NeurXcore propose également un kit de développement logiciel (SDK), estampillé Heracium, dont l’objectif est d’optimiser l’exécution des réseaux de neurones sur les produits de la société. Heracium s'appuie sur le framework open source de bout en bout Apache TVM et prend en charge de nombreux modèles (TensorFlow, Keras, Caffe, Caffe2, ONNX, PyTorch, etc.).

NeurXcore estime être en mesure de répondre à un large éventail d'industries et d'applications, allant de l'ultrabasse consommation aux scénarios haute performance, et couvrant les capteurs et l'Internet des objets (IoT), les dispositifs électroniques portés sur soi, les smartphones, les maisons intelligentes, la surveillance, les décodeurs TV et numériques, les téléviseurs intelligents, la robotique, le calcul en périphérie de réseau (edge), la réalité augmentée/virtuelle, les systèmes avancés d'aide à la conduite (ADAS) ou les centres de données. A suivre donc.

Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA