NXP collabore avec Nvidia pour accélérer le déploiement de l’IA sur ses puces pour périphérie de réseau (edge)

Nvidia-NXP

Simplifier l’apprentissage et le déploiement de modèles d’intelligence artificielle (IA) est l’un des plus grands défis auxquels sont confrontés les développeurs IA d’aujourd’hui. Tel est du moins le constat fait par NXP qui, à l’occasion de la conférence Nvidia GTC qui s'est tenue du 18 au 21 mars 2024, a annoncé une collaboration avec Nvidia visant à faciliter le déploiement des modèles IA Nvidia préalablement entraînés sur le portefeuille de puces de traitement en périphérie de réseau (edge computing) de la société batave. Et ce via l'environnement de développement d'apprentissage automatique eIQ (propre à NXP).

Cette fonctionnalité est rendue possible par l’intégration fonctionnelle de la boîte à outils Nvidia TAO Toolkit dans l’environnement eIQ. NXP serait ainsi le premier fournisseur de semi-conducteurs à intégrer les API Nvidia TAO directement dans une offre d'activation de l'IA, permettant ainsi aux développeurs de procéder - à travers une plate-forme unique - à l’apprentissage, à l'optimisation et au déploiement en périphérie des modèles IA.

Selon NVidia, TAO Toolkit est une boîte à outils d'IA de type low-code qui repose sur TensorFlow et PyTorch et qui simplifie et accélère le processus d’apprentissage des modèles en éliminant la complexité des modèles IA et du framework d'apprentissage profond. Avec TAO, les utilisateurs peuvent sélectionner l'un des plus de 100 modèles IA préentraînés disponibles sur le portail Nvidia NGC, puis affiner et personnaliser leur propre ensemble de données sans écrire une seule ligne de code.

Si l’on en croit NXP, le framework Nvidia TAO facilite l'exploitation des modèles IA entraînés et leur réglage fin pour des utilisations spécifiques grâce à l'apprentissage par transfert, tandis que l'environnement de développement eIQ simplifie le déploiement de ces modèles en périphérie de réseau grâce à une combinaison de logiciels, de moteurs d'inférence (DeepViewRT, TensorFlow Lite Micro, TensorFlow Lite, CMSIS-NN…), de compilateurs de réseaux de neurones et de bibliothèques optimisées.

Grâce à cette intégration, les utilisateurs bénéficient d'un développement accéléré de l'IA, d'un accès à une bibliothèque de modèles d'IA prétestés et donc de la possibilité de les déployer sur le portefeuille de processeurs edge de NXP tels que les microcontrôleurs crossover i.MX RT et les processeurs d’application i.MX. L'environnement de développement de logiciels d'apprentissage automatique eIQ est en effet intégré au kit MCUXpresso SDK et à l’environnement de développement Yocto Project Linux de NXP, permettant aux développeurs de mettre au point des applications complètes au niveau système.

A noter que la boîte à outils Nvidia TAO fournit plusieurs optimisations, telles que l'élagage de modèles (model pruning), qui augmentent le débit d'inférence.

Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA