Lattice veut simplifier le déploiement de modèles d’IA et d’apprentissage automatique dans l’embarqué

[EDITION ABONNES] Avec la prise en charge du framework TensorFlow Lite et de l'environnement de conception Lattice Propel, le concepteur de circuits programmables Lattice vise, avec la nouvelle version de sa suite logicielle sensAI, à accélérer le développement d'applications d’intelligence artificielle (IA) et d’apprentissage automatique sur ses FPGA basse consommation.... L’ensemble est destiné aux développements fondés sur des coeurs de processeurs embarqués, avec la possibilité de réaliser de l'apprentissage profond avec TensorFlow Lite qui assure les inférences directement sur le système embarqué.

La nouvelle version (4.0) de la pile sensAI comprend l'environnement de conception sensAI Studio pour l’apprentissage, la validation et la compilation de modèles d'apprentissage automatique (ML) de bout en bout. Avec cet outil, les développeurs peuvent utiliser une simple interface fondée sur une approche de type “glisser-déposer” de fonctions pour concevoir des FPGA dotés d’un cœur RISC-V et d’un moteur d'accélération de réseaux de neurones à convolution (CNN). Avec comme objectif de mettre en œuvre rapidement des applications de machine learning sur des dispositifs en périphérie de réseau (edge) à faible consommation d'énergie.

Selon Lattice, il existe à ce niveau une demande croissante sur de nombreux marchés pour la prise en charge d’inférences AI/ML peu gourmandes en énergie, avec des applications comme la reconnaissance et la classification d'objets. Ces modèles AI/ML peuvent être entraînés pour fonctionner sur des équipements à basse consommation en périphérie de réseau, comme des caméras de sécurité et de surveillance, des robots industriels, ou encore des jouets grand public.

Concrètement les améliorations apportées à la pile de solutions sensAI 4.0 sont en premier lieu la prise en charge de TensorFlow Lite qui permet, sur FPGA, de réduire la consommation d'énergie et d’augmenter les performances de cotraitement des données grâce à des applications d'inférence AI/ML. TensorFlow Lite s'exécute, selon Lattice, de 2 à 10 fois plus vite sur un FPGA que sur un microcontrôleur à cœur Arm Cortex-M4. En second lieu, la pile sensAI prend en charge les outils de l'interface graphique et de la ligne de commande de l'environnement Propel de Lattice afin de créer, analyser, compiler et déboguer les conceptions matérielle et logicielle d'un système de traitement reposant sur un FPGA. Même les concepteurs qui n’ont pas l’habitude de travailler avec ce type d’architecture matérielle peuvent utiliser cette interface pour créer des applications IA sur les FPGA basse consommation de Lattice, avec intégration d'un coprocesseur RISC-V.

Selon Lattice, l’ensemble peut par exemple, grâce à des technologies avancées de compression et d’”élagage” de modèles ML, traiter des flux vidéo à 60 images par seconde en résolution QVGA ou 30 images par seconde en résolution VGA.

Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA