L'embarqué > Matériel & systèmes > Sous-système > Kontron couple le processeur i.MX 8M et l’accélérateur neuronal de Google dans une plate-forme IA industrielle

Kontron couple le processeur i.MX 8M et l’accélérateur neuronal de Google dans une plate-forme IA industrielle

Publié le 25 novembre 2020 à 12:13 par Pierrick Arlot        Sous-système Kontron

IA Kontron

L’intelligence artificielle (IA) gagne inexorablement la périphérie de réseau (edge) dans le domaine de l’automatisation industrielle. Dans le contexte de l'industrie 4.0, il n’est plus rare de voir des applications de reconnaissance et de classification d'objets, d'inspection de la qualité ou de  maintenance prédictive reposant sur des algorithmes d'IA. L’IA joue également un rôle de plus en plus important dans les points de vente où elle permet de diffuser de la publicité et des informations pertinentes de manière beaucoup plus ciblée.

Pour répondre à ces besoins, le fabricant de cartes et systèmes embarqués prêts à l’emploi Kontron propose une plate-forme compacte au format Pico-ITX calibrée pour les applications dopées à l'intelligence artificielle, l’apprentissage automatique (ML) et l’apprentissage profond (DL). Dans la pratique, cette plate-forme IA consiste en un module M.2 équipé de la puce d’accélération neuronale Edge TPU de Google et porté par un calculateur monocarte Pico-ITX de 2,5 pouces architecturé sur le processeur i.MX 8M de NXP.

L’Asic Coral Edge TPU, rappelons-le, affiche une performance de 4 Tops (téraopérations par seconde) pour une enveloppe thermique de 0,5 W par Tops et s'avère plus particulièrement conçu pour faire tourner des moteurs d’inférence de modèles de réseau de neurones développés avec le framework d’apprentissage automatique TensorFlow Lite (lire pour plus de détails notre article ici). La puce de Google, précise Kontron, est particulièrement bien adaptée au traitement des données image et vidéo. Comparé à une application avec de simples caméras USB sans TPU traitant six images à la seconde, l’usage du TPU permet d’accélérer les traitements d’un facteur cinq, à 30 images par seconde.

Selon la firme allemande, toutes les applications actuelles TensorFlow Lite ainsi que les modèles pré-entraînés peuvent être téléchargés gratuitement sur la plate-forme. Une option qui permet à un concepteur de développer rapidement et simplement ses propres réseaux de neurones au sein d’applications AI/ ML/DL, et donc de réduire le délai de mise sur le marché d’un produit. La solution de Kontron, apte à fonctionner dans la gamme de température comprise entre -40°C et +85°C, peut toutefois être personnalisée de manière flexible pour répondre aux besoins spécifiques des applications.

D’autres systèmes Kontron devraient bénéficier de l’apport de la puce neuronale de Google au cours du premier trimestre 2021.

Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA

Sur le même sujet