Deep learning : la clé USB Movidius Neural Compute Stick d’Intel est disponible chez RS et Mouser

Movidius

Lancée l’été dernier par Intel et présentée comme un outil de développement d’applications d’apprentissage profond (deep learning) à ultrabasse consommation, la clé USB Movidius Neural Compute Stick est disponible chez les grands distributeurs de composants et sous-systèmes électroniques ...RS Components et Mouser. Architecturée autour du processeur de vision artificielle (VPU) Myriad 2 de la société Movidius (rachetée en 2016 par le numéro des semi-conducteurs), cette clé est censée faciliter le développement et le prototypage d’applications d’intelligence artificielle pour une vaste gamme d’équipements situés en périphérie de réseaux (sans forcément de connexion au cloud donc) et ce au travers d’un facteur de forme très répandu.

Conçue pour les développeurs, les départements de R&D et les chercheurs académiques qui planchent sur l’apprentissage automatique et les applications de la science des données, la clé Movidius Neural Compute Stick, qui se connecte à n’importe quel port USB (l’USB 3.0 est toutefois recommandé), afficherait la meilleure efficacité énergétique de sa catégorie (l’enveloppe thermique du VPU Myriad 2 est annoncée à moins de 2 W pour une puissance de  calcul de 1 000 Gflops/W).

Capable d’exécuter des réseaux de neurones à convolution (CNN) performants à l’instar du framework populaire Caffe, le produit permet d’évaluer les performances et la précision des applications neuronales en conditions réelles, affirme RS. Qui plus est, grâce au compilateur Movidius Neural Compute, les projets de réseaux de neurones peuvent être rapidement portés sur la clé USB pour exécuter des inférences d’apprentissage profond en temps réel, ajoute le distributeur. Le développement et le prototypage peuvent se faire en pratique sur un ordinateur portable Linux, un système hôte x86 ou une Raspberry Pi.

Rappelons que durant l'été Intel a également annoncé le lancement du VPU Movidius Myriad X, le premier SoC disposant d’un moteur de calcul neuronal spécifique chargé d’accélérer les opérations d’inférence dans les applications d’apprentissage automatique (lire notre article ici).