Le module Jetson AGX Orin de Nvidia associe performances IA de 200 Tops et sûreté de fonctionnement

[EDITION ABONNES] A l’occasion de la conférence GTC de novembre, Nvidia a officiellement lancé le module Jetson AGX Orin, que la société américaine présente comme le plus compact, le plus puissant et le plus éco-efficace des supercalculateurs IA destinés aux marchés de la robotique, des machines autonomes, ...des matériels médicaux et autres formes d’équipements embarqués pour périphérie de réseau (edge).

Doté des mêmes dimensions (100 x 87 mm) que le Jetson AGX Xavier, son prédécesseur, et d’une compatibilité au niveau brochage avec ce dernier, le module Jetson AGX Orin, dont la disponibilité est prévue au 1er trimestre 2022, affiche des performances six fois supérieures, annoncées aux alentours de 200 Tops (INT8) (téraopérations par seconde).

Comme son nom l’indique, le module s’articule autour de la puce-système Orin que Nvidia a évoquée pour la première fois fin 2019. Ce SoC intègre 12 cœurs 64 bits Arm Cortex-A78AE à architecture Armv8.2 et une unité graphique (GPU) à microarchitecture Ampere dotée de 2 048 cœurs Nvidia Cuda et de 64 cœurs Tensor. On y trouve aussi des accélérateurs d’apprentissage profond et de vision artificielle de nouvelle génération (2x NVDLA v2.0 et 1x PVA 2.0), ainsi que des moteurs d’encodage et de décodage vidéo. On rappellera ici que le cœur Cortex-A78AE (AE pour Automotive-Enhanced), dévoilé par Arm en 2020, dispose de caractéristiques permettant d’atteindre les niveaux les plus élevés de sûreté de fonctionnement imposés par les normes ISO 26262 (automobile) et CEI 6158 (industriel), soit Asil-D et SIL3.

Sur le module Jetson AGX Orin, la puce-système Orin est en pratique associée à 32 Go de mémoire 256 bits LPDDR5 et à une mémoire de stockage eMMC 5.1 de 64 Go. Selon la société américaine, avec la bande passante mémoire élevée et les multiples interfaces haut débit accessibles sur le module (22x PCIe Gen4, Gigabit Ethernet, 4x 10 Gigabit Ethernet, DisplayPort, 16x Mipi CSI-2, 3x USB 3.2…), il est possible de traiter plusieurs pipelines applicatifs IA simultanément.

Côté logiciels, les utilisateurs du module Jetson AGX Orin peuvent mettre à profit les bibliothèques, outils et technologies Nvidia Cuda-X, le SDK pour logiciels IA Nvidia JetPack, ainsi que les derniers outils en date de l’Américain pour le développement et l’optimisation d’applications, y compris les flux de travail dans le cloud. Enfin, pour des cas d’usage spécifiques, Nvidia propose des frameworks logiciels, en particulier pour la robotique (Nvidia Isaac Sim sur Omniverse), le médical (Nvidia Clara Holoscan) et la conduite automobile autonome (Nvidia Drive). A cet égard, on notera que les constructeurs Lotus, Mercedes-Benz et Volvo Cars et les start-up positionnées sur le marché du véhicule électrique comme Human Horizons, NIO et WM Motor font partie des entreprises à avoir annoncé leur intention d’utiliser la plate-forme Nvidia Drive Orin pour leurs prochaines générations de véhicules définis par logiciel.

Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA