Le marché des puces IA pour périphérie de réseau (edge) va progresser de près de 30% par an d’ici à 2026

[EDITION ABONNES] L’année 2020 a été difficile pour les sociétés positionnées sur le marché de l’intelligence artificielle (IA) en périphérie de réseau (edge). La demande du marché et les déploiements se sont fortement ralentis en raison des périodes de confinement imposées par la pandémie de Covid-19 et des mesures de sécurité afférentes. ...Alors que le marché des puces IA pour le cloud connaissait une croissance de 68% par rapport à 2019, celui des puces IA pour l’edge a plafonné l'année dernière avec une progression limitée à 1%, indique ainsi ABI Research dans un récent rapport.

Toutefois la société d’études anticipe un fort rebond avec un marché qui devrait connaître une croissance moyenne de 28,4% par an entre 2021 et 2026 pour atteindre la valeur de 28 milliards de dollars cette année-là. « La demande pour une intelligence artificielle en périphérie de réseau ne va pas disparaître de sitôt, précise Lian Jye Su, analyste chez ABI Research. Les produits Edge AI peuvent traiter les données brutes localement, réduisant ainsi la dépendance à une connectivité cloud permanente. L'expérience utilisateur est également améliorée grâce à la faible latence et à l’assurance d’une meilleure confidentialité des données. Dans le même temps, de plus en plus d'entreprises reconnaissent l'importance de l'intelligence artificielle en périphérie de réseau dans des applications clés telles que la maintenance prédictive, l'inspection des défauts et la surveillance. »

Parallèlement, même les fournisseurs de cloud public comme AWS, Microsoft et Google anticipent les besoins croissants de traitement de l'IA au niveau edge, ajoute ABI Research. Ces sociétés proposent des solutions matérielles et logicielles et forment des alliances et des partenariats industriels qui ciblent le développement et le déploiement de l'IA en périphérie.

La reprise post-Covid-19 peut également être observée dans la croissance récente des chiffres d’affaires et des levées de fonds des fournisseurs de puces Edge AI. Bien que le marché automobile ait subi un certain recul en 2020, Intel Mobileye a ainsi déclaré un CA global de 967 millions de dollars, un record historique pour le fournisseur de circuits pour systèmes avancés d'assistance à la conduite (ADAS). Quant aux start-up chinoises Horizon Robotics et Ecarx, focalisées sur l'automobile, elles ont levé respectivement 750 millions de dollars et 200 millions de dollars en 2021, rappelle ABI Research.

Autre tendance de l’IA en périphérie de réseau, le concept TinyML est aussi à la fête. La possibilité d'intégrer des modèles compacts d'apprentissage automatique (ML) dans des produits à très faible consommation a ouvert de nouvelles possibilités, en permettant aux capteurs connectés intelligents et aux dispositifs IoT de prendre des décisions en local et d'agir en fonction de diverses sources d’information comme les ondes sonores, la température, la pression, les vibrations et autres données en séries temporelles.

Dans ce cadre, les fabricants traditionnels de microcontrôleurs tels que NXP, STMicroelectronics et Renesas s'associent à l'écosystème de fournisseurs de logiciels et de services IA (comme Cartesiam, Edge Impulse ou SensiML) pour aider les développeurs qui n'ont pas d'expertise en conception de systèmes embarqués à déployer des solutions TinyML. D'autres fournisseurs développent des puces particulièrement sobres ou des modèles ML propriétaires qui s’avèrent très efficaces au niveau consommation électrique et empreinte mémoire, constate également l'analyste.

D’autres sociétés encore proposent des plates-formes du type MLOps pour périphérie de réseau qui facilitent l'ensemble du processus de développement et de déploiement, de la collecte et du traitement des données à l’apprentissage, l'optimisation et le monitoring des modèles. Un certain nombre d’entre elles, ajoute ABI Research, propose des techniques avancées de compression et de quantification des modèles ML qui permettent de réduire la taille des grands modèles d'apprentissage profond tout en maintenant leur précision et leurs performances. « Ce phénomène permet d’assurer la dichotomie entre les modèles d'apprentissage automatique et les équipements riches en ressources, car ces modèles peuvent désormais être déployés sur une large gamme de dispositifs », conclut Lian Jye Su.