L'embarqué > Marchés > Perspective > "Systèmes de vision industriels : un marché sous le sceau de l’open source, du deep learning et de l’edge computing"

"Systèmes de vision industriels : un marché sous le sceau de l’open source, du deep learning et de l’edge computing"

Publié le 25 avril 2018 à 10:28 par François Gauthier        Perspective ADLink

L'Embarqué Tribune

[TRIBUNE by Alex Liang, ADLINK] Les industriels cherchent aujourd'hui à transformer leurs systèmes de production traditionnels afin de répondre aux défis liés à la réduction du cycle de vie des produits, au coût croissant de la main-d'œuvre et à la variété des exigences des consommateurs. Les concepts d’Industrie 4.0, d’usine intelligente et d’Internet des objets industriel (IIoT) sont la traduction de ces tendances profondes avec, dans ce paysage, la prolifération de nouvelles applications liées à la mise en place de technologies de vision industrielle par ordinateur. Un marché qui sera impulsé par trois tendances majeures, chacune entraînant à la fois de nouvelles opportunités et de nouveaux défis dans ce domaine. Explications d'Alex Liang, Product Manager chez ADLink.

Le système de vision devient un noeud de de calcul communicant

Tout d’abord, l’analyse des données (le Big Data) trouve des applications de plus en plus larges. Les entreprises exigent donc plus d’efficacité au niveau du traitement des données et ont de plus en plus souvent recours à l’informatique distribuée, via les formes du cloud computing, du fog computing ou de l’edge computing suivant le niveau de traitement de ces données dans une architecture informatique. Ces nouvelles pratiques transforment les applications de vision par ordinateur qui doivent évoluer et s’affranchir des concepts traditionnels de mesure, d’inspection, de guidage et d’identification pour inclure la capacité à réaliser des calculs et des analyses et à travailler en association avec d’autres équipements. En outre, les technologies IoT permettent à de nombreux dispositifs industriels d’être connectés et de communiquer entre eux par l’intermédiaire d'un réseau. Ainsi, les technologies de communication, en particulier la norme OPC UA (architecture unifiée OPC), le système d’exploitation ROS 2 (Robot Operating System 2.0), la norme DDS (Data Distribution Service) et le protocole MQTT (Message Queuing Telemetry Transport), jouent un rôle de plus en plus important et seront déterminantes pour les prochaines avancées des applications de vision industrielle.

Ainsi, dans un avenir proche, l’utilisation de la vision par ordinateur ne sera plus seulement limitée à des fins de contrôle qualité ; elle participera activement à doter les robots d'une vision de qualité humaine et leur permettra de réaliser des opérations de chargement, de ramassage, de manutention et d’emballage sans l’aide d'un quelconque processus de guidage. Et pour parvenir à un tel résultat, ces systèmes de vision devront recueillir, analyser et traiter de grandes quantités de données en temps réel tout en prenant en charge une communication étroite avec d’autres dispositifs industriels. Dans ce cadre, traditionnellement, les systèmes de vision par ordinateur qui étaient conçus avec des modules caméra distincts des unités centrales (PC industriels) doivent évoluer. Avec l’augmentation rapide du volume des données à traiter, les exigences en matière de puissance de calcul deviennent élevées et le module caméra devient alors un véritable nœud de calcul en périphérie du réseau capable de prétraiter les données et de décharger l’unité centrale de certaines de ses tâches. D'un autre côté, la généralisation de la norme OPC UA, protocole de communication entre machines pour les systèmes industriels automatisés (automates programmables, blocs d’E/S, machines…), va permettre aux différents dispositifs et plates-formes d’une usine intelligente de communiquer et de s’échanger des données, y compris celles issues des systèmes de vision qui seront complétement intégrés dans l’usine connectée.

Le système d'exploitaiton en open source ROS au coeur des robots guidés par la vision

Parallèlement, la combinaison du système d’exploitation ROS 2 et des technologies robotiques guidées par vision permettent de doter les robots et les véhicules à guidage automatique (AGV) de la vision par ordinateur afin d’améliorer leur efficacité et leur capacité à fonctionner de manière synchronisée. Rappelons que ROS est un système d'exploitation en open source pour robots. La première génération, ROS 1, repose sur le protocole TCP/IP tandis que la seconde, ROS 2, est conçue sur une architecture UDP+DDS pour une prise en charge plus puissante et sécurisée du partage de données entre dispositifs en temps réel. Les principaux fabricants de robots du monde entier ont tous intégré la prise en charge de ROS 2 pour la gestion d’algorithmes de localisation et de cartographie, de navigation, de perception et de manipulation. Outre une communication sans heurts entre les systèmes robotiques, cette approche permet également d’intégrer des systèmes de vision industrielle sur ces robots. In fine, les usines du futur ne contiendront plus aucun équipement ni poste de travail indépendants. Elles connecteront des bras robotiques, des véhicules AGV et autres machines pour mettre en place un processus de fabrication intelligente capable de répondre à une vaste palette de besoins de production, le tout via ce concept de robotique guidée par la vision.

Le deep learning ouvre de nouveaux champs

Enfin, il ne faut pas sous-estimer les avancées en matière d’apprentissage profond (deep learning) qui commencent à arrivent dans les usines et qui ont un impact fort sur les systèmes de vision. Ces technologies d’apprentissage profond sont conçues pour que la machine (au sens large du terme) prenne des décisions et surtout anticipe ce qui va arriver, en entraînant par exemple un réseau de neurones artificiels. L’exécution des tâches d’apprentissage reposait auparavant sur des ordinateurs très performants, mais le processus était chronophage et les coûts élevés. Cependant, grâce notamment aux progrès technologiques de ces dernières années en électronique, les processeurs graphiques sont devenus bien plus efficaces que les unités centrales traditionnelles. En tirant profit de la puissance de traitement de ces GPU (Graphic Processing Unit), l’apprentissage profond va devenir une technologie dotée d’un excellent rapport coût/performance. À l’avenir, on peut donc s’attendre à ce que la rencontre entre l’apprentissage profond et la vision industrielle produise des synergies dont la portée sera considérable.

Sur le même sujet