« L'IA accélère et remet en question nos limites humaines »

[TRIBUNE de Morey Haber, BEYONDTRUST] L'intelligence artificielle (IA) au cœur des transformations contemporaines, ne se contente plus d'être une simple technologie innovante : elle remet en question nos limites humaines, bouleversant nos paradigmes sociaux, économiques et éthiques. Alors que l'IA agentique s'apprête à devenir l'intermédiaire universel dans nos dispositifs quotidiens et professionnels, ses avancées rapides soulèvent des enjeux primordiaux en matière de sécurité, de gouvernance et de responsabilité. Et l'IA agentique devient le vecteur d'attaque ultime. Analyse de Morey Haber, Chief Security Advisor chez l’éditeur BeyondTrust.

L'année prochaine, la quasi-totalité des technologies que nous utilisons (grand public et entreprises) seront connectées à une IA agentielle (*). Cette fusion créera de la valeur, tout en augmentant considérablement la surface d’attaque. L'adoption des technologies de l'Internet des objets (IoT) dans nos foyers – des caméras intelligentes aux thermostats – et des technologies opérationnelles (OT) dans nos entreprises s'est faite en quelques jours, et non en années ou en décennies comme pour l'électricité, la télévision, la radio et Internet.

Dans la même veine, l’IA devrait dominer nos vies d'ici 2026. En résumé, l'IA deviendra le nouvel intergiciel dans la plupart des organisations.

Cette technologie promet des avantages allant de la réservation de voyages à l'optimisation de la température de nos logements. Mais si certaines applications de l'IA peuvent s'avérer très utiles, d'autres se révéleront être de vaines promesses, voire aggraveront la situation.

De plus, le déploiement précipité de l'IA agentielle à tous les niveaux entraînera une multiplication des vecteurs d'attaque, des violations de données et de nouvelles failles de sécurité dues à des privilèges excessifs, à des problèmes de délégation de pouvoirs et à une absence générale de garde-fous mis en place lors des processus de sécurité intégrés.

Cette course à la commercialisation de l'IA agentielle reléguera la cybersécurité au second plan et obligera les utilisateurs à faire face à une adoption rapide et à des menaces de sécurité croissantes.

Réaction éthique : l'essor du “véganisme” de l’IA

En 2026, la révolution de l'IA se heurtera à sa première vague de résistance culturelle. De nombreuses organisations verront apparaître des poches de “véganisme de l’IA” où employés ou clients souhaiteront s'abstenir par principe d'utiliser l'intelligence artificielle.

Ce mouvement sera motivé par une combinaison de préoccupations éthiques liées à la provenance des données, à la propriété intellectuelle, aux biais algorithmiques, à la dévalorisation de la créativité humaine et aux coûts environnementaux liées à la puissance de calcul nécessaire à l’exécution des algorithmes d’IA.

Ce mouvement s'efforcera aussi de remettre en question l'idée reçue selon laquelle l'adoption de l'IA est inévitable. Certaines entreprises contourneront cette résistance en proposant une gouvernance transparente, des mécanismes de désactivation et des alternatives privilégiant l'humain dans leurs produits et processus.

Il pourrait s'agir, par exemple, de moteurs de recherche intégrant des filtres pour signaler ou supprimer les contenus susceptibles d'être générés par l'IA (comme la possibilité de paramétrer un filtre pour autoriser les résultats contenant jusqu'à 15 % de contenu généré par l'IA), ou affichant un pourcentage clair de contenu généré par l'IA à côté de chaque résultat de recherche.

À mesure que l'IA s'intègre à presque tous les aspects de notre vie, le respect d'une approche éthique de l'IA deviendra un créneau que certaines marques adopteront en s'abstenant totalement de son utilisation.

La plupart des marques ne s'engageront pas dans une abstinence complète d'IA, mais devront intégrer son utilisation dans leurs évaluations environnementales, sociales et de gouvernance. Cette situation déclenchera une vague d’”écoblanchiment" et soulèvera des inquiétudes quant au véritable coût environnemental de cette technologie.

En cybersécurité, l'utilisation de l'IA deviendra moins optionnelle. Ce qui créera en retour des difficultés pour les utilisateurs et les clients qui tenteront de s'en désinscrire, car leurs outils actuels atteindront leurs limites.

Dans les cas les plus extrêmes, le refus de l'IA pourrait même transférer la responsabilité du fournisseur de services à l'utilisateur.

Remaniement du marché du travail : l'IA favorise l'essor des activités annexes

A mesure que l'IA poursuit sa révolution mondiale, pour le meilleur et pour le pire, nous assisterons à une monétisation rapide : utilisateurs et entreprises diversifieront rapidement leurs activités et leurs sources de revenus grâce à elle. Que ce soit par le biais de contenus générés par l'IA sur les réseaux sociaux ou de nouveaux modèles d'IA conçus pour des objectifs précis, le potentiel de croissance est indéniable.

Nous avons déjà constaté une expansion considérable de l'IA, désormais optimisée pour exceller dans certaines tâches telles que la rédaction, la planification stratégique, la création de contenu, l'analyse de données, la programmation, la traduction, etc. – autant de services désormais proposés sur abonnement.

À terme, l'utilisation de ces outils d'IA entraînera la mise à disposition de milliers de nouvelles applications téléchargeables en ligne, via l'App Store d'Apple ou Google Play, la saturation du marché faisant baisser leur prix.

La facilité d'accès, de personnalisation et de paramétrage de ces applications d'IA permettra aux utilisateurs et aux entreprises de continuer à tirer profit de leur commercialisation à grande échelle. Avec le remplacement progressif des emplois par l'IA, les entreprises devront alors trouver un équilibre entre productivité et efficacité de leurs employés.

Ce qui incitera les individus à diversifier leurs compétences pour rester compétitifs sur le marché du travail, tout en consolidant un marché florissant pour les activités complémentaires.

(*) Un système d'IA agentiel raisonne sur des problèmes, prend des décisions en temps réel, accède à divers outils en fonction de ses découvertes et conserve ses apprentissages d'une session à l'autre. L’IA agentielle est dotée de capacités d’interprétation, d’analyse de ses propres résultats et d’ajustement de son fonctionnement suivant les difficultés rencontrées. Cette autonomie permet d’un côté de résoudre des problèmes de sécurité concrets à grande échelle, mais d’un autre introduit des vecteurs de menaces inexistants dans les systèmes classiques fondés sur des règles.