Alors que l’IA agentique se déploie à grande vitesse, 86 % des entreprises redoutent une hausse des risques, mais seules 2 % atteignent les standards de l’IA responsable. Un retard qui expose à des pertes financières, des atteintes à la réputation et des défis réglementaires majeurs, selon une étude d’Infosys.
À l’heure où l’intelligence artificielle agentique s’installe dans les entreprises, la promesse d’efficacité et d’innovation se double d’un risque accru. Selon le dernier rapport de l’Infosys Knowledge Institute, 86 % des dirigeants anticipent une hausse des menaces, mais seules 2 % des organisations atteignent les standards d’excellence en matière d’IA responsable. Une fragilité qui, déjà, coûte cher : 95 % des entreprises ont connu un incident lié à l’IA au cours des deux dernières années, avec des pertes financières dans 77 % des cas et un impact réputationnel dans plus d’une sur deux.
Un décalage criant entre usage et encadrement
Basée sur une enquête menée auprès de plus de 1 500 cadres dirigeants dans six pays, l’étude met en lumière un paradoxe : si 78 % considèrent l’IA responsable comme un moteur de croissance, la majorité continue de la traiter comme une contrainte réglementaire.
Les « leaders » identifiés par Infosys – à peine 2 % de l’échantillon – combinent gouvernance centralisée, explicabilité des modèles, gestion proactive des biais et plans de réponse aux incidents. Résultat : 39 % de pertes financières en moins lors d’incidents et une exposition réduite aux dommages réputationnels.
Des risques multiples et sous-estimés
L’IA mal encadrée n’expose pas seulement aux sanctions : elle peut générer des prévisions erronées, renforcer des discriminations ou compromettre la conformité réglementaire. L’essor de l’IA agentique, capable d’actions autonomes, accroît encore ces vulnérabilités. 86 % des décideurs familiers du sujet anticipent l’émergence de nouveaux risques et obligations de conformité.
Vers une stratégie proactive
Pour combler ce retard, Infosys préconise de s’inspirer des organisations matures, d’allier innovation produit et supervision centralisée, d’intégrer l’IA responsable dans des environnements sécurisés et de créer des bureaux dédiés à la gouvernance. Une vision partagée par Balakrishna D.R., responsable mondial de l’IA chez Infosys : « Exploiter pleinement l’IA suppose de bâtir une base solide et responsable, fondée sur la confiance et la gestion des risques ».
Alors que de nouvelles réglementations sont en gestation, 83 % des dirigeants estiment qu’elles renforceront l’innovation plutôt que de la freiner. L’enjeu est désormais de transformer cette conviction en pratiques concrètes, pour que la révolution agentique ne se traduise pas par une addition salée, mais par un véritable dividende technologique.