L’intelligence artificielle sur le lieu de travail recèle de nombreuses possibilités, mais elle comporte aussi des risques. Les entreprises doivent anticiper et agir dès maintenant, estiment Olivier Elst et Bart Van Rompaye chez KPMG Belgique.
Avec de nouveaux “collègues” comme ChatGPT, Copilot et Midjourney, nous prenons rarement le temps de réfléchir aux risques associés à l’intelligence artificielle. “L’IA va bien au-delà des applications génératives et peut engendrer des risques considérables”, prévient Bart Van Rompaye, Head of AI chez KPMG. “Elle peut avoir un impact majeur sur les individus directement concernés, par exemple lorsqu’une personne se voir refuser à tort un crédit à cause d’une décision prise par un système d’IA. Les entreprises sont également exposées lorsqu’elles externalisent des processus-clés à une machine sans contrôle suffisant. Et, plus largement, l’IA a un impact sociétal, noramment à travers la propagation de désinformations.”
“De nombreuses organisations manquent encore de structure autour de l’IA, alors que cela est essentiel pour identifier les risques.”
Les risques classiques jouent un rôle tout aussi crucial dans le domaine de l’IA, souligne son collègue Olivier Elst, Partner chez KPMG. “La protection de la vie privée, la cybersécurité et la propriété intellectuelle restent des enjeux majeurs. Sans connaissances ni contrôles adéquats, le risque de pertes financières ou de dommages à la réputation est élevé.”
Audit de gouvernance de l’IA
Afin d’éviter une prolifération incontrôlée d’outils et de garantir une vision uniforme de l’IA au sein des entreprises, KPMG réalise des AI Governance Audits. “Nous analysons d’abord les objectifs de l’organisation”, détaille Olivier Elst. “Ensuite, nous définissons un cadre structuré et attribuons des rôles et responsabilités clairs. De nombreuses organisations manque encore de structure autour de l’IA, alors que cela est essentiel pour identifier les risques.”
“Vous ne pouvez construire la confiance dans l’IA que si vous comprenez ce qu’une technologie peut ou ne peut pas faire.”
Ces risques, selon Bart Van Rompaye, découlent aussi du manque de familiarité des managers avec l’IA. “La confiance ne peut se construire que si l'on comprend ce qu’une technologie peut ou ne peut pas faire. À mes yeux, l’IA est comparable à un nouveau collaborateur junior: quelqu’un que je ne connais pas encore et dont je dois évaluer les capacités. C’est pourquoi j’examine attentivement tous les résultats. Cette attitude critique est essentielle.”
Cela nécessite un changement de mentalité auquel de nombreuses entreprises ne sont pas prêtes, insiste-t-il. “Il faut une réorientation fondamentale. Aujourd’hui, nos processus tiennent compte des limites humaines, et nos mécanismes de contrôle sont adaptés en conséquence. Mais dès que vous automatisez des tâches, vous devez vous adapter sur le plan procédural. En tant que manager, il faut oser se transformer.”
Ancrer des choix éthiques
Une fois qu’une entreprise dispose d’une stratégie claire en matière d’IA, elle doit développer un modèle opérationnel lui permettant de prendre des mesures concrètes. KPMG a élaboré à cet effet la “Roadmap To Responsible AI”. “Nous nous concentrons sur les processus, les politiques et les organes décisionnels”, précise Bart Van Rompaye. “Par exemple: Comment mesurer la valeur générée par l’IA? Et quelle mise en œuvre est réalisable? Une telle feuille de route peut constituer un plan pluriannuel qui aide les entreprises à intégrer l’IA de manière responsable.”
KPMG vous accompagne pas à pas. Cliquez ici pour plus d'informations.
Le terme “responsable” va bien au-delà des seules considérations éthiques. “La transparence est importante, mais elle est déjà rendue obligatoire par l’AI Act, la loi européenne sur l’intelligence artificielle. Les différents niveaux de risque déterminent quelles applications d’IA peuvent ou non être déployées.”
L’intégration de choix éthiques dans les systèmes permettent d’éviter que la responsabilité repose uniquement sur les individus en cas de problème, souligne Olivier Elst. “Il faut formaliser ces décisions dans les modèles et pouvoirexpliquer clairement comment elles ont été prises. Cela contraint les entreprises à réfléchir de manière critique, mais c’est indispensable. À très court terme, l’IA sera omniprésente et utilisée dans presque tous les domaines. Si vous ne vous préparez pas maintenant, vous risquez de subir les conséquences sans pouvoir maîtriser les risques.”