Un nouveau phénomène émerge dans le monde professionnel : le “Shadow AI“. Il illustre l’utilisation d’outils d’intelligence artificielle par des employés sans l’approbation de leur département informatique, soulevant des questions de sécurité et de gouvernance.
Le cas de Katie Smith, ancienne analyste de données dans une grande chaîne de distribution, met en lumière ce phénomène. Malgré les restrictions imposées par son ancien employeur, qui bloquait l’accès aux sites d’IA générative, Katie Smith a utilisé des solutions personnelles telles que ChatGPT, Grammarly et Canva pour améliorer son travail.
Ce phénomène n’est pas nouveau, l’histoire du “Shadow IT” témoigne de l’introduction de technologies par les employés sans approbation. Cependant, l’IA présente des spécificités uniques. Contrairement aux logiciels de productivité qui manipulent simplement des données, les modèles d’IA intègrent les informations fournies par les utilisateurs dans leurs données d’entraînement, créant ainsi des risques de divulgation de données et de vulnérabilités de sécurité.
Les entreprises prennent conscience de la nécessité de mettre en place des garde-fous. Cependant, le développement rapide de l’IA a dépassé la capacité des organisations à formuler des politiques claires. Seuls 14% des employés estiment que la politique de leur organisation en matière d’IA est “très claire”.
Les départements informatiques font face à un défi de taille. Bien que certains services web d’IA soient faciles à surveiller, la majorité des modèles d’IA sont désormais intégrés dans des logiciels commerciaux. WitnessAI a compilé une base de données de près de 3 000 applications d’IA, un chiffre qui pourrait atteindre 12 000.
Les grands développeurs de modèles de langage s’efforcent d’être plus transparents, mais la sécurité des données reste une préoccupation majeure, en particulier avec les petites entreprises offrant des services basés sur l’IA avec des politiques d’utilisation floues.
Les entreprises explorent diverses mesures, de l’interdiction totale de l’IA à la formation des employés. Établir une politique d’utilisation acceptable intégrée dans les manuels des employés est un début essentiel. Certaines, comme SAS Institute, ont adopté une approche proactive avec une pratique d’éthique des données et un comité de supervision.
Malgré les risques initiaux, la valeur de l’IA l’emportera finalement sur ces préoccupations, menant à une adoption structurée plutôt qu’à un rejet. Les organisations doivent s’adapter pour éviter de perdre des talents face à une technologie qui, bien utilisée, peut considérablement améliorer la productivité.
Neura King propose une solution en permettant l’utilisation de systèmes d’orchestration organisationnelle fonctionnant via API. Cela assure flexibilité, choix, sécurité et productivité sans entrer dans le spectre de l’entraînement des modèles d’IA.