Shadow AI : Les entreprises face à l'utilisation non autorisée des outils d'intelligence artificielle Shadow AI : Les entreprises face à l’utilisation non autorisée des outils d’intelligence artificielle – NEURA KING

Shadow AI : Les entreprises face à l'utilisation non autorisée des outils d'intelligence artificielle

Un nouveau phénomène émerge dans le monde professionnel : le “Shadow AI“. Il illustre l’utilisation d’outils d’intelligence artificielle par des employés sans l’approbation de leur département informatique, soulevant des questions de sécurité et de gouvernance.

Le cas de Katie Smith, ancienne analyste de données dans une grande chaîne de distribution, met en lumière ce phénomène. Malgré les restrictions imposées par son ancien employeur, qui bloquait l’accès aux sites d’IA générative, Katie Smith a utilisé des solutions personnelles telles que ChatGPT, Grammarly et Canva pour améliorer son travail.

Ce phénomène n’est pas nouveau, l’histoire du “Shadow IT” témoigne de l’introduction de technologies par les employés sans approbation. Cependant, l’IA présente des spécificités uniques. Contrairement aux logiciels de productivité qui manipulent simplement des données, les modèles d’IA intègrent les informations fournies par les utilisateurs dans leurs données d’entraînement, créant ainsi des risques de divulgation de données et de vulnérabilités de sécurité.

Les entreprises prennent conscience de la nécessité de mettre en place des garde-fous. Cependant, le développement rapide de l’IA a dépassé la capacité des organisations à formuler des politiques claires. Seuls 14% des employés estiment que la politique de leur organisation en matière d’IA est “très claire”.

Les départements informatiques font face à un défi de taille. Bien que certains services web d’IA soient faciles à surveiller, la majorité des modèles d’IA sont désormais intégrés dans des logiciels commerciaux. WitnessAI a compilé une base de données de près de 3 000 applications d’IA, un chiffre qui pourrait atteindre 12 000.

Les grands développeurs de modèles de langage s’efforcent d’être plus transparents, mais la sécurité des données reste une préoccupation majeure, en particulier avec les petites entreprises offrant des services basés sur l’IA avec des politiques d’utilisation floues.

Les entreprises explorent diverses mesures, de l’interdiction totale de l’IA à la formation des employés. Établir une politique d’utilisation acceptable intégrée dans les manuels des employés est un début essentiel. Certaines, comme SAS Institute, ont adopté une approche proactive avec une pratique d’éthique des données et un comité de supervision.

Malgré les risques initiaux, la valeur de l’IA l’emportera finalement sur ces préoccupations, menant à une adoption structurée plutôt qu’à un rejet. Les organisations doivent s’adapter pour éviter de perdre des talents face à une technologie qui, bien utilisée, peut considérablement améliorer la productivité.

Neura King propose une solution en permettant l’utilisation de systèmes d’orchestration organisationnelle fonctionnant via API. Cela assure flexibilité, choix, sécurité et productivité sans entrer dans le spectre de l’entraînement des modèles d’IA.

Actualités

Google DeepMind UK : 300 employés syndiqués contre le contrat IA israélien
Sam Altman admet les défauts de GPT-4o : ChatGPT trop sycophante, corrections en cours
Dario Amodei (Anthropic) : Ouvrir la boîte noire de l'IA d'ici 2027
ChatGPT crée un message crypté : l'IA a-t-elle une langue secrète ?
L'IA est déjà au-dessus de 98 % de l'humanité
Guide Anthropic pour développer des agents de codage avec Claude Code
Guerre des puces : enjeux technologiques et stratégiques entre États-Unis et Chine
Wikimedia lutte contre le scraping des bots avec un nouvel ensemble de données pour l'IA
ChatGPT géolocalise vos photos en un clin d'œil
Les dangers de l'IA dans la retouche photo

IA et politique

Guerre des puces : enjeux technologiques et stratégiques entre États-Unis et Chine
DeepSeek : Menace à la sécurité nationale des États-Unis
L'UE interdit les assistants virtuels : une nouvelle règle pour les agents IA
Acceptez qu'on vous vole, sinon, c'est la fin
Comment faire passer un président pour un tocard ?
Impact de l'IA sur les conflits mondiaux : Sommet militaire à Paris
Stratégie AI-First pour la Transformation Technologique de l'Administration Fédérale
Meta envisage de stopper le développement d'IA jugées trop risquées
OpenAI o3-mini réfléchit en Mandarin !
Des chercheurs de Berkeley recréent DeepSeek pour 30 $

Opinions

Ils collectent vos données, exploitent vos idées et préparent votre remplacement
Pourquoi Grok dit (disait) que Musk est un désinformateur ?
Comment faire passer un président pour un tocard ?
OpenAI o3-mini réfléchit en Mandarin !
DeepSeek : Le cadeau empoisonné de la Chine
Censure DeepSeek: l'IA défraye l'actu politico-technique. (Edit: )

Decryptage

Ils collectent vos données, exploitent vos idées et préparent votre remplacement
Elon Musk et Microsoft s'associent pour un projet d'IA de 30 milliards de dollars
Intelligence Artificielle (IA) : Comprendre et appréhender l'IA contemporaine
Comment l'IA nous manipule ?
Retour en haut