Rejoignez les newsletters quotidiens et hebdomadaires pour obtenir les dernières mises à jour et le contenu exclusif pour couvrir la principale intelligence artificielle de l’industrie. Apprendre encore plus
Les dirigeants de la sécurité et du RSIC découvrent qu’une gamme croissante de demandes de nuance d’intelligence artificielle exposent leurs réseaux, dans certains cas pendant plus d’un an.
Ce ne sont pas les magasins d’attaquants typiques. Ils ont travaillé avec des employés dignes de confiance, sinon, la création d’applications internationales d’Amnesty sans eux, le contrôle ou l’approbation du ministère de la Sécurité, et les applications conçues pour tout faire, des rapports mécaniques fabriqués à la main dans le passé à l’utilisation de l’IA (Genai) pour simplifier L’automatisation du marketing, de la visualisation et de l’analyse avancée des données. Soutenues par les données royales de l’entreprise, les applications d’IA de l’ombre forment des modèles de domaine public avec des données spéciales.
Qu’est-ce que Shadow Ai, et pourquoi se développe-t-il?
Les formations et les outils d’Amnesty International qui ont été créés de cette manière, le cas échéant, sont rarement des mains courantes. Shadow AI offre des risques majeurs, notamment des violations croisées des données, des violations de la conformité et des dommages réputés.
Il s’agit d’un stéroïde numérique qui permet à ceux qui l’utilisent pour accomplir un travail plus détaillé en moins de temps, et les dates finales sont souvent surmontées. L’ensemble des départements contiennent les applications d’ombre IA qu’ils utilisent pour faire pression sur plus de productivité en moins d’heures. « Je vois cela chaque semaine », Aura Vinite, CTO WinwireJ’ai récemment dit à VentureBeat. « Les départements sautent sur les solutions d’intelligence artificielle imbattables car les avantages immédiats sont très attrayants pour les ignorer. »
Etamar Golan, PDG et fondateur de Sécurité immédiateLors d’une récente interview avec VentureBeat. « Environ 40% de cet incapacité à s’entraîner sur les données que vous nourrissez, ce qui signifie que votre propriété intellectuelle peut faire partie de ses modèles. »
La plupart des employés qui créent des demandes d’intelligence artificielle ne se comportent pas nuisibles ou essaient de nuire à l’entreprise. Ils sont aux prises avec des quantités croissantes de travaux de plus en plus complexes, une carence en temps chronique et les dates finales les plus strictes.
Le Golan dit: « C’est comme des stéroïdes dans la course aux vélos en France. Les gens veulent un avantage sans réaliser les conséquences à long terme. »
Un tsunami par défaut n’a vu personne venir
« Vous ne pouvez pas arrêter un tsunami, mais vous pouvez construire un bateau », a déclaré Golan à VentureBeat. « La protection de l’intelligence artificielle n’existe pas qui ne vous protège pas – cela vous laisse interdit. » Par exemple, dit Golan, un chef de la société de sécurité à New York estime que moins de 10 outils d’Amnesty International sont utilisés. L’examen de 10 jours a révélé 65 solutions non autorisées, dont la plupart sont sans licence officielle.
AWRA a convenu, en disant: «Les données confirment que les employés punissent des chemins d’intelligence artificielle et des politiques claires, ils ne sentent plus qu’ils sont obligés d’utiliser des outils aléatoires pour se cacher. .
Soutenir plus leurs affirmations sont des résultats récents Essuyage du logiciel AG Qui a trouvé 75% Des travailleurs du savoir, ils utilisent déjà des outils d’intelligence artificielle et 46% Disant qu’ils ne les abandonneront pas même si l’employeur l’a interdit. La majorité des applications Shadow AI Openai Chatgpt et Google Gemini.
Depuis 2023, Chatgpt a autorisé les utilisateurs Créer des robots dédiés en quelques minutes. VentureBeat a appris que le gestionnaire de modèles responsable des ventes, du marché et de la prédiction des prix, en moyenne, 22 robots désignés différents dans Chatgpt aujourd’hui.
Il est entendu à quel point l’ombre de l’intelligence artificielle s’effondre lorsque 73,8% Les comptes ChatGPT sont ceux qui n’encouragent pas qui manquent les contrôles de sécurité et de confidentialité des applications garanties. Le pourcentage est plus élevé pour les criminels (94,4%). Dans Salesforce Survey, plus de la moitié (55%L’un des employés mondiaux inclus dans le sondage qui a avoué l’utilisation d’outils d’intelligence artificielle ne dépend pas du travail.
« Ce n’est pas un seul saut que vous pouvez corriger », explique le Golan. « Il s’agit d’une vague croissante de fonctionnalités qui ont été lancées hors de sa supervision. » Des milliers de fonctionnalités d’intelligence artificielle sont modifiées par les principaux produits SaaS pour la formation des données et des fuites de l’entreprise sans connaître une personne ou une sécurité.
Les ombres AI se désintégrent lentement le périmètre des entreprises. Beaucoup ne remarquent pas qu’ils sont aveugles quant à l’utilisation de la vague de l’ombre de l’ombre dans leurs institutions.
Pourquoi Shadow Ai est très dangereux
« Si vous crachez le code source ou les données financières, elle vit efficacement sous cette forme », a averti Golan. Arora et Golan trouvent les entreprises qui forment des modèles généraux qui ne parviennent pas à utiliser des applications d’IA fantômes pour un large éventail de tâches complexes.
Une fois les données de propriété du modèle du domaine public, les défis les plus importants pour toute institution commencent. Il est particulièrement difficile pour les organisations qu’ils possèdent publiquement et qui ont souvent une grande conformité et organisationnelle. Golan a fait référence au prochain droit de l’Union européenne, qui « peut être éclipsé au produit intérieur brut dans les amendes », et prévient que les secteurs qui réglementent les sanctions à risque aux États-Unis si des données privées circulent vers les outils non en mesure d’outils d’Amnesty International.
Il existe également un risque de faiblesse dans le temps de fonctionnement et des attaques d’injection rapide qui ne sont pas conçues avec les plateformes traditionnelles de prévention des données et de perte de données (DLP) pour découvrir et arrêter.
Lumière de l’ombre
Arora découvre des unités commerciales complètes qui utilisent les outils SaaS d’AI sous le radar. Avec la salade budgétaire indépendante pour plusieurs équipes commerciales, les unités commerciales diffusent l’intelligence artificielle rapidement et souvent sans inscription.
« Soudain, vous avez des dizaines de demandes de l’IA bien connues qui traitent les entreprises sans une conformité ni un examen des risques », a déclaré Arra à VentureBeat.
Les principales visions du tableau Arora comprennent les éléments suivants:
- Shadow IA est prospéré car les parties en technologie de l’information et de la sécurité existantes ne sont pas conçues pour les détecter. Arora note que les parties traditionnelles en technologie de l’information permettent à Shadow AI de prospérer en ne voyant pas la conformité et la gouvernance nécessaires pour maintenir les travaux de travail. « La plupart des outils et opérations de gestion des technologies de l’information traditionnels n’ont pas de vision complète et de contrôle des applications d’intelligence artificielle », note Arora.
- Objectif: activer l’innovation sans perdre le contrôle. Arra se précipite pour souligner que les employés ne sont pas intentionnellement perdus. Ils font face à une pénurie chronique dans le temps, et les charges de travail croissantes et les dates les plus strictement serrées. L’intelligence artificielle prouve qu’il s’agit d’une incitation exceptionnelle à l’innovation et ne devrait pas être interdite directement. « Il est très important que les organisations déterminent de solides stratégies de sécurité tout en permettant aux employés d’utiliser efficacement les techniques d’intelligence artificielle », explique Arra. « L’interdiction totale est souvent poussée à l’utilisation de l’IA souterraine, ce qui ne fait que gonfler les risques. »
- Faites en sorte que la gouvernance centrale du renseignement. « La gouvernance centrale de l’intelligence, comme d’autres pratiques de gouvernance des technologies de l’information, est la clé pour gérer l’extension des applications de l’intelligence artificielle de l’ombre. » Il a vu les unités commerciales adopter les outils SaaS que l’IA entraîne « sans une conformité ni une revue des risques ». La normalisation de la censure aide à empêcher les applications inconnues de divulguer silencieusement des données sensibles.
- Découvrez, surveillez et gérez en continu les nuances d’IA. Le plus grand défi est de détecter les applications cachées. Arora ajoute que sa détection comprend le contrôle du trafic réseau, l’analyse du flux de données, la gestion de la gestion des logiciels, les demandes de demandes et même les audits manuels.
- La flexibilité et l’équilibre de sécurité constamment. Personne ne veut étrangler l’innovation. « Fournir des options sûres d’intelligence artificielle garantit que les gens ne sont pas séduits par l’infiltration. Vous ne pouvez pas tuer l’intelligence artificielle, mais vous pouvez la diriger en toute sécurité.
Commencez à suivre une stratégie de sept parties pour l’ombre artificielle de l’intelligence
Arora et Golan sont informés de leurs clients qui découvrent des applications d’IA de l’ombre qui se multiplient par leurs réseaux et bases travaillant pour suivre ces sept directives pour la gouvernance fantôme de l’IA:
Conduisant une ombre officielle de l’intelligence artificielle. Créez la ligne de base commençant en fonction de l’examen complet de l’intelligence artificielle. Utilisez l’analyse des agents, le contrôle du réseau et les actions pour clarifier l’utilisation de l’intelligence artificielle non autorisée.
Établir un bureau d’intelligence artificielle responsable. Fabrication centrale des politiques, révisions des vendeurs, évaluation des risques par le biais des technologies de l’information, de la sécurité, du juridique et de la conformité. Arra a vu cette approche fonctionner avec ses clients. Cela indique que la création de ce bureau doit également inclure de solides cadres de gestion de la gouvernance artificielle et de former les employés à fuir les données possibles. Le catalogue d’intelligence artificielle pré-adopte garantira que des données solides fonctionneront avec des solutions sûres et correspondantes.
Répartir les contrôles de sécurité sur AI-AARA. Les outils traditionnels manquent les textes du texte. DLP adopte qui se concentre sur l’intelligence artificielle, la surveillance réelle du temps et l’automatisation qui indique des affirmations suspectes.
Établir un stock et un catalogue de l’Organisation centrale d’Amnesty International. Une mauvaise liste d’outils d’intelligence artificielle réduit la tentation des services personnalisés, et lorsque la sécurité prend l’initiative de mettre à jour la liste fréquemment, la motivation est réduite pour créer des applications fantômes AI. La clé de cette approche est de rester vigilant et de répondre aux besoins des utilisateurs d’outils d’IA sûrs.
Délégation de formation des employés Cela fournit des exemples de la cause des dommages causés par l’ombre à toute action commerciale. « La politique n’a aucune valeur si les employés ne comprennent pas cela », explique Arura. Éduquer les employés sur l’utilisation de l’intelligence artificielle sûre et des données potentielles sur les risques.
Intensaire avec la gouvernance, les risques, la conformité (GRC) et la gestion des risques. Arora et Golan soulignent que la supervision de l’intelligence artificielle devrait être liée à la gestion de la gouvernance, des risques et du respect de lui est extrêmement important pour les secteurs organisés.
Je me rends compte que l’interdiction de la couverture échoue, et je cherche de nouvelles façons d’introduire rapidement des applications d’IA légitimes. Le Golan se précipite pour souligner que l’interdiction de la couverture ne fonctionne jamais et mène à un sixième de la création et de l’utilisation de l’application Shadow AI. Arora est recommandé pour que ses clients fournissent des options de sécurité de l’IA pour les institutions (telles que Microsoft 365 Copilot, Chatgpt Enterprise) avec des directives claires pour une utilisation responsable.
Ouvrir les avantages de l’intelligence artificielle en toute sécurité
En combinant la stratégie de gouvernance de l’intelligence artificielle, la formation des utilisateurs et le suivi pré-puissant, les institutions peuvent exploiter les capacités du Genai sans sacrifier la conformité ou la sécurité. L’Arora finale est fréquemment: « La résolution d’une gestion centrale, soutenue par des politiques cohérentes, est très importante. Vous pourrez innover tout en protégeant les données de l’entreprise – c’est le meilleur des mondes. » L’ombre de l’ombre est là pour survivre. Au lieu de l’empêcher, les leaders de réflexion avancés se concentrent sur la productivité sûre afin que les employés puissent profiter du pouvoir transformateur de l’IA selon leurs conditions.
Lien source