Rejoignez les newsletters quotidiens et hebdomadaires pour obtenir les dernières mises à jour et le contenu exclusif pour couvrir la principale intelligence artificielle de l’industrie. Apprendre encore plus
L’intelligence artificielle change le fonctionnement des entreprises. Bien qu’une grande partie de cette transformation soit positive, elle offre des préoccupations uniques de cybersécurité. Les applications d’intelligence artificielle de la prochaine génération, comme l’agence AI, sont un risque particulièrement majeur pour la position de sécurité des organisations.
Qu’est-ce qu’un client d’intelligence artificielle?
L’IULCTIC IA fait référence aux modèles d’intelligence artificielle qui peuvent fonctionner de manière indépendante et conduisent souvent à des rôles complets avec un petit apport humain. Les chatbots avancés sont parmi les exemples les plus importants, mais les agents de l’intelligence artificielle peuvent également apparaître dans des applications telles que l’intelligence commerciale, les diagnostics médicaux et les modifications de l’assurance.
Dans tous les cas d’utilisation, cette technique combine des modèles obstétricaux, un traitement NLP (NLP) et d’autres MLS (ML) pour effectuer des tâches multiples indépendamment. Il est facile de voir la valeur dans une telle solution. Il est compris, Gartner prédit cela troisième Parmi toutes les réactions de renseignement obstétricales, ces facteurs seront utilisés d’ici 2028.
Les risques de sécurité uniques de l’agent d’intelligence artificielle
La dépendance de l’AI de l’AI augmentera à mesure que les entreprises cherchent à effectuer un plus large éventail de tâches sans une plus grande main-d’œuvre. Bien que ce soit des promesses, donner au modèle Amnesty International beaucoup de force a des effets graves de la cybersécurité.
Les agents de l’intelligence artificielle nécessitent généralement un accès à d’énormes quantités de données. Par conséquent, ce sont des objectifs majeurs pour les criminels électroniques, où les attaquants peuvent concentrer les efforts sur une application pour exposer une grande quantité d’informations. Il aura un effet similaire des vitaux – qui a conduit Applaudir les pertes de 12,5 milliards de dollars En 2021 seulement – mais cela peut être plus facile, car les modèles d’intelligence artificielle peuvent être plus susceptibles que les professionnels expérimentés.
L’indépendance de l’IA de l’agence est une autre préoccupation. Bien que tous les algorithmes ML offrent certains risques, les exigences d’utilisation traditionnelles nécessitent une licence humaine pour faire quoi que ce soit avec leurs données. Les agents, en revanche, peuvent se comporter sans autorisation. En conséquence, c’est-à-dire afficher une intimité accidentelle ou Erreurs telles que les hallucinations de l’intelligence artificielle Il peut glisser sans que personne ne s’en rende compte.
Ce manque de supervision rend les menaces actuelles de l’intelligence artificielle comme l’empoisonnement des données plus dangereuse. Les attaquants ne peuvent gâcher le modèle qu’en changeant 0,01% de son ensemble de données de formationEt faites cela possible avec l’investissement minimum. Ceci est nuisible dans n’importe quel contexte, mais les mauvaises conclusions de l’agent empoisonné atteindront beaucoup plus loin qu’un contexte dans lequel les humains sont extraits en premier.
Comment améliorer la cybersécurité pour la prothèse de l’intelligence artificielle
À la lumière de ces menaces, les stratégies de cybersécurité nécessitent une adaptation avant que les entreprises ne mettent en œuvre les applications d’IA. Voici quatre étapes critiques vers cet objectif.
1. Grande vision
La première étape consiste à s’assurer que les équipes de sécurité et d’exploitation ont une vision complète dans le travail du travail de l’agent de renseignement artificiel. Chaque tâche complète du formulaire, chaque appareil ou application doit y être connecté et toutes les données accessibles sont claires. La détection de ces facteurs facilitera la découverte de faiblesses possibles.
Les outils de cartographie du réseau automatique peuvent être nécessaires ici. seulement 23% des dirigeants informatiques Supposons qu’ils aient une vision complète dans leurs environnements cloud et que 61% utilisent plusieurs outils de découverte, ce qui conduit à des enregistrements en double. Les superviseurs doivent d’abord résoudre ces problèmes pour obtenir les informations nécessaires sur ce que les agents de l’intelligence artificielle peuvent atteindre.
Employer le principe de moins de concession
Une fois ce que l’agent peut interagir, les entreprises doivent restreindre ces privilèges. Le principe de concession moindre – qui indique que toute entité ne peut pas voir ce dont vous avez besoin et l’utiliser uniquement.
Toute base de données ou application avec laquelle l’agent d’intelligence artificielle peut interagir est un risque possible. Par conséquent, les organisations peuvent réduire les surfaces d’attaque pertinentes et empêcher le mouvement latéral en réduisant autant que possible ces autorisations. Tout ne devrait pas contribuer directement à l’objectif de diriger la valeur de l’intelligence artificielle en dehors des frontières.
Réduire les informations sensibles
De même, les superviseurs du réseau peuvent prévenir les violations de la confidentialité en supprimant les détails sensibles des ensembles de données auxquels l’IA peut accéder. De nombreux clients de l’intelligence artificielle travaillent naturellement comprennent des données spéciales. plus que 50% des dépenses de l’intelligence artificielle Il ira vers les chatbots, qui peuvent collecter des informations sur les clients. Cependant, tous ces détails ne sont pas nécessaires.
Bien que l’agent doit apprendre des interactions des clients précédentes, il n’a pas besoin de stocker des noms, des adresses ou des détails de paiement. La programmation système pour frotter les informations personnelles inutiles à partir de données accessibles de l’IA réduira les dommages en cas de violation.
Regardez le comportement suspect
Les entreprises ont également besoin d’attention à l’IA, agent de programmation. Appliquez-le d’abord à une utilisation unique et utilisez une équipe diversifiée pour examiner un modèle de biais ou d’hallucinations pendant la formation. Lorsque le moment vient de publier l’agent, le retirez lentement et le regardez pour un comportement suspect.
En temps réel, la réponse est très importante dans cette surveillance, car le risque d’intelligence artificielle du client signifie que toute violation peut avoir de graves conséquences. Heureusement, les solutions de détection automatique et la réponse sont très efficaces et fournissent En moyenne 2,22 millions de dollars Dans les coûts de violation de données. Les organisations peuvent lentement étendre les clients de l’intelligence artificielle après une expérience réussie, mais elles devraient continuer à surveiller toutes les applications.
Avec les progrès de la cybersécurité, les stratégies de cybersécurité doivent
Le progrès rapide de l’IA tient une grande promesse pour les entreprises modernes, mais les risques de cybersécurité augmentent à la même vitesse. Les défenses électroniques des institutions et des progrès doivent être augmentées ainsi que les cas d’intelligence artificielle. Le non-respect de ces changements peut endommager les avantages technologiques.
Agenive AI ML prendra de nouveaux horizons, mais il en va de même pour les faiblesses pertinentes. Bien que cela ne rend pas cette technologie qui ne soit pas très sûre pour y investir, elle appelle à la prudence. Les entreprises doivent suivre ces étapes de sécurité de base car elles offrent de nouvelles applications internationales Amnesty.
Zac Amos est un éditeur de fonctionnalités dans Richak.
DataDecisionmakers
Bienvenue dans la communauté VentureBeat!
DataDecisionmakers est l’endroit où les experts, y compris les techniciens qui créent des données, partagent des données et l’innovation liées aux données.
Si vous souhaitez lire sur les idées avancées, les informations modernes, les meilleures pratiques et l’avenir de la technologie des données et de la technologie des données, rejoignez-nous dans les fabricants de données.
Vous pouvez même penser à contribuer à votre propre article!
Lire la suite