Rome, Italie –
L’organisme italien de surveillance de la protection des données a annoncé vendredi avoir infligé une amende de 15 millions d’euros à OpenAI après avoir enquêté sur la collecte de données personnelles par le chatbot populaire ChatGPT de la société américaine d’intelligence artificielle.
L’organisme de surveillance de la vie privée du pays, connu sous le nom de Garante, a déclaré que son enquête avait révélé qu’OpenAI traitait les données personnelles des utilisateurs pour former ChatGPT « sans fondement juridique suffisant et en violation des principes de transparence et des obligations d’information associées envers les utilisateurs ».
OpenAI a qualifié la décision de « disproportionnée » et a annoncé qu’elle ferait appel.
« Lorsque Guaranty nous a ordonné de cesser de proposer ChatGPT en Italie en 2023, nous avons travaillé avec eux pour le rétablir un mois plus tard », a déclaré vendredi un porte-parole d’OpenAI dans un communiqué envoyé par courrier électronique. « Ils ont depuis reconnu notre approche de pointe en matière de protection de la vie privée dans l’IA, mais cette amende représente près de 20 fois les revenus réalisés en Italie au cours de la période concernée. »
OpenAI a toutefois ajouté qu’elle « s’engage à travailler avec les autorités chargées de la protection de la vie privée du monde entier pour offrir une IA bénéfique qui respecte le droit à la vie privée ».
L’enquête, qui a débuté l’année dernière, a également révélé qu’OpenAI ne fournissait pas un « système de vérification de l’âge adéquat » pour empêcher les utilisateurs de moins de 13 ans d’être exposés à du contenu inapproprié généré par l’IA, a indiqué l’organisme de surveillance.
Les autorités italiennes ont ordonné à OpenAI de mener une campagne de six mois dans divers médias italiens pour sensibiliser le public à ChatGPT, notamment en ce qui concerne la collecte de données.
La popularité croissante des systèmes d’intelligence artificielle générative comme ChatGPT a attiré l’attention des régulateurs des deux côtés de l’Atlantique.
Les régulateurs aux États-Unis et en Europe examinent OpenAI et d’autres sociétés qui ont joué un rôle clé dans le boom de l’IA, tandis que les gouvernements du monde entier élaborent des règles pour se protéger contre les risques posés par les systèmes d’IA, sous la direction de la loi européenne sur l’IA. , un livre de règles complet pour l’intelligence artificielle.
Kelvin Chan, rédacteur d’AP Business à Londres, a contribué à ce rapport