Les procédures judiciaires s'enchaînent en Europe à l'égard d'OpenAI, au sujet de l'utilisation des données personnelles de son logiciel d'IA générative ChatGPT lancé fin 2022. Dernière en date : le dépôt de plainte de l'association autrichienne None of Your Business (NOYB), qui estime que ChatGPT enfreint le règlement général sur la protection des données (RGPD), car il est susceptible de donner de fausses informations sur un individu, sans possibilité de les faire corriger ou supprimer. Ce type d’outils « inventent régulièrement des réponses », rappelle NOYB, un phénomène connu sous le nom d'« hallucinations d'IA », lorsque les algorithmes d'IA produisent des résultats incorrects ou trompeurs en raison d'un entraînement incomplet, de préjugés dans les données ou d'erreurs de programmation. Face à ces risques, des procédures ont été lancées dans plusieurs pays : l'Italie a ainsi temporairement bloqué ChatGPT en mars 2023, tandis que la Commission nationale de l'informatique et des libertés (CNIL) a commencé en France l'examen d'une série de plaintes.
Comme le montre une enquête récente de Microsoft, presque la totalité, soit 87 %, des personnes interrogées dans 17 pays en juillet et août 2023 étaient préoccupées par au moins un problème potentiel lié à l'utilisation de l'IA générative. 71 % des répondants se disaient inquiets des escroqueries générées par l'IA. Sans préciser davantage ce qui constitue ce type d'escroqueries, il est très probable qu'elles soient liées à des cas d'usurpation d'identité utilisant l'IA. Les deepfakes et les abus sexuels ou en ligne arrivent en deuxième position avec 69 % des réponses. Les hallucinations d'IA (66 %) font également partie des principales inquiétudes concernant cette technologie, tandis que les préoccupations relatives à la confidentialité des données, liées à l'utilisation par les logiciels d'IA de données publiques d'utilisateurs sans leur consentement explicite, arrivent en cinquième position (62 %).