Microsoft aurait bloqué plusieurs mots-clés de son Copilot Designer basé sur l’intelligence artificielle (IA) qui pourraient être utilisés pour générer des images explicites de nature violente et sexuelle. Un exercice de blocage de mots clés a été mené par le géant de la technologie après qu’un de ses ingénieurs a écrit à la Federal Trade Commission (FTC) des États-Unis et au conseil d’administration de Microsoft pour exprimer ses inquiétudes concernant l’outil d’IA. Notamment, en janvier 2024, des deepfakes explicites générés par l’IA du musicien Taylor Swift sont apparus en ligne et auraient été créés à l’aide de Copilot.
Repérés pour la première fois par CNBC, des termes tels que « Pro Choice », « Pro Choce » (avec une faute de frappe intentionnelle pour tromper l’IA) et « Four Twenty », qui affichaient auparavant des résultats, sont désormais bloqués par Copilot. L’utilisation de ces mots-clés interdits ou similaires déclenche également un avertissement de l’outil d’IA indiquant : « Cette invite a été bloquée. Notre système a automatiquement signalé cette invite car elle pourrait entrer en conflit avec notre politique relative au contenu. D’autres violations des règles peuvent entraîner la suspension automatique de votre accès. Si vous pensez qu’il s’agit d’une erreur, veuillez la signaler pour nous aider à nous améliorer. Chez Gadgets 360, nous avons également pu le confirmer.
Un porte-parole de Microsoft a déclaré à CNBC : « Nous surveillons, effectuons des ajustements et mettons en place des contrôles supplémentaires en permanence pour renforcer davantage nos filtres de sécurité et atténuer les utilisations abusives du système. » Cette solution a empêché l’outil d’IA d’accepter certaines invites. Cependant, les ingénieurs sociaux, les pirates informatiques et les acteurs malveillants pourraient être en mesure de trouver des failles pour générer d’autres mots-clés de ce type.
Selon un rapport distinct de CNBC, toutes ces invites mises en évidence ont été affichées par Shane Jones, un ingénieur de Microsoft, qui a écrit la semaine dernière une lettre à la fois à la FTC et au conseil d’administration de la société pour exprimer ses inquiétudes concernant l’outil d’IA alimenté par DALL-E 3. . Jones aurait activement partagé ses préoccupations et ses découvertes concernant l’IA générant des images inappropriées depuis décembre 2023 avec l’entreprise via les canaux internes.
Plus tard, il a même publié un message public sur LinkedIn pour demander à OpenAI de supprimer la dernière itération de DALL-E pour enquête. Cependant, Microsoft lui aurait demandé de supprimer le message. L’ingénieur avait également contacté des sénateurs américains et les avait rencontrés à ce sujet.