L’entreprise américaine de services technologiques Google a mis fin à son système de Deepfakes « Google Colaboratory »
Google a interdit la formation de systèmes d’IA pouvant être utilisés pour générer des deepfakes sur sa plateforme Google Colaboratory. Les conditions d’utilisation mises à jour, repérées au cours du week-end par BleepingComputer, incluent les travaux liés aux deepfakes dans la liste des projets non autorisés.
Colaboratory, ou Colab en abrégé, est issu d’un projet interne de Google Research fin 2017. Il est conçu pour permettre à quiconque d’écrire et d’exécuter du code Python arbitraire via un navigateur Web, en particulier du code pour l’apprentissage automatique, l’éducation et l’analyse de données. À cette fin, Google fournit aux utilisateurs de Colab un accès gratuit et payant au matériel, y compris aux GPU et aux unités de traitement de tenseur (TPU) conçues sur mesure et accélérant l’IA.
Ces dernières années, Colab est devenu la plate-forme de facto pour les démonstrations au sein de la communauté de recherche en IA. Il n’est pas rare que les chercheurs qui ont écrit du code incluent des liens vers des pages Colab sur ou à côté des référentiels GitHub hébergeant le code. Mais Google n’a pas toujours été très restrictif en ce qui concerne le contenu de Colab, ouvrant potentiellement la porte aux acteurs qui souhaitent utiliser le service à des fins moins scrupuleuses.