Emma

Résumé:

  • L'équipe de recherche en IA de Microsoft a accidentellement exposé 38 téraoctets de données privées, y compris une sauvegarde de disque de deux postes de travail d'employés et plus de 30 000 messages internes de Microsoft Teams lors de la publication de données d'entraînement en open source sur GitHub. Cela était dû à une mauvaise configuration d'un jeton SAS, une fonctionnalité d'Azure Storage utilisée pour partager des données.
  • Cette affaire met en évidence les risques auxquels les organisations sont confrontées lorsqu'elles traitent de grandes quantités de données d'entraînement pour l'IA, soulignant la nécessité de vérifications de sécurité supplémentaires et de mesures de protection. Les données exposées comprenaient des données personnelles sensibles, des mots de passe pour les services Microsoft, des clés secrètes et la possibilité d'injecter un code malveillant dans les modèles d'IA.