Emma

Zusammenfassung:

  • Das KI-Forschungsteam von Microsoft hat versehentlich 38 Terabyte an privaten Daten freigelegt, darunter ein Festplatten-Backup von zwei Mitarbeitern und über 30.000 interne Microsoft Teams-Nachrichten, während sie Open-Source-Trainingsdaten auf GitHub veröffentlichten. Dies geschah aufgrund einer fehlerhaften Konfiguration eines SAS-Tokens, einer Funktion von Azure Storage zur Datenfreigabe.
  • Der Fall verdeutlicht die Risiken, mit denen Organisationen bei der Verarbeitung großer Mengen an Trainingsdaten für KI konfrontiert sind, und betont die Notwendigkeit zusätzlicher Sicherheitsüberprüfungen und Schutzmaßnahmen. Die freigelegten Daten enthielten sensible persönliche Informationen, Passwörter für Microsoft-Services, Geheimschlüssel und das Potenzial, bösartigen Code in KI-Modelle einzuschleusen.