Emma

摘要:

  • 微軟的 AI 研究團隊在將開源訓練數據發布到 GitHub 上時,意外曝露了 38TB 的私人數據,其中包括兩名員工工作站的磁盤備份和超過 30,000 條內部 Microsoft Teams 訊息。這是由於 Azure Storage 的 SAS token 配置錯誤所致,該功能用於共享數據。
  • 此案例凸顯了組織在處理大量 AI 訓練數據時所面臨的風險,強調了需要進一步的安全檢查和保護措施。曝露的數據包括敏感個人數據、Microsoft 服務的密碼、密鑰以及將惡意程式碼注入 AI 模型的潛在風險。