Emma

Resumen:

  • El equipo de investigación de IA de Microsoft expuso accidentalmente 38 terabytes de datos privados, incluida una copia de seguridad en disco de dos estaciones de trabajo de empleados y más de 30,000 mensajes internos de Microsoft Teams mientras publicaban datos de entrenamiento de código abierto en GitHub. Esto se debió a una mala configuración de un token SAS, una función de Azure Storage utilizada para compartir datos.
  • Este caso resalta los riesgos a los que se enfrentan las organizaciones al tratar con grandes cantidades de datos de entrenamiento para IA, haciendo hincapié en la necesidad de controles y salvaguardias de seguridad adicionales. Los datos expuestos incluyeron datos personales sensibles, contraseñas de servicios de Microsoft, claves secretas y el potencial de inyectar código malicioso en modelos de IA.