Исследовательская команда Microsoft AI случайно разоблачила 38 терабайт частных данных, включая резервную копию диска двух рабочих мест сотрудников и более 30 000 внутренних сообщений Microsoft Teams при публикации открытых данных для обучения на GitHub. Это произошло из-за неправильной настройки SAS-токена, функции хранения Azure, используемой для обмена данными.
Данный случай подчеркивает риски, с которыми организации сталкиваются при работе с большими объемами данных для обучения искусственного интеллекта, что подчеркивает необходимость дополнительных проверок безопасности и защитных мер. Разоблаченные данные включали конфиденциальные личные данные, пароли к службам Microsoft, секретные ключи и потенциал для внедрения вредоносного кода в модели искусственного интеллекта.