Опасности делегирования: эксперты предостерегают от передачи личных данных нейросетям
Использование искусственного интеллекта в сфере здравоохранения вызывает все больше вопросов с точки зрения безопасности персональных данных. Старший юрист компании MWS AI Кирилл Дьяков в беседе с РИА Новости предупредил о серьезных рисках, связанных с загрузкой медицинских сведений в общедоступные нейросети.
По словам специалиста, популярные большие языковые модели — такие как ChatGPT — несут потенциальную угрозу конфиденциальности. Эти сервисы способны сохранять пользовательские данные, использовать их для дальнейшего обучения и впоследствии воспроизводить информацию, включая чувствительные медицинские сведения. Подобная утечка может привести к компрометации личности: злоумышленники получат доступ к диагнозам, анализам и другой приватной информации, способной нанести серьезный репутационный и даже финансовый ущерб.
Дьяков обратил внимание и на юридический аспект проблемы. В ряде случаев разработчики ИИ‑моделей обязаны предоставлять данные пользователей по решению суда. Это создает дополнительные риски: информация, которую человек считал приватной, может оказаться в распоряжении третьих лиц в рамках правовых процедур.
Кроме угрозы утечки, эксперт отметил еще одну проблему — неточность неспециализированных ИИ‑систем. При некорректно сформулированных запросах нейросети способны выдавать ошибочные медицинские рекомендации. Такие просчеты особенно опасны, поскольку пользователи могут принять неверные выводы за экспертное мнение и нанести вред собственному здоровью.
В качестве безопасных альтернатив специалист предложил два подхода. Первый — загрузка в нейросети обезличенных данных, где персональные идентификаторы (ФИО, дата рождения, адрес) удалены или замаскированы. Второй — использование специализированных ИИ‑систем в закрытых контурах медицинских учреждений. Подобные решения, не имеющие доступа к внешним ресурсам, значительно меньше подвержены кибератакам и случайным утечкам по сравнению с публичными сервисами.
Передача чувствительной информации общедоступным нейросетям требует тщательной оценки рисков, а для защиты конфиденциальности предпочтительны специализированные и технически защищенные решения.
Комментарии
Добавление комментария
Комментарии