ИИ уже знает ваши секреты — конфиденциальность под угрозой?

Искусственный интеллект в 2025 году стал уже не чем-то фантастическим, а вполне обычным инструментом в жизни и бизнесе. Однако вместе с удобством и эффективностью встаёт вопрос: а безопасны ли наши личные данные, которые мы доверяем нейросетям?

В Нидерландах регулятор по защите данных оштрафовал на 30,5 млн евро американскую компанию Clearview AI, которая, как утверждается, собрала незаконную базу данных с миллиардами фотографий людей. Власти Италии обнаружили возможную утечку данных пользователей GPT и даже временно заблокировали сервис.

Сравним, как популярные модели защищают ваши данные или данные ваших доверителей (работодателей), если вы юрист или адвокат.

сгенерировано GPT-4o
сгенерировано GPT-4o

GPT

OpenAI, известная моделью GPT, занимает лидирующие позиции на рынке ИИ. У корпоративных версий (API, Enterprise, Pro) всё строго: данные клиентов не используются по умолчанию. Ведь в случае утечки компании точно уйдут к конкурентам.

Как следует из политики конфиденциальности OpenAI, в бесплатной версии и подписке Plus компания собирает «Контент» и может использовать его для обучения, если не отключить опцию «Improve the model for everyone». Второй вариант защиты — работать только через временный чат.

OpenAI также заявляет, что личные данные пользователей в любом случае «анонимизируются».

Gemini

С Gemini схожая ситуация. В бесплатной версии Gemini данные используются для обучения, если не запретить сохранение активности. В платной версии данные не собирают по умолчанию. Корпоративный режим не передаёт информацию общедоступной модели.

Grok (от xAI) и Claude (от Anthropic)

В корпоративных и API-версиях всё точно так же.

В индивидуальных версиях Anthropic использует данные пользователей для обучения моделей только при явном согласии, например, при предоставлении обратной связи. В отличие от этого, xAI использует данные пользователей Grok по умолчанию, но с возможностью отказа.

DeepSeek

В отличие от других моделей, DeepSeek не предоставляет явной и легкодоступной опции для обычных пользователей веб-интерфейса отказаться от использования их данных для обучения моделей.

Это довольно важный стоп-фактор, принимая во внимание недавние скандалы, связанные с уязвимостями модели. В январе 2025 года была обнаружена публично доступная база данных DeepSeek, содержащая более миллиона записей, включая историю чатов, API-ключи и другие чувствительные данные.

Кроме того, данные пользователей хранятся на серверах в КНР, что сопряжено с юридическими рисками потенциального доступа к ним со стороны государственных органов. Это может обязывать ИИ-гиганта предоставлять доступ к данным государственным органам.

Загружать в эту модель персональные данные, ноу-хау или конфиденциальные данные доверителей категорически не рекомендуется.

Риски трансграничной передачи персональных данных

А будет ли являться нарушением российского закона загрузка в чат с ИИ документов с персональными данными физических лиц?

С 1 марта 2023 года в России вступило в силу требование об обязательном уведомлении Роскомнадзора при осуществлении трансграничной передачи персональных данных.

Передача допускается в случае, если государство, на территорию которого отправляются данные, обеспечивает адекватную защиту прав субъектов персональных данных. К числу таких стран относятся государства Европейского союза, Великобритания и некоторые другие. Однако, например, Соединённые Штаты Америки в данный перечень не входят.

С учётом того, что значительная часть серверов, обслуживающих ИИ-системы ChatGPT и Gemini, физически размещена на территории США, передача в такие сервисы документов, содержащих персональные данные, может квалифицироваться как трансграничная передача в страну, не обеспечивающую надлежащую защиту.

В таких случаях российские операторы персональных данных (включая как юридических, так и физлиц) обязаны:

– уведомить Роскомнадзор о предполагаемой трансграничной передаче (и дождаться принятия им решения),

– обеспечить наличие правовых оснований для обработки и передачи персональных данных (например, письменное согласие субъекта ПДн),

– оценить риски и принять меры по защите прав субъектов ПДн.

Ввиду отсутствия США в перечне стран с признанным уровнем защиты, сам по себе факт загрузки документа с персональными данными является нарушением закона о защите персональных данных.

Вывод

Искусственный интеллект — мощный инструмент, но, как мы видим, работа с ним требует осознанности, особенно когда речь идет о конфиденциальной информации. Чтобы минимизировать риски и сохранить контроль над своими данными в 2025 году, стоит придерживаться нескольких простых правил:

  1. Не доверяйте настройкам по умолчанию. Первым делом зайдите в настройки вашей модели и отключите опцию, разрешающую использовать ваши данные для обучения моделей. Не во всех, даже платных подписках, это сделали за вас.
  2. Чувствительное — только в платных версиях. Если вы работаете с действительно важной информацией (коммерческая тайна, адвокатская тайна), предпочтение стоит отдавать платным подпискам (Pro, Advanced, Enterprise) или доступу через API.
  3. Анонимизируйте и псевдонимизируйте. Прежде чем отправлять запрос или документ в ИИ, удалите или замените все личные идентификаторы.
  4. DeepSeek — с особой осторожностью. Учитывая отсутствие простого отказа от обучения, недавнюю утечку и хранение данных в КНР, не используйте DeepSeek для задач, где фигурирует ценная или секретная информация.
  5. Используйте временные чаты. Это хороший вариант для разовых чувствительных запросов.
Соблюдаете ли вы хоть одно из этих правил?
Да
Нет, но теперь буду
Нет. Риск утечки низкий + все равно никто не узнает

Я планирую опубликовать здесь цикл статей-инструкций по рабо��е с GPT для юристов (следующие темы: составление договоров и поиск/анализ информации). Следите за обновлениями здесь и в моем ТГ-канале.

6
2 комментария