Неочевидные юридические последствия Low-Code и Generative AI

Технологический прогресс открывает новые горизонты, но порой за ним скрываются неожиданные юридические последствия. Сегодня мы поговорим о том, какие риски несёт массовое внедрение low-code платформ и генеративного ИИ в бизнес-процессы.

1. Ответственность за ошибки в коде

Генеративный ИИ способен писать код на основе текстовых команд, а low-code платформы позволяют автоматизировать процесс разработки приложений. Однако кто несёт ответственность за ошибки и сбои, которые могут возникнуть из-за автоматической генерации кода?

  • Разработчик: Если он использовал ИИ для упрощения работы, но не проверил результат.
  • Владелец компании: Если приложение, созданное на low-code платформе, нанесло ущерб пользователям.
  • Разработчик платформы: Если ошибка была вызвана самим инструментом, а не неправильным использованием.

Пример: В 2022 году компания Stability AI столкнулась с иском от группы художников, утверждавших, что их работы были использованы для обучения модели без разрешения, что привело к нарушению авторских прав.

2. Проблемы с авторским правом

Код, созданный генеративным ИИ, не всегда можно считать уникальным. Что, если он случайно воспроизведёт фрагмент чужого кода, защищённого авторским правом? Это может привести к судебным искам, особенно в корпоративной среде.

Прецедент: В 2023 году группа авторов, включая Сару Сильверман, подала иск против OpenAI, утверждая, что их книги были использованы для обучения модели без разрешения, что нарушает авторские права.

3. Обработка персональных данных и GDPR

Использование low-code решений в сочетании с ИИ часто связано с анализом больших массивов данных. Но кто контролирует обработку этих данных и соответствует ли это требованиям GDPR?

  • Автоматическая обработка заявок в банке: Нужно ли клиенту давать согласие на обработку данных ИИ?
  • Рекрутинговые системы на базе Generative AI: Можно ли отсеивать кандидатов без человеческого вмешательства?

Пример: В 2017 году Amazon отказалась от использования AI-системы найма после выявления гендерных предубеждений в её алгоритме. Система обучалась на данных, где преобладали мужчины, и начала снижать рейтинг резюме с упоминаниями женских организаций. Этот случай продемонстрировал риск дискриминации при использовании AI в HR-сфере.

4. Юридическая сила документов, созданных ИИ

Банки и компании уже используют AI для заполнения заявок и контрактов. Но обладают ли такие документы юридической силой? Может ли клиент оспорить договор, если его подготовил не человек, а ИИ?

Прецедент: В 2023 году суд в США рассмотрел дело, в котором обсуждалась юридическая сила документов, созданных ИИ, и пришёл к выводу, что отсутствие человеческого участия может поставить под сомнение действительность таких документов.

5. Безопасность и риски хакерских атак

Автоматизированные системы часто работают по шаблонам, что делает их предсказуемыми. Хакеры могут использовать это для обхода защиты. Например:

  • Использование low-code в разработке внутренних бизнес-приложений без должного контроля может открыть уязвимости.
  • ИИ может случайно раскрыть конфиденциальные данные в ответах.

Прецедент: В апреле 2023 года инженеры компании Samsung случайно раскрыли конфиденциальную информацию, загрузив исходный код и другие внутренние данные в ChatGPT для исправления ошибок и оптимизации кода. В ответ на эти инциденты Samsung запретила использование генеративных ИИ-инструментов, включая ChatGPT, на корпоративных устройствах и внутренних сетях.

Что делать бизнесу?

  • Проверять код – даже если его сгенерировал ИИ, нужна ревизия профессионалов.
  • Разрабатывать политику обработки данных – чтобы соответствовать GDPR и другим законам.
  • Привлекать юристов – для проверки автоматизированных решений.
  • Контролировать ИИ – внедрять механизмы ограничения прав доступа и аудита кода.

Low-code и Generative AI — это не просто технологии, а новая реальность бизнеса. Однако их использование должно сопровождаться тщательным анализом рисков и юридической экспертизой.

Хотите быть в курсе последних юридических нюансов? Подписывайтесь на Telegram-канал «Реакция юриста».

Начать дискуссию