Неочевидные юридические последствия Low-Code и Generative AI
Технологический прогресс открывает новые горизонты, но порой за ним скрываются неожиданные юридические последствия. Сегодня мы поговорим о том, какие риски несёт массовое внедрение low-code платформ и генеративного ИИ в бизнес-процессы.
1. Ответственность за ошибки в коде
Генеративный ИИ способен писать код на основе текстовых команд, а low-code платформы позволяют автоматизировать процесс разработки приложений. Однако кто несёт ответственность за ошибки и сбои, которые могут возникнуть из-за автоматической генерации кода?
- Разработчик: Если он использовал ИИ для упрощения работы, но не проверил результат.
- Владелец компании: Если приложение, созданное на low-code платформе, нанесло ущерб пользователям.
- Разработчик платформы: Если ошибка была вызвана самим инструментом, а не неправильным использованием.
Пример: В 2022 году компания Stability AI столкнулась с иском от группы художников, утверждавших, что их работы были использованы для обучения модели без разрешения, что привело к нарушению авторских прав.
2. Проблемы с авторским правом
Код, созданный генеративным ИИ, не всегда можно считать уникальным. Что, если он случайно воспроизведёт фрагмент чужого кода, защищённого авторским правом? Это может привести к судебным искам, особенно в корпоративной среде.
Прецедент: В 2023 году группа авторов, включая Сару Сильверман, подала иск против OpenAI, утверждая, что их книги были использованы для обучения модели без разрешения, что нарушает авторские права.
3. Обработка персональных данных и GDPR
Использование low-code решений в сочетании с ИИ часто связано с анализом больших массивов данных. Но кто контролирует обработку этих данных и соответствует ли это требованиям GDPR?
- Автоматическая обработка заявок в банке: Нужно ли клиенту давать согласие на обработку данных ИИ?
- Рекрутинговые системы на базе Generative AI: Можно ли отсеивать кандидатов без человеческого вмешательства?
Пример: В 2017 году Amazon отказалась от использования AI-системы найма после выявления гендерных предубеждений в её алгоритме. Система обучалась на данных, где преобладали мужчины, и начала снижать рейтинг резюме с упоминаниями женских организаций. Этот случай продемонстрировал риск дискриминации при использовании AI в HR-сфере.
4. Юридическая сила документов, созданных ИИ
Банки и компании уже используют AI для заполнения заявок и контрактов. Но обладают ли такие документы юридической силой? Может ли клиент оспорить договор, если его подготовил не человек, а ИИ?
Прецедент: В 2023 году суд в США рассмотрел дело, в котором обсуждалась юридическая сила документов, созданных ИИ, и пришёл к выводу, что отсутствие человеческого участия может поставить под сомнение действительность таких документов.
5. Безопасность и риски хакерских атак
Автоматизированные системы часто работают по шаблонам, что делает их предсказуемыми. Хакеры могут использовать это для обхода защиты. Например:
- Использование low-code в разработке внутренних бизнес-приложений без должного контроля может открыть уязвимости.
- ИИ может случайно раскрыть конфиденциальные данные в ответах.
Прецедент: В апреле 2023 года инженеры компании Samsung случайно раскрыли конфиденциальную информацию, загрузив исходный код и другие внутренние данные в ChatGPT для исправления ошибок и оптимизации кода. В ответ на эти инциденты Samsung запретила использование генеративных ИИ-инструментов, включая ChatGPT, на корпоративных устройствах и внутренних сетях.
Что делать бизнесу?
- Проверять код – даже если его сгенерировал ИИ, нужна ревизия профессионалов.
- Разрабатывать политику обработки данных – чтобы соответствовать GDPR и другим законам.
- Привлекать юристов – для проверки автоматизированных решений.
- Контролировать ИИ – внедрять механизмы ограничения прав доступа и аудита кода.
Low-code и Generative AI — это не просто технологии, а новая реальность бизнеса. Однако их использование должно сопровождаться тщательным анализом рисков и юридической экспертизой.
Хотите быть в курсе последних юридических нюансов? Подписывайтесь на Telegram-канал «Реакция юриста».