Обучение модели может производиться на закрытых данных, и в этом случае она будет использовать их в ответах. При этом разграничить доступ к конфиденциальным данным или ответам, которые их включают, весьма непросто, говорит Иван Волков. Между тем в массиве данных из интернета, на которых обучаются публичные сети, могут оказаться пароли или ключи доступа, объяснил эксперт. Впоследствии они могут попадать в выдачу сети. Иван привел и другой пример: если сеть для генерации изображений училась на картинках, защищенных авторскими правами или содержащих зарегистрированные товарные знаки, то она может вставлять эти охраняемые элементы в свои сгенерированные изображения, подставляя того, кто будет их использовать в дальнейшем.
Внедри ли бы еще какие то защитные протоколы, просто как то кажется что все это бесконтрольно развивается.
Денис, законодательство формируется - Минцифры создает стандарт персональных данных для систем и сервисов ИИ, Росстандарт выпускает ГОСТы для ИИ, но нормативная база всегда отстает от технологий