Этика в использовании нейросетей: как избежать проблем в работе

Нейросети — это не волшебная таблетка. Они не могут сделать всё за человека. Здесь на первый план выходят этические вопросы. Невозможно получить от нейросетей то, что допустимо применять везде без правок. Всегда нужен симбиоз человеческой деятельности и технологии. ИИ лишь набрасывает идеи, но редактировать их, доводить до совершенства — забота людей.

Этика в использовании нейросетей: как избежать проблем в работе

Каждая модель нейросетей обучается на различных наборах данных, потому возникают вопросы о правах на эти данные. Чем больше сведений — тем совершеннее модель ИИ. С другой стороны, чем больше информации доступно — тем больше проблем с конфиденциальностью и вопросами интеллектуальной собственности. Есть ещё много открытых вопросов, в том числе и этических. О них пойдёт речь в статье.

Человек или машина?

Всё чаще в онлайн-бизнесе используется контент, сгенерированный нейросетями.

В любом случае нужно думать о том, что вы создаёте, и понимать, что по другую сторону машины находится человек. Так что наслаждайтесь творческим процессом: это не обезличенная деятельность.

Но каждый раз при использовании ИИ приходят на ум такие вопросы.

1. Кто является владельцем контента или кода, сгенерированного нейросетью?

Если вы с помощью ИИ пишете код или пост для блога, кто владеет авторским правом? Вы? Провайдер нейросети? Или, может, кто-нибудь ещё? Или, перефразируя, — кто владеет интеллектуальной собственностью и какой именно частью контента или кода?

2. Любые данные, которые вы загружаете в нейросеть, помогают вашим конкурентам

Если вы создаёте контент с помощью нейросети, будут ли загруженные вами данные использованы, чтобы тренировать другие модели ИИ?

Речь идёт, например, о ситуации с корпоративными данными, которые потенциально интересны конкурентам: закрытом исходном коде, который находится под NDA, или маркетинговых стратегиях, которые помогают вам обойти конкурентов.

3. Риск, что вас засудят за использование контента, сгенерированного ИИ

Бывали случаи, когда людям предъявляли иски за то, что они использовали контент, созданный нейросетью. Даже Google столкнулась с такой проблемой.

4. Влияние ИИ на SEO: помощь или вред?

Мы все сейчас переживаем — а вдруг в будущем созданный руками человека контент станет не нужен? Ведь нейросети могут генерировать оптимизированный контент для поисковиков. Но приведёт ли это к обесцениванию «человеческого»? Или всё же сгенерированный контент и созданный человеком будут органично дополнять друг друга?

5. Конфиденциальность и передача нейросети информации о компании

Инструментам ИИ необходимы данные, чтобы обучаться и работать. Какие именно данные им нужны? Как они будут использоваться? Какого рода данные требуются? Какими последствиями для конфиденциальности грозит передача данных искусственному интеллекту?

6. Корректность информации

Инструменты ИИ и чат-боты неидеальны. Они допускают ошибки. Что происходит, когда нейросеть генерирует неправильный контент? Кто несёт ответственность за неточность?

В создании итогового текста инструменты ИИ очень зависимы от того, на каких данных их обучали. Какие данные использовали для тренировки, такие и получатся на выходе. Поэтому они могут научиться предвзятости и стереотипному мышлению.

7. Сокращение рабочих мест из-за ИИ

Если можно создать в 10 раз больше контента, задействовав всего 10% ресурсов, вместо человека маркетологом теперь будет работать нейросеть? Что станет с человеческим процессом принятия решений? И что случится с правами человека?

8. Снижение стоимости контента

Если ИИ способен создавать неотличимый от человеческого контент, станет ли дешевле его стоимость? Возможно, люди не захотят платить за материал, если его можно бесплатно получить от нейросети?

Очевидно, что у генеративных нейросетей есть проблемы

Генеративный искусственный интеллект не всегда точен.

Другой вопрос этики — загружая в ИИ «чувствительную» информацию о компании, разработчики этого ИИ получат к ней доступ. И тогда они свободно воспользуются ей, как захотят — учитывайте, всё, что вы вводите, может быть общедоступным.

Поэтому не передавайте конфиденциальные данные без разрешения. Важно убедиться, что информация для обучения модели генеративного ИИ получена легально и по соглашению второй стороны, и что она не нарушает законы и нормативные акты. Большинство общедоступных служб генеративного ИИ (например, ChatGPT) не раскрывают, на каких наборах данных они обучаются. Так что мы не знаем, кто на самом деле владеет результатом.

Это также означает, что мы не можем проверить, до какой степени результат является предвзятым. Необъективность ИИ — это реальная проблема. Модели усваивают стереотипы из данных обучения. Они способны создавать крайне убедительное враньё. Никогда не доверяйте контенту, созданному ИИ, как единственному источнику информации, особенно если речь идёт о научных исследованиях.

Проблемы с ИИ несложно выявить. Контент, полностью созданный нейросетью, часто довольно посредственный:

  • длинные и сложные абзацы, скопированные куски;
  • неуклюжие формальные клише и длинные структуры в предложениях;
  • перегруженность прилагательными;
  • факты на основе чьего-то субъективного мнения.

Этический кодекс использования искусственного интеллекта

Рекомендуется использовать генеративный ИИ с лицензией, выданной компанией. Это важно с точки зрения ответственности и прав собственности. Но даже в этом случае не следует полностью копировать контент или код от нейросети. Всегда редактируйте, изменяйте и дополняйте материал, чтобы добиться уникальности контента.

  • Защита данных — во главе угла. Не следует слепо доверять всему, что создала нейросеть, так как точность этих сведений довольно спорная, особенно по темам, которые быстро меняются.
  • Никогда не копируйте целиком то, что получили на выходе от нейросети. Можно генерировать контент, но при этом всегда помнить о необходимости улучшать результат, чтобы получить действительно новую идею.
  • ИИ прекрасно подходит для быстрого поверхностного исследования тем или проверки идей. Не используйте его для доказательства своих идей.
  • Большинство информации — это «чувствительный» контент. Всё, что вы даёте нейросети на вводе, может стать доступным для конкурентов или действующих и потенциальных клиентов.
  • Никогда не делитесь никакими личными данными с инструментами искусственного интеллекта вроде ChatGPT. Это также касается личных данных ваших клиентов — имён, email-адресов, номеров телефонов и всего остального, что относится к информации, идентифицирующей личность.
2 комментария

Если вы с помощью ИИ пишете код или пост для блога, кто владеет авторским правом? Вы? Провайдер нейросети? Или, может, кто-нибудь ещё? Или, перефразируя, — кто владеет интеллектуальной собственностью и какой именно частью контента или кода?-это пока реально спорные вопросы,но с другой стороны ,если я рисую с помощью красок,автором ведь краски не являются

Ответить

А вопрос то хороший поднят относительно авторских прав на контент сгенерированный с помощью нейросетей. Как бы потом не пошли судебные процессы на этот счёт.

Ответить