Naomi Klein: галлюцинации создателей ИИ нужны для маскировки старых трюков Силиконовой Долины

Почему так ярко и навязчиво техно компаний из Силиконовой Долины представляют обществу свои филантропические галлюцинации о благе генеративного ИИ для человека и общества? Часть 2.

Naomi раскрывает стандартный трюк Силиконовой Долины: сначала найти территорию, где что-то плохо регулируется- например, Google отсканировал книги и предметы искусства, а потом сфотографировал улицы и дома для Street View. Разрешения ни у кого не спросили. Силиконовая Долина громко кричит, что регулирование – это плохо, нельзя остановить инновации, а если остановить, то Китай опередит демократию западных стран. Потом полученный сервис делают бесплатным. Пользователи привыкают, конкуренты исчезают. И вот на абсолютно чистом рынке монополист вводит новые правила: таргетированная реклама, непрерывное наблюдение за пользователем, заключаются контракты с полицейскими ведомствами и военными структурами, продают сервисы с так называемых «черных ящиков» персональных данных и увеличивается абонентская плата. И самое главное, как отмечает Naomi, - щедрые пожертвования на избирательные кампании политиков. Такой же трюк техно отрасль пытается провернуть с ИИ (такими сервисами как ChatGPT). Naomi верит, что общество еще успеет среагировать правильно на очередную попытку богатых техно корпораций увеличить прибыль за счет нарушения авторских прав и защитит права владельцев данных.

Naomi анализирует четвертую популярную галлюцинацию CEO коммерческих компаний-разработчиков алгоритмов.

Галлюцинация №4: технология ИИ избавит нас от монотонной и скучной работы

Если филантропические галлюцинации Силиконовой долины кажутся многим правдоподобными, то для этого есть причина. Генеративный ИИ возвещает стадию фейкового социал-капитализма. Это часть известного трюка, применяемого многократно Силиконовой Долиной. Во-первых, создать привлекательный продукт (поисковик, карты онлайн, социальную сеть, видео платформу, приложение для заказа такси и т.д.), дать попользоваться продуктом бесплатно или почти бесплатно пару лет, причем без какой-либо жизнеспособной бизнес-модели. Для этого применяются стандартные меры привлечения пользователей: «Попробуй своего нового бота, посмотри, какие классные штуки он создает!» Техно компании делают много возвышенных заявлений о том, что новый продукт нужен для «городской площади», «Информационного пространства», «соединить людей». Все продукты Силиконовой Долины, разумеется, несут свободу и демократию (и они точно не могут «нести зло» ( not being “evil”). Затем люди подсаживаются на эти бесплатные продукты, а конкуренты вынуждены объявлять о банкротстве. И когда рынок абсолютно свободен от конкурентов, техно компании начинают внедрять таргетированную рекламу, непрерывное наблюдение за пользователем, заключают контракты с полицейскими ведомствами и военными структурами, продают сервисы с так называемых «черных ящиков» персональных данных и увеличивают абонентскую плату.

Многие бизнесы и работники потеряли источник дохода и ушли с рынка на более ранних стадиях этого трюка Силиконовой Долины. Речь идет о водителях такси, бизнесе риэлторских агентств и локальных газетах. Революция технологий ИИ приведет к еще большим потерям среди учителей, программистов, художников и дизайнеров, журналистов, переводчиков, музыкантов, работников по уходу и всех тех, кто сталкивается с перспективой замены своей работы кодом алгоритма, который глючит.

Но не стоит волноваться, ведь энтузиасты ИИ продолжают придумывать все новые прекрасные галлюцинации. Кому в принципе нравится работать? Генеративный ИИ не оставит всех без работы, как нам говорят, он заберет только «скучную» работу. Чатбот будет выполнять все однообразные, повторяющиеся операции, а человек просто проверять.

Sam Altman обрисовал свое видение будущего: работа «может стать более широким концептом. Не что-то конкретное, что нужно сделать, чтобы вы могли заработать на хлеб, а что-то креативное, что принесет вам счастье и чувство полноты жизни».

Прекрасный мир будущего без необходимости зарабатывать деньги - это не мир алгоритмов, это социализм

Такое захватывающее видение прекрасной, неторопливой жизни разделяют многие левые мыслители, включая Paul Lafargue, зятя Карла Маркса, который написал манифест «Право лениться». Однако левые мыслители также знают, что если зарабатывание денег не является главным императивом в жизни, то должны быть другие способы удовлетворить потребности в пропитании и крыше над головой. Мир без скучной работы означает, что процентов за пользование деньгами не будет, здравоохранение будет бесплатным, и каждый человек будет иметь неотъемлемые экономические права. Но тогда мы говорим не об алгоритме, мы говорим о социализме.

Сегодня мы живем не в рациональном, гуманистическим мире, вдохновленном эпизодами Star Trek, в котором создаются галлюцинации Sam Altman. Мы живем в эпохе капитализма и в такой системе, что если рынок наводнят технологии, выполняющие правдоподобно экономически значимые операции, то многие не станут свободными и сразу превратятся в художников и философов. Эти люди первыми окажутся без заработка и перед пропастью – причем настоящие художники в нее первые и упадут.

Geoffrey Hinton: помимо монотонной работы алгоритм может захватить еще какие-то операции

Открытое письмо Molly Crabapple призывает «художников, издателей, журналистов, редакторов и лидеров индустрий взять на себя обязательство отстоять человеческие ценности в противовес применению изображений, создаваемых машиной» и «взять на себя обязательство поддерживать работы, сделанные людьми, а не фермами на серверах». Художники, журналисты и прочие работники подписали это открытое письмо, посчитав, что их работа «окажется под риском исчезновения». Geoffrey Hinton высказал опасение, что этот тренд продолжится. Чатботы заберут «скучную работу», но они «могут забрать и большее».

Molly Crabapple: «Изображения, созданные генеративным ИИ, - по сути есть вампиризм, питающийся на произведениях искусства, созданных поколениями людей». Есть способ противостоять такому злоупотреблению: отказаться от использования произведений, созданных алгоритмом.

Техно компании должны раскрывать источники данных, на которых обучаются алгоритмы

Бывшая сотрудница Google - Timnit Gebru , уволенная в 2020 году за открытое порицание дискриминации в компании, также опубликовала открытое письмо, где призывала к немедленному введению регулирования алгоритмов. Среди мер, предлагаемых Timnit, были такие: полная прозрачность источника данных, на которых натренирован алгоритм. «Должно быть предельно ясно, откуда и какие данные, когда речь идет о синтетических сущностях. Причем создатели этих синтетических моделей также должны раскрывать источники данных и модели… Мы должны строить машины, работающие на нас, а не «адаптировать» общество под машины, способные читать и писать».

Регулирование алгоритмов – созревшая необходимость рынка и вполне реальная перспектива

Технологические компании хотят заставить нас поверить, что слишком поздно откатать назад тренд замены человеческого труда алгоритмами, мимикрирующими под человеческую деятельность. Однако, уже есть серьезные преценденты, требующие введения регуляторных правил и соответствующего законодательства. Например, американский ФАС (Federal Trade Commission (FTC)) заставил печально известную компанию Cambridge Analytica, а также Everalbum – приложение для фотоизображений, уничтожить их алгоритмы, выяснив, что их тренировали на данных, полученных незаконно. Администрация Байдена делала громкое заявление о необходимости регулирования Биг теха, после публичных кейсов о краже персональных данных для тренировки своих проприетарных алгоритмов. Naomi призывает администрацию начать исполнять свои обещания на фоне приближающихся выборов.

Мир дип фейков, мимикрирующих сущностей и усугубляющегося неравенства доходов не единственно возможное будущее, как пытаются уверить нас техно компании. Это просто один из вариантов. Обществу вполне по силам регулировать нынешние формы чатботов, созданных на основе «вампирского» поглощения результатов работы людей, и построить мир, в котором технологии ИИ будут выполнять действительно захватывающие обещания, а не галлюцинации Силиконовой Долины.

Цель алгоритмов - не решить проблему климатического кризиса или облегчить труд людей, цель машины - получение прибыли корпорации

Люди тренируют машины. Все люди. Но люди не давали согласия это делать. Алгоритмы используют результаты коллективного творчества, вдохновения и открытий. Эти машины ограждают и присваивают себе все это, они обесценивают и приватизируют жизни конкретных людей, а также коллективный интеллект и творческое наследие. Цель алгоритмов – не решить проблему изменения климата или сделать наши правительства более ответственными, а нашу жизнь более легкой. Цель – получить прибыль на массовом обнищании, что вполне естественно в современной модели капитализма. Ведь если цель алгоритма заменить труд на дешевые операции мимикрирующего под человека механизма, то заработка лишатся именно люди.

Но точно ли все так драматично? Неужели это просто обычное сопротивление инновациям? И почему нужно думать о плохих последствиях? Sam Altman уверяет нас: «Никто не хочет разрушить этот мир». Конечно, не хочет. Просто климат-то продолжает ухудшаться, а влиятельные институты и люди понимают, что они пока только помогают этому процессу, продолжая извлекать максимальную прибыль. Хотя они хотят убедить нас, что пытаются защитить людей от ухудшения ситуации. Sam Altman как-то похвастался о своей подготовке спастись в случае катастрофы в 2016 году: «У меня есть оружие, золото, йодистый калий, антибиотики, батареи, вода, газ, противогазы от Израильских вооруженных Сил и большой кусок земли в Big Sur*, куда я улечу».

* Big Sur — малонаселенный район побережья центральной Калифорнии, где горный хребет Санта-Лусия резко обрывается к побережью Тихого океана. Местность имеет живописный вид, за счёт которого Биг-Сур популярен среди туристов. Расположенная в Биг-Суре гора Коун-Пик — наивысшая из прибрежных гор в США, возвышается над уровнем моря примерно на 1,6 км, находясь лишь в 4,8 км от океана.

Naomi Klein: эти слова Sam Altman более красноречивы о том, в какое будущее он верит, чем те яркие галлюцинации, которыми он делится в своих интервью для прессы.

22
Начать дискуссию