Визионеры искусственного интеллекта о его будущем
Пионеров ИИ объединяет видение технологии как революционной, которая изменит мир кардинально. А в остальном — их представления по принципиальным вопросам расходятся, и порой кардинально. Анализирую взгляды на принципиальные для развития ИИ вопросы со стороны двух наиболее ярких визионеров: Сэма Альтмана и Яна Лекуна.
** Еще больше интересного в моем канале продуктовые штучки**
Как можно обозначить позиции визионеров в целом?
Так, Сэм Альтман скорее алармист: при всех огромных преимуществах ИИ, он не преминет рассказать о рисках, сопутствующих наступлению эры ИИ, и необходимости регулирования для минимизации негативных последствий использования такого мощного инструмента.
Ян Лекун, напротив, высмеивает апокалиптические сценарии развития ИИ и осуждает тех, кто их высказывает (полагая, что либо они делают это по незнанию, либо по корыстным соображениям).
Аргументы обоих выглядят достаточно убедительно, судите сами, кто прав.
В какой компании должны вестись разработки: коммерческой или НКО?
Сэм Альтман
Изначально был убежден, что разработкой ИИ была добросовестной, ею должны заниматься некоммерческие компании и государство. Однако OpenAI не смог удержаться в статусе НКО и найти независимое финансирование, в итоге получив финансирование от Microsoft.
Ян Лекун
Не видит другого способа развивать ИИ, кроме как в рамках коммерческих компаний, у которых есть необходимые ресурсы. Исследования в области ИИ трудоемки и очень дорогостоящи (как минимум, требуют больших вычислительных возможностей), и никакие некоммерческие организации не смогут этот потянуть. И OpenAI не смог удержаться в статусе НКО, получив финансирование от Microsoft. К тому же модели с открытым кодом могут получить преимущества развития, в том числе - финансовые (например, освобождение от налогов).
Исходный код / модель: открытая или закрытая
Сэм Альтман
Изначально придерживался подхода открытого кода, но впоследствии поменял свое мнение, увидев быстрый прогресс ИИ и испугавшись воздействия злоумышленников. И в GPT-2 код был закрыт — по крайней мере до того момента, пока не будет найдено решение.
Ян Лекун
Только открытые модели имеют множество преимуществ с точки зрения безопасности и устойчивости развития именно за счет возможности противостоять угрозам за счет объединения ресурсов бесчисленного множества заинтересованных сторон.
И к тому же открытые модели предпочтительны для всех стран, т.к. помогут избежать монополизации платформы в руках немногих технологических компаний. А значит, это поможет поддержать развитие моделей с открытым исходным кодом.
Как бороться со злоумышленниками?
Сэм Альтман
Полагает, что в настоящий момент нет убедительного ответа, и эту задачу еще предстоит решить. Риск того, что технологией завладеют темные силы, стал причиной отказа от открытой модели.
Ян Лекун
Решение — бежать быстрее в соревновании с плохими парнями. И сделать это можно только за счет открытой модели, в которую могут вкладываться коллективно бесчисленное множество людей, таким образом (а не с помощью запретов и эмбарго на чипы) превосходя "плохих парней".
Да, у плохих парней в настоящий момент нет ресурсов (вычислительных мощностей и специалистов), чтобы превзойти хороших. Но это — вопрос времени,и универсальное и стратегически правильное решение — открытые модели ИИ.
Как сделать так, чтобы суперинтеллект не вырвался из-под контроля человека
Сэм Альтман
Это — одна из основных задач в настоящий момент, решения нет. OpenAI ведет исследования и объявил грант на исследования в области выравнивания. И здесь — что характерно - OpenAI открыл доступ к исходному коду, чтобы ускорить поиск решения. Таким образом, Альтман и его единомышленники косвенно подтверждают преимущество открытых подходов к развитию ИИ.
Ян Лекун
Сама постановка вопроса, что ИИ будет иметь те же мотивы, что и люди, неправильна, считает Лекун. Можно (и нужно) ввести ограничение в модель и сделать так, чтобы какие-то опасные действия были в принципе невозможны. У системы ИИ будут естественные ограничения, ведь проектировать мощный суперинтеллект без каких-либо тормозов было бы безумием.
К тому же взаимодействие человека с ИИ будет опосредовано такими же умными ИИ-помощниками, которые будут у каждого человека и которые будут защищать его интересы не хуже, чем он сам (а даже лучше). И обмануть такого помощника будет сложнее, чем самого человека.
Как регулировать ИИ?
Сэм Альтман
Сэм полагает, что потребуется весьма серьезно пересмотреть регулирование в мире — политическое и социально - экономическое — с приходом ИИ. Чтобы правильно перераспределять богатства, полученные с помощью нейросетей. Он полагает, что регулирование должно быть проактивным, но не чрезмерным.
И вообще именно Сэм посчитал, что ChatGPT станет слишком большой бомбой, и поэтому изначально выпустили на рынок промежуточную модель ChatGPT-3.5. Именно для того, чтобы у общества и политиков было больше времени адаптироваться к изменениям (и действительно, в мае в Сенате США состоялись слушания на тему развития технологии ИИ, а в декабре в ЕС согласовали первый в мире закон о регулировании искусственного интеллекта).
Альтмана обвиняют в преувеличении рисков ИИ и желании зарегулировать, чтобы выключить из конкуренции маленькие компании.
Ян Лекун
Уверен, что особое регулирование по большому счету не нужно. Для производства созданных с помощью ИИ товаров и услуг уже есть регулирование. А исследования и развитие ИИ не стоит отдельно регулировать.
Подробнее о взглядах визионеров
Взгляды Лекуна на ИИ
Взгляды Альтмана: взгляды на то, как ИИ скажется на обществе и экономике, о самом Альтмане и его карьере
#Альтман, #OpenAI , #chatgpt #ии #иибудущее #инновации #chatgpt4 #ai #samaltman #lecun #лекун #янлекун #сэмальтман
То что они все это по разному оценивают это конечно хорошо, но некий контролирующий орган должен быть. Чтобы господа специалисты по ИИ не заходили слишком далеко, а то все это может нам очень серьезно аукнуться.