OpenAI предлагает лицензии на ИИ
Взгляд Янника Килчера на слушания в Сенате США по регулированию ИИ, с участием Сэма Альтмана и Гари Маркуса.
Коротко:
Хотя Сэм Альтман выдвигает разумные аргументы, относительно потенциальных преимуществ искусственного интеллекта, автор не согласен с его предложением лицензировать и регулировать ИИ выше определенного порога возможностей.
Регулирование затруднит конкуренцию стартапов и проектов с открытым исходным кодом с крупными компаниями, такими как OpenAI.
Альтман также избегает требований о большей прозрачности, раскрывая данные, на которых были обучены модели.
Автор утверждает, что истинная прозрачность и открытый доступ к данным обучения лучше обеспечат безопасное внедрение ИИ.
В целом автор считает, что призывы Альтмана к регулированию служат его собственным бизнес-интересам OpenAI, а не вызваны искренней обеспокоенностью о безопасности.
Ключевые моменты:
- Сэм Альтман аргументирует в пользу искусственного интеллекта и его потенциальных преимуществ.
- Сэм Альтман предлагает ввести требования к лицензированию и тестированию передовых моделей искусственного интеллекта для смягчения рисков, предлагая, чтобы малые компании и исследования должны быть освобождены от этого.
- Хотя аргументы в пользу лицензирования и регулирования кажутся обоснованными, выступающий в конечном итоге получает выгоду от усложнения конкуренции для стартапов и проектов с открытым исходным кодом по сравнению с OpenAI.
- OpenAI была скрытна относительно данных и деталей обучения своих моделей, что противоречит идее "маркировки продуктов питания" для информирования пользователей.
- Публикация большего количества информации о том, как обучаются и ведут себя модели, может помочь обеспечить их безопасное внедрение.
- Пользователи самостоятельно способны принимать информированные решения с помощью искусственного интеллекта, если им предоставляется достаточно информации о неточностях и ограничениях модели.
- То, что системы искусственного интеллекта могут генерировать ложные утверждения, не означает, что они не надёжны или подрывают демократию. Многие технологии могут быть использованы для генерации ложной информации.
- Аргумент Гари Маркуса о том, что искусственный интеллект подрывает способность определять, что является истиной, неубедителен, поскольку люди давно сталкиваются с выявлением достоверности письменных текстов.
- Искусственный интеллект может сделать генерацию ложной информации масштабной и дешевой, но также убедительно лгать могут и люди.
- Просмотр более длинного видео на Youtube канале "Machine Learning Street Talk" предоставит дополнительный контекст и точки зрения на слушаниях в Сенате.
Комментарии под видео:
Я вспоминаю корпоративных бегемотов прошлого, которые больше всего на свете любили возможность регулировать более мелких конкурентов, выбивая их из бизнеса. OpenAI пытается задушить своего младшего брата в кроватке. Падшее человечество определенно встроено в OpenAI. Все старое снова новое.
Это то же самое, что и договор о запрещении ядерного оружия. Когда у большинства европейских стран было ядерное оружие, для всех остальных стран был введен запрет на разработку ядерного оружия (разумеется, по уважительной причине). Эти предлагаемые лицензии одинаковы, но здесь указаны компании, а не страны.
Момент самой Силиконовой долины. Слишком медлительный, чтобы конкурировать, и слишком жадный, чтобы прогрессировать, но достаточно крупный, чтобы оказывать давление на конкурентов через правительство.
Я имею в виду, что все это явно корпоративная монополия, которая, как они знают, шатается. Они просто изо всех сил пытаются вернуться к этому. Они боятся того, что сделал Linux :P
OpenAI: «Пожалуйста, убейте наших конкурентов, мы боимся открытого исходного кода».
Нет монополии на искусственный интеллект. ИИ с открытым исходным кодом для всех.
Open Assistant - чат-бот с искусственным интеллектом, с открытым исходным кодом, альтернатива ChatGPT.
Статья на Хабре: "OpenAssistant: Вышла бесплатная открытая альтернатива ChatGPT".
Польза ИИ конечно есть, но при этом есть и вред
В чем вред?