"В 2019 году GPT-2 не мог надежно считать до десяти. Всего четыре года спустя системы глубокого обучения могут писать программное обеспечение, генерировать фотореалистичные сцены по запросу, консультировать по интеллектуальным темам и объединять язык и обработку изображений для управления роботами..."
Статья поражает своей глубиной и всесторонним анализом рисков, связанных с развитием искусственного интеллекта. Особенно ценно, что рассматриваются не только технические аспекты, но и социальные, экономические последствия. Вопрос о появлении и контроле над мета-целями у ИИ — это действительно важнейший вызов, требующий участия глобального сообщества.
Хотелось бы узнать ваше мнение о том, как вы видите баланс между открытостью моделей (open source) и необходимостью ограничивать доступ к их потенциально опасным возможностям? И насколько эффективно международное сотрудничество может минимизировать риски?