Новый уровень ИИ. AGI (Artificial General Intelligence)
Подъехали инсайды о будущем искусственного интеллекта от бывшего сотрудника OpenAI. Он опубликовал 165-страничный документ с прогнозами, основанными на его опыте и знании внутренней кухни разработки ИИ.
Основные моменты:
· Появление AGI к 2027 году вполне реально. AGI (Artificial General Intelligence) – это искусственный интеллект, способный выполнять любую интеллектуальную задачу, которую может выполнять человек, с таким же уровнем универсальности и адаптивности;
· AGI сейчас является важнейшим геополитическим ресурсом. Забудьте о ядерном оружии – это прошлый век. Каждая страна готова на всё, чтобы первой получить AGI, как когда-то атомную бомбу;
· Для создания AGI потребуется единый вычислительный кластер стоимостью триллион долларов. Подобный кластер уже строит Microsoft для OpenAI;
· Этот кластер будет потреблять больше электроэнергии, чем все США вместе взятые;
· Финансирование AGI будет исходить от крупных технологических компаний. Уже сегодня Nvidia, Microsoft, Amazon и Google выделяют 100 миллиардов долларов на ИИ ежеквартально;
· К 2030 году ежегодные инвестиции в ИИ достигнут 8 триллионов долларов;
· Если вам кажется, что это звучит фантастически – это не так. Сопоставимые затраты и глобальные изменения происходили во время Манхэттенского проекта и Промышленной революции;
· И наконец: AGI – это только начало. После его создания почти мгновенно произойдёт переход к ASI (сверхинтеллекту). AGI будет настолько умён, что сможет сам себя доучивать, и это произойдёт очень быстро.
Мнение коллег программистов разделилось.
Первые считают, что развитие AGI — это фантастический скачек в развитие всего человечества и возможность изменить жизнь людей в лучшую сторону. Опасаться нет причин, т.к. AGI будет ограничен в область решения задач и функционала.
Вторые читают, что развитие AGI – это серьезный риск для человечества, если упустить контроль над AGI, то это может привести к непоправимым последствиям, которые описал Джеймс Фрэнсис Кэмерон в своих фильмах про Теминатора. Коллеги опасаются, что человек просто не сможет контролировать и направлять AGI.
Ваша команда
optima.agency