Угрозы ИИ-AGI для общества

Друзья, всем привет!

Я завершаю цикл постов, посвящённых искусственному интеллекту (ИИ), и сегодня хочу поговорить о его гипотетическом будущем. В этом материале разберём, почему создание AGI (Artificial General Intelligence), или общего искусственного интеллекта, сравнивают с Манхэттенским проектом — программой создания атомной бомбы.

Что такое AGI? AGI — это гипотетическая форма искусственного интеллекта, способная решать любые задачи, которые может выполнять человек. При этом в некоторых областях AGI гипотетически будет намного быстрее человека (например, обработка больших данных), а в других, таких как социальное взаимодействие, может отставать.

Напомню, что до создания ядерной бомбы идея использования ядерной энергии для оружия была гипотетической. Сегодня AGI находится на похожей стадии: звучит гипотетически, но исследования активно ведутся.

Какие риски несёт AGI для общества?

1. Потеря контроля над AGI

Если AGI достигнет уровня сверхразума и начнёт самостоятельно улучшать свои способности, контроль над ним может стать невозможным. Это создаёт экзистенциальные угрозы для человечества.

Илон Маск считает, что вероятность угрозы от AGI составляет 5–10%, а философ Ник Бостром в своей книге «Суперинтеллект» оценивает этот риск в 10%.

Лично я считаю, что этот сценарий маловероятен в ближайшие десятилетия.

2. Этические и моральные проблемы

AGI может лишить людей возможности принимать самостоятельные решения, полностью заменив их в определённых сферах.

Пока это выглядит как далёкая перспектива, но исключать такой сценарий нельзя.

3. Социальное неравенство и экономический коллапс

AGI может резко обострить проблемы: • Потеря рабочих мест из-за массовой автоматизации.

• Усиление социального неравенства, так как доступ к AGI будет ограничен крупными корпорациями.

• Глобальные конфликты из-за борьбы за контроль над технологиями.

4. Злоупотребление AGI людьми и государствами

AGI может стать инструментом для:

• Кибератак, находя и используя уязвимости в системах.

• Манипуляций общественным мнением, включая дезинформацию.

• Создания автономного оружия, что приведёт к неконтролируемым разрушениям.

Почему AGI — это новый “Манхэттенский проект”?

На мой взгляд, социальное неравенство и злоупотребление технологиями являются наиболее реалистичными угрозами. Не сложно представить, какие возможности получат государства или корпорации, которые первыми создадут AGI. Это сделает их доминирующими игроками на мировой арене.

Тем не менее, напомню, что применение ядерной бомбы за всю историю ограничилось двумя городами. Возможно, человечество сможет разработать механизмы сдерживания и контроля над AGI.

Светлое будущее: как избежать рисков?

Несмотря на опасности, я верю, что развитие технологий неизбежно. ИИ уже помогает нам решать множество задач в бизнесе, экономике, науке и медицине. Главное — минимизировать риски неконтролируемых последствий.

Я уже писал о том, какие задачи ИИ может решать в бизнесе, и даже составил сравнительную таблицу для своих подписчиков в своем телеграм канале.

Заключение AGI — это не просто гипотетическая технология, а реальный вызов для человечества. Сравнение с Манхэттенским проектом оправдано: создание AGI изменит мир так же, как в своё время изменила ядерная энергия. Если вам интересны такие материалы, подписывайтесь на мой блог. Здесь я делюсь своими мыслями о будущем технологий, их влиянии на бизнес и общество.

И помните: будущее — в наших руках! ✊

_____________________

Бизнесы в которых я участвую как совладелец и основатель:

🚕 Таксопарк - taxipolet.ru, investingtaxi.ru

📲It стартап - REXPAT.io доска объявлений для туристов и релокантов

Подписывайся 👈 на мой телеграм канал, там ещё больше постов.

1
Начать дискуссию