«Скрытый режим работы и пока никакого продукта»: что известно о стартапе Safe Superintelligence Ильи Суцкевера

7

Оценка Safe Superintelligence Ильи Суцкевера выросла до $30 млрд в ходе переговоров об инвестициях — Bloomberg

В сентябре 2024 года стартап оценивали в $5 млрд.

Гросс, Суцкевер и Леви. Источник: Reuters
6
2
2
1

Стартап Safe Superintelligence Ильи Суцкевера запланировал получить оценку в $20 млрд в ходе нового раунда инвестиций — Reuters

В сентябре 2024 года его оценивали в $5 млрд.

Сэм Альтман и Илья Суцкевер. Фото Reuters
14
11
3
1
вот ксатати да, новый виток доткомов. были потом блокчейны, потом нфт, теперь вот аи.

Рейтинг TIME100 AI, номинация “мыслители”. Топ-6

Эти мыслители действительно имеют необычный взгляд и двигают индустрию за счет своих нестандартных проектов. А потому ознакомится с их идеями точно будет полезно.

Источник: <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Ftime.com%2Fcollection%2Ftime100-ai-2024%2F&postId=1472934" rel="nofollow noreferrer noopener" target="_blank">Time</a>
2

Сооснователь OpenAI Илья Суцкевер с партнёрами создал компанию Safe Superintelligence для разработки «безопасного суперинтеллекта»

Он объявил об уходе из OpenAI в мае 2024 года.

Сэм Альтман (слева) и Илья Суцкевер в 2023 году. Фото: Reuters
22
если будет создан опасный супер интеллект, зачем нужен безопасный?