«Скрытый режим работы и пока никакого продукта»: что известно о стартапе Safe Superintelligence Ильи Суцкевера

7

Оценка Safe Superintelligence Ильи Суцкевера выросла до $30 млрд в ходе переговоров об инвестициях — Bloomberg

В сентябре 2024 года стартап оценивали в $5 млрд.

Гросс, Суцкевер и Леви. Источник: Reuters
6
2
2
1

Стартап Safe Superintelligence Ильи Суцкевера запланировал получить оценку в $20 млрд в ходе нового раунда инвестиций — Reuters

В сентябре 2024 года его оценивали в $5 млрд.

Сэм Альтман и Илья Суцкевер. Фото Reuters
14
11
3
1
вот ксатати да, новый виток доткомов. были потом блокчейны, потом нфт, теперь вот аи.

Конец больших данных или как будут обучаться нейромодели

Вы наверняка слышали, что для нейроне нужны большие данные, и этих данных постоянно нет: или недоступны по причине авторского права, или их тяжело добыть и обработать. А развиваться нужно. Так как быть? Лучше умы думают об этом, и И.Суцкевер (один из ведущих разработчиков искусственного интеллекта и со-основатель OpenAI) предлагает свой любопытный…

Илья Суцкевер сравнивает масштабирование систем ИИ и эволюционную биологию. <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.theverge.com%2F2024%2F12%2F13%2F24320811%2Fwhat-ilya-sutskever-sees-openai-model-data-training&postId=1720318" rel="nofollow noreferrer noopener" target="_blank">Источник</a><br />
2
1

Сооснователь OpenAI Илья Суцкевер с партнёрами создал компанию Safe Superintelligence для разработки «безопасного суперинтеллекта»

Он объявил об уходе из OpenAI в мае 2024 года.

Сэм Альтман (слева) и Илья Суцкевер в 2023 году. Фото: Reuters
22
если будет создан опасный супер интеллект, зачем нужен безопасный?