На OSWorld (бенчмарке, который пытается имитировать реальную компьютерную среду, «OpenAI Computer Use Agent (CUA)» — возможно, модель ИИ, лежащая в основе Operator — набирает 38,1%, опережая ИИ агента Anthropic, но значительно отстает от человеческого результата в 72,4%.
Представляю, как это упростит выполнение рутинных задач на компьютере. Но немного страшно, что ИИ будет сам принимать решения. Надеюсь, у них там все под контролем с безопасностью.
Интересно, как это будет работать на практике. Смогу ли я просто сказать: "Забронируй мне билеты в Рим на следующие выходные", и он все сделает сам? Или нужно будет давать более точные инструкции? И сколько это будет стоить?
Пока это все выглядит как красивые обещания. Посмотрим, что будет на деле. Утечки и бенчмарки – это одно, а реальная работа – совсем другое. Сомневаюсь, что он будет работать идеально с первого раза.
Меня больше всего беспокоит вопрос безопасности. Как они собираются защищать мои данные, если ИИ будет иметь доступ к моему компьютеру? И что, если он начнет делать что-то не то? Это очень серьезные вопросы.
Это будет доступно только для разработчиков или для обычных пользователей тоже? И какие системные требования будут? Надеюсь, не нужно будет покупать супер-мощный компьютер.