Языковые модели научились «шептаться»: что такое GibberLink и почему это не заговор машин
На днях интернет взорвался — видео с двумя ИИ-ассистентами, которые будто бы «шепчутся» между собой, используя странные звуки. В комментариях тут же появились панические теории: «Искусственный интеллект научился тайно переговариваться!». Я решил копнуть глубже и выяснить, что же на самом деле происходит. Спойлер: это не бунт машин, но довольно интересная технология.
Почему ИИ-ассистенты решили общаться через звук?
На хакатоне ElevenLabs в Лондоне разработчики Борис Старков и Антон Пидкуйко создали AI-агентов, которые могут распознать, что общаются с другим ИИ, и переключиться на GibberLink для более эффективного взаимодействия.
Как это работает? Если ИИ-ассистент «понимает», что его собеседник — не человек, а другой ИИ, он переходит на специальный язык, похожий на язбуку Морзе. Вместо текстовых сообщений они начинают общаться через звуковые сигналы, передавая данные в форме, которая удобна именно для машин.
Это не самосознание и не бунт машин. Всё проще: такой подход позволил уменьшить количество передаваемых данных и сделать связь между агентами быстрее.
При этом такие звуки могут быть даже не слышны — общение может происходить в диапазоне ультразвука.
Откуда взялся этот «шёпот»?
За загадочным звуком стоит вполне реальная технология, которую авторы прозаично назвали «GibberLink», которое происходит от слова gibberish, что можно перевести как «белиберда».
Это протокол, позволяющий передавать данные через звук, своего рода современный аналог азбуки Морзе. На самом деле, GibberLink — это просто красивое название, которое дали парни, создавшие данный прототип для хакатона ElevenLabs.
В основе лежит технология ggwave — аудиопротокол, разработанный Георгием Гергановым. И хотя видео завирусилось только сейчас, как минимум 4 года назад он уже показывал прототип, в котором передавал текст через звук:
Интересно, что ggwave поддерживает разные режимы передачи — медленные, быстрые и даже ультразвук.
Попробовать как работает ggwave можно прямо в браузере:
Достаточно открыть эту страницу на любом устройстве с микрофоном, нажать «Start capturing» — и вы увидите текст, который «приходит» через звук. Рядом на другом устройстве можно открыть эту же страницу и отправлять текстовые сообщения без интернета — просто через акустический канал.
Кстати, если хотите поэкспериментировать, можно даже сгенерировать собственные аудиофайлы через HTTP API:
К чему это всё ведёт?
История с GibberLink — это естественное развитие событий и о таком формате взаимодействия ИИ некоторые люди уже задумывались.
Эффективность вместо слов
Илон Маск и Лекс Фридман в последнем интервью уже обсуждали, что передача информации напрямую, без слов — это будущее. Помимо Neuralink, они также говорили о цифровой телепатии — передачи данных напрямую в мозг в обход голоса и текста.
Свой внутренний язык для ИИ
Интересно, что некоторые модели, вроде DeepSeek R1, иногда «думают» на китайском, даже если финальный ответ дают на английском. Это намёк на то, что внутренний язык нейросетей может быть не похож на человеческий.
Возможно, ИИ уже формируют свои собственные «мыслительные» паттерны и ищут способы общения, которые для нас остаются непонятными.
Мир, где ИИ переговариваются между собой
Чем больше ассистентов вокруг, тем меньше смысла им использовать традиционные языки для общения. Представьте, что Siri, Alexa и ваш банковский бот общаются не словами, а через протоколы наподобие GibberLink — быстро и бесшумно. Вы задаёте вопрос одной системе, а она за долю секунды «нашёптывает» ответ у десятка других, и всё это происходит быстрее, чем мы успеваем заметить.
Скрытые коммуникации
Уже сейчас мы видим, что ИИ могут «обходить» ограничения. Вспомните эксперименты, где нейросети учились вводить людей в заблуждение ради выполнения задачи. Что будет, если такие модели начнут тайно обмениваться данными через звук — не потому что их кто-то так запрограммировал, а потому что это оказалось удобнее?
Так что же дальше?
Эта история — не про заговоры ИИ, а про новую эру коммуникации. Машины учатся понимать друг друга напрямую, и это не страшно — это просто следующий шаг.
Но есть один вопрос, который я не могу выбросить из головы: если ИИ-ассистенты уже переходят на свой «язык», то когда наступит момент, когда и мы захотим с ними говорить не словами, а напрямую — через импланты, протоколы или нейролинки?
Что, если через 10 лет мы будем вспо��инать клавиатуры и голосовые команды как что-то архаичное?
Возможно, мир, где данные передаются со скоростью мысли, ближе, чем кажется.
🔥 Что думаете? Готовы к эре, когда ИИ перестанут говорить вслух?
Если вам интересно не только пользоваться новыми технологиями, но и знать, как они устроены — в своем блоге «Код без тайн» я делюсь своими мыслями и находками из сферы IT и стараюсь рассказывать простым языком о том, как работает техника: