Дуров отказался от $300 млн Маска и запустил собственный ИИ


 Дуров отказался от $300 млн Маска и запустил собственный ИИ

Telegram запустил собственную децентрализованную сеть Cocoon (Confidential Compute Open Network), которая обрабатывает ИИ-запросы пользователей внутри защищенных анклавов — специальных изолированных областей памяти, где данные остаются зашифрованными даже во время обработки. Новый сервис стал ответом на провалившиеся переговоры с xAI Илона Маска (Elon Musk) о интеграции Grok в мессенджер.

Почему сорвалась сделка с xAI

Централизованные ИИ-провайдеры могли получить доступ к данным пользователей для обучения алгоритмов, профилирования и потенциальных манипуляций. Маск впоследствии отрицал финализацию сделки, и ни одна из сторон публично не возвращалась к этой теме.

Архитектура и принципы работы Cocoon

Сеть построена на блокчейне The Open Network ($TON) и использует технологию Trusted Execution Environments (TEE). Запросы пользователей и результаты работы моделей обрабатываются внутри защищенных анклавов, что не позволяет ни владельцу графического процессора, ни оператору сети увидеть содержимое данных.

Практическое применение

Проект имеет открытый исходный код, доступный в репозитории на GitHub. В ближайшие недели команда планирует подключить больше графических процессоров и привлечь разработчиков к экосистеме, предоставляя пользователям Telegram новые ИИ-функции с полным контролем над данными.

Мнение ИИ

Анализ исторических данных показывает интересную закономерность: большинство децентрализованных вычислительных проектов (Golem, iExec, Akash Network) столкнулись с проблемой «холодного старта» — сложностью одновременного привлечения поставщиков GPU и потребителей. Cocoon решает эту дилемму элегантно, поскольку Telegram сразу выступает крупнейшим потребителем собственной сети.

Скорость внедрения впечатляет: от анонса в ноябре 2025 года до интеграции AI Summary в январе 2026 прошло менее трех месяцев. Такие темпы развертывания редки для децентрализованных проектов, обычно требующих годы на создание устойчивой сети. Сможет ли команда поддерживать подобную скорость при масштабировании на тысячи GPU-узлов?