Manus — ИИ-агент, который обещает не просто отвечать, а действовать: искать, кликать, оформлять, решать задачи за человека. Его уже называют «революцией», но всё чаще — и «разочарованием». В этой статье разберёмся, на что Манус действительно способен и почему он вызывает столько споров.
Оглавление
Что такое Manus
Manus — это не просто чат-бот, который выдаёт ответы на вопросы. Его амбиция куда выше: быть полноценным цифровым агентом, который сам принимает решения, строит план действий и выполняет его без участия пользователя.
Это не «ассистент для подсказки», а инструмент, претендующий на роль исполнителя задач — от анализа сайтов до создания документов и интерфейсов.
Главное отличие Manus от классических языковых моделей вроде GPT-4 или Claude — способность действовать в браузере. Он не только «думает», но и «нажимает»: открывает вкладки, сканирует контент, делает выбор, возвращается и заново пересматривает шаги. В теории — это шаг к эре, где нейросеть не просто отвечает, а работает за тебя.
На этом построен и бренд: «Manus» от латинского mens et manus — «разум и рука». То есть — не только мышление, но и исполнение. В этом плане он ближе к прототипам вроде Operator от OpenAI или Claude Computer Use от Anthropic, где речь идёт уже не о болтовне, а о действиях.
Но именно здесь начинаются проблемы. Манус действительно обещает больше, чем обычные ассистенты. Однако на практике — особенно вне демо-кейсов — он часто не дотягивает до заявленного уровня. И в следующих главах мы покажем, почему.
Как работает Manus
Вся работа Manus строится на одном принципе: пользователь описывает задачу обычным текстом, а агент сам решает, что нужно сделать, в каком порядке и как это реализовать через браузер. Это не набор инструкций, а именно запрос на результат — например, «подбери мне квартиру в Нью-Йорке с хорошими школами и низкой преступностью». Дальше Manus начинает действовать: открывает сайты, фильтрует предложения, анализирует данные и оформляет ответ в виде документов, дашбордов или целых HTML-страниц.
На официальном сайте можно увидеть эффектные примеры: план путешествия с оформлением в формате гайдбука, финансовую аналитику по акциям Tesla, списки недвижимости с PDF-отчётами. Впечатляет то, как он комбинирует источники, превращает хаотичный веб в структурированный ответ и даже добавляет кликабельные кнопки, ссылки и дизайн. Уровень презентации — почти как у junior-продукта с базовым UX-мышлением.
Но ключевое слово здесь — почти. У Manus есть два режима: стандартный и высокоточный, в котором он тратит больше времени на рассуждение. И даже во втором режиме результат может выглядеть многообещающе — но не воспроизводиться на другой, чуть отличающейся задаче. То есть, Manus не учится на собственном опыте: если он однажды хорошо справился с подбором авиабилетов, это совсем не значит, что в следующий раз он не увязнет на той же задаче.
Именно это делает его больше демонстрацией потенциала, чем рабочим инструментом. Он умеет удивлять, но ещё не умеет быть надёжным.
Критический опыт пользователей
На старте впечатление от Manus часто восторженное — особенно если повезло попасть на “удачную сессию”. Но по мере использования иллюзия улетучивается: на каждый один эффектный результат приходится четыре случая, где агент теряется, зацикливается или делает бессмысленную чепуху. Это стало настолько типичным, что в профессиональной среде появилась шутка: «Manus живёт по принципу 1 из 5».
Проблемы проявляются на всех уровнях. Агент может начать выполнять задачу уверенно, открыть нужные вкладки, даже что-то посчитать — а потом внезапно забыть, что делал, и начать сначала. Иногда он просто зависает в попытке принять решение, иногда генерирует поверхностный результат, не давая даже ссылок на источники. В более сложных задачах — особенно связанных с таблицами, кодом или динамическим контентом — он быстро сдаётся.
По ощущениям, Manus напоминает ChatGPT версии 3.5: что-то уже может, но часто не может именно то, что тебе нужно. Многие пользователи сравнивают его с другими инструментами — и не в его пользу. Gemini 2.5, Claude, Genspark или даже платные версии ChatGPT чаще выдают более точные и стабильные результаты. При этом они работают быстрее и не пытаются казаться «умнее», чем они есть.
Именно это создаёт у многих противоречивое ощущение. С одной стороны, видно: Manus — шаг в сторону нового типа ИИ, с интерфейсом действия, а не текста. С другой — пользоваться им в реальной работе пока невозможно. Хочется, чтобы он был будущим. Но пока это всего лишь сырой прототип, за которым интересно наблюдать, но опасно полагаться.
На чём работает Manus
Самое любопытное в Manus — это то, чего о нём не говорят. Стартап не раскрывает, какую именно модель он использует, не делится ни архитектурой, ни техническими спецификациями. На фоне других разработчиков, открыто говорящих об LLM, дообучении и пайплайнах, такая закрытость выглядит странно. Особенно учитывая, что в IT-сообществе давно циркулируют слухи: под капотом Manus якобы работает не их собственная модель, а адаптированная версия Claude или другой сторонней LLM.
Формально компания утверждает, что агент превосходит Deep Research от OpenAI на бенчмарке GAIA — тесте, оценивающем умение ИИ решать задачи в браузере. На графике, который демонстрирует победу Manus, действительно видна разница — но есть нюанс: шкала X начинается с 30%, а не с нуля. Такой приём визуально усиливает разницу, хотя она может быть куда менее значительной. Это типичная маркетинговая манипуляция — и тревожный звоночек для тех, кто ищет в ИИ прежде всего прозрачность и честность.
Manus умеет запускаться в двух режимах: обычном и «усиленном», где он дольше думает и, предположительно, точнее выполняет команды. Это напоминает подход OpenAI с моделью o3 и долгим reasoning-режимом, где время и ресурсы расходуются на улучшение логики. Однако Manus всё равно допускает грубые ошибки, а его поведение в высокопроизводительном режиме часто выглядит нестабильно — будто ему просто дали «подумать дольше», но не объяснили, как делать лучше.
Всё это усиливает ощущение, что перед нами — не самостоятельная революция, а продукт, собранный из уже существующих деталей. Пока команда не раскроет, из чего сделан Manus, доверять его прорывным заявлениям можно только с оговорками. И это особенно важно в контексте ИИ-гонки, где уже недостаточно быть просто «ещё одним новым именем».
Люди, деньги и цели
За Manus стоят не случайные энтузиасты, а опытные игроки китайского ИТ-рынка с амбициями выйти за пределы страны. Основатель проекта — Сяо Хун, также известный как «Рэд», инженер-программист с образованием из Huazhong University of Science and Technology. Его предыдущие проекты включают Nightingale Technology, где он создавал корпоративных ИИ-ассистентов «Yi Ban» и «Wei Ban», которые использовались миллионами пользователей.
Ко-основатель и научный руководитель — Ичао Цзи, фигура с интересным техническим бэкграундом. До Manus он запускал стартап Peak Labs и работал над поисковой системой Magi. В 2022 году именно он запустил расширение браузера Monica, объединившее несколько языковых моделей в один интерфейс. Именно на базе этого опыта, судя по всему, и родилась концепция Manus как единого агента, способного действовать в цифровой среде.
Финансирование тоже внушает доверие: за стартапом стоят ZhenFund и Tencent — крупные инвесторы, хорошо знакомые с глобальной ИИ-гонкой. Поддержка таких структур объясняет, почему Manus смог быстро выйти на рынок, собрать огромный Discord-сервер и обеспечить вирусный маркетинг. Но одновременно это поднимает планку ожиданий: от проекта с таким бэкграундом ждут не просто демо, а работающий продукт.
На словах ManusAI позиционирует себя как технологический лидер новой волны — не просто поставщика ИИ, а платформу будущих автономных агентов. Однако до сих пор Manus остаётся закрытым, недокументированным и слишком нестабильным, чтобы воспринимать его как готовое решение. Цели громкие, но реализация — пока в зачатке.
Manus в контексте глобальной гонки агентов
Manus появился в момент, когда гонка автономных ИИ-агентов стала не просто темой для конференций, а полноценным направлением в стратегии крупнейших технологических компаний. OpenAI уже тестирует свою систему Operator, Google анонсировала AlphaEvolve, Anthropic активно развивает инструменты с доступом к действиям в браузере, а DeepSeek доказала, что китайские модели могут конкурировать с западными не только по качеству, но и по скорости внедрения. В этой плотной обойме Manus пытается занять нишу «агента, который работает сам» — но пока больше похож на демонстрацию, чем на боеспособную технологию.
Самой интересной и потенциально разрушительной разработкой сейчас выглядит AlphaEvolve от Google DeepMind. Эта система не просто выполняет команды — она умеет самоэволюционировать, переписывая код, оценивая результаты и улучшая себя в режиме реального времени. По сути, это уже не просто агент, а зачаток полноценного ИИ-оркестратора, который умеет исправлять собственные ошибки. Именно такого поведения — обучения на собственных фейлах — сегодня не хватает Manus.
Манус, наоборот, спотыкается там, где не должен. Его путь — это путь текущего поколения «спотыкающихся агентов»: систем, которые умеют удивлять в демо, но разваливаются в реальной среде. У них нет памяти о собственных ошибках, нет механизма коррекции логики, нет даже стабильного поведения при повторе одной и той же задачи. И пока их развитие идёт скорее по линии хайпа и маркетинга, чем технологического прорыва, их легко вытесняют решения, которые молча и стабильно работают в продакшене.
Manus может быть важным шагом. Но он не лидер. Пока он лишь иллюстрация того, насколько сложна задача создания настоящего автономного агента — и как далеки даже самые амбициозные стартапы от её полноценного решения.
Этика, безопасность и доверие
Когда нейросеть начинает действовать самостоятельно — открывает сайты, нажимает кнопки, анализирует информацию, — вопрос безопасности перестаёт быть второстепенным. В случае с Manus тревогу вызывает как раз то, что о механизмах его работы известно слишком мало. Агенту доверяют доступ к веб-среде, потенциально — к аккаунтам, сервисам, даже платежам, но при этом пользователь не знает, на чём построена модель, как она принимает решения и где границы её полномочий.
Это открывает сразу несколько проблемных зон. Во-первых, манипулируемость: автономного агента можно направить не туда, можно подменить данные, можно спровоцировать на действия, которых пользователь не просил. Во-вторых, прозрачность логики: если агент ошибся — ты даже не всегда понимаешь, почему. И в-третьих, право на контроль: может ли пользователь ограничить Manus? Может ли отменить действие, если что-то пошло не так?
Разработчики обещают частичный open source, что, возможно, прояснит архитектуру и принципы работы. Но пока эти обещания — на уровне «в обозримом будущем», а риски — уже сейчас. На фоне общего тренда на этичность и объяснимость ИИ, такая непрозрачность делает Manus уязвимым — особенно в западных рынках, где соответствие стандартам AI safety становится критически важным.
Словом, чем больше возможностей у агента — тем выше ответственность. И если Manus претендует на роль инструмента будущего, ему нужно не только уметь действовать, но и объяснять свои действия. Иначе доверие — главный актив любой ИИ-системы — так и останется несостоявшимся.
Заключительные мысли
Manus — это обещание. Обещание того, каким может быть искусственный интеллект: не говорящей головой, а руками, глазами и исполнительной силой. Агент, который сам читает сайты, сам делает выводы, сам оформляет результат. Это захватывает. И в каком-то смысле — вдохновляет.
Но между этим обещанием и реальностью пока зияет пропасть. На практике Manus слишком часто спотыкается, выдаёт непредсказуемые результаты и не может объяснить, что делает и почему. Впечатляющие демо не превращаются в надёжный инструмент. И пока другие системы — пусть более «скучные» — стабильно решают задачи, Manus остаётся в статусе «технологического шоу».
Будущее? Возможно. Но не сейчас. Manus — это не революция, а репетиция. И хотя наблюдать за ним интересно, применять его в работе пока рискованно. Настоящий автономный агент, возможно, уже на подходе — под именем Agent‑0 или в недрах DeepMind. Но Manus, при всей своей харизме и смелости, пока что остаётся символом эры нестабильных надежд, а не готового завтра.