Manus AI: Rzetelna analiza najbardziej kontrowersyjnego agenta AI 2025 roku

Świat sztucznej inteligencji nie zwalnia tempa. Przechodzimy od chatbotów do agentów autonomicznych, którzy nie tylko odpowiadają na pytania, ale działają. W tym kontekście Manus AI stał się jednym z najgłośniejszych projektów 2025 roku. Obietnice były odważne: autonomiczny agent AI, który sam rozbija zadania na kroki, wykonuje je i dostarcza gotowe rezultaty. Bez potrzeby ciągłego nadzoru.

W tej analizie oceniam Manus AI całkowicie bez emocji i hype’u. Patrzę na cztery kluczowe obszary:

  • UX i onboarding: od ergonomii po logikę pierwszych interakcji
  • Funkcjonalność vs. obietnice producenta: co działa, a co wciąż jest teorią
  • Zachowanie w scenariuszach ekstremalnych: duże zbiory danych, nietypowe prompt’y
  • Całkowity koszt posiadania (TCO): od subskrypcji po czas interwencji człowieka

Bazuję na danych z MIT Technology Review, Trickle.so, McNeece, UX Collective i testach użytkowników.

Czym jest Manus AI?

Manus AI to produkt chińskiego startupu Butterfly Effect (znany też jako Monica.im), który zadebiutował w marcu 2025. W przeciwieństwie do klasycznych asystentów (ChatGPT, Claude), Manus nie tyle rozmawia, co działa. Jego architektura to zestaw wyspecjalizowanych modeli AI koordynowanych przez centralnego agenta wykonawczego.

Według producenta, Manus potrafi „przekuwać myśli w działania” i samodzielnie realizować zadania w pracy i życiu codziennym. Świadczy o tym chociażby fakt, że ponad 2 mln użytkowników zapisało się na listę oczekujących, z czego mniej niż 1% otrzymało dostęp.

UX i onboarding

Manus prezentuje się bardzo czysto i nowocześnie. Interfejs przypomina ChatGPT lub DeepSeek. Lewy pasek sesji, główne okno rozmowy, domyślny język to angielski. Pocątkowe zadania są dobrane tak, aby pokazać możliwości narzędzia: od strategii biznesowych po medytacje audio. Onboarding trwa jednak tylko kilka kroków i… koniec. Dalej trzeba czekać na zaproszenie. Dla większości użytkowników to koniec przygody, zanim się zaczęła.

Najbardziej charakterystycznym elementem UX jest „Manus’s Computer” – panel, w którym użytkownik może obserwować i ingerować w pracę agenta. To rozwiązuje problem „czarnej skrzynki”, znany z innych systemów AI. W Manusie widzisz, co się dzieje. Możesz interweniować, pauzować, zmieniać. W efekcie nie masz wrażenia, że oddajesz kontrolę maszynie. To bardziej współpraca niż delegowanie.

Trickle.so zauważa, że system potrafi kontynuować zadania nawet po wyjściu z aplikacji. Użytkownik może wrócić do gotowego efektu, nie musząc trzymać otwartego okna. MIT zauważa, że Manus reaguje na sugestie użytkownika jak dobrze przeszkolony stażysta: z szacunkiem, ale z inicjatywą.

Problem? Stabilność. McNeece opisuje całkowite zawieszenia systemu przy prostych zadaniach i nieprzewidywalne błędy. MIT dodaje przeciążenia serwerów i niestabilne ładowanie. Manus to UX nowej generacji, ale jeszcze nie gotowy na masowe wdrożenie.

Funkcjonalność vs. obietnice

Producent deklaruje: Manus potrafi samodzielnie planować, realizować, poprawiać i uczyć się. W teorii – ideał. W praktyce?

MIT potwierdza, że Manus potrafi rozbić zadania na kroki, przeszukiwać sieć, analizować i syntetyzować dane. Architektura wielomodelowa (Claude 3.5 Sonnet, Qwen) rzeczywiście działa – centralny „executor” zarządza agentami od kodu, planowania, wiedzy. Intent detection działa dobrze, ale nie zawsze. Manus potrafi mylnie interpretować niejasne polecenia lub skracać zadania „na skróty”.

Closed-loop execution brzmi futurystycznie, ale napotyka na prozaiczne przeszkody: paywalle, captche, blokady botów. System często prosi o interwencję człowieka. Zamiast samodzielnego agenta masz partnera, który co jakiś czas prosi o pomoc.

Uczenie się na bazie doświadczenia? Trickle.so raportuje 95% trafności w symulacjach z powtarzanymi zadaniami. MIT potwierdza, że Manus poprawia się przy kolejnym podejściu. Ten element rzeczywiście działa.

Zachowanie w scenariuszach ekstremalnych

MIT testował Manus na zadaniu znalezienia 50 kandydatów do listy „Innovators Under 35”. Po trzech godzinach system dał tylko trzy kompletne profile. Potem wymusił zawężenie tematu. Przy próbie generowania 50 nazwisk, przeważały osoby z tych samych uczelni. Oznacza to brak różnorodności źródeł, ograniczoną eksplorację i duże ryzyko biasu.

W innym teście Manus dostał luźne wymagania dot. wyszukiwania mieszkania. Zinterpretował „outdoor space” jako prywatny taras, odrzucając wszystkie mieszkania bez balkonu. Literalność w interpretacji promptów to słaba strona systemu.

Dziwne wzorce? McNeece zauważył, że niezależnie od zadania, Manus proponował restaurację „Sakura Blossom Sushi”. Prawdopodobnie to ślad po trenujących developerach.

Z problemami technicznymi jest jeszcze gorzej: CAPTCHA, paywalle, przeciążenia, błędy krytyczne. Użytkownicy muszą interweniować, przeładowywać, restartować. Manus nie radzi sobie w trudnych warunkach. Wymaga otoczenia „laboratoryjnego”.

Całkowity koszt posiadania (TCO)

Manus Starter kosztuje 39 USD miesięcznie i daje 3900 kredytów. Pro wersja za 199 USD daje 19900 kredytów i więcej opcji. Drożej niż ChatGPT Plus czy Claude Pro. Ale koszt za zadanie jest niski (ok. 2 USD wg Trickle.so), więc dla intensywnych użytkowników może to mieć sens.

Koszty ukryte to jednak inna historia. Interwencje człowieka, walidacja wyników, kontrola jakości, szkolenie zespołu – to wszystko kosztuje czas i zasoby. McNeece szacuje, że realny koszt dla firmy średniej wielkości to ponad 13 tys. GBP rocznie. Ale przy dobrze dopasowanych zadaniach oszczędności mogą sięgać 26 tys. GBP rocznie.

Wnioski

Manus AI to krok w stronę przyszłości AI. Ale jeszcze nie ta przyszłość. System imponuje konceptem, architekturą, podejściem do interfejsu. Potrafi wykonywać skomplikowane zadania, uczy się, współpracuje. Ale też się zawiesza, blokuje, wymaga opieki. I kosztuje.

Dla kogoś, kto chce testować przyszłość – Manus to świetny poligon. Dla zespołu, który potrzebuje niezawodnego narzędzia – jeszcze nie teraz. To nie jest jeszcze AI, która zastąpi ludzi. To AI, która potrzebuje człowieka jako nadzorcy.

Warto śledzić. Jeszcze bardziej warto testować. Ale zanim zaczniemy liczyć ROI, warto najpierw zainwestować czas w zrozumienie, jak Manus działa, kiedy działa i gdzie się wywraca.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *