gik|iewicz

szukaj
Claude Code na autopilocie: 5 faktów o nowym trybie

Claude Code na autopilocie: 5 faktów o nowym trybie

Anthropic uruchomiło Agent View dla Claude Code – interfejs, który pozwala zarządzać tysiącami sub-agentów AI z jednego dashboardu. Boris Cherny, twórca Claude Code, przyznał, że każdej nocy uruchamia tysiące agentów wykonujących „głębszą pracę” nad kodem. To podejście zmienia sposób, w jaki programiści myślą o automatyzacji.

TL;DR: Claude Code Agent View to nowa funkcja pozwalająca monitorować sesje AI z jednego ekranu. Boris Cherny, twórca narzędzia, uruchamia tysiące sub-agentów nocą do głębszej pracy nad kodem, śledząc postępy przez telefon. Funkcja jest dostępna jako research preview dla użytkowników Claude Code.

Czym jest Claude Code /goal i jak działa auto-pilot?

Claude Code /goal to mechanizm pozwalający na zdefiniowanie celu, który agent AI realizuje autonomicznie z ewaluacją po każdej turze. Według raportu Business Insider, Boris Cherny – twórca Claude Code – uruchamia tysiące sub-agentów, które wykonują zadania w tle, zwłaszcza w nocy. Każdy agent dostaje konkretny cel i pracuje iteracyjnie.

System ocenia postępy po każdej iteracji. Jeśli wynik nie spełnia kryteriów, agent dostaje automatyczną informację zwrotną i kontynuuje pracę. To podejście przypomina pętlę feedbacku, którą znamy z prompt engineeringu, ale w pełni zautomatyzowaną.

W praktyce wygląda to prosto. Definiujesz cel, uruchamiasz agenta, czekasz.

Zatem zamiast ręcznie poprawiać kod po każdej odpowiedzi AI, system sam iteruje aż do osiągnięcia satysfakcjonującego rezultatu. Połączenie tej metody z Agent View daje pełną kontrolę nad procesem.

Jak Boris Cherny uruchamia tysiące sub-agentów przez noc?

Boris Cherny, inżynier Anthropic i twórca Claude Code, opisał swój workflow w wywiadzie dla Business Insider. Uruchamia tysiące agentów AI, które pracują w tle, wykonując „deeper work” – głębszą analizę kodu, refaktoryzację, testy. Postępy śledzi przez telefon.

Kluczowe elementy tego podejścia:

  • Masowe uruchamianie zadań – tysiące agentów pracuje jednocześnie nad różnymi fragmentami kodu
  • Nocny cykl pracy – zadania uruchamiane wieczorem, wyniki gotowe rano
  • Monitorowanie zdalne – Cherny sprawdza status agentów z poziomu telefonu
  • Agent View jako hub – jeden dashboard do zarządzania wszystkimi sesjami
  • Ewaluacja iteracyjna – każdy agent ocenia swoje wyniki po każdej turze
  • Skalowanie poziome – podział dużych zadań na mniejsze kawałki dla wielu agentów
  • Automatyczny feedback – agenty dostają info zwrotne bez interwencji człowieka
  • Kolejkowanie zadań – nowe zadania startują gdy poprzednie się zakończą

Powyższa tabela zestawia tradycyjne podejście do kodowania z metodą auto-pilota:

AspektTradycyjne podejścieClaude Code /goal auto-pilot
Liczba zadań naraz1-2Tysiące
Czas pracyGodziny dzienneCała noc
MonitorowanieRęczneAutomatyczne (Agent View)
EwaluacjaManualnaPo każdej turze
FeedbackOd programistyOd systemu
SkalowanieOgraniczonePoziome

Cherny podkreśla, że to podejście pozwala mu skupić się na architekturze i decyzjach wysokiego poziomu, podczas gdy agenty zajmują się implementacją detali.

Dlaczego ewaluacja po każdej turze jest istotna dla jakości kodu?

Ewaluacja po każdej turze to mechanizm, w którym agent AI sprawdza własny wynik przed przejściem do kolejnego kroku. Według informacji z Let’s Data Science, podejście to pozwala agentom na „głębszą pracę” – bardziej dokładną i przemyślaną niż jednorazowa odpowiedź.

Bez ewaluacji iteracyjnej agent może wygenerować kod, który wygląda poprawnie, ale ma ukryte problemy. Z ewaluacją po każdej turze system wyłapuje błędy na wczesnym etapie. To podejście jest szczególnie przydatne przy refaktoryzacji dużych baz kodu.

Dodatkowo, ewaluacja pozwala na stopniowe doskonalenie rozwiązania. Zamiast jednej dużej odpowiedzi, agent produkuje serię przyrostowych ulepszeń, z których każde jest weryfikowane przed kontynuacją.

Czym różni się Agent View od tradycyjnego terminala?

Agent View to interfejs research preview wprowadzony przez Anthropic dla Claude Code. Zastępuje potrzebę otwierania wielu okien terminala – wszystkie sesje AI są widoczne z jednego dashboardu. Według BigGo Finance, pozwala to programistom zarządzać wszystkimi agentami jednocześnie z jednego ekranu.

Tradycyjnie każdy agent wymagał osobnego okna terminala. Przy tysiącach agentów, o których mówi Cherny, byłoby to fizycznie niemożliwe do obsługi. Agent View rozwiązuje ten problem, agregując statusy wszystkich sesji w jednym miejscu.

Więcej o podstawach narzędzia znajdziesz w Przegląd Claude Code – Claude Code Docs. Z kolei informacje o najnowszych zmianach są w Dziennik zmian — Dokumentacja Claude Code.

To upraszcza zarządzanie na dużą skalę. Programista widzi, które agenty działają, które czekają, a które zakończyły pracę – wszystko bez przełączania się między oknami. Połączenie tego z podejściem opisanym w claude code /ultraplan daje kompletny workflow.

Jakie są ograniczenia nocnego auto-pilota z sub-agentami?

Podejście z tysiącami sub-agentów ma swoje ograniczenia. Przede wszystkim wymaga odpowiedniej infrastruktury – każdy agent zużywa tokeny API, co przekłada się na koszty. Ponadto koordynacja między agentami może być trudna, gdy zadania są od siebie zależne.

Kolejne ograniczenie to okno kontekstowe. Claude Code ma 5-godzinne okno użycia, o czym pisałem w artykule o claude-warmup: zarządzanie 5-godzinnym oknem Claude Code. Agenty muszą zmieścić się w tym limicie lub być restartowane.

Dodatkowo, ewaluacja automatyczna nie zastąpi w pełni ludzkiego review. System może wyłapać błędy składniowe i logiczne, ale kwestie architektoniczne wymagają ludzkiego osądu. Cherny sam przyznaje, że rano przegląda wyniki i podejmuje decyzje o dalszych krokach.

Warto porównać to rozwiązanie z innymi narzędziami, jak opisałem w PraisonAI vs Claude Code Supervisor: porównanie 2 narzędzi AI. Każde ma inne podejście do koordynacji agentów.

Jakie typy zadań sprawdzają się w auto-pilocie Claude Code?

Zadania o dobrze zdefiniowanych kryteriach sukcesu najlepiej pasują do trybu auto-pilota Claude Code /goal. Boris Cherny, twórca narzędzia, przyznaje w wywiadzie dla Business Insider, że agenty wykonują „deeper work” – głębszą analizę i refaktoryzację kodu – co oznacza zadania o jasno określonym celu i mierzalnym rezultacie. Ewaluacja po każdej turze sprawdza się tam, gdzie można automatycznie zweryfikować wynik.

Oto przykłady zadań, które sprawdzają się w tym trybie:

  • Refaktoryzacja modułów – podział dużych plików na mniejsze komponenty
  • Generowanie testów jednostkowych – tworzenie pokrycia dla istniejących funkcji
  • Migracja między wersjami API – aktualizacja wywołań i sygnatur
  • Standaryzacja stylu kodu – dostosowanie do reguł lintingu
  • Aktualizacja zależności – podnoszenie wersji pakietów
  • Optymalizacja importów – usuwanie nieużywanych modułów
  • Dokumentacja funkcji – generowanie komentarzy JSDoc
  • Wyszukiwanie antywzorców – detekcja problemów wydajnościowych

Z kolei zadania wymagające kreatywnych decyzji architektonicznych lub negocjacji z zespołem nie pasują do w pełni zautomatyzowanego podejścia. Cherny sam przyznaje, że rano przegląda wyniki i podejmuje decyzje wysokiego poziomu.

Jak technicznie wygląda pętla ewaluacji w Claude Code?

Pętla ewaluacji w Claude Code /goal polega na iteracyjnym sprawdzaniu wyników agenta po każdej turze. Według Let’s Data Science, system ten pozwala na „głębszą pracę” poprzez wielokrotne przejścia kodu z automatycznym feedbackiem. Agent generuje rozwiązanie, system je ocenia, a następnie przekazuje informację zwrotną do kolejnej iteracji.

Proces ten przypomina pętlę CI/CD zastosowaną do generowania kodu. Najpierw agent dostaje cel (na przykład: „napisz testy jednostkowe dla modułu autentykacji”). Następnie generuje pierwszą wersję. System uruchamia testy i analizuje wyniki. Jeśli testy nie przechodzą, agent dostaje logi błędów i próbuje ponownie.

Dlatego każda iteracja jest samowystarczalna. Agent wie, co zrobił źle, bo dostaje konkretny feedback z testów, lintingu lub innych narzędzi weryfikacji. To podejście eliminuje potrzebę ręcznego sprawdzania każdej odpowiedzi AI.

W rezultacie pętla kończy się, gdy wynik spełnia wszystkie zdefiniowane kryteria lub gdy agent wyczerpie limit iteracji. Połączenie tej metody z claude code /ultraplan pozwala na planowanie zadań przed uruchomieniem auto-pilota.

Jak zarządzać kosztami przy tysiącach sub-agentów?

Koszty uruchamiania tysięcy sub-agentów mogą szybko rosnąć, ponieważ każda iteracja zużywa tokeny API. Cherny uruchamia agentów głównie w nocy, co sugeruje wykorzystanie godzin o niższym obciążeniu, ale nie zmienia to faktu, że każdy agent konsumuje zasoby. Według AOL, Cherny śledzi postępy przez telefon, co implikuje potrzebę monitorowania nie tylko postępów, ale i kosztów.

Kluczowe strategie optymalizacji kosztów:

  • Partycjonowanie zadań – podział dużych celów na niezależne mikro-zadania
  • Limit iteracji – ustawienie maksymalnej liczby prób na agenta
  • Priorytetyzacja – uruchamianie najważniejszych zadań jako pierwszych
  • Hierarchia agentów – główny agent koordynuje sub-agentów
  • Wczesne zatrzymywanie – przerwanie gdy wynik spełnia kryteria

Co więcej, warto monitorować zużycie tokenów przez Agent View. Dashboard pokazuje status każdego agenta, więc można szybko identyfikować zadania, które zużywają zbyt wiele zasobów bez postępu.

Z tego powodu warto zacząć od mniejszej liczby agentów i stopniowo skalować. Jak opisałem w Przegląd Claude Code – Claude Code Docs, narzędzie ma wbudowane mechanizmy zarządzania sesjami, które pomagają kontrolować zużycie.

Jakie są najlepsze praktyki konfiguracji /goal?

Konfiguracja /goal wymaga precyzyjnego zdefiniowania celu i kryteriów sukcesu. Według informacji z Business Insider, Cherny uruchamia agentów do „deeper work”, co sugeruje, że cele muszą być konkretne i mierzalne. Im bardziej precyzyjny cel, tym lepsze wyniki auto-pilota.

Praktyki, które sprawdzają się w konfiguracji /goal:

  • Jeden cel na agenta – unikanie łączenia wielu zadań w jednym /goal
  • Konkretne kryteria akceptacji – definiowanie, co oznacza „gotowe”
  • Kontekst projektu – dostarczenie plików CLAUDE.md z konwencjami
  • Testy jako ewaluacja – używanie istniejących testów do weryfikacji
  • Limit iteracji – ustawienie górnego limitu prób
  • Scope ograniczony do jednego modułu – mniejszy zakres daje lepsze rezultaty

Ponadto, warto wykorzystać mechanizmy opisane w Dziennik zmian — Dokumentacja Claude Code, aby śledzić nowe funkcje wpływające na konfigurację agentów. Narzędzie jest w fazie research preview, więc możliwości mogą się szybko zmieniać.

Jak Agent View integruje się z nocnym workflow?

Agent View to dashboard pozwalający monitorować wszystkie sesje Claude Code z jednego ekranu. Według BigGo Finance, funkcja ta zastępuje potrzebę otwierania wielu okien terminala – wszystkie agenty są widoczne jednocześnie. W nocnym workflow Cherny’ego to kluczowe narzędzie do śledzenia postępów przez telefon.

Integracja z nocnym workflow wygląda następująco. Wieczorem programista uruchamia zadania przez /goal. W nocy agenty pracują iteracyjnie z ewaluacją po każdej turze. Agent View agreguje statusy wszystkich sesji – które działają, które czekają, które zakończone. Rano programista przegląda wyniki i decyduje o dalszych krokach.

Zatem Agent View pełni funkcję huba kontrolnego. Bez niego zarządzanie tysiącami agentów wymagałoby fizycznie niemożliwej liczby okien terminala. Dashboard upraszcza monitorowanie do pojedynczego ekranu.

Więcej o zarządzaniu sesjami Claude Code znajdziesz w claude-warmup: zarządzanie 5-godzinnym oknem Claude Code. Z kolei alternatywne podejście do sterowania agentami opisałem w Claude Code Companion: Jak sterować Claude Code z Telegrama?.

Jakie narzędzia alternatywne oferują podobny auto-pilot?

Alternatywy dla Claude Code /goal obejmują narzędzia open-source i komercyjne z różnym podejściem do auto-pilota. Jak opisałem w PraisonAI vs Claude Code Supervisor: porównanie 2 narzędzi AI, PraisonAI oferuje wieloagentową koordynację z innym modelem zarządzania. Claude Code Supervisor z kolei dodaje warstwę nadzoru nad pojedynczym agentem.

NarzędziePodejście do auto-pilotaKoordynacja agentówEwaluacja iteracyjna
Claude Code /goalWbudowana pętla ewaluacjiTysiące sub-agentówPo każdej turze
PraisonAIMulti-agent frameworkHierarchicznaKonfigurowalna
Claude Code SupervisorNadzór nad jednym agentemPojedynczy agentManualna
Claw CodeOpen-source rewriteOgraniczonaBrak natywna

Claw Code, o którym pisałem w claw-code: claude code przepisany na nowo (Open-source), to otwartoźródłowa reimplementacja Claude Code. Nie ma natywnego auto-pilota, ale pozwala na budowanie własnych mechanizmów ewaluacji.

Często zadawane pytania

Ile sub-agentów można uruchomić jednocześnie w Claude Code?

Boris Cherny, twórca Claude Code, uruchamia tysiące sub-agentów nocą według Business Insider – limit zależy od dostępnego budżetu na tokeny API i infrastruktury.

Jak długo trwa jedna iteracja ewaluacji w /goal?

Czas iteracji zależy od złożoności zadania i rozmiaru kontekstu – Claude Code ma 5-godzinne okno użycia, o czym pisałem w claude-warmup, więc pojedyncza sesja agenta mieści się w tym limicie.

Czy Agent View wymaga dodatkowej opłaty?

Agent View jest dostępny jako research preview dla użytkowników Claude Code według BigGo Finance – nie jest jasne czy będzie osobno płatny po zakończeniu fazy preview.

Jakie zadania NIE sprawdzają się w auto-pilocie /goal?

Zadania wymagające kreatywnych decyzji architektonicznych, negocjacji z zespołem lub oceny subiektywnej nie pasują do auto-pilota – Cherny przyznaje w wywiadzie dla AOL, że rano sam przegląda wyniki i podejmuje decyzje wysokiego poziomu.

Podsumowanie

Claude Code /goal z ewaluacją po każdej turze to podejście, które zmienia sposób myślenia o automatyzacji kodowania. Kilka kluczowych wniosków:

  • Ewaluacja iteracyjna to fundament jakości – agent sprawdza wyniki przed przejściem dalej
  • Agent View pozwala zarządzać tysiącami sesji z jednego ekranu bez otwierania setek terminali
  • Nocny workflow Cherny’ego pokazuje, że agenty mogą pracować gdy programista śpi
  • Koszty wymagają monitorowania – każdy agent zużywa tokeny, więc limit iteracji jest kluczowy
  • Precyzyjne cele dają lepsze rezultaty – jeden konkretny cel na agenta

Jeśli chcesz przetestować auto-pilot w praktyce, zacznij od prostego zadania z jasnymi kryteriami akceptacji. Zdefiniuj cel w /goal, ustaw limit iteracji i obserwuj wyniki przez Agent View. Więcej o konfiguracji Claude Code znajdziesz w Przegląd Claude Code – Claude Code Docs i Dziennik zmian — Dokumentacja Claude Code.