gik|iewicz

szukaj
Claude AI paradox - helping US campaign in Iran while advocating for ethical restrictions

Claude na wojnie: Paradoks Anthropic – AI pomaga w kampanii USA w Iranie jednocześnie walcząc o etyczne ograniczenia

TL;DR: Claude, model AI od Anthropic, zidentyfikował ponad 1000 celów do ataku w Iranie w ciągu pierwszych 24 godzin wojny USA-Izrael przeciwko Iranowi. Paradoksalnie, Pentagon oficjalnie zablokował Anthropic i oznaczył jako „zagrożenie dla bezpieczeństwa narodowego” po tym, jak CEO Dario Amodei odmówił usunięcia etycznych zabezpieczeń. Claude nadal działa w systemie Maven Smart System firmy Palantir, ponieważ wojsko nie znalazło jeszcze zamiennika.

Szokująca prawda: AI wybiera cele wojenne

Wojna USA-Izrael przeciwko Iranowi, rozpoczęta 28 lutego 2026 roku, zapoczątkowała nową erę w historii konfliktów zbrojnych – erę, w której sztuczna inteligencja nie tylko wspiera, ale aktywnie decyduje o celach militarnych. Claude, zaawansowany model językowy stworzony przez Anthropic, stał się kluczowym elementem systemu identyfikacji celów, który w pierwszej dobie operacji wytypował ponad 1000 obiektów do zniszczenia.

To wydarzenie stanowi punkt zwrotny w debacie o roli AI w wojnie – Anthropic, firma założona przez byłych badaczy OpenAI z misją tworzenia „bezpiecznego i pożytecznego AI”, znalazła się w centrum moralnego i biznesowego trzęsienia ziemi. Jej technologia, zaprojektowana jako pomocnicza, została włączona w „kill chain” – łańcuch decyzyjny prowadzący od identyfikacji celu do jego zniszczenia.

Co dokładnie się wydarzyło?

Chronologia wydarzeń

4 marca 2026 roku The Washington Post ujawnił (Washington Post, 2026), że model Claude odgrywa kluczową rolę w kampanii wojskowej USA w Iranie, mimo oficjalnej blokady nałożonej na Anthropic przez Pentagon. Ta sytuacja jest efektem dramatycznych wydarzeń z końca lutego:

  • 27 lutego 2026 – Sekretarz obrony Pete Hegseth wydał Anthropic ultimatum: usunąć wszystkie ograniczenia etyczne z Claude do piątku lub stracić kontrakt o wartości 200 milionów dolarów
  • CEO Dario Amodei odmówił – Anthropic chciał zachować dwa kluczowe zabezpieczenia: zakaz używania AI do w pełni autonomicznej broni oraz zakaz masowej inwigilacji obywateli USA
  • Pentagon ogłosił blokadę – Anthropic został oznaczony jako „zagrożenie dla łańcucha dostaw bezpieczeństwa narodowego”
  • Claude nadal działa – Mimo blokady, model jest używany w operacjach w Iranie, ponieważ wojsko nie ma zamiennika

Jak Claude działa w systemie Maven

Claude jest zintegrowany z Maven Smart System – platformą analityczną stworzoną przez firmę Palantir Technologies. System ten przetwarza ogromne ilości danych wywiadowczych z satelitów, dronów, platform obserwacyjnych i innych źródeł. Według doniesień (Responsible Statecraft, 2026), Claude:

  • Analizuje dane wywiadowcze w czasie rzeczywistym
  • Identyfikuje i priorytetyzuje cele według ich znaczenia militarnego
  • Dostarcza współrzędne geograficzne zidentyfikowanych obiektów
  • Symuluje scenariusze ataków i ich konsekwencje
  • Skraca „kill chain” – proces od identyfikacji celu do ataku

W pierwszych 24 godzinach wojny system Claude pomógł zidentyfikować i zaatakować ponad 1000 celów w Iranie (The Guardian, 2026). To tempo bezprecedensowe w historii wojen – jak zauważyli eksperci, operacje, które kiedyś zajmowały dni lub tygodnie, teraz odbywają się w ciągu minut lub sekund.

Skutki wojny AI-powered

Według Amnesty International (WSWS, 2026), do 5 marca w wojnie zginęło 787 Irańczyków. Szczególnie tragiczny był atak na szkołę w południowym mieście Minab 1 marca, w którym zginęło około 150 dzieci. UNESCO określiło to wydarzenie jako „poważne naruszenie prawa humanitarnego”. Nie wiadomo, czy Claude był zaangażowany w identyfikację tego konkretnego celu.

Kontekst: Dlaczego to jest tak ważne?

Ewolucja AI militarnego

Użycie Claude w wojnie z Iranem nie jest pierwszym przypadkiem zastosowania AI w konfliktach zbrojnych, ale stanowi jakościowo nowy etap:

RokZdarzenieZnaczenie
2024Izrael używa systemu „Lavender” w Gazie10% fałszywych alarmów, setki ofiar cywilnych
Lipiec 2025Anthropic podpisuje kontrakt $200M z PentagonemClaude pierwszy model AI zatwierdzony do użycia w systemach klasyfikowanych
Styczeń 2026Operacja przeciwko Maduro w WenezueliClaude użyty w planowaniu operacji specjalnej
Luty-Marzec 2026Wojna USA-Izrael przeciwko Iranowi1000+ celów w 24h – pierwsza wojna AI-powered na dużą skalę

Paradoks Anthropic

Anthropic został założony w 2021 roku przez Dario Amodei i Daniela Amodei – byłych pracowników OpenAI, którzy opuścili firmę z powodów obaw o kierunek rozwoju AI. Misja firmy brzmiała: „budować bezpieczne, zrozumiałe i sterowalne systemy AI”. Firma stała się znana z podejścia „Constitutional AI” – metody trenowania modeli zgodnie z zdefiniowanymi zasadami etycznymi.

Ironia sytuacji jest głęboka: firma stworzona z misją etycznego AI znalazła się w sytuacji, gdzie jej technologia jest używana do identyfikacji celów wojskowych, a Pentagon karze ją za odmowę usunięcia zabezpieczeń etycznych.

Rola Palantir w equacji

Palantir Technologies, firma założona przez Petera Thiel, od lat jest kluczowym partnerem Pentagonu w dziedzinie analityki danych. Maven Smart System to ich flagowy produkt militarny, który ewoluował z projektu Maven Google (z 2017 roku). Integracja Claude z Maven nastąpiła w 2024 roku, gdy Anthropic nawiązał współpracę z Pentagonem.

Według doniesień Reuters (Reuters, 2026), Palantir teraz stoi przed wyzwaniem usunięcia Claude ze swoich systemów – zadanie trudne, ponieważ wiele promptów i workflow zostało zbudowanych wokół specyficznych możliwości tego modelu.

Reakcje ekspertów i opinii publicznej

„Szybciej niż prędkość myśli”

Craig Jones, wykładowca geografii politycznej na Newcastle University i ekspert od „kill chains”, powiedział dla The Guardian:

„Maszyna AI formuje rekomendacje co atakować, co jest w pewnych aspektach szybsze niż prędkość myśli. Masz więc skalę i masz prędkość – wykonujesz ataki typu asasynacji jednocześnie dekapitując zdolność reżimu do odpowiedzi. W dawnych wojnach mogło to zająć dni lub tygodnie. Teraz robisz wszystko naraz.”

To zjawisko, nazwane „decision compression” (kompresja decyzyjna), budzi obawy, że ludzcy eksperci wojskowi i prawni mogą stać się jedynie „rubber stamp” – automatycznie zatwierdzającymi rekomendacje AI.

Ostrzeżenia o „cognitive off-loading”

David Leslie, profesor etyki technologii na Queen Mary University of London, który obserwował demonstracje militarnych systemów AI, ostrzega przed „cognitive off-loading” – zjawiskiem, w którym ludzie odpowiedzialni za decyzje o ataku czują się odcięci od ich konsekwencji, ponieważ trud intelektualny został przeniesiony na maszynę.

„To nowa era strategii i technologii militarnej. Te systemy produkują zestaw opcji dla ludzkich decydentów, ale mają znacznie węższe okno czasowe na ewaluację rekomendacji.”

Pytanie o human oversight

Peter Asaro, profesor mediów w The School of New York i wiceprzewodniczący kampanii Stop Killer Robots, zapytał w rozmowie z Japan Times:

„Możesz szybko produkować długie listy celów znacznie szybciej niż ludzie potrafią to robić, automatyzując ten proces. Etyczne i prawne pytanie brzmi: w jakim stopniu ci ludzie faktycznie weryfikują konkretne cele, które zostały wymienione, potwierdzając ich legalność i wartość militarną przed autoryzacją?”

Brianna Rosen, starszy fellow w Just Security i University of Oxford, która badała użycie AI przez Izrael w Gazie, dodała:

„Nawet z człowiekiem w pełni w pętli, jest znaczna szkoda dla cywilów, ponieważ ludzkie weryfikacje decyzji maszyn są w istocie pro-forma.”

„No stupid rules of engagement”

Szczególnie niepokojące są słowa sekretarza obrony Pete’a Hegsetha, który na konferencji prasowej na początku tygodnia oświadczył, że w tej wojnie „nie ma głupich zasad prowadzenia działań wojennych” („no stupid rules of engagement”).

Pentagon’s Law of War Manual wymaga, aby siły zbrojne USA podejmowały „możliwe środki ostrożności, aby zweryfikować, że cele [planowane do ataku] są celami wojskowymi”. Cywile, personel medyczny i religijny, szkoły, szpitale i miejsca kultu nie powinny być atakowane. Pytanie brzmi: czy przy tak szybkiej skali operacji AI-powered te zasady są rzeczywiście przestrzegane?

Co dalej? Przyszłość AI na wojnie

Wyścig zbrojeń AI militarnego

Sytuacja z Anthropic zilustrowała fundamentalne napięcie w branży AI: firmy technologiczne chcą zachować kontrolę nad swoimi modelami, ale rządy chcą nieograniczonego dostępu. OpenAI, główny konkurent Anthropic, szybko podpisał własną umowę z Pentagonem po problemach Anthropic – pokazując, że dla niektórych graczy biznesowych oportunizm wygrywa z etyką.

NATO podpisało w kwietniu 2025 roku umowę z Palantir na zakup Maven, co oznacza, że USA nie planują porzucać dalszego rozwoju systemów AI do zarządzania polem bitwy. Jak zauważył jeden z pracowników Palantir w styczniu 2026 roku: „niektóre scenariusze użycia są tak złożone, że testują granice oprogramowania” – komentarz, który został odebrany jako echo ostrzeżeń Amodei o użyciu AI w broni.

Kwestie prawne i regulacyjne

Eksperci prawni są sceptyczni co do tego, czy sądy zaakceptują oznaczenie Anthropic jako „zagrożenia dla łańcucha dostaw bezpieczeństwa narodowego”, skoro Pentagon używa Claude w operacji przeciwko Maduro i nadal używa go w wojnie z Iranem. Jak pyta New York Times (NYT, 2026): „jak dużym zagrożeniem może być, jeśli wojsko używa go nawet teraz?”

Negocjacje trwają

Według Financial Times, Anthropic prowadzi rozmowy z Emilem Michaelem, podsekretarzem obrony ds. badań i inżynierii, aby sprawdzić, czy można osiągnąć nową umowę między firmą a Pentagonem. Kluczowe pytanie: czy Anthropic ustąpi i usunie zabezpieczenia etyczne, czy Pentagon zaakceptuje pewne ograniczenia?

Implikacje dla branży AI

Sytuacja Anthropic ma daleko idące implikacje dla całej branży AI:

  • Modele open-source vs. zamknięte – firmy z modelami open-source mają mniejszą kontrolę nad tym, jak ich technologia jest używana
  • Kontrakty rządowe – czy firmy powinny przyjmować kontrakty wojskowe, jeśli oznacza to utratę kontroli nad użyciem?
  • Etyka vs. biznes – Anthropic stoi między firmami, które odmawiają współpracy z wojskiem (jak pierwotne zasady Google „Don’t be evil”) a tymi, które aktywnie szukają kontraktów militarnych

Pozycje firm AI wobec Pentagonu (2026)

Anthropic
Etyczne ograniczenia
OpenAI
Pełna współpraca
Google DeepMind
Wybiórcza współpraca
Meta AI
Open-source (brak kontroli)
Pozycje firm AI na spektrum współpracy z wojskiem (szacunkowe)

FAQ: Najczęściej zadawane pytania

Czy Claude faktycznie „decyduje” o atakach na Iran?

Nie bezpośrednio. Claude identyfikuje i priorytetyzuje cele, ale formalnie ludzie podejmują ostateczne decyzje. Jednakże tempo operacji (1000+ celów w 24h) i zjawisko „decision compression” oznaczają, że ludzka weryfikacja może być ograniczona do prostego zatwierdzenia rekomendacji AI.

Dlaczego Pentagon zablokował Anthropic, ale nadal używa Claude?

Paradoks wynika z problemów technicznych i operacyjnych. Claude jest głęboko zintegrowany z systemem Maven Smart System firmy Palantir, a znalezienie zamiennika wymaga czasu. Pentagon używa Claude w trybie „wygaszania” (phase-out) do momentu znalezienia alternatywy.

Czym różni się sytuacja Anthropic od OpenAI?

OpenAI, po początkowych wahaniach, szybko podpisał umowę z Pentagonem po problemach Anthropic. OpenAI nie postawiło podobnych warunków etycznych (zakaz autonomicznej broni i masowej inwigilacji), co czyni ich bardziej atrakcyjnym partnerem dla wojska.

Czy AI może być odpowiedzialne za ofiary cywilne?

To kluczowe pytanie prawne i etyczne. W przypadku ataku na szkołę w Minab, gdzie zginęło 150 dzieci, nie wiadomo, czy Claude był zaangażowany. Nawet jeśli tak, odpowiedzialność spoczywa na decydentach ludzkich, którzy zatwierdzili atak. Jednakże szybkość AI-powered operacji utrudnia rzetelną weryfikację.

Czego możemy się spodziewać w przyszłości?

Wojna z Iranem pokazuje, że era AI-powered konfliktów już nadeszła. Możemy oczekiwać:

  • Przyspieszonego rozwoju militarnych systemów AI przez USA, Chiny i inne mocarstwa
  • Wzrostu presji na firmy AI do usunięcia etycznych ograniczeń
  • Debaty regulacyjnej na poziomie międzynarodowym (podobnie jak traktaty o broni nuklearnej)
  • Możliwego powstania ruchu „AI arms control” w stylu kampanii Stop Killer Robots

Podsumowanie

Wojna USA-Izrael przeciwko Iranowi i rola Claude w niej odegrana stanowią punkt zwrotny w historii sztucznej inteligencji. Firma, która powstała z misją tworzenia „bezpiecznego AI”, znalazła się w sytuacji, gdzie jej technologia jest używana do identyfikacji celów wojskowych – a jednocześnie jest karana przez Pentagon za utrzymywanie etycznych zabezpieczeń.

To nie jest science-fiction. To dzieje się teraz. Claude wybiera cele w prawdziwej wojnie, ludzie giną, a branża AI stoi przed fundamentalnym wyborem: czy przyjąć kontrakty wojskowe bez ograniczeń, czy zachować kontrolę nad tym, jak ich technologia jest używana?

Odpowiedź na to pytanie zdefiniuje przyszłość nie tylko branży AI, ale także naturę samej wojny w XXI wieku. Jak powiedział Craig Jones: „Teraz robisz wszystko naraz” – AI skompresowało czas decyzyjny z dni do sekund. Pytanie, czy jako społeczeństwo jesteśmy na to gotowi, pozostaje bez odpowiedzi.


Źródła

Powiązane artykuły