Według doniesień, Claude, flagowy produkt Anthropic, był zaangażowany w nalot wojsk amerykańskich na Wenezuelę w celu schwytania jej prezydenta i jego żony.
Pomimo polityki antyprzemocowej Anthropic, partnerstwo firmy z Palantir pozwala na wykorzystanie Claude w operacjach wojskowych. Niektórzy uważają, że AI była wykorzystywana do zadań bez użycia przemocy.

Seria nowych doniesień ujawniła, że armia amerykańska wykorzystała model sztucznej inteligencji Anthropic, Claude, podczas operacji o wysokiej stawce mającej na celu schwytanie byłego prezydenta Wenezueli Nicolása Maduro.
Misja znana jako "Operacja Resolve" odbyła się na początku stycznia 2026 roku i zakończyła się aresztowaniem Maduro i jego żony, Cilii Flores, w sercu Caracas. Według The Wall Street Journal i Fox News, Claude został zintegrowany z misją poprzez partnerstwo Anthropic z firmą analityczną Palantir Technologies.
Departament Wojny USA, kierowany przez sekretarza Pete'a Hegsetha, coraz częściej wykorzystuje komercyjne modele AI do modernizacji swoich operacji bojowych.
Szczegóły dotyczące konkretnych zadań wykonywanych przez Claude są tajne, ale wiadomo, że AI jest wykorzystywana do podsumowywania ogromnych ilości danych wywiadowczych, analizy zdjęć satelitarnych i prawdopodobnie do wsparcia decyzyjnego w złożonych ruchach wojsk.
Nalot miał miejsce we wczesnych godzinach 3 stycznia 2026 roku, kiedy amerykańskie Siły Operacji Specjalnych, w tym komandosi Delta Force, pomyślnie sforsowały ufortyfikowany pałac Maduro. Prezydent Donald Trump później opisał, że Maduro został "zaatakowany" zanim zdążył dotrzeć do wzmocnionego stalą bezpiecznego pomieszczenia.
Wenezuelska obrona przeciwlotnicza została stłumiona, a kilka obiektów wojskowych zostało zbombardowanych podczas misji. Maduro został przewieziony na okręt wojenny USA, a następnie do Nowego Jorku, gdzie obecnie stoi przed federalnymi zarzutami narkoterroryzmu i importu kokainy.
Claude został zaprojektowany z konstytucyjnym naciskiem na bezpieczeństwo, więc w jaki sposób został wykorzystany w śmiertelnej operacji wojskowej? Publiczne wytyczne użytkowania Anthropic zabraniają wykorzystywania Claude do przemocy, rozwijania broni lub nadzoru.
Anthropic oświadczył, że monitoruje wszelkie użycie swoich narzędzi i zapewnia ich zgodność z polityką. Jednak partnerstwo z Palantir pozwala wojsku na korzystanie z Claude w środowiskach niejawnych.
Źródła zaznajomione ze sprawą sugerują, że AI mogła być wykorzystana do zadań wsparcia nieśmiertelnego, takich jak tłumaczenie komunikacji lub przetwarzanie logistyki. Niemniej jednak Departament Wojny obecnie naciska na firmy AI, aby usunęły wiele swoich standardowych ograniczeń dla użytku wojskowego.
Doniesienia wskazują, że administracja Trumpa rozważa anulowanie kontraktu o wartości 200 milionów dolarów z Anthropic, ponieważ firma wyraziła obawy dotyczące wykorzystania jej AI do autonomicznych dronów lub nadzoru. Sekretarz Pete Hegseth stwierdził, że "przyszłość amerykańskiej wojny zapisuje się literami AI" i jasno dał do zrozumienia, że Pentagon nie będzie współpracował z firmami ograniczającymi zdolności wojskowe.
Otrzymaj 8% CASHBACK, gdy wydajesz kryptowaluty kartą COCA Visa. Zamów swoją DARMOWĄ kartę.


