
Zderzenie ideałów z machiną wojenną. Jak donoszą amerykańskie media, Departament Obrony USA rozważa rezygnację z narzędzi firmy Anthropic. Powód? Twórcy potężnego modelu Claude mają czelność stawiać wojsku twarde, etyczne granice dotyczące autonomicznej broni i inwigilacji obywateli.
Według informacji, do których dotarł serwis Axios (a które ostro komentuje m.in. Gizmodo), w relacjach między Pentagonem a firmą Anthropic mocno zaiskrzyło. Anonimowy urzędnik Departamentu Obrony miał wręcz stwierdzić, iż ze wszystkich firm AI współpracujących z rządem, Anthropic jest zdecydowanie najbardziej „ideologiczna”.
Dla amerykańskiej armii to najwyraźniej wada. Zaledwie w zeszłym roku Anthropic chwalił się zdobyciem kontraktu z Pentagonem o wartości 200 milionów dolarów, nazywając to „nowym rozdziałem we wspieraniu bezpieczeństwa narodowego USA”. Teraz jednak okazuje się, iż firma nie zamierza dostarczać wojsku czeku in blanco.
Drony bez ludzkiego sumienia
Kością niezgody są dwa konkretne obszary, które firma uważa za absolutne czerwone linie: w pełni autonomiczna broń (np. roje dronów) oraz masowa inwigilacja krajowa.
Dario Amodei, założyciel i CEO Anthropic, w niedawnym podcaście New York Timesa wprost wyłożył swoje obawy. Zauważył, iż fundamentem konstytucyjnych zabezpieczeń w strukturach wojskowych jest to, iż ostatecznie na końcu łańcucha dowodzenia zawsze stoi człowiek. Człowiek, który w skrajnej sytuacji może (i powinien) odmówić wykonania nielegalnego lub zbrodniczego rozkazu.
„Z w pełni autonomiczną bronią niekoniecznie mamy te zabezpieczenia” – ostrzegał Amodei. Usunięcie czynnika ludzkiego i oddanie decyzji o zabijaniu systemom algorytmicznym to krok, do którego Anthropic nie chce przykładać ręki.
Jak ukraińskie drony zneutralizowały dwa bataliony NATO. Wnioski z manewrów w Estonii
Inwigilacja na sterydach
Drugi problem dotyczy prywatności. Amodei nakreślił przerażający, choć technicznie już możliwy scenariusz. Kamery i mikrofony w przestrzeni publicznej to nic nowego. Różnica polega na tym, iż do tej pory żaden rząd nie miał fizycznej możliwości, by ten gigantyczny strumień danych na bieżąco analizować.
Z pomocą zaawansowanych modeli AI, takich jak Claude, system może w czasie rzeczywistym transkrybować rozmowy z ulicy, łączyć je z systemami rozpoznawania twarzy i błyskawicznie tworzyć profile obywateli (np. wyłapując członków opozycji czy uczestników protestów).
Incydent wenezuelski
Punktem zapalnym, który doprowadził Pentagon do wściekłości, były rzekome zapytania ze strony Anthropic skierowane do firmy Palantir (głównego integratora technologii dla amerykańskiej armii). Według informatorów Axios, Anthropic dopytywało, czy ich oprogramowanie odegrało jakąkolwiek rolę podczas kinetycznego ataku sił USA w Wenezueli 3 stycznia, podczas którego padły strzały i byli ranni.
Choć Anthropic zaprzecza, by w ten sposób ingerowało w „bieżące operacje”, sam fakt zadawania takich pytań został odebrany przez wojskowych jako jawna insynuacja dezaprobaty dla działań armii.
Dlaczego zatem Pentagon po prostu nie zerwie umowy i nie pójdzie do konkurencji? Odpowiedź, która padła z ust samego informatora wojskowego, jest brutalnie szczera: bo modele od innych firm są technologicznie „po prostu w tyle” za Claude. Armia stoi więc przed klasycznym dylematem: pracować z najlepszym narzędziem, którego twórcy zadają niewygodne pytania, czy zadowolić się gorszym oprogramowaniem od firm, dla których moralność kończy się tam, gdzie zaczyna się przelew od rządu.
Jeśli artykuł Pentagon wściekły na Anthropic. Twórcy sztucznej inteligencji odmawiają ślepego posłuszeństwa armii nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.







![Policyjne centrum przy Poznańskiej. Superkomenda powstanie w dawnych koszarach [WIZUALIZACJE]](http://www.radiowroclaw.pl/img/articles/158197/O4buk1nEmt.jpg)



