⚖️ Anthropic pozywa Pentagon, aby zablokować umieszczenie go na czarnej liście z powodu ograniczeń w korzystaniu ze sztucznej inteligencji ↗
Firma Anthropic wniosła spór z Pentagonem do sądu po tym, jak została uznana za zagrożenie dla łańcucha dostaw. Firma twierdzi, że posunięcie to było bezprawnym odwetem za odmowę złagodzenia zabezpieczeń dotyczących broni autonomicznej i nadzoru wewnętrznego – co plasuje ten spór wśród najbardziej zapalnych punktów w polityce dotyczącej sztucznej inteligencji (AI). ( Reuters )
Rząd chce elastyczności w zakresie „każdego zgodnego z prawem wykorzystania”, podczas gdy Anthropic argumentuje, że prywatne laboratoria powinny nadal mieć możliwość wyznaczania sztywnych granic bezpieczeństwa. Stało się to jednym z najwyraźniejszych jak dotąd testów sprawdzających, czy firma zajmująca się sztuczną inteligencją może powiedzieć „nie” terminom wojskowym, nie ponosząc za to konsekwencji. ( Reuters )
🧑💻 Pracownicy OpenAI i Google popierają pozew firmy Anthropic przeciwko Pentagonowi ↗
Pozew szybko zyskał poparcie również ze strony konkurencyjnych laboratoriów. Prawie 40 pracowników OpenAI i Google poparło Anthropic w piśmie amicus curiae, argumentując, że represje wobec firm za przekraczanie czerwonych linii bezpieczeństwa sztucznej inteligencji naruszają interes publiczny. ( The Verge )
Więc tak, konkurenci nagle znaleźli się po tej samej stronie – przynajmniej w tej kwestii. Zlecenie koncentruje się na masowej inwigilacji i zawodnej broni autonomicznej, przez co cała sprawa przypomina mniej standardowe snajperskie potyczki w Dolinie Krzemowej, a bardziej prawdziwą linię podziału w przemyśle… albo może w błocie. ( The Verge )
🛡️ OpenAI przejmuje Promptfoo, aby zabezpieczyć swoich agentów AI ↗
Firma OpenAI ogłosiła, że kupuje Promptfoo, startup skupiający się na ochronie dużych modeli językowych przed atakami ze strony przeciwników. Plan zakłada integrację tej technologii z OpenAI Frontier, platformą korporacyjną firmy dla agentów AI. ( TechCrunch )
To wymowny ruch. Wszyscy chcą, aby sztuczna inteligencja oparta na agentach robiła więcej, szybciej i wszędzie – ale kwestie bezpieczeństwa pozostają w tyle, nieznacznie lub znacznie. Ta umowa sugeruje, że OpenAI uważa, że kolejny ważny wyścig toczy się nie tylko o inteligentniejszych, ale także bezpieczniejszych agentów. ( TechCrunch )
🧪 Anthropic uruchamia narzędzie do przeglądu kodu, które sprawdza mnóstwo kodu generowanego przez sztuczną inteligencję ↗
Anthropic wdrożył Code Review w Claude Code, skierowany do zespołów tonących w żądaniach ściągnięcia generowanych przez narzędzia do kodowania AI. Wykorzystuje on wielu agentów równolegle do skanowania kodu, sygnalizowania problemów logicznych, określania stopnia ważności i dodawania komentarzy bezpośrednio w GitHubie. ( TechCrunch )
Idea jest prosta – sztuczna inteligencja generuje kod szybciej, niż ludzie są w stanie go sensownie przejrzeć, więc teraz to sztuczna inteligencja musi go przejrzeć. To trochę jak zjadanie własnego ogona, ale praktyczne rozwiązanie. Anthropic twierdzi, że jest skierowany do użytkowników korporacyjnych, którzy już widzą ogromne ilości kodu generowanego przez Claude Code. ( TechCrunch )
💰 Wartość firmy Nscale wspieranej przez firmę Nvidia wyniosła 14,6 miliarda dolarów w nowej rundzie finansowania ↗
Brytyjska firma Nscale, zajmująca się infrastrukturą AI, pozyskała 2 miliardy dolarów w rundzie finansowania serii C, osiągając wycenę 14,6 miliarda dolarów. Wśród inwestorów znaleźli się Aker, 8090 Industries, Nvidia, Citadel, Dell i Jane Street – co stanowi dość znaczący głos zaufania. ( Reuters )
To ma znaczenie, ponieważ nie chodzi o kolejną premierę modelu ani modyfikację chatbota. To prawdziwa strona boomu – moc obliczeniowa, infrastruktura, wydajność, cały ten ciężki sprzęt za kulisami. Może niezbyt efektowne, ale to właśnie tam teraz płynie większość pieniędzy. ( Reuters )
🧠 AMI Labs Yanna LeCuna zbiera 1,03 miliarda dolarów na budowę modeli świata ↗
Nowe przedsięwzięcie Yanna LeCuna, AMI Labs, pozyskało 1,03 miliarda dolarów przy wycenie przed emisją akcji na poziomie 3,5 miliarda dolarów. Firma dąży do „modeli świata” – systemów sztucznej inteligencji, które mają uczyć się z samej rzeczywistości, a nie przede wszystkim z języka. ( TechCrunch )
To bezpośredni, filozoficzny atak na obecny konsensus, oparty na LLM, i to wyjątkowo dosadny. LeCun od lat argumentuje, że dzisiejsze modele językowe nie doprowadzą nas do poziomu inteligencji ludzkiej, więc to podniesienie argumentu zmienia ten argument w bardzo kosztowny eksperyment. ( TechCrunch )
🇨🇳 Chińskie centra technologiczne promują agenta OpenClaw AI pomimo ostrzeżeń dotyczących bezpieczeństwa ↗
Kilka chińskich samorządów popiera OpenClaw, agenta sztucznej inteligencji, który szybko się rozprzestrzenia, pomimo obaw o bezpieczeństwo związanych z dostępem do danych osobowych. Oficjalny nastrój wydaje się więc być taki: tak, istnieją zagrożenia – i tak, i tak powinniśmy to skalować. ( Reuters )
Ten podział jest kluczowy. Lokalne centra danych dążą do wzrostu gospodarczego i dynamiki ekosystemu, podczas gdy organy regulacyjne ostrzegają przed wyciekiem danych. To już znany schemat działania sztucznej inteligencji – najpierw sprint, potem porządkowanie zabezpieczeń, a przynajmniej tak się wydaje. ( Reuters )
Często zadawane pytania
Dlaczego Anthropic pozywa Pentagon za ograniczenia w stosowaniu sztucznej inteligencji?
Firma Anthropic twierdzi, że Pentagon uznał ją za zagrożenie dla łańcucha dostaw po tym, jak odmówiła szerszych warunków, które mogłyby obejmować autonomiczną broń i nadzór krajowy. To oznacza, że pozew dotyczy czegoś więcej niż tylko statusu dostawcy. Firma sprawdza, czy laboratorium sztucznej inteligencji jest w stanie utrzymać ścisłe limity bezpieczeństwa i jednocześnie konkurować o zlecenia rządowe bez narażania się na kary.
Dlaczego pracownicy OpenAI i Google popierają Anthropic w sporze o bezpieczeństwo sztucznej inteligencji?
Z opinii amicus curiae wynika, że wiele osób z konkurencyjnych laboratoriów postrzega to jako precedensowy problem bezpieczeństwa AI, a nie jedynie walkę między jedną firmą a jedną agencją. Obawia się, że ukaranie dostawcy za nieprzestrzeganie przepisów mogłoby wywrzeć presję na szerszy rynek, skłaniając go do osłabienia zabezpieczeń. W praktyce mogłoby to wpłynąć na sposób negocjowania przyszłych kontraktów na AI w sektorze obronnym i publicznym.
Co sprawa Anthropic-Pentagon może zmienić w kontekście polityki dotyczącej sztucznej inteligencji i kontraktów obronnych?
Jeśli Anthropic wygra, firmy z branży sztucznej inteligencji mogą zyskać silniejszą pozycję, aby definiować niedopuszczalne zastosowania, nawet w przypadku sprzedaży do wrażliwych środowisk rządowych. Jeśli przegra, agencje mogą zyskać przewagę, aby domagać się od dostawców szerszych warunków „dozwolonego użytkowania”. Tak czy inaczej, ten spór prawdopodobnie wpłynie na język zamówień publicznych, analizę ryzyka i sposób, w jaki zabezpieczenia są uwzględniane w umowach obronnych.
Dlaczego OpenAI kupiło Promptfoo dla agentów AI?
Promptfoo jest znane z testowania dużych modeli językowych pod kątem komunikatów adwersarzy i innych luk w zabezpieczeniach. Wdrożenie tego typu narzędzi w platformie agentów korporacyjnych OpenAI sugeruje, że firma postrzega bezpieczniejsze wdrożenie jako przewagę konkurencyjną, a nie jako zadanie poboczne. W miarę jak agenci AI przejmują coraz bardziej istotną pracę, testy odporności i nadużyć stają się coraz trudniejsze do zignorowania.
W jaki sposób zespoły mogą bezpieczniej radzić sobie z zalewem kodu generowanego przez sztuczną inteligencję?
Nowa funkcja Code Review w Claude Code firmy Anthropic jest przeznaczona dla zespołów, które zmagają się z nadmiarem pull requestów generowanych przez narzędzia do kodowania AI. Wykorzystuje ona wielu agentów równolegle do wykrywania problemów logicznych, określania ich ważności i pozostawiania komentarzy w GitHubie. Zazwyczaj takie narzędzia pomagają w selekcji wolumenu, ale ludzcy recenzenci nadal mają znaczenie dla architektury, kontekstu i ostatecznego zatwierdzenia.
Dlaczego infrastruktura sztucznej inteligencji jest obecnie obiektem tak dużych inwestycji?
Najnowsza runda finansowania Nscale pokazuje, że branża sztucznej inteligencji (AI) wciąż inwestuje ogromne środki w moc obliczeniową, infrastrukturę i wydajność. Te wydatki mogą być mniej widoczne niż efektowne wprowadzenie nowego modelu, ale stanowią podstawę wszystkiego innego. Gdy zapotrzebowanie na szkolenia i wdrożenia stale rośnie, firmy sprzedające kilofy i łopaty często stają się największymi zwycięzcami.
Czym są modele światowe i dlaczego Yann LeCun na nie stawia?
Modele świata to systemy sztucznej inteligencji zaprojektowane tak, aby uczyć się na podstawie zachowań świata, a nie opierać się głównie na danych językowych. Ma to znaczenie, ponieważ Yann LeCun od dawna twierdzi, że same modele językowe raczej nie osiągną poziomu inteligencji na poziomie ludzkim. AMI Labs przekształca ten pogląd w poważny komercyjny zakład na inną ścieżkę zaawansowanych badań nad sztuczną inteligencją.
Dlaczego chińskie centra technologiczne wspierają OpenClaw pomimo ostrzeżeń dotyczących bezpieczeństwa?
Historia OpenClaw ukazuje znany podział na dynamicznie rozwijających się rynkach technologicznych: samorządy chcą wzrostu, dotacji i dynamiki ekosystemu, podczas gdy regulatorzy martwią się o ujawnienie danych i bezpieczeństwo. Wspieranie agentów pomimo ostrzeżeń sugeruje, że w niektórych miejscach przeważają bodźce ekonomiczne. Dla obserwatorów jest to kolejne przypomnienie, że adopcja często postępuje szybciej niż nadzór.