🤖 Lider sprzętu OpenAI rezygnuje po zawarciu umowy z Pentagonem ↗
Caitlin Kalinowski, szefowa działu sprzętu i robotyki w OpenAI, zrezygnowała ze stanowiska po podpisaniu umowy z Pentagonem, twierdząc, że decyzja ta nie została wystarczająco szczegółowo przedyskutowana przed dopuszczeniem modeli do użytku w tajnych sieciach obronnych. Jej głównym zmartwieniem była kwestia nadzoru ze strony człowieka, granic inwigilacji i ryzyka zbyt szybkiego rozwoju autonomii śmiercionośnej. ( Reuters )
OpenAI twierdzi, że umowa zawiera dodatkowe zabezpieczenia i nadal zabrania inwigilacji wewnętrznej oraz używania autonomicznej broni. Mimo to rezygnacja sprawia, że cała sprawa brzmi mniej jak płynna aktualizacja polityki, a bardziej jak zamknięcie drzwi przeciwpożarowych w trakcie spotkania. ( Reuters )
🏗️ Oracle i OpenAI rezygnują z planu rozbudowy centrum danych w Teksasie, informuje Bloomberg News ↗
Oracle i OpenAI podobno porzuciły plany rozbudowy swojego dużego centrum danych AI w Abilene w Teksasie po tym, jak rozmowy o finansowaniu przeciągały się, a zapotrzebowanie OpenAI na moc obliczeniową uległo zmianie. Centrum było częścią szerszego projektu infrastrukturalnego Stargate, więc sprawa nie jest błaha. ( Reuters )
Istniejący kampus nadal działa, a firmy twierdzą, że szersza, wielogigawatowa rozbudowa jest kontynuowana w innych miejscach. Jednocześnie, porzucona rozbudowa może teraz otworzyć drogę dla Meta, która podobno rozważała dzierżawę terenu. Infrastruktura AI jest w ciągłym ruchu niczym mokry cement – ciężka, droga i nigdy do końca nieustabilizowana. ( Reuters )
⚖️ Pentagon uznaje Antropic za zagrożenie dla łańcucha dostaw ↗
Pentagon formalnie uznał Anthropic za zagrożenie dla łańcucha dostaw, ograniczając wykorzystanie Claude'a w kontraktach Departamentu Obrony po tym, jak firma odmówiła złagodzenia zabezpieczeń przed bronią autonomiczną i masowym nadzorem. To jest sedno sprawy – walka o zamówienia, która przerodziła się w znacznie poważniejszą walkę o wartości. ( Reuters )
Firma Anthropic twierdzi, że decyzja ta jest nielegalna i planuje zaskarżyć ją do sądu. To oznaczenie jest niezwykle surowe dla amerykańskiego laboratorium sztucznej inteligencji i wpisuje się w szerszy podział opinii na temat tego, czy firmy z sektora pionierskiego powinny wprowadzać surowsze zasady do kontraktów obronnych, czy też zaufać istniejącemu prawu... na co nie wszyscy są gotowi. ( Reuters )
💬 Meta zezwala rywalom AI na WhatsApp, aby zapobiec działaniom UE ↗
Meta twierdzi, że po naciskach ze strony unijnych organów antymonopolowych, włączy konkurencyjne chatboty oparte na sztucznej inteligencji do WhatsApp w Europie na rok, korzystając z API Business. Konkurencja skarżyła się, że Meta skutecznie je blokuje, faworyzując jednocześnie własnego asystenta – co jest istotnym szczegółem, biorąc pod uwagę, jak scentralizowana stała się dystrybucja w dziedzinie sztucznej inteligencji. ( Reuters )
Problem w tym, że dostęp wiąże się z opłatami, a krytycy twierdzą, że nadal stawia to mniejszych konkurentów w niekorzystnej sytuacji. Organy regulacyjne zastanawiają się, czy to ustępstwo jest wystarczające, więc brzmi to mniej jak traktat pokojowy, a bardziej jak przycisk pauzy owinięty w papiery. ( Reuters )
📜 xAI przegrywa próbę zatrzymania kalifornijskiego prawa o ujawnianiu danych AI ↗
xAI przegrało próbę zablokowania kalifornijskiego prawa, które nakłada na firmy zajmujące się sztuczną inteligencją obowiązek ujawniania większej ilości danych wykorzystywanych do trenowania ich modeli. Odmowa sądu w sprawie wstrzymania stosowania tego prawa oznacza, że xAI stoi teraz w obliczu tej samej presji związanej z przejrzystością, której inni twórcy modeli próbowali, niekiedy niezręcznie, uniknąć. ( Reuters )
To ważne, ponieważ spory o dane treningowe nie są już wyłącznie kwestią akademicką czy związaną z prawami autorskimi – stają się realną kwestią zgodności. Dla xAI, która i tak zmaga się z powtarzającymi się kontrowersjami dotyczącymi bezpieczeństwa wokół Grok, to kolejny ciężar w postaci regulatora. ( Reuters )
Często zadawane pytania
Dlaczego szef działu sprzętu i robotyki OpenAI zrezygnował po zawarciu umowy z Pentagonem?
Caitlin Kalinowski zrezygnowała ze stanowiska, ponieważ uważała, że decyzja o dopuszczeniu modeli dla tajnych sieci obronnych nie została wystarczająco głęboko przemyślana. Jej obawy koncentrowały się na nadzorze ze strony ludzi, ograniczeniach w zakresie nadzoru oraz ryzyku zbyt szybkiego postępu autonomii śmiercionośnej. OpenAI stwierdziło, że umowa nadal zabrania inwigilacji wewnętrznej i używania broni autonomicznej, ale rezygnacja sugeruje, że wewnętrzna debata nie została w pełni rozstrzygnięta.
Co tak naprawdę oznacza określenie przez Pentagon ryzyka antropicznego jako ryzyka łańcucha dostaw?
Oznacza to, że Claude nie będzie mógł być wykorzystywany w kontraktach Departamentu Obrony, co stanowi poważną przeszkodę w realizacji zamówień. Według artykułu, spór koncentruje się na odmowie Anthropic osłabienia zabezpieczeń związanych z bronią autonomiczną i masowym nadzorem. Anthropic twierdzi, że oznaczenie to jest nieuzasadnione prawnie i planuje je zakwestionować, więc może to doprowadzić zarówno do sporu sądowego, jak i testu politycznego.
Dlaczego odwołana rozbudowa centrum danych w Teksasie ma znaczenie w wiadomościach branży AI?
Zaniechana rozbudowa Abilene ma znaczenie, ponieważ była częścią szerszego projektu infrastrukturalnego Stargate, wiążąc go z długoterminowym planowaniem obliczeń w zakresie sztucznej inteligencji. Agencja Reuters donosi, że istniejący kampus nadal działa, ale opóźnienia w finansowaniu i zmieniające się zapotrzebowanie na moc obliczeniową skłoniły Oracle i OpenAI do porzucenia rozbudowy. Pokazuje to również, jak szybko mogą zmieniać się główne inwestycje w infrastrukturę sztucznej inteligencji, nawet gdy szersza rozbudowa trwa w innych miejscach.
Dlaczego Meta pozwala konkurencyjnym chatbotom opartym na sztucznej inteligencji na korzystanie z WhatsApp w Europie?
Meta podjęła ten krok pod presją unijnych organów antymonopolowych i skargami, że faworyzuje własnego asystenta, ograniczając jednocześnie konkurencję. Dostęp jest tymczasowy i odbywa się za pośrednictwem interfejsu API dla firm, więc nie jest to polityka w pełni otwartych drzwi. Opłaty nadal obowiązują, co oznacza, że mniejsi konkurenci mogą nadal napotykać na praktyczne niedogodności, nawet po uzyskaniu koncesji.
Co oznacza kalifornijskie prawo dotyczące ujawniania danych szkoleniowych sztucznej inteligencji dla xAI?
Odmowa sądu zablokowania ustawy oznacza, że xAI musi teraz sprostać dodatkowym wymogom przejrzystości dotyczącym danych treningowych. Ma to znaczenie, ponieważ twórcy modeli często starali się unikać szczegółowego ujawniania informacji, zwłaszcza gdy źródło danych jest wrażliwe lub sporne. W praktyce dane treningowe stają się aktywnym problemem zgodności, a nie pozostają przedmiotem debaty na temat norm badawczych lub ryzyka naruszenia praw autorskich.
Co jest najważniejszym przesłaniem płynącym z wiadomości o branży sztucznej inteligencji z tego tygodnia?
Wspólnym mianownikiem jest to, że sztuczna inteligencja jest kształtowana mniej przez same premiery produktów, a bardziej przez zarządzanie, infrastrukturę i regulacje. Partnerstwa w sektorze obronnym generują wewnętrzne konflikty, ekspansja mocy obliczeniowej okazuje się kosztowna i płynna, a organy regulacyjne wywierają coraz większą presję na dostęp i ujawnianie informacji. W przypadku OpenAI, Anthropic, Meta i xAI artykuł wskazuje na konieczność uwidocznienia kompromisów w branży.