💰 Amazon prowadzi rozmowy w sprawie zainwestowania 10 mld dolarów w twórcę ChatGPT
Amazon podobno prowadzi rozmowy o zainwestowaniu ponad 10 mld dolarów w OpenAI – a jeśli to się faktycznie stanie, wycena OpenAI wzrośnie do poziomu „serio?”, czyli ponad 500 mld dolarów. Pozycjonowanie jest oparte na połączeniu finansowania i strategicznego dopasowania… plus najprostszy czynnik motywujący ze wszystkich: głód obliczeniowy.
W raporcie wskazano również, że OpenAI mogłoby w większym stopniu opierać się na możliwościach AWS i potencjalnie zacząć korzystać z układów Trainium firmy Amazon, co w zasadzie przekształciłoby to w linię dostaw dla kolejnej fali skalowania modeli (przynajmniej tak się wydaje – te rozmowy mogą ulec chwiejności).
🔗 Przeczytaj więcej
🧑💻 Deweloperzy mogą teraz przesyłać aplikacje do ChatGPT
OpenAI udostępniło możliwość przesyłania aplikacji do recenzji i publikacji w ChatGPT, a także katalog aplikacji w produkcie, w którym użytkownicy mogą przeglądać polecane aplikacje lub wyszukiwać opublikowane treści. Aplikacje można aktywować w trakcie rozmowy za pomocą @wzmianek lub wybierać z menu narzędzi – to bardzo „aplikacje, ale natywne dla czatu”
Udostępniają również pakiet SDK aplikacji (wersja beta) oraz pakiet zasobów programistycznych (przykłady, bibliotekę interfejsu użytkownika, szybki start). Monetyzacja jest na razie ostrożna – głównie poprzez linkowanie do finalizacji transakcji – ale jest całkiem jasne, że OpenAI chce, aby to rozwinęło się w prawdziwy ekosystem.
🔗 Czytaj więcej
🗞️ Przedstawiamy Akademię OpenAI dla organizacji informacyjnych
OpenAI uruchomiło centrum edukacyjne skierowane do dziennikarzy, redaktorów i wydawców, stworzone we współpracy z partnerami takimi jak American Journalism Project i The Lenfest Institute. Idea projektu: praktyczne szkolenia i podręczniki, które pomogą redakcjom korzystać ze sztucznej inteligencji bez podważania zaufania do tego procesu.
Lista startowa Akademii obejmuje „Podstawy sztucznej inteligencji dla dziennikarzy”, a także przykłady zastosowań, takie jak badania śledcze/badania przeszłości, tłumaczenia, analiza danych i efektywność produkcji. Wyraźnie widoczny jest również nacisk na odpowiedzialne użytkowanie i zarządzanie wewnętrzne – bo tak, ktoś musi napisać dokument dotyczący polityki, którego nikt nie chce pisać.
🔗 Czytaj więcej
⚡ Gemini 3 Flash: inteligencja pionierska stworzona z myślą o szybkości
Google wprowadził Gemini 3 Flash jako szybszy i bardziej ekonomiczny model – i uczynił go domyślnym w aplikacji Gemini oraz trybie AI w wyszukiwarce. Hasło brzmi w zasadzie: „Profesjonalne rozumowanie, prędkość na poziomie Flasha”, co brzmi jak slogan… ale w pewnym sensie oddaje charakter całego obecnego wyścigu.
Jest on również promowany na platformach deweloperskich i korporacyjnych (Gemini API, AI Studio, Vertex AI i inne). Dziwnie głęboki podtekst: Google chce, aby ten model był wszędzie tam, gdzie ludzie już są, więc koszty przejścia zaczynają przypominać grawitację.
🔗 Czytaj więcej
🧩 OpenUSD i NVIDIA Halos przyspieszają bezpieczeństwo robotaks i fizycznych systemów sztucznej inteligencji
NVIDIA łączy standardy symulacji i procesy bezpieczeństwa w bardziej spójny stos „fizycznej sztucznej inteligencji” – roboty i pojazdy autonomiczne, które muszą przetrwać chaos w świecie rzeczywistym. Kluczowym elementem jest specyfikacja OpenUSD Core Specification 1.0, która ma na celu zwiększenie przewidywalności i interoperacyjności procesów symulacyjnych 3D w różnych narzędziach.
W kwestii bezpieczeństwa, NVIDIA podkreśla laboratorium inspekcji systemów AI Halos (i program certyfikacji) dla flot robotaxi, stosów AV, czujników i platform. Wśród pierwszych uczestników znalazły się Bosch, Nuro i Wayve, a Onsemi została wywołana jako pierwsza, która przeszła inspekcję – miły moment „odblokowania identyfikatora”.
🔗 Czytaj więcej
🧪 Laboratorium Uniwersytetu Kalifornijskiego w San Diego rozwija badania nad sztuczną inteligencją generatywną dzięki systemowi NVIDIA DGX B200
Laboratorium sztucznej inteligencji Hao AI Lab na Uniwersytecie Kalifornijskim w San Diego otrzymało system NVIDIA DGX B200, który ma pomóc w prowadzeniu badań nad inferencją LLM o niskim opóźnieniu – mało efektownym procesem, który decyduje, czy „sztuczna inteligencja wydaje się natychmiastowa”, czy „wygląda jak czekanie na tosta”. Firma NVIDIA zauważa również, że systemy wnioskowania produkcyjnego, takie jak Dynamo, czerpią z koncepcji wypracowanych w laboratorium, w tym z DistServe.
Historia skupia się na kwestii „dobrej przepustowości” kontra przepustowość – zasadniczo chodzi o przepustowość, która nadal spełnia cele dotyczące opóźnień. Opisują również rozdzielenie prefilla i dekodowania na różne GPU w celu zmniejszenia interferencji zasobów, co jest nerdowskie, owszem, ale takie, które zmienia odbiór produktu.
🔗 Czytaj więcej
🏗️ Hut 8 podpisuje umowę na 245 MW mocy z Fluidstack w ramach wielogigawatowego partnerstwa z Anthropic
Hut 8 podpisał długoterminową umowę na 245 MW mocy w swoim kampusie w River Bend, dzierżawiąc ją firmie Fluidstack, zajmującej się chmurą AI, w ramach struktury o wartości 7 mld dolarów (z opcjami, które mogą znacznie zwiększyć tę kwotę). Anthropic jest zaangażowany jako użytkownik końcowy poprzez szersze partnerstwo – to infrastruktura do kopania kryptowalut ponownie przekształca się w potęgę AI, tylko… na większą skalę.
Istnieje również prawo pierwokupu do 1 GW dodatkowej mocy w River Bend, a także zaangażowanie finansowe dużych banków i zabezpieczenie Google. Szczerze mówiąc, całość brzmi mniej więcej tak: „AI chce mocy i nieruchomości – i chce ich na wczoraj”.
🔗 Czytaj więcej