🏛️ Rząd utworzy nowe laboratorium, które pomoże Wielkiej Brytanii utrzymać się na szybkim pasie postępu w dziedzinie sztucznej inteligencji ↗
W Wielkiej Brytanii powstaje finansowane przez rząd laboratorium badań nad sztuczną inteligencją, reklamujące je jako „nietypowe” przedsięwzięcie – ryzykowne, powolne i czasami przynoszące efekty, które sprawiają, że wszyscy inni wyglądają, jakby zdrzemnęli się. ( GOV.UK )
Nie chodzi tylko o „większe modele, więcej procesorów graficznych” – chodzi o zwalczanie uporczywych wad, takich jak halucynacje, krótka pamięć i nieprzewidywalne rozumowanie, a także o zapewnienie badaczom dostępu do zaawansowanych obliczeń za pośrednictwem zasobów badawczych AI. Brzmi to bardzo rozsądnie… a jednocześnie, po cichu, jak próba powstrzymania natychmiastowego wchłonięcia najlepszych umysłów Wielkiej Brytanii gdzie indziej. ( GOV.UK )
🧨 Dyrektor generalny Nvidii sugeruje koniec inwestycji w OpenAI i Anthropic ↗
Jensen Huang sygnalizuje, że Nvidia może nie kontynuować inwestowania w laboratoria zajmujące się sztuczną inteligencją w dotychczasowy sposób – biorąc pod uwagę dynamikę IPO (oraz ogromną skalę omawianych kontroli) i utrudniając pozyskanie takiego rodzaju finansowania. ( Reuters )
To zmiana tonu warta odnotowania: Nvidia jest królem kilofów i łopat w tym całym boomie, a jednocześnie sugeruje, że „posiadanie udziałów w spółkach górniczych” nie zawsze jest już w grze. A może to po prostu głośne zabezpieczanie się, co prezesi robią, jak oddychanie. ( Reuters )
🧩 Ekskluzywne: Duża grupa technologiczna wspiera Anthropic w walce z Pentagonem, podczas gdy inwestorzy naciskają na deeskalację sporu o zabezpieczenia sztucznej inteligencji ↗
Konflikt firmy Anthropic z Pentagonem przeradza się w prawdziwą wojnę ciśnieniową – inwestorzy podobno chcą obniżenia temperatury, podczas gdy firma stara się utrzymać swoje stanowisko w kwestii zabezpieczeń (szczególnie w odniesieniu do nadzoru). ( Reuters )
Podtekst tej historii jest niemal głośniejszy niż sam tekst: w erze sztucznej inteligencji sformułowania w umowach nie są „czepialstwem prawnym”, lecz w zasadzie polityką produktową — i to ona decyduje, czy model stanie się narzędziem, bronią, czy też rozległym obciążeniem. ( Reuters )
🪖 Sam Altman przyznaje, że OpenAI nie jest w stanie kontrolować wykorzystania sztucznej inteligencji przez Pentagon ↗
Według doniesień Altman powiedział personelowi, że OpenAI nie jest w stanie kontrolować sposobu, w jaki Pentagon wykorzystuje swoją sztuczną inteligencję po jej wdrożeniu – co kończy się hukiem, ponieważ określa ona konkretny strach, nad którym krążą ludzie. ( The Guardian )
Szersze tło to narastające napięcia między „pomożemy, ale z zachowaniem zasad” a „pomożemy, kropka”, a także wewnętrzne i publiczne reakcje, gdy przyjęcie do wojska wydaje się pospieszne lub oportunistyczne. Kwestie etyczne w tym przypadku to nie tyle kwestia czystej linii, co raczej rozlanie mokrej farby – wszyscy w nią wdepną, a potem kłócą się o to, czyj to but. ( The Guardian )
🧬 Nowe stypendium w dziedzinie sztucznej inteligencji w genomice z Instytutem Sanger i Google DeepMind ↗
Wellcome Sanger Institute uruchamia finansowany przez DeepMind program stypendialny skupiający się na zastosowaniu sztucznej inteligencji w genomice. Jest to pierwsze tego typu stypendium DeepMind w tej konkretnej dziedzinie. ( sanger.ac.uk )
Co ciekawe (i, szczerze mówiąc, nieco odświeżające) to nacisk na niedostatecznie zbadane problemy genomiczne, w których sztuczna inteligencja nie jest jeszcze wszechobecna – a także wyraźne zaznaczenie, że DeepMind nie kieruje badaniami naukowca. To tak, jakby dać komuś rakietę i powiedzieć „idź coś odkryć”, zamiast „idź i zoptymalizuj naszą mapę drogową”. ( sanger.ac.uk )
Często zadawane pytania
Czym jest Fundamental AI Research Lab, wspierane przez rząd Wielkiej Brytanii, i jakie będą jego zadania?
Wspierane przez rząd Laboratorium Badań nad Sztuczną Inteligencją (Fundamental AI Research Lab) jest pozycjonowane jako projekt badawczy „z przymrużeniem oka” – projekt wysokiego ryzyka, którego efekty mogą być czasochłonne. Zamiast koncentrować się wyłącznie na skalowaniu coraz większych modeli, laboratorium dąży do rozwiązania uporczywych problemów, takich jak halucynacje, krótka pamięć i nieprzewidywalne rozumowanie. Zakłada się, że przełomy wynikają z podstaw, a nie tylko z dodawania kolejnych procesorów graficznych.
W jaki sposób brytyjskie Fundamental AI Research Lab może pomóc badaczom uzyskać dostęp do poważnych obliczeń?
Oprócz brytyjskiego Laboratorium Badań nad Podstawowymi Sztuczną Inteligencją (FBA), plan kładzie nacisk na dostęp do znacznej mocy obliczeniowej za pośrednictwem Zasobów Badawczych Sztucznej Inteligencji (AI Research Resource). W praktyce oznacza to zazwyczaj, że naukowcy mogą przeprowadzać eksperymenty, które w innym przypadku byłyby ograniczone kosztami lub infrastrukturą. Umożliwia to również zespołom testowanie pomysłów na skalę, w której problemy takie jak niezawodność i solidność stają się realne, a nie tylko teoretyczne.
Dlaczego w Wielkiej Brytanii kładzie się nacisk na halucynacje, krótką pamięć i nieprzewidywalne rozumowanie?
Te słabości ujawniają się podczas wdrażania i mogą szybko podważyć zaufanie. Deklarowany nacisk sugeruje, że celem jest nie tylko wydajność, ale niezawodność – redukcja zmyślonych wyników, poprawa sposobu, w jaki modele radzą sobie z dłuższym kontekstem i zmniejszenie zmienności rozumowania. Tego rodzaju praca jest często wolniejsza i bardziej ryzykowna, dlatego określa się ją mianem badań podstawowych.
Co tak naprawdę sygnalizuje zmiana tonu firmy Nvidia w kwestii inwestycji w OpenAI i Anthropic?
Raport przedstawia to jako sugestię, że Nvidia może nie kontynuować inwestowania w laboratoria pionierskie w ten sam sposób, zwłaszcza że dynamika IPO i ogromne kwoty czeków komplikują tę strategię. Nawet będąc liderem w dziedzinie sprzętu AI, sugerując, że udziały własnościowe nie zawsze są najlepszym rozwiązaniem. Może to być również ostrożny przekaz, który często pojawia się w komentarzach kierownictwa.
Dlaczego spór Anthropic z Pentagonem na temat „języka zabezpieczającego” jest tak wielką sprawą?
Kluczowym punktem artykułu jest to, że sformułowania w umowach mogą stać się polityką produktową – zwłaszcza gdy dotyczą inwigilacji i innych wrażliwych zastosowań. Inwestorzy podobno chcą deeskalacji konfliktu, podczas gdy firma stara się utrzymać swoją pozycję w kwestii zabezpieczeń. W wielu wdrożeniach sztucznej inteligencji klauzule te określają, do czego system może być wykorzystywany i jakie ryzyko firma faktycznie akceptuje.
Co ma na myśli Sam Altman, mówiąc, że OpenAI nie jest w stanie kontrolować sposobu, w jaki Pentagon wykorzystuje sztuczną inteligencję?
Opisuje praktyczne ograniczenie: po wdrożeniu narzędzia jego pierwotny twórca może mieć ograniczone możliwości zarządzania dalszym użytkowaniem. To stwierdzenie jest bardzo istotne, ponieważ wskazuje na sedno obaw, jakie ludzie podnoszą w związku z wdrażaniem go w wojsku – przepisy mogą istnieć na etapie zawierania umów, ale ich egzekwowanie może być trudne. Odzwierciedla to również szersze napięcie między „pomocą z ograniczeniami” a „pomocą bez względu na okoliczności”