🕵️ Wielka Brytania będzie współpracować z Microsoftem w celu stworzenia systemu wykrywania deepfake ↗
Wielka Brytania ogłosiła, że rozpoczęła współpracę z Microsoftem, naukowcami i innymi ekspertami w celu stworzenia systemu, który będzie w stanie wykrywać fałszywe informacje w Internecie, a także odpowiedniego sposobu testowania , czy narzędzia wykrywające te treści sprawdzają się w praktyce.
Nacisk położony jest na szkody, które są najdotkliwsze: podszywanie się pod kogoś, oszustwa i niechciane treści seksualne. Niezbyt efektowne, ale właśnie tam koncentrują się szkody.
🧠 Anthropic wypuszcza aktualizację AI, ponieważ rynek karze akcje firm z branży oprogramowania ↗
Firma Anthropic wprowadziła ulepszony model Claude (Opus 4.6), oferujący lepszą wydajność w kodowaniu i finansach, a także możliwość wykorzystania do miliona tokenów na raz. To sporo kontekstu – jak wręczenie modelowi całej karty bibliotecznej.
Stawiają też na „agentów” za pośrednictwem Claude Code, gdzie zadania można rozdzielać między autonomicznych pomocników. To praktyczne, bardziej niż można by się spodziewać – a także zmiana, która wprawia tradycyjnych inwestorów w oprogramowanie w stan niepokoju.
🧑💼 OpenAI wprowadza usługę agenta AI w ramach działań mających na celu przyciągnięcie firm ↗
Firma OpenAI ogłosiła „Frontier”, usługę przeznaczoną dla przedsiębiorstw, służącą do tworzenia i zarządzania agentami AI — botami wykonującymi określone zadania, takie jak debugowanie oprogramowania, obsługa przepływów pracy i tym podobne.
Chodzi o to, że ma on zintegrować się z istniejącą infrastrukturą firmy, a nawet obsługiwać agentów zewnętrznych, co oznacza, że OpenAI dąży do stania się centrum dowodzenia, a nie tylko dostawcą modeli. Ambitne… albo nieco zaborcze, w zależności od punktu widzenia.
🪖 USA i Chiny nie składają wspólnego oświadczenia w sprawie wykorzystania sztucznej inteligencji w wojsku ↗
Kilka krajów podpisało niewiążącą deklarację określającą zasady wykorzystania sztucznej inteligencji w działaniach wojennych - takie jak odpowiedzialność człowieka, jasne struktury dowodzenia oraz poważne testy i ocena ryzyka.
Ale USA i Chiny nie podpisały. I to jest cała historia w jednym, niezręcznym momencie – regulamin istnieje, a najwięksi gracze… nie trzymają pióra.
🎭 Ustawodawstwo stanu Nowy Jork wymaga ujawnienia w reklamach wykonawców generowanych przez sztuczną inteligencję i wzmacnia prawa do rozgłosu po śmierci ↗
W Nowym Jorku podpisano przepisy wymagające, aby reklamy wykorzystujące „syntetycznych aktorów” generowanych przez sztuczną inteligencję wyraźnie informowały o tym odbiorców w stanie – nawet jeśli reklamodawca ma siedzibę gdzie indziej. Zasada jest prosta: nie przemycaj fałszywego człowieka i nie nazywaj tego marketingiem.
Odrębnie, stan zaostrzył przepisy dotyczące komercyjnego wykorzystywania wizerunków osób zmarłych, w tym ich cyfrowych replik. Szczerze mówiąc, jest to nieco ponure, ale jednocześnie bardzo „witamy w erze, w której tożsamość wymaga pasów bezpieczeństwa”
Często zadawane pytania
Co Wielka Brytania robi z Microsoftem w celu wykrywania deepfake'ów w Internecie?
Wielka Brytania deklaruje współpracę z Microsoftem, naukowcami i innymi ekspertami w celu stworzenia systemu, który będzie w stanie wykrywać deepfake'i w internecie. Plan zakłada również stworzenie niezawodnego sposobu testowania skuteczności narzędzi do wykrywania poza laboratorium. Koncentruje się na najpoważniejszych zagrożeniach: podszywaniu się pod kogoś, oszustwach i niechcianych treściach seksualnych.
Czym testy detektorów deepfake „w warunkach naturalnych” będą się różnić od wersji demonstracyjnych?
Oprócz samego detektora, Wielka Brytania kładzie nacisk na testowanie narzędzi do wykrywania deepfake w realistycznych warunkach. W wielu procesach modele wydają się skuteczne w oparciu o starannie dobrane zestawy danych, ale słabną, gdy zmieniają się formaty treści, kompresja lub taktyki ataku. Ustrukturyzowane podejście do ewaluacji pomaga w spójnym porównywaniu narzędzi i ujawnia, gdzie wykrywanie zawodzi w rzeczywistych środowiskach online.
Co Anthropic zmienił w Claude Opus 4.6 i dlaczego limit tokenów ma znaczenie?
Anthropic twierdzi, że Claude Opus 4.6 poprawia wydajność w obszarach takich jak kodowanie i finanse, obsługując do miliona tokenów kontekstu. To większe okno kontekstowe ułatwia pracę z długimi dokumentami lub złożonymi bazami kodu bez konieczności ciągłego przeładowywania informacji. Zwrócono również uwagę na „agentów” za pośrednictwem Claude Code, gdzie zadania można rozdzielać między autonomicznych pomocników.
Czym jest OpenAI „Frontier” i jak wpisuje się w przepływy pracy w przedsiębiorstwach?
Firma OpenAI ogłosiła „Frontier” jako usługę dla przedsiębiorstw, służącą do tworzenia i zarządzania agentami AI wykonującymi określone zadania, takie jak debugowanie oprogramowania czy obsługa przepływów pracy. Rozwiązanie jest przeznaczone do integracji z istniejącą infrastrukturą firmy, a nie jako samodzielny punkt końcowy modelu. OpenAI poinformowało również, że obsługuje agentów innych firm, co oznacza warstwę kontroli umożliwiającą koordynację różnych systemów agentowych.
Co mówi deklaracja dotycząca wojskowej sztucznej inteligencji i co oznacza ona dla zarządzania sztuczną inteligencją?
Deklaracja jest określana jako niewiążąca i określa zasady wykorzystania sztucznej inteligencji w działaniach wojennych, w tym odpowiedzialność człowieka, jasne struktury dowodzenia oraz rygorystyczne testy i ocenę ryzyka. Agencja Reuters donosi, że podpisało ją wiele krajów, ale nie Stany Zjednoczone i Chiny. Dla zarządzania sztuczną inteligencją ta rezygnacja ma znaczenie, ponieważ stawia największych graczy poza wspólnym zestawem deklarowanych norm.
Jakie wymagania stawiane są nowym przepisom obowiązującym w Nowym Jorku wobec artystów generowanych przez sztuczną inteligencję w reklamach?
W Nowym Jorku przyjęto przepisy wymagające, aby reklamy wykorzystujące „syntetycznych wykonawców” generowanych przez sztuczną inteligencję wyraźnie informowały o tym fakcie odbiorców w stanie, nawet jeśli reklamodawca ma siedzibę gdzie indziej. Ponadto stan wzmocnił prawa do publikacji zdjęć pośmiertnych w kontekście komercyjnego wykorzystania wizerunków osób zmarłych, w tym ich cyfrowych replik. W praktyce oznacza to, że zarządzanie sztuczną inteligencją zmierza w kierunku bardziej przejrzystego etykietowania i ściślejszej kontroli nad wykorzystywaniem tożsamości.