🧯 OpenAI poszukuje nowego szefa ds. gotowości, którego zadaniem będzie przewidywanie i ograniczanie szkód wyrządzonych przez sztuczną inteligencję ↗
Firma OpenAI utworzyła stanowisko „Kierownika ds. gotowości” — zasadniczo osoba, której zadaniem będzie wyobrażenie sobie najgorszych możliwych zastosowań modeli granicznych, a następnie opracowanie zabezpieczeń, które wytrzymają presję (a nie tylko wibracje i dokumenty PDF dotyczące polityki).
Lista mocno skupia się na modelowaniu zagrożeń, ich ocenie i łagodzeniu jako realnym procesie operacyjnym. To praca nad bezpieczeństwem ujęta w ramy oprogramowania wysyłkowego – uspokajająca na jednym oddechu, a nieco przerażająca na drugim, ponieważ sugeruje, że ryzyko jest teraz związane z produktem.
🧑⚖️ Chiny publikują projekt przepisów regulujących interakcje sztucznej inteligencji z ludźmi ↗
Chiński regulator cyberbezpieczeństwa rozesłał projekt przepisów mających na celu wprowadzenie usług opartych na sztucznej inteligencji, które symulują ludzkie osobowości i angażują użytkowników emocjonalnie – gadatliwych towarzyszy, zalotnych asystentów i całej tej strefy „czy jesteś prawdziwy?”.
Jeden istotny element: dostawcy musieliby ostrzegać przed nadużywaniem i interweniować, jeśli użytkownicy wykazują oznaki uzależnienia. Niezwykle wyraźnie mówi się o ryzyku psychologicznym – jakby ktoś spojrzał na trend „przyjaciela AI” i stwierdził, że nie bez pasów bezpieczeństwa.
🧩 Żegnaj, GPT-5. Cześć, Qwen ↗
Wired uważa, że Qwen zdobywa serca nie dzięki temu, że jest najmocniejszym punktem odniesienia, ale dzięki swojej lekkości i łatwości w modyfikacji – a to właśnie w praktyce jest tym, co konstruktorzy wciąż wybierają. To „narzędzie, które naprawdę można trzymać”, a nie to ukryte za aksamitną liną.
Artykuł ujmuje to jako szerszą zmianę: otwarte modele, które idealnie wpasowują się w produkty (i są dopracowywane wewnętrznie), mogą mieć większe znaczenie niż marginalne zyski w rankingach. Trochę pikantne, może trochę nieuprzejme dla zamkniętych laboratoriów… ale klimat jest.
🎁 Podwójne limity wykorzystania sztucznej inteligencji przez OpenAI i Anthropic dla programistów w okresie świątecznym: wszystko, co musisz wiedzieć ↗
OpenAI i Anthropic tymczasowo podniosły limity wykorzystania swoich narzędzi do kodowania, dając poszczególnym subskrybentom więcej miejsca na uruchamianie bardziej wymagających przepływów pracy bez natychmiastowego przekraczania limitów.
Mint zauważa, że podwyżka jest skierowana do zaawansowanych użytkowników, ale po zakończeniu promocji sytuacja wraca do normy. To miły moment „więcej mocy” – a także ciche przypomnienie, że pojemność jest wciąż ograniczonym, namacalnym ograniczeniem.
💻 Współzałożyciel Google DeepMind, Shane Legg, przedstawia „zasadę laptopa”, która pozwoli Ci sprawdzić, czy sztuczna inteligencja może zastąpić Twoją pracę ↗
Shane Legg przedstawił konkretną heurystykę: jeśli zadanie można wykonać w całości za pomocą laptopa (ekran, klawiatura, mikrofon, kamera itd.), to jest to rodzaj pracy poznawczej, w ramach której zaawansowana sztuczna inteligencja może coraz częściej wykonywać zadania.
Zastrzegł też trochę bezpieczeństwa, zauważając, że niektóre prace „w pełni online” nadal opierają się na kontaktach międzyludzkich i osobowości. Tak więc, zasada jest ostra… ale to nie gilotyna, a raczej ostrzeżenie przed burzą.