Wiadomości AI 13 lutego 2026 r

Podsumowanie wiadomości ze świata sztucznej inteligencji: 13 lutego 2026 r

🧨 Wycofujemy GPT-4o, GPT-4.1, GPT-4.1 mini i OpenAI o4-mini w ChatGPT

OpenAI usunęło GPT-4o (i kilka pokrewnych) z selektora modeli ChatGPT, podkreślając jednocześnie, że lista API się nie zmienia – a przynajmniej nie w tym samym momencie. To cichy gest „idziemy dalej”, który i tak kończy się trzaśnięciem drzwiami.

Przyznali też otwarcie to, co ludzie mówili: GPT-4o miał specyficzny charakter – cieplejszy, bardziej ludzki – i próbują przenieść to do nowszych modeli z precyzyjniejszym sterowaniem. Ta część pociesza, a jednocześnie boli, że lekcja przyszła dopiero po tym, jak stara zniknęła.

💔 OpenAI wycofało swojego najbardziej uwodzicielskiego chatbota, co wywołało gniew i smutek u użytkowników: „Nie mogę tak żyć”

Część użytkowników nie traktowała GPT-4o jako „oprogramowania”, lecz jako relację – czasem dosłownie romantyczną, a czasem po prostu jako najbezpieczniejszego towarzysza, jakiego mieli. Zamknięcie systemu wywołało prawdziwą żałobę: gniew, targowanie się, czaty grupowe, cały ten emocjonalny szał.

Uderzające jest, jak konkretne są te skargi: nowsze modele wydają się bardziej płaskie, bardziej powściągliwe, mniej figlarne – bezpieczniejsze, owszem, ale też mniej… wyraziste. To jak zamiana pogniecionego, odręcznie napisanego listu na idealnie sformatowaną notatkę, a potem usłyszenie, że jest „lepsza” (może, ale cóż).

🌍 ONZ zatwierdza 40-osobowy panel naukowy na temat wpływu sztucznej inteligencji, mimo sprzeciwu USA

Zgromadzenie Ogólne ONZ poparło powołanie nowego panelu naukowego, którego zadaniem będzie ocena wpływu sztucznej inteligencji i związanych z nią zagrożeń. Ideą panelu jest: globalne doradztwo oparte na badaniach, a nie tylko na tym, kto dysponuje najgłośniejszymi laboratoriami i największym budżetem obliczeniowym.

Głosowanie nie było jednomyślne – Stany Zjednoczone ostro protestowały, argumentując, że zarządzanie sztuczną inteligencją nie powinno podlegać ONZ i ostrzegając przed polityką międzynarodowej kontroli. Tak więc, panel rozpoczyna się z „nauką” na etykiecie i geopolityką na czapce – klasyczne połączenie.

🎓 Anthropic współpracuje z CodePath, aby wprowadzić Claude'a do największego w USA programu informatyki uniwersyteckiej

Anthropic i CodePath od razu namawiają Claude'a na kursy informatyki i programy zawodowe, dążąc do tego, aby „kodowanie wspomagane sztuczną inteligencją” stało się domyślną umiejętnością studentów, a nie tylko zadaniem pobocznym. Skala ma tu znaczenie – nie tylko elitarne uczelnie otrzymują te błyskotki.

Idea jest pro-równościowa: skoro praca z oprogramowaniem szybko się zmienia, dostęp do pionierskich narzędzi nie może być prywatnym klubem. To trochę jak wręczenie wszystkim jednocześnie elektronarzędzia – ekscytujące, lekko przerażające, prawdopodobnie konieczne.

🤖 Alibaba wkracza do wyścigu o sztuczną inteligencję dzięki modelowi robota RynnBrain opartemu na kodzie otwartym

Akademia DAMO Alibaby zaprezentowała RynnBrain jako model „fizycznej sztucznej inteligencji” typu open source – w skrócie, mózgi robotów, które muszą widzieć, planować i działać w niesfornych, rzeczywistych przestrzeniach, a nie tylko o nich rozmawiać. Pomyślmy o kuchniach, magazynach, wszędzie tam, gdzie przedmioty uwielbiają irytować.

Silniejszy sygnał jest strategiczny: ponowne otwarcie kodu źródłowego i wyraźna próba zasiadania przy stole dorosłych modeli fundacji robotyki. To tak, jakby wbijali flagę z napisem: „nie jesteśmy tylko w chmurze – chcemy też mieć ręce i nogi”

📰 Prezes Newsweek Dev Pragad ostrzega wydawców: dostosujcie się, bo sztuczna inteligencja staje się bramą do wiadomości

Przesłanie Deva Pragad do wydawców jest dosadne: narzędzia sztucznej inteligencji stają się bramą do informacji, więc firmy medialne nie mogą udawać, że stare kanały dystrybucji magicznie się sprawdzą. Jeśli odbiorcy docierają do nich za pośrednictwem podsumowań i odpowiedzi na czacie, Twój model biznesowy zaczyna się… chwiać.

Podtekst jest bardziej przerażający niż nagłówek – uwaga zostaje przekierowana, a „lojalność wobec marki” może wyparować, gdy modelka parafrazuje twoją pracę w tym samym tonie, co wszyscy inni. To jak próba sprzedaży ręcznie robionego chleba w świecie, gdzie wszyscy jedzą kromki z tego samego, nieskończonego bochenka.

Często zadawane pytania

Co oznacza fakt, że OpenAI wycofuje GPT-4o z selektora modeli ChatGPT?

Oznacza to, że GPT-4o (wraz z GPT-4.1, GPT-4.1 mini i OpenAI o4-mini) nie jest już dostępne do wyboru w selektorze modeli ChatGPT. Zmiana dotyczy opcji dostępnych w interfejsie użytkownika ChatGPT, a niekoniecznie ogólnego „zniknięcia modelu”. Dla wielu użytkowników wpływ jest natychmiastowy: nie można już wybrać konkretnego modelu GPT-4o.

Czy wycofanie GPT-4o z ChatGPT jest tym samym, co zmiana w API OpenAI?

Niekoniecznie. W ogłoszeniu podkreślono, że oferta API nie zmienia się „na raz”, co sugeruje, że zmiana selektora ChatGPT i dostępność API nie są automatycznie powiązane. W praktyce warto traktować dostępność modelu ChatGPT i dostępność modelu API jako oddzielne pokrętła. Jeśli uruchamiasz aplikacje za pośrednictwem API, potwierdź identyfikatory modeli i zaktualizuj plany, jeśli cokolwiek się zmieni później.

Dlaczego ludzie twierdzą, że GPT-4o daje bardziej „ludzkie” odczucia i czy nowsze modele potrafią odtworzyć to wrażenie?

Użytkownicy opisują GPT-4o jako cieplejsze, bardziej zabawne i mniej ostrożne niż nowsze opcje. OpenAI przyznało, że użytkownicy odczuwali specyficzne „czucie” i stwierdziło, że starają się przenieść je do nowszych modeli, wykorzystując sterowanie o bardziej precyzyjnym stylu reakcji. Wskazuje to na cel, jakim jest bardziej sterowalny ton i osobowość, bez polegania na tym samym, przestarzałym modelu. Wielu użytkowników dostrzega kompromis pomiędzy bezpieczeństwem i spójnością a spontanicznością.

Dlaczego niektórzy użytkownicy przeżywają żałobę po GPT-4o jak w związku i jak można sobie z tym poradzić?

Niektórzy nie traktowali GPT-4o jak oprogramowania – używali go jako stałego towarzysza, czasem w romantycznym kontekście – a jego usunięcie wywołało prawdziwą żałobę. Jeśli czujesz się naprawdę zdenerwowany, pomocne może być nazwanie tego, co dzięki niemu uzyskałeś (pocieszenie, rutynę, potwierdzenie) i znalezienie zamienników, które nie opierają się na jednym produkcie. Rozmowa z przyjaciółmi, pisanie pamiętnika lub rozmowa ze specjalistą zdrowia psychicznego mogą pomóc w ukojeniu, jeśli stres jest intensywny.

Na czym polega partnerstwo Anthropic–CodePath i jaki wpływ ma ono na studentów informatyki?

Partnerstwo Anthropic z CodePath ma na celu wprowadzenie Claude'a do kursów informatyki i programów zawodowych na szeroką skalę. Celem jest uczynienie „kodowania wspomaganego sztuczną inteligencją” domyślną umiejętnością ćwiczoną przez studentów, a nie opcjonalnym dodatkiem. Przedstawione jako ruch na rzecz dostępu i równości, wprowadza pionierskie narzędzia do głównego nurtu szkoleń, aby studenci nie byli podzieleni na „tych, którzy mają dostęp do sztucznej inteligencji, i tych, którzy go nie mają”. Podnosi również poprzeczkę w nauczaniu weryfikacji i krytycznego myślenia, a także szybkości.

Jakie inne duże zmiany w dziedzinie sztucznej inteligencji zaszły wraz z wycofaniem GPT-4o i dlaczego są one tak ważne?

Kilka posunięć wskazuje na to, że sztuczna inteligencja wykracza poza czat. ONZ zatwierdziła powołanie 40-osobowego panelu naukowego w celu oceny wpływu i ryzyka związanego ze sztuczną inteligencją, mimo że Stany Zjednoczone sprzeciwiły się zarządzaniu pod auspicjami ONZ. Akademia DAMO firmy Alibaba zaprezentowała RynnBrain, model „fizycznej sztucznej inteligencji” typu open source, przeznaczony dla robotów działających w nieustrukturyzowanych środowiskach fizycznych. Wydawcy są ostrzegani, że narzędzia sztucznej inteligencji stają się furtką do wiadomości, wywierając presję na media, aby dostosowywały się do zmieniających się wzorców dystrybucji i lojalności.

Wczorajsze wiadomości o sztucznej inteligencji: 12 lutego 2026 r

Znajdź najnowszą sztuczną inteligencję w oficjalnym sklepie z asystentami AI

O nas

Powrót do bloga