🍏 Apple i Google zawarły umowę Gemini na odświeżoną wersję Siri, co jest dużym sukcesem dla Alphabet ↗
Apple zamierza używać modeli Gemini firmy Google do odświeżonej wersji Siri w ramach wieloletniej umowy, która w zasadzie krzyczy „wyścig zbrojeń w dziedzinie sztucznej inteligencji, ale w sposób uprzejmy”. Stawia to również modele Google’a przed ogromną bazą urządzeń Apple, która składa się z… wielu kieszeni.
Co nieco pikantne: to niekoniecznie oznacza, że Apple stawia wszystko na jeden model – raczej Siri staje się warstwą routingu, a najlepszy dostawca odpowiedzi wygrywa w każdym zadaniu. Teoretycznie schludne, w praktyce skomplikowane.
💬 Meta wyklucza Włochy z zakazu konkurencyjnego chatbota na WhatsAppie ↗
Meta wycofuje Włochy ze swojego planu blokowania konkurencyjnych chatbotów opartych na sztucznej inteligencji na WhatsAppie – nie dlatego, że nagle zrobiło się chłodniej, ale dlatego, że regulatorzy chcą się temu bliżej przyjrzeć. Pomysł „zakazu” nadal istnieje, tyle że z nagranym wyjątkiem obejmującym cały kraj.
Większą walką jest siła platformy: jeśli rywale nie mogą podłączyć się do WhatsApp, Meta AI zyskuje czystszy pas startowy. A jeśli jesteś konkurentem, to cała skarga w jednym zdaniu.
🏛️ Oświadczenie Sekretarza Stanu dla Izby Gmin: 12 stycznia 2026 r ↗
Brytyjski minister nauki i technologii zwrócił się do Izby Gmin, skupiając się na szkodach związanych z treściami generowanymi przez sztuczną inteligencję, zwłaszcza niechcianymi, seksualnymi deepfake'ami. Ton wypowiedzi nie brzmiał „ryzyko na przyszłość”, lecz „to się dzieje, jest ohydne i nielegalne”
To jeden z tych momentów, w których polityka dotycząca sztucznej inteligencji przestaje być dyskusją, a staje się egzekwowaniem, odpowiedzialnością za platformę i tym, co zostanie usunięte – lub nie. Niewygodne, ale w pewnym sensie konieczne.
🧑💻 Sztuczna inteligencja powoduje, że programiści porzucają Stack Overflow ↗
Ruch na Stack Overflow i liczba pytań stale spadają, a artykuł dowodzi oczywistej rzeczy: wielu programistów teraz najpierw ubiega się o LLM. I szczerze mówiąc, niektórzy mają już dość bycia krytykowanym za to, że pytanie nie jest sformatowane jak pismo prawne.
To raczej zmiana nawyków niż awaria jednej platformy. Ludzie nadal potrzebują odpowiedzi – po prostu otrzymują je z okna czatu zamiast wątku… aż do momentu, gdy pojawia się gremlin halucynacji.
🤖 Najlepiej oceniany wcielony model sztucznej inteligencji RoboChallenge staje się oprogramowaniem typu open source, rzucając wyzwanie paradygmatowi czystego gromadzenia danych ↗
Spirit AI twierdzi, że ich model wizji-języka-działania, Spirit v1.5, osiągnął najlepszy wynik w teście RoboChallenge i udostępnia open source modelu bazowego, wag i kodu ewaluacyjnego. Uwielbiam energię „tutaj, odtwórz to” – rzadką i po cichu odświeżającą.
Argumentują, że zróżnicowane, ukierunkowane na cel dane ze świata rzeczywistego mogą przebić idealnie czyste demonstracje, ponieważ roboty potrzebują zachowań odzyskiwania sprawności i trudnych przypadków skrajnych, a nie tylko idealnych przejazdów. To jak trenowanie kierowcy tylko w słoneczne niedziele… pożałujesz tego, gdy pierwszy raz spadnie deszcz.
Często zadawane pytania
Co tak naprawdę oznacza umowa Gemini na odświeżoną wersję Siri dla użytkowników iPhone'a?
Sugeruje to, że Siri mogłaby korzystać z modeli Gemini firmy Google, aby obsługiwać więcej żądań w ramach „odświeżonego” doświadczenia. W codziennym użytkowaniu prawdopodobnie przejawia się to silniejszymi reakcjami na zadania korzystające z rozbudowanych modeli językowych, a nie klasycznego stylu asystenta poleceń i kontroli. Większa zmiana kryje się za kulisami: Siri działa bardziej jak warstwa orkiestracji, wybierając, który model powinien obsłużyć dane żądanie.
Czy Apple stawia wszystko na Google Gemini dla Siri, czy może zmieni model?
Opisana konfiguracja nie oznacza zamknięcia się na jeden model. Siri jest pozycjonowana jako warstwa routingu, w której „najlepszy dostawca odpowiedzi” może się różnić w zależności od zadania, co pozostawia miejsce na wiele modeli lub dostawców. Ta elastyczność może poprawić jakość, ale wprowadza również rzeczywistą złożoność operacyjną związaną ze spójnością, opóźnieniami i decydowaniem, który model powinien obsługiwać wrażliwe lub ryzykowne zapytania.
Dlaczego umowa Gemini na odświeżoną wersję Siri jest uważana za wielki sukces Alphabetu?
Jeśli modele Gemini będą napędzać niektóre funkcje Siri, sztuczna inteligencja Google'a zyska na popularności dzięki ogromnej bazie urządzeń Apple. Ta dystrybucja ma znaczenie, zwłaszcza w przestrzeni, w której adopcja jest kształtowana przez domyślne ustawienia i wygodę. Nawet jeśli Siri będzie się przełączać między modelami, bycie domyślną opcją w ekosystemie Apple pomoże Google utrzymać centralną pozycję w wyścigu na rynku sztucznej inteligencji dla konsumentów.
Co dzieje się z Meta i planem zablokowania konkurencyjnych chatbotów opartych na sztucznej inteligencji na WhatsApp?
Meta podobno przygotowuje ograniczenia dla konkurencyjnych chatbotów AI w WhatsApp, z których Włochy na razie są wyłączone. Podawanym powodem jest kontrola regulacyjna – Włochy stają się wyjątkiem wielkości kraju, podczas gdy organy regulacyjne przyglądają się temu bliżej. Szersze napięcie dotyczy władzy platformy: czy WhatsApp powinien pozwolić konkurentom „się podłączyć”, czy też Meta AI uzyska preferencyjny dostęp.
Na co zwrócił uwagę rząd Wielkiej Brytanii w kontekście szkód wyrządzanych przez sztuczną inteligencję, takich jak deepfake’i o charakterze seksualnym?
W oświadczeniu podkreślono szkody związane z treściami generowanymi przez sztuczną inteligencję, ze szczególnym uwzględnieniem niechcianych deepfake'ów o charakterze seksualnym. Problem nie został przedstawiony jako odległe, hipotetyczne ryzyko – potraktowano go jako aktualny, poważny problem z konsekwencjami prawnymi i egzekucyjnymi. Takie ujęcie zazwyczaj skupia uwagę na usuwaniu treści, odpowiedzialności platform oraz szybkości wykrywania i usuwania szkodliwych materiałów.
Dlaczego programiści rzadziej korzystają ze Stack Overflow i jaki jest tego skutek?
W artykule autorzy argumentują, że więcej programistów najpierw zadaje pytania LLM, co zmniejsza potrzebę publikowania pytań i oczekiwania na odpowiedzi. Wskazują również na czynnik kulturowy: niektórzy programiści zmęczyli się krytyką za formatowanie lub „niewłaściwe” pytania. Kompromisem jest niezawodność – odpowiedzi na czacie mogą być szybkie, ale halucynacje i niezweryfikowane wskazówki mogą prowadzić do subtelnych błędów, jeśli wyniki nie zostaną zweryfikowane.