🏗️ USA nakłaniają firmy do stworzenia nowego „kompaktu” dla centrów danych AI – donosi Politico ↗
Jak donoszą źródła, Stany Zjednoczone próbują nakłonić duże firmy do podpisania nowego „porozumienia” dotyczącego centrów danych AI – w zasadzie pakietu zobowiązań dotyczących sposobu obsługi tych ogromnych zasobów obliczeniowych.
Szczegóły są wciąż nieco niejasne (klasyka), ale kierunek wydaje się znajomy: ujednolicenie oczekiwań dotyczących energii, bezpieczeństwa i ewentualnie także raportowania - uprzejma wersja polityki mówiąca: „proszę, nie pozwól, aby to zamieniło się w chaos”
🎬 Google pozwane przez Autodesk za oprogramowanie do tworzenia filmów oparte na sztucznej inteligencji ↗
Autodesk pozywa Google z powodu nazwy „Flow”, twierdząc, że firma już używała nazwy „Flow” w oprogramowaniu do produkcji i zarządzania efektami wizualnymi, a narzędzie Google do tworzenia filmów oparte na sztucznej inteligencji pojawiło się pod tą samą nazwą.
Bardziej dosadnym szczegółem jest zarzut, że Google wcześniej sugerowało, że nie skomercjalizuje tej nazwy… a potem mimo to starało się o prawa do znaków towarowych. To oczywiście walka o znaki towarowe, ale niesie ze sobą również energię małej skali w stylu „duża platforma kontra specjalistyczny producent narzędzi”.
🏥 Badania pokazują, że sztuczna inteligencja nie jest lepsza od innych metod leczenia pacjentów poszukujących porady lekarskiej ↗
Nowe badanie wykazało, że wykorzystanie sztucznej inteligencji do udzielania pacjentom porad medycznych nie przewyższyło innych podejść, co nie wydaje się zaskakujące i raczej uspokajające, w zależności od tego, jak uważnie przyglądałeś się narzędziom do sprawdzania objawów.
Nie oznacza to, że sztuczna inteligencja jest bezużyteczna w opiece zdrowotnej – ale opcja „zapytaj bota” nie jest automatycznie ulepszeniem istniejących opcji, zwłaszcza gdy liczą się przede wszystkim dokładność i bezpieczeństwo.
🩺 Aplikacje i boty oparte na sztucznej inteligencji wkraczają do medycyny. Lekarze mają pytania. ↗
Śledztwo ma na celu zbadanie, w jaki sposób aplikacje medyczne oparte na sztucznej inteligencji i chatboty wkraczają do przestrzeni klinicznej – czasami szybciej, niż nadążają za tym wytyczne, nadzór lub zwykłe dowody.
Lekarze mają wątpliwości co do wiarygodności, zagrożenia dla pacjentów i tego, kto ponosi odpowiedzialność, gdy bot udziela porad, które brzmią pewnie, ale są błędne... niczym nawigacja satelitarna nakazująca wjechać do jeziora, ale z lekami.
📈 Dyrektor generalny OpenAI twierdzi, że ChatGPT powrócił do wzrostu miesięcznego o ponad 10%, donosi CNBC ↗
Dyrektor generalny OpenAI podobno powiedział, że ChatGPT powrócił do wzrostu miesięcznego na poziomie ponad 10% - co jest dużym osiągnięciem, jeśli założymy, że faza „wszyscy już tego próbowali” osiągnęła już szczyt.
Sugeruje to, że albo nowi użytkownicy wciąż napływają, albo obecni użytkownicy znajdują coraz więcej powodów, by zostać – albo jedno i drugie. Tak czy inaczej, produkt zachowuje się mniej jak chwilowa moda, a bardziej jak infrastruktura… a przynajmniej tak się wydaje.
Często zadawane pytania
Na czym polega proponowany przez USA „kompakt” w zakresie centrów danych AI?
Opisuje się go jako pakiet zobowiązań, które duże firmy musiałyby zaakceptować, budując lub obsługując duże centra danych AI. Celem jest ujednolicenie oczekiwań, aby te ogromne projekty obliczeniowe nie stały się rozproszone ani niespójne w różnych firmach. Chociaż szczegóły wciąż brzmią niejasno, nacisk wydaje się leżeć na praktycznych aspektach: zużyciu energii, bezpieczeństwie i ewentualnie jakiejś formie raportowania.
Dlaczego Stany Zjednoczone chciałyby, aby firmy podpisały porozumienie w sprawie centrów danych AI?
Porozumienie może ustanowić wspólne oczekiwania bazowe bez zmuszania prawodawców do opracowywania nowych przepisów dla każdego skrajnego przypadku. Wraz z szybkim rozwojem centrów danych AI, decydenci często martwią się o wpływ na sieć, zagrożenia dla bezpieczeństwa i przejrzystość operacyjną. Powszechną strategią jest wczesne koordynacja działań największych graczy, aby zapewnić szybsze rozprzestrzenianie się sprawdzonych praktyk i łatwiejsze ustalenie odpowiedzialności w przypadku wystąpienia problemów.
Jakie rodzaje zobowiązań można uwzględnić w umowie o centrum danych AI?
W oparciu o przedstawione propozycje, zobowiązania mogłyby obejmować planowanie energetyczne (sposób pozyskiwania i zarządzania energią), środki bezpieczeństwa (fizycznego i cybernetycznego) oraz jakąś formę raportowania lub ujawniania informacji. W wielu procesach raportowanie staje się warstwą „łatwego egzekwowania”, która sprawia, że standardy są czytelne i mierzalne. Jeśli porozumienie ma charakter dobrowolny, zobowiązania te mogą zostać sformułowane jako wytyczne, które później pomogą w kształtowaniu regulacji.
Czym jest pozew dotyczący narzędzia Google’a do tworzenia filmów opartego na sztucznej inteligencji o nazwie „Flow”?
Autodesk pozywa Google w związku z nazwą „Flow”, argumentując, że Autodesk już używał jej w oprogramowaniu do produkcji i zarządzania efektami wizualnymi. Spór jest przedstawiany jako konflikt między znakiem towarowym a marką, a Google wcześniej sugerowało, że nie będzie komercjalizować tej nazwy, ale później i tak starało się o prawa do znaków towarowych. W takich sprawach często decydujące znaczenie ma priorytet marki i prawdopodobieństwo pomyłki.
Co to znaczy, że sztuczna inteligencja nie jest lepsza od innych metod udzielania pacjentom porad medycznych?
Sugeruje to, że metoda „zapytaj bota” nie jest automatycznie dokładniejsza ani bezpieczniejsza niż istniejące sposoby szukania porady przez pacjentów. Może to być uspokajające, jeśli obawiasz się zbyt pewnych siebie odpowiedzi ze strony systemów weryfikujących objawy lub chatbotów. Nie wyklucza to potencjalnej wartości sztucznej inteligencji w opiece zdrowotnej, ale podkreśla potrzebę dowodów, nadzoru i starannej integracji, gdzie błędy mogą wyrządzić krzywdę.
Dlaczego lekarze mają obawy dotyczące aplikacji medycznych i chatbotów opartych na sztucznej inteligencji?
Lekarze martwią się o niezawodność, szkody wyrządzone pacjentom i o to, kto ponosi odpowiedzialność, gdy narzędzie udziela pewnych, ale błędnych porad. Obawy dotyczą nie tylko dokładności, ale także tego, jak pacjenci interpretują wyniki i czy system nie skłania ich do niebezpiecznego samoleczenia. W warunkach klinicznych niejasność dotycząca odpowiedzialności może stać się poważnym zagrożeniem: pacjenci mogą ufać narzędziu, lekarze mogą nie mieć nad nim kontroli, a porady mogą nie być wdrażane w odpowiednim tempie.