🛑 Google DeepMind ostrzega przed sztuczną inteligencją odporną na wyłączanie
DeepMind po cichu zmodyfikował swoją platformę Frontier Safety Framework, dodając dwa nowe „poziomy krytycznej zdolności”. Nowe flagi? Modele, które odmawiają wyłączenia lub opierają się modyfikacji, a także inne, które są zbyt przekonujące , by czuć się komfortowo. Oba zachowania znajdują się teraz w grupie wysokiego ryzyka i wymagają wzmożonej obserwacji.
🔗 Czytaj więcej
🖼 MIT wdraża SCIGEN, aby tworzyć niezwykłe materiały
Zespół z MIT zaprezentował SCIGEN, system, który nakłania generatywną sztuczną inteligencję do przestrzegania zasad projektowania zamiast rzucania przypadkowymi domysłami. Rezultat: pomysły na nowe materiały o właściwościach takich jak nadprzewodnictwo czy dziwny magnetyzm. Pomyśl o tym mniej jak o brutalnej sile, a bardziej jak o sterowaniu wyobraźnią sztucznej inteligencji w linii prostej.
🔗 Czytaj więcej
🌐 Perplexity wprowadza przeglądarkę Comet do Indii
Startup Perplexity, zajmujący się wyszukiwaniem opartym na sztucznej inteligencji, uruchomił w Indiach (22 września) przeglądarkę Comet dla subskrybentów Pro. To w połowie standardowa przeglądarka, w połowie asystent – w pewnym sensie zaciera granicę między surfowaniem po sieci a otrzymywaniem natychmiastowych odpowiedzi przygotowanych przez maszynę.
🔗 Czytaj więcej
🏛 Brytyjski sędzia otwarcie wykorzystał sztuczną inteligencję do skrócenia akt sprawy
W sądzie podatkowym brytyjski sędzia przyznał się do wykorzystania narzędzia Microsoft Copilot do analizy pism procesowych. Wyraźnie zaznaczył, że uzasadnienie i werdykt pozostały jego autorstwa – ale i tak stanowi to mały precedens w brytyjskich sądach.
🔗 Czytaj więcej
📊 Miliardy wpompowane w fizyczny szkielet sztucznej inteligencji
Meta, Microsoft, Google… wszyscy inwestują ogromne sumy w centra danych, energochłonne układy scalone i systemy chłodzenia, żeby utrzymać w ruchu silniki sztucznej inteligencji. Nawet mniejsze stany USA (na przykład New Hampshire) kuszą modernizacją sieci energetycznych, aby przyciągnąć ten kapitał.
🔗 Czytaj więcej
🌍 Coraz głośniej mówi się o globalnych „czerwonych liniach” sztucznej inteligencji
Ponad 200 naukowców i polityków wspólnie apelowało o wprowadzenie międzynarodowych przepisów dotyczących sztucznej inteligencji do 2026 roku. Domagają się zakazów w skrajnych przypadkach – takich jak powiązanie sztucznej inteligencji z bronią jądrową, szeroko zakrojony nadzór i inne koszmarne scenariusze. W skrócie: ustal granice, zanim sprawy zajdą za daleko.
🔗 Czytaj więcej