Krótka odpowiedź: Programiści korzystający z generatywnej sztucznej inteligencji odpowiadają za cały system, a nie tylko za wyniki modelu. Kiedy sztuczna inteligencja wpływa na decyzje, kod, prywatność lub zaufanie użytkowników, muszą wybierać bezpieczne aplikacje, weryfikować wyniki, chronić dane, ograniczać szkody i zapewniać użytkownikom możliwość przeglądania, pomijania i korygowania błędów.
Najważniejsze wnioski:
Weryfikacja : Traktuj dopracowane wyniki jako niewiarygodne, dopóki nie potwierdzą ich źródła, testy lub recenzja ludzka.
Ochrona danych : Zminimalizuj ilość danych monitujących, usuń identyfikatory, zabezpiecz dzienniki, kontrole dostępu i dostawców.
Sprawiedliwość : Przeprowadź testy obejmujące różne grupy demograficzne i konteksty, aby wykryć stereotypy i nierównomierne wzorce niepowodzeń.
Przejrzystość : wyraźnie oznacz użycie sztucznej inteligencji, wyjaśnij jej ograniczenia i zaproponuj ludzką ocenę lub odwołanie.
Odpowiedzialność : przed uruchomieniem należy jasno określić właścicieli wdrożeń, incydentów, monitorowania i wycofywania zmian.

Artykuły, które mogą Ci się spodobać po przeczytaniu tego:
🔗 Najlepsze narzędzia AI dla programistów: Najlepsi asystenci kodowania z obsługą AI
Porównaj najlepszych asystentów kodowania AI, aby uzyskać szybsze i bardziej przejrzyste procesy programistyczne.
🔗 10 najlepszych narzędzi AI dla programistów, które zwiększają produktywność
Ranking narzędzi AI dla programistów, zapewniających inteligentniejsze i szybsze kodowanie.
🔗 Dlaczego sztuczna inteligencja może być szkodliwa dla społeczeństwa i zaufania
Wyjaśnia realne zagrożenia: uprzedzenia, prywatność, miejsca pracy i ryzyko dezinformacji.
🔗 Czy sztuczna inteligencja posunęła się za daleko w podejmowaniu decyzji o dużej wadze?
Definiuje, kiedy sztuczna inteligencja przekracza granice: inwigilacja, deepfake'i, perswazja, brak zgody.
Dlaczego odpowiedzialność programistów korzystających ze sztucznej inteligencji generatywnej jest ważniejsza, niż ludzie myślą
Wiele błędów w oprogramowaniu jest irytujących. Psuje się jakiś przycisk. Strona ładuje się wolno. Coś się zawiesza i wszyscy jęczą.
Problemy związane ze sztuczną inteligencją generatywną mogą być różne. Mogą być subtelne.
Model może brzmieć pewnie, choć jest błędny. Profil NIST GenAI. Potrafi reprodukować stronniczość bez oczywistych sygnałów ostrzegawczych. Profil NIST GenAI. Może ujawnić poufne dane, jeśli zostanie użyty nieostrożnie. OWASP Top 10 dla aplikacji LLM. Osiem pytań ICO dotyczących generatywnej sztucznej inteligencji. Potrafi generować kod, który działa — dopóki nie zawiedzie w środowisku produkcyjnym w jakiś głęboko żenujący sposób. OWASP Top 10 dla aplikacji LLM. To tak, jakby zatrudnić bardzo entuzjastycznego stażystę, który nigdy nie śpi i od czasu do czasu wymyśla fakty z zadziwiającą pewnością siebie.
Dlatego odpowiedzialność programistów korzystających z generatywnej sztucznej inteligencji jest większa niż prosta implementacja. Programiści nie budują już wyłącznie systemów logicznych. Budują systemy probabilistyczne z rozmytymi krawędziami, nieprzewidywalnymi wynikami i realnymi konsekwencjami społecznymi. NIST AI RMF
Oznacza to, że odpowiedzialność obejmuje:
-
zrozumienie ograniczeń modelu NIST AI RMF
-
ochrona prywatności użytkowników wytyczne ICO dotyczące sztucznej inteligencji i ochrony danych
-
redukcja szkodliwych wyników Profil NIST GenAI
-
sprawdzanie dokładności przed udzieleniem zaufania Profil NIST GenAI
-
jasne określenie roli człowieka Zasady OECD dotyczące sztucznej inteligencji
-
projektowanie ścieżek awaryjnych w przypadku awarii sztucznej inteligencji Zasady OECD dotyczące sztucznej inteligencji Wytyczne NCSC dotyczące bezpiecznej sztucznej inteligencji
-
dokumentowanie systemu w sposób przejrzysty, zgodnie z zasadami OECD dotyczącymi sztucznej inteligencji
Wiesz, jak to jest – kiedy narzędzie wydaje się magiczne, ludzie przestają je kwestionować. Programiści nie mogą sobie pozwolić na taki relaks.
Co sprawia, że odpowiedzialność programistów korzystających ze sztucznej inteligencji generatywnej jest dobra? 🛠️
Dobra wersja odpowiedzialności nie jest performatywna. Nie polega tylko na dodaniu zastrzeżenia na dole i nazwaniu tego etyką. Przejawia się ona w wyborach projektowych, nawykach testowania i zachowaniu produktu.
Oto jak zazwyczaj wygląda odpowiedzialności programistów korzystających ze sztucznej inteligencji generatywnej
-
Celowe użycie NIST AI RMF
-
Sztuczna inteligencja jest wykorzystywana do rozwiązania prawdziwego problemu, a nie wciskana do produktu, bo tak brzmi modnie.
-
-
Nadzór ludzki Zasady OECD dotyczące sztucznej inteligencji
-
Użytkownicy mogą przeglądać, poprawiać, zastępować lub odrzucać wyniki.
-
-
Bezpieczeństwo w projektowaniu – wytyczne NCSC dotyczące bezpiecznej sztucznej inteligencji
-
Kontrole ryzyka wdraża się już na wczesnym etapie, a nie dokleja później.
-
-
Przejrzystość Zasady OECD dotyczące sztucznej inteligencji Przegląd ustawy Komisji Europejskiej o sztucznej inteligencji
-
Użytkownicy wiedzą, kiedy treść jest generowana przez sztuczną inteligencję, a kiedy wspomagana przez sztuczną inteligencję.
-
-
Osiem pytań ICO dotyczących generatywnej sztucznej inteligencji w zakresie opieki nad danymi
-
Informacje wrażliwe są traktowane z ostrożnością, a dostęp do nich jest ograniczony.
-
-
Kontrola uczciwości profilu NIST GenAI Wskazówki ICO dotyczące sztucznej inteligencji i ochrony danych
-
System jest testowany pod kątem stronniczości, nierównomiernego działania i szkodliwych wzorców.
-
-
Ciągły monitoring NIST AI RMF NCSC dotyczących bezpiecznej sztucznej inteligencji
-
Start nie jest metą. To raczej gwizdek startowy.
-
Jeśli to brzmi jak dużo, cóż... tak jest. Ale tak to już jest, gdy pracujesz z technologią, która może wpływać na decyzje, przekonania i zachowania na dużą skalę. Zasady OECD dotyczące sztucznej inteligencji
Tabela porównawcza – podstawowe obowiązki programistów korzystających ze sztucznej inteligencji generatywnej w skrócie 📋
| Obszar odpowiedzialności | Kogo to dotyczy | Codzienna praktyka programistyczna | Dlaczego to ważne |
|---|---|---|---|
| Dokładność i weryfikacja | użytkownicy, zespoły, klienci | Przejrzyj wyniki, dodaj warstwy walidacyjne, przetestuj przypadki brzegowe | Sztuczna inteligencja może działać płynnie, ale nadal być w dużym stopniu błędna – co stanowi dość trudną kombinację profilu NIST GenAI |
| Ochrona prywatności | użytkownicy, klienci, personel wewnętrzny | Minimalizuj użycie poufnych danych, czyść monity, kontroluj dzienniki | Gdy tylko wyciekną prywatne dane, pasta do zębów zniknie z tubki 😬 Osiem pytań ICO dotyczących generatywnej sztucznej inteligencji OWASP Top 10 dla aplikacji LLM |
| Stronniczość i uczciwość | niedoreprezentowane grupy, tak naprawdę wszyscy użytkownicy | Audyt wyników, testowanie różnorodnych danych wejściowych, dostrajanie zabezpieczeń | Szkoda nie zawsze jest głośna – czasami jest systematyczna i cicha. Wytyczne ICO dotyczące sztucznej inteligencji i ochrony danych w profilu NIST GenAI. |
| Bezpieczeństwo | systemy firmowe, użytkownicy | Ogranicz dostęp do modelu, chroń się przed szybkim wstrzyknięciem, testuj ryzykowne działania w piaskownicy | Jeden sprytny atak może szybko zniszczyć zaufanie. OWASP Top 10 dla aplikacji LLM. NCSC na temat sztucznej inteligencji i cyberbezpieczeństwa. |
| Przezroczystość | użytkownicy końcowi, organy regulacyjne, zespoły wsparcia | Jasno oznaczaj zachowania sztucznej inteligencji, wyjaśniaj ograniczenia, dokumentuj użycie | Ludzie zasługują na wiedzę, kiedy maszyna pomaga dobrych praktyk OECD w zakresie oznaczania i etykietowania treści generowanych przez sztuczną inteligencję |
| Odpowiedzialność | właściciele produktów, dział prawny, zespoły programistów | Zdefiniuj własność, obsługę incydentów, ścieżki eskalacji | „To zrobiła sztuczna inteligencja” to nie jest odpowiedź dla dorosłych Zasady OECD dotyczące sztucznej inteligencji |
| Niezawodność | każdy dotykający produktu | Monitoruj awarie, ustawiaj progi ufności, twórz logikę awaryjną | Modele dryfują, zawodzą w nieoczekiwany sposób i od czasu do czasu mają dramatyczny epizod. Wytyczne NIST AI RMF |
| Dobrostan użytkownika | szczególnie narażonych użytkowników | Unikaj manipulacyjnego projektowania, ograniczaj szkodliwe wyniki, przejrzyj przypadki użycia obarczone wysokim ryzykiem | To, że coś można wygenerować, nie oznacza, że powinno to być wytworzone. Zasady OECD AI, NIST AI, RMF |
Trochę nierówna tabela, owszem, ale pasuje do tematu. Prawdziwa odpowiedzialność też jest nierówna.
Odpowiedzialność zaczyna się już przed pierwszym poleceniem – wyborem właściwego przypadku użycia 🎯
Jednym z największych obowiązków twórców oprogramowania jest decyzja, czy w ogóle należy korzystać ze sztucznej inteligencji generatywnej . NIST AI RMF
Brzmi to oczywisto, ale jest stale pomijane. Zespoły widzą model, ekscytują się i zaczynają go wtłaczać do przepływów pracy, które lepiej obsługiwałyby reguły, wyszukiwanie lub zwykła logika oprogramowania. Nie każdy problem wymaga modelu językowego. Niektóre problemy wymagają bazy danych i spokojnego popołudnia.
Przed rozpoczęciem budowy deweloperzy powinni zadać sobie następujące pytania:
-
Czy zadanie jest otwarte czy deterministyczne?
-
Czy nieprawidłowy wynik może spowodować szkodę?
-
Czy użytkownicy potrzebują kreatywności, przewidywania, podsumowania, automatyzacji, a może po prostu szybkości?
-
Czy ludzie będą nadmiernie ufać wynikom? Profil NIST GenAI
-
Czy człowiek może realistycznie ocenić wyniki? Zasady OECD dotyczące sztucznej inteligencji
-
Co się dzieje, gdy model jest błędny? Zasady OECD dotyczące sztucznej inteligencji
Odpowiedzialny deweloper nie pyta tylko: „Czy możemy to zbudować?”. Pyta: „Czy to powinno zostać zbudowane w ten sposób?”. NIST AI RMF
To pytanie samo w sobie zapobiega wielu bzdurom.
Dokładność to odpowiedzialność, a nie dodatkowa funkcja ✅
Powiedzmy sobie jasno – jedną z największych pułapek w generatywnej sztucznej inteligencji jest mylenie elokwencji z prawdą. Modele często generują odpowiedzi, które brzmią dopracowane, ustrukturyzowane i głęboko przekonujące. Co jest piękne, dopóki treść nie stanie się nonsensem opakowanym w pewność siebie. Profil NIST GenAI
Dlatego odpowiedzialność programistów korzystających ze sztucznej inteligencji generatywnej obejmuje tworzenie oprogramowania pod kątem weryfikacji.
To znaczy:
-
korzystając z odzyskiwania lub uziemienia, jeśli to możliwe Profil NIST GenAI
-
oddzielanie wygenerowanej treści od potwierdzonych faktów Zasady OECD dotyczące sztucznej inteligencji
-
ostrożnie dodając progi ufności NIST AI RMF
-
tworzenie przepływów pracy w ramach przeglądu wyników o dużym znaczeniu Zasady OECD dotyczące sztucznej inteligencji
-
zapobieganie improwizacji modelu w kontekstach krytycznych Profil NIST GenAI
-
monity testowe, które próbują złamać lub wprowadzić w błąd system OWASP Top 10 dla aplikacji LLM
Ma to duże znaczenie w takich obszarach jak:
-
opieka zdrowotna
-
finanse
-
przepływy pracy prawne
-
edukacja
-
obsługa klienta
-
automatyzacja przedsiębiorstwa
-
generowanie kodu
Wygenerowany kod, na przykład, może wyglądać schludnie, ukrywając jednocześnie luki w zabezpieczeniach lub błędy logiczne. Programista, który kopiuje go bezmyślnie, nie jest wydajny – po prostu zleca ryzyko na zewnątrz, w ładniejszej formie. OWASP Top 10 dla aplikacji LLM NCSC o sztucznej inteligencji i cyberbezpieczeństwie
Model może pomóc. Deweloper nadal ponosi odpowiedzialność za wynik. Zasady OECD dotyczące sztucznej inteligencji
Prywatność i ochrona danych nie podlegają negocjacjom 🔐
Tutaj sprawy szybko robią się poważne. Systemy generatywnej sztucznej inteligencji (AI) często opierają się na komunikatach, logach, oknach kontekstowych, warstwach pamięci, analityce i infrastrukturze firm trzecich. Stwarza to wiele możliwości wycieku, utrwalenia lub ponownego wykorzystania poufnych danych w sposób, którego użytkownicy się nie spodziewali. Osiem pytań ICO dotyczących generatywnej sztucznej inteligencji (10 najlepszych odpowiedzi OWASP dla aplikacji LLM)
Obowiązkiem programistów jest ochrona:
-
dane osobowe
-
zapisy finansowe
-
szczegóły medyczne
-
wewnętrzne dane firmy
-
tajemnice handlowe
-
tokeny uwierzytelniające
-
komunikacja z klientem
Odpowiedzialne praktyki obejmują:
-
minimalizowanie ilości danych wprowadzanych do modelu Osiem pytań ICO dotyczących generatywnej sztucznej inteligencji
-
maskowanie lub usuwanie identyfikatorów Profil NIST GenAI
-
ograniczenie retencji logów – wytyczne ICO dotyczące sztucznej inteligencji i ochrony danych
-
kontrolowanie, kto może uzyskać dostęp do monitów i wyników OWASP Top 10 dla aplikacji LLM
-
dokładne sprawdzenie ustawień dostawcy, wytyczne NCSC dotyczące bezpieczeństwa sztucznej inteligencji
-
izolowanie przepływów pracy wysokiego ryzyka wytyczne NCSC dotyczące bezpiecznej sztucznej inteligencji
-
Ujawnianie użytkownikom zachowań związanych z prywatnością Osiem pytań ICO dotyczących generatywnej sztucznej inteligencji
To jeden z tych obszarów, w których „zapomnieliśmy o tym pomyśleć” nie jest drobnym błędem. To porażka, która niszczy zaufanie.
A zaufanie, raz nadszarpnięte, rozprzestrzenia się jak rozbite szkło. Może to nie jest najtrafniejsza metafora, ale rozumiesz.
Stronniczość, uczciwość i reprezentacja – cichsze obowiązki ⚖️
Uprzedzenia w generatywnej sztucznej inteligencji rzadko są głównym złem w kreskówce. Zazwyczaj są bardziej nieuchwytne. Model może generować stereotypowe opisy stanowisk, nierówne decyzje moderacyjne, jednostronne rekomendacje lub kulturowo ograniczone założenia, nie wzbudzając przy tym oczywistych obaw. Profil NIST GenAI
Dlatego też odpowiedzialność programistów wykorzystujących Generative AI obejmuje aktywną pracę na rzecz uczciwości.
Programiści powinni:
-
monity testowe z różnych danych demograficznych i kontekstów Profil NIST GenAI
-
przejrzyj wyniki pod kątem stereotypów i wykluczeń NIST GenAI Profile
-
uwzględnianie różnych perspektyw podczas oceny NIST AI RMF
-
obserwuj nierównomierne wzorce awarii NIST GenAI Profile
-
nie zakładaj, że jeden styl językowy lub norma kulturowa pasuje do wszystkich. Wytyczne ICO dotyczące sztucznej inteligencji i ochrony danych
-
tworzenie kanałów zgłaszania szkodliwych danych wyjściowych NIST AI RMF
System może wydawać się ogólnie sprawny, podczas gdy konsekwentnie obsługuje niektórych użytkowników gorzej niż innych. To niedopuszczalne tylko dlatego, że średnia wydajność wygląda dobrze na pulpicie. Wskazówki ICO dotyczące sztucznej inteligencji i ochrony danych – profil NIST GenAI
I tak, uczciwość jest trudniejsza niż schludna lista kontrolna. Zawiera w sobie osąd. Kontekst. Kompromisy. A także pewną dozę dyskomfortu. Ale to nie zwalnia z odpowiedzialności – wręcz ją potwierdza. Wytyczne ICO dotyczące sztucznej inteligencji i ochrony danych
Bezpieczeństwo jest teraz częściowo kwestią szybkiego projektowania, a częściowo dyscypliny inżynieryjnej 🧱
Bezpieczeństwo generatywnej sztucznej inteligencji to osobliwa sprawa. Tradycyjne bezpieczeństwo aplikacji nadal ma znaczenie, oczywiście, ale systemy sztucznej inteligencji stwarzają nietypowe możliwości ataku: natychmiastowe wstrzykiwanie danych, pośrednia manipulacja natychmiastowa, niebezpieczne użycie narzędzi, eksfiltracja danych poprzez kontekst oraz niewłaściwe wykorzystanie modeli poprzez zautomatyzowane przepływy pracy. OWASP Top 10 dla aplikacji LLM NCSC o sztucznej inteligencji i cyberbezpieczeństwie
Deweloperzy odpowiadają za zabezpieczenie całego systemu, a nie tylko interfejsu. Wytyczne NCSC dotyczące bezpieczeństwa sztucznej inteligencji
Do kluczowych obowiązków należą:
-
dezynfekcja niezaufanych danych wejściowych OWASP Top 10 dla aplikacji LLM
-
ograniczenie narzędzi, które model może wywołać w OWASP Top 10 dla aplikacji LLM
-
Ograniczanie dostępu do plików i sieci – wytyczne NCSC dotyczące bezpiecznej sztucznej inteligencji
-
wyraźne rozdzielenie uprawnień zgodnie z wytycznymi NCSC dotyczącymi bezpiecznej sztucznej inteligencji
-
monitorowanie wzorców nadużyć wytyczne NCSC dotyczące bezpiecznej sztucznej inteligencji
-
ograniczanie szybkości kosztownych lub ryzykownych działań OWASP Top 10 dla aplikacji LLM
-
testowanie komunikatów adwersarskich OWASP Top 10 dla aplikacji LLM
-
budowanie bezpiecznych rozwiązań awaryjnych w przypadku konfliktu instrukcji Zasady OECD dotyczące sztucznej inteligencji
Jedną z niewygodnych prawd jest to, że użytkownicy – i atakujący – z pewnością spróbują rzeczy, których programiści się nie spodziewali. Niektórzy z ciekawości, inni ze złej woli, a jeszcze inni dlatego, że kliknęli coś nie tak o 2 w nocy. To się zdarza.
Bezpieczeństwo w przypadku sztucznej inteligencji generatywnej przypomina bardziej zarządzanie gadatliwym strażnikiem, który czasem daje się nabrać na sformułowania, niż budowanie muru.
Przejrzystość i zgoda użytkownika są ważniejsze niż efektowne UX 🗣️
Użytkownicy wchodzący w interakcję ze sztuczną inteligencją powinni o tym wiedzieć. Kodeks postępowania OECD w zakresie sztucznej inteligencji
Nie mgliście. Nie zagrzebane w terminach. Wyraźnie.
Podstawową odpowiedzialnością programistów korzystających ze sztucznej inteligencji generatywnej jest upewnienie się, że użytkownicy rozumieją:
-
kiedy sztuczna inteligencja jest wykorzystywana Zasady OECD dotyczące sztucznej inteligencji
-
Co sztuczna inteligencja może, a czego nie może zrobić Zasady OECD dotyczące sztucznej inteligencji
-
czy wyniki są sprawdzane przez ludzi Zasady OECD dotyczące sztucznej inteligencji
-
Jak przetwarzane są ich dane? Osiem pytań ICO dotyczących generatywnej sztucznej inteligencji
-
jaki poziom zaufania powinni mieć NIST AI RMF
-
Jak zgłaszać problemy lub odwoływać się od decyzji Zasady OECD AI NIST AI RMF
Przejrzystość nie polega na straszeniu użytkowników. Chodzi o ich szacunek.
Dobra przejrzystość może obejmować:
-
etykiety, takie jak Kodeks postępowania dotyczący oznaczania i etykietowania treści generowanych
-
wyjaśnienia w języku prostym Zasady OECD dotyczące sztucznej inteligencji
-
widoczne historie edycji, jeśli to istotne
-
opcje wyłączania funkcji AI
-
eskalacja do człowieka, gdy jest to konieczne Zasady OECD dotyczące sztucznej inteligencji
-
zwięzłe ostrzeżenia dotyczące zadań wysokiego ryzyka Przegląd ustawy Komisji Europejskiej o sztucznej inteligencji
Wiele zespołów produktowych obawia się, że szczerość sprawi, że funkcja będzie mniej magiczna. Być może. Ale fałszywa pewność jest gorsza. Płynny interfejs, który ukrywa ryzyko, to w zasadzie wypolerowane zamieszanie.
Deweloperzy pozostają odpowiedzialni – nawet gdy model „decyduje” 👀
Ta część jest niezwykle istotna. Odpowiedzialność nie może zostać przerzucona na dostawcę modelu, kartę modelu, szablon komunikatu ani tajemniczą atmosferę uczenia maszynowego. Zasady OECD dotyczące sztucznej inteligencji (AI ) NIST AI RMF
Deweloperzy nadal ponoszą odpowiedzialność. Zasady OECD dotyczące sztucznej inteligencji
Oznacza to, że ktoś w zespole powinien posiadać:
-
wybór modelu NIST AI RMF
-
standardy testowania NIST GenAI Profile
-
kryteria wydania profilu NIST GenAI
-
wytyczne NCSC dotyczące reagowania na incydenty
-
obsługa skarg użytkowników NIST AI RMF
-
procedury wycofywania zasad OECD AI
-
śledzenie zmian Zasady OECD dotyczące sztucznej inteligencji
-
dokumentacja Zasad OECD dotyczących sztucznej inteligencji
Powinny istnieć jasne odpowiedzi na pytania takie jak:
-
Kto zatwierdza wdrożenie? Profil NIST GenAI
-
Kto analizuje incydenty związane ze szkodliwym wyjściem? Profil NIST GenAI
-
Kto może wyłączyć tę funkcję? Zasady OECD dotyczące sztucznej inteligencji
-
Kto monitoruje regresje? NIST AI RMF
-
Kto komunikuje się z użytkownikami, gdy coś się zepsuje? Zasady OECD dotyczące sztucznej inteligencji
Bez poczucia własności odpowiedzialność zamienia się w mgłę. Każdy zakłada, że ktoś inny się tym zajmuje... a potem nikt tego nie robi.
Tak naprawdę ten schemat jest starszy niż sztuczna inteligencja. Sztuczna inteligencja po prostu sprawia, że jest on bardziej niebezpieczny.
Odpowiedzialni programiści budują z myślą o poprawkach, a nie perfekcji 🔄
Oto mały haczyk w tym wszystkim: odpowiedzialny rozwój sztucznej inteligencji nie polega na udawania, że system będzie idealny. Chodzi o założenie, że w jakiś sposób zawiedzie i projektowanie z uwzględnieniem tej rzeczywistości. NIST AI RMF
Oznacza to tworzenie produktów, które są:
-
audytowalne zasady OECD dotyczące sztucznej inteligencji
-
decyzje i wyniki można później przejrzeć
-
-
przerywalne zasady OECD dotyczące sztucznej inteligencji
-
ludzie mogą zatrzymać lub zniwelować złe zachowanie
-
-
odzyskiwalne zasady OECD dotyczące sztucznej inteligencji
-
istnieje rozwiązanie awaryjne, gdy dane wyjściowe AI są błędne
-
-
monitorowalne wytyczne NCSC dotyczące bezpiecznej sztucznej inteligencji NIST AI RMF
-
zespoły potrafią dostrzegać wzorce zanim staną się katastrofami
-
-
ulepszony profil NIST GenAI
-
istnieją pętle sprzężenia zwrotnego i ktoś je odczytuje
-
Tak wygląda dojrzałość. Nie błyszczące dema. Nie zapierające dech w piersiach teksty marketingowe. Prawdziwe systemy, z zabezpieczeniami, rejestrami, odpowiedzialnością i wystarczającą pokorą, by przyznać, że maszyna nie jest czarodziejem. Wytyczne NCSC dotyczące bezpiecznej sztucznej inteligencji Zasady OECD dotyczące sztucznej inteligencji
Bo tak nie jest. To narzędzie. Potężne, owszem. Ale wciąż narzędzie.
Końcowa refleksja na temat odpowiedzialności programistów korzystających ze sztucznej inteligencji generatywnej 🌍
Jaka jest zatem odpowiedzialność programistów korzystających ze sztucznej inteligencji generatywnej ?
Chodzi o to, by budować z dbałością. Kwestionować, gdzie system pomaga, a gdzie szkodzi. Chronić prywatność. Testować pod kątem stronniczości. Weryfikować wyniki. Zabezpieczać przepływ pracy. Być transparentnym wobec użytkowników. Zapewnić ludziom istotną kontrolę. Ponosić odpowiedzialność, gdy coś pójdzie nie tak. NIST AI RMF OECD AI Principles
Może to brzmieć ciężko – i tak właśnie jest. Ale to właśnie odróżnia przemyślany rozwój od lekkomyślnej automatyzacji.
Najlepsi programiści korzystający z generatywnej sztucznej inteligencji to nie ci, którzy sprawiają, że model wykonuje najwięcej trików. To ci, którzy rozumieją konsekwencje tych trików i odpowiednio projektują. Wiedzą, że szybkość ma znaczenie, ale prawdziwym produktem jest zaufanie. Co ciekawe, ta staromodna idea wciąż się sprawdza. NIST AI RMF
Ostatecznie odpowiedzialność nie jest przeszkodą dla innowacji. To ona powstrzymuje innowację przed przekształceniem się w kosztowny, burzliwy proces z dopracowanym interfejsem i brakiem pewności siebie 😬✨
A może to jest najprostsza wersja.
Buduj śmiało, jasne – ale buduj tak, jakby to mogło dotknąć ludzi, bo tak jest. Zasady OECD dotyczące sztucznej inteligencji
Często zadawane pytania
Jaka jest odpowiedzialność programistów wykorzystujących w praktyce sztuczną inteligencję generatywną?
Odpowiedzialność programistów korzystających ze sztucznej inteligencji generatywnej wykracza daleko poza szybkie wdrażanie funkcji. Obejmuje ona wybór odpowiedniego przypadku użycia, testowanie wyników, ochronę prywatności, ograniczanie szkodliwych zachowań i uczynienie systemu zrozumiałym dla użytkowników. W praktyce programiści pozostają odpowiedzialni za sposób projektowania, monitorowania, korygowania i zarządzania narzędziem w przypadku awarii.
Dlaczego sztuczna inteligencja generatywna wymaga od programistów większej odpowiedzialności niż zwykłe oprogramowanie?
Tradycyjne błędy są często oczywiste, ale błędy generatywnej sztucznej inteligencji mogą wydawać się dopracowane, a jednocześnie być błędne, stronnicze lub ryzykowne. To utrudnia wykrycie problemów i ułatwia użytkownikom zaufanie przez pomyłkę. Deweloperzy pracują z systemami probabilistycznymi, więc ich odpowiedzialność obejmuje radzenie sobie z niepewnością, ograniczanie szkód i przygotowanie się na nieprzewidywalne rezultaty przed premierą.
Skąd programiści wiedzą, kiedy nie należy stosować sztucznej inteligencji generatywnej?
Typowym punktem wyjścia jest pytanie, czy zadanie jest otwarte, czy też lepiej jest je rozwiązać za pomocą reguł, wyszukiwania lub standardowej logiki oprogramowania. Programiści powinni również rozważyć, jak duże szkody może spowodować błędna odpowiedź i czy człowiek może realistycznie przeanalizować wyniki. Odpowiedzialne korzystanie czasami oznacza decyzję o całkowitym zrezygnowaniu z generatywnej sztucznej inteligencji.
W jaki sposób programiści mogą ograniczyć halucynacje i liczbę błędnych odpowiedzi w generatywnych systemach sztucznej inteligencji?
Dokładność musi być wbudowana, a nie zakładana. W wielu procesach oznacza to oparcie wyników na wiarygodnych źródłach, oddzielenie wygenerowanego tekstu od zweryfikowanych faktów oraz stosowanie procedur weryfikacji w przypadku zadań o podwyższonym ryzyku. Programiści powinni również testować monity mające na celu dezorientację lub wprowadzenie systemu w błąd, szczególnie w obszarach takich jak kodowanie, wsparcie, finanse, edukacja i opieka zdrowotna.
Jaka jest odpowiedzialność programistów wykorzystujących sztuczną inteligencję generatywną w zakresie prywatności i ochrony poufnych danych?
Obowiązkiem programistów korzystających z generatywnej sztucznej inteligencji jest minimalizowanie ilości danych wprowadzanych do modelu oraz traktowanie monitów, logów i wyników jako poufnych. Programiści powinni usuwać identyfikatory, gdzie to możliwe, ograniczać retencję, kontrolować dostęp i dokładnie sprawdzać ustawienia dostawcy. Użytkownicy powinni również być w stanie zrozumieć, jak przetwarzane są ich dane, zamiast odkrywać ryzyko dopiero później.
W jaki sposób programiści powinni radzić sobie z kwestiami stronniczości i uczciwości w generatywnych wynikach sztucznej inteligencji?
Praca nad uprzedzeniami wymaga aktywnej oceny, a nie założeń. Praktycznym podejściem jest testowanie podpowiedzi w różnych grupach demograficznych, językach i kontekstach, a następnie analiza wyników pod kątem stereotypów, wykluczeń lub nierównomiernych wzorców błędów. Programiści powinni również zapewnić użytkownikom lub zespołom możliwość zgłaszania szkodliwych zachowań, ponieważ system może wydawać się ogólnie silny, a mimo to konsekwentnie zawodzić określone grupy.
O jakich zagrożeniach bezpieczeństwa muszą pamiętać deweloperzy korzystający ze sztucznej inteligencji generatywnej?
Sztuczna inteligencja generatywna wprowadza nowe powierzchnie ataków, takie jak szybkie wstrzykiwanie kodu, niebezpieczne użycie narzędzi, wyciek danych poprzez kontekst oraz nadużywanie zautomatyzowanych działań. Programiści powinni oczyszczać dane wprowadzane przez osoby o wątpliwym pochodzeniu, ograniczać uprawnienia narzędzi, ograniczać dostęp do plików i sieci oraz monitorować wzorce nadużyć. Bezpieczeństwo nie dotyczy tylko interfejsu; dotyczy całego procesu roboczego wokół modelu.
Dlaczego przejrzystość jest ważna przy tworzeniu rozwiązań z wykorzystaniem sztucznej inteligencji generatywnej?
Użytkownicy powinni jasno wiedzieć, kiedy w grę wchodzi sztuczna inteligencja, co potrafi i gdzie są jej ograniczenia. Dobra transparentność może obejmować oznaczenia takie jak „wygenerowane przez sztuczną inteligencję” lub „wspomagane przez sztuczną inteligencję”, proste wyjaśnienia i jasne ścieżki do wsparcia technicznego. Taka szczerość nie osłabia produktu, a pomaga użytkownikom budować zaufanie i podejmować lepsze decyzje.
Kto ponosi odpowiedzialność, gdy funkcja sztucznej inteligencji wyrządzi szkodę lub spowoduje jakiś błąd?
Deweloperzy i zespoły produktowe nadal odpowiadają za wynik, nawet gdy model generuje odpowiedź. Oznacza to, że powinna istnieć wyraźna odpowiedzialność za zatwierdzanie wdrożeń, obsługę incydentów, wycofywanie zmian, monitorowanie i komunikację z użytkownikami. „Decyzja modelu” nie wystarczy, ponieważ odpowiedzialność musi pozostać po stronie osób, które zaprojektowały i uruchomiły system.
Jak będzie wyglądał odpowiedzialny rozwój sztucznej inteligencji generatywnej po jej wprowadzeniu na rynek?
Odpowiedzialny rozwój jest kontynuowany po wydaniu poprzez monitorowanie, informacje zwrotne, przegląd i korekty. Silne systemy są audytowalne, możliwe do przerwania, przywracalne i zaprojektowane z uwzględnieniem ścieżek awaryjnych na wypadek awarii sztucznej inteligencji. Celem nie jest perfekcja, lecz zbudowanie czegoś, co można bezpiecznie badać, ulepszać i dostosowywać w miarę pojawiania się rzeczywistych problemów.
Odniesienia
-
Narodowy Instytut Norm i Technologii (NIST) – Profil NIST GenAI – nvlpubs.nist.gov
-
OWASP – OWASP Top 10 dla aplikacji LLM – owasp.org
-
Biuro Komisarza ds. Informacji (ICO) – osiem pytań ICO dotyczących generatywnej sztucznej inteligencji – ico.org.uk