Jaka jest odpowiedzialność programistów korzystających ze sztucznej inteligencji generatywnej?

Jaka jest odpowiedzialność programistów korzystających ze sztucznej inteligencji generatywnej?

Krótka odpowiedź: Programiści korzystający z generatywnej sztucznej inteligencji odpowiadają za cały system, a nie tylko za wyniki modelu. Kiedy sztuczna inteligencja wpływa na decyzje, kod, prywatność lub zaufanie użytkowników, muszą wybierać bezpieczne aplikacje, weryfikować wyniki, chronić dane, ograniczać szkody i zapewniać użytkownikom możliwość przeglądania, pomijania i korygowania błędów.

Najważniejsze wnioski:

Weryfikacja : Traktuj dopracowane wyniki jako niewiarygodne, dopóki nie potwierdzą ich źródła, testy lub recenzja ludzka.

Ochrona danych : Zminimalizuj ilość danych monitujących, usuń identyfikatory, zabezpiecz dzienniki, kontrole dostępu i dostawców.

Sprawiedliwość : Przeprowadź testy obejmujące różne grupy demograficzne i konteksty, aby wykryć stereotypy i nierównomierne wzorce niepowodzeń.

Przejrzystość : wyraźnie oznacz użycie sztucznej inteligencji, wyjaśnij jej ograniczenia i zaproponuj ludzką ocenę lub odwołanie.

Odpowiedzialność : przed uruchomieniem należy jasno określić właścicieli wdrożeń, incydentów, monitorowania i wycofywania zmian.

Jaka jest odpowiedzialność programistów korzystających ze sztucznej inteligencji generatywnej? Infografika

Artykuły, które mogą Ci się spodobać po przeczytaniu tego:

🔗 Najlepsze narzędzia AI dla programistów: Najlepsi asystenci kodowania z obsługą AI
Porównaj najlepszych asystentów kodowania AI, aby uzyskać szybsze i bardziej przejrzyste procesy programistyczne.

🔗 10 najlepszych narzędzi AI dla programistów, które zwiększają produktywność
Ranking narzędzi AI dla programistów, zapewniających inteligentniejsze i szybsze kodowanie.

🔗 Dlaczego sztuczna inteligencja może być szkodliwa dla społeczeństwa i zaufania
Wyjaśnia realne zagrożenia: uprzedzenia, prywatność, miejsca pracy i ryzyko dezinformacji.

🔗 Czy sztuczna inteligencja posunęła się za daleko w podejmowaniu decyzji o dużej wadze?
Definiuje, kiedy sztuczna inteligencja przekracza granice: inwigilacja, deepfake'i, perswazja, brak zgody.

Dlaczego odpowiedzialność programistów korzystających ze sztucznej inteligencji generatywnej jest ważniejsza, niż ludzie myślą

Wiele błędów w oprogramowaniu jest irytujących. Psuje się jakiś przycisk. Strona ładuje się wolno. Coś się zawiesza i wszyscy jęczą.

Problemy związane ze sztuczną inteligencją generatywną mogą być różne. Mogą być subtelne.

Model może brzmieć pewnie, choć jest błędny. Profil NIST GenAI. Potrafi reprodukować stronniczość bez oczywistych sygnałów ostrzegawczych. Profil NIST GenAI. Może ujawnić poufne dane, jeśli zostanie użyty nieostrożnie. OWASP Top 10 dla aplikacji LLM. Osiem pytań ICO dotyczących generatywnej sztucznej inteligencji. Potrafi generować kod, który działa — dopóki nie zawiedzie w środowisku produkcyjnym w jakiś głęboko żenujący sposób. OWASP Top 10 dla aplikacji LLM. To tak, jakby zatrudnić bardzo entuzjastycznego stażystę, który nigdy nie śpi i od czasu do czasu wymyśla fakty z zadziwiającą pewnością siebie.

Dlatego odpowiedzialność programistów korzystających z generatywnej sztucznej inteligencji jest większa niż prosta implementacja. Programiści nie budują już wyłącznie systemów logicznych. Budują systemy probabilistyczne z rozmytymi krawędziami, nieprzewidywalnymi wynikami i realnymi konsekwencjami społecznymi. NIST AI RMF

Oznacza to, że odpowiedzialność obejmuje:

Wiesz, jak to jest – kiedy narzędzie wydaje się magiczne, ludzie przestają je kwestionować. Programiści nie mogą sobie pozwolić na taki relaks.

Co sprawia, że ​​odpowiedzialność programistów korzystających ze sztucznej inteligencji generatywnej jest dobra? 🛠️

Dobra wersja odpowiedzialności nie jest performatywna. Nie polega tylko na dodaniu zastrzeżenia na dole i nazwaniu tego etyką. Przejawia się ona w wyborach projektowych, nawykach testowania i zachowaniu produktu.

Oto jak zazwyczaj wygląda odpowiedzialności programistów korzystających ze sztucznej inteligencji generatywnej

Jeśli to brzmi jak dużo, cóż... tak jest. Ale tak to już jest, gdy pracujesz z technologią, która może wpływać na decyzje, przekonania i zachowania na dużą skalę. Zasady OECD dotyczące sztucznej inteligencji

Tabela porównawcza – podstawowe obowiązki programistów korzystających ze sztucznej inteligencji generatywnej w skrócie 📋

Obszar odpowiedzialności Kogo to dotyczy Codzienna praktyka programistyczna Dlaczego to ważne
Dokładność i weryfikacja użytkownicy, zespoły, klienci Przejrzyj wyniki, dodaj warstwy walidacyjne, przetestuj przypadki brzegowe Sztuczna inteligencja może działać płynnie, ale nadal być w dużym stopniu błędna – co stanowi dość trudną kombinację profilu NIST GenAI
Ochrona prywatności użytkownicy, klienci, personel wewnętrzny Minimalizuj użycie poufnych danych, czyść monity, kontroluj dzienniki Gdy tylko wyciekną prywatne dane, pasta do zębów zniknie z tubki 😬 Osiem pytań ICO dotyczących generatywnej sztucznej inteligencji OWASP Top 10 dla aplikacji LLM
Stronniczość i uczciwość niedoreprezentowane grupy, tak naprawdę wszyscy użytkownicy Audyt wyników, testowanie różnorodnych danych wejściowych, dostrajanie zabezpieczeń Szkoda nie zawsze jest głośna – czasami jest systematyczna i cicha. Wytyczne ICO dotyczące sztucznej inteligencji i ochrony danych w profilu NIST GenAI.
Bezpieczeństwo systemy firmowe, użytkownicy Ogranicz dostęp do modelu, chroń się przed szybkim wstrzyknięciem, testuj ryzykowne działania w piaskownicy Jeden sprytny atak może szybko zniszczyć zaufanie. OWASP Top 10 dla aplikacji LLM. NCSC na temat sztucznej inteligencji i cyberbezpieczeństwa.
Przezroczystość użytkownicy końcowi, organy regulacyjne, zespoły wsparcia Jasno oznaczaj zachowania sztucznej inteligencji, wyjaśniaj ograniczenia, dokumentuj użycie Ludzie zasługują na wiedzę, kiedy maszyna pomaga dobrych praktyk OECD w zakresie oznaczania i etykietowania treści generowanych przez sztuczną inteligencję
Odpowiedzialność właściciele produktów, dział prawny, zespoły programistów Zdefiniuj własność, obsługę incydentów, ścieżki eskalacji „To zrobiła sztuczna inteligencja” to nie jest odpowiedź dla dorosłych Zasady OECD dotyczące sztucznej inteligencji
Niezawodność każdy dotykający produktu Monitoruj awarie, ustawiaj progi ufności, twórz logikę awaryjną Modele dryfują, zawodzą w nieoczekiwany sposób i od czasu do czasu mają dramatyczny epizod. Wytyczne NIST AI RMF
Dobrostan użytkownika szczególnie narażonych użytkowników Unikaj manipulacyjnego projektowania, ograniczaj szkodliwe wyniki, przejrzyj przypadki użycia obarczone wysokim ryzykiem To, że coś można wygenerować, nie oznacza, że ​​powinno to być wytworzone. Zasady OECD AI, NIST AI, RMF

Trochę nierówna tabela, owszem, ale pasuje do tematu. Prawdziwa odpowiedzialność też jest nierówna.

Odpowiedzialność zaczyna się już przed pierwszym poleceniem – wyborem właściwego przypadku użycia 🎯

Jednym z największych obowiązków twórców oprogramowania jest decyzja, czy w ogóle należy korzystać ze sztucznej inteligencji generatywnej . NIST AI RMF

Brzmi to oczywisto, ale jest stale pomijane. Zespoły widzą model, ekscytują się i zaczynają go wtłaczać do przepływów pracy, które lepiej obsługiwałyby reguły, wyszukiwanie lub zwykła logika oprogramowania. Nie każdy problem wymaga modelu językowego. Niektóre problemy wymagają bazy danych i spokojnego popołudnia.

Przed rozpoczęciem budowy deweloperzy powinni zadać sobie następujące pytania:

Odpowiedzialny deweloper nie pyta tylko: „Czy możemy to zbudować?”. Pyta: „Czy to powinno zostać zbudowane w ten sposób?”. NIST AI RMF

To pytanie samo w sobie zapobiega wielu bzdurom.

Dokładność to odpowiedzialność, a nie dodatkowa funkcja ✅

Powiedzmy sobie jasno – jedną z największych pułapek w generatywnej sztucznej inteligencji jest mylenie elokwencji z prawdą. Modele często generują odpowiedzi, które brzmią dopracowane, ustrukturyzowane i głęboko przekonujące. Co jest piękne, dopóki treść nie stanie się nonsensem opakowanym w pewność siebie. Profil NIST GenAI

Dlatego odpowiedzialność programistów korzystających ze sztucznej inteligencji generatywnej obejmuje tworzenie oprogramowania pod kątem weryfikacji.

To znaczy:

Ma to duże znaczenie w takich obszarach jak:

  • opieka zdrowotna

  • finanse

  • przepływy pracy prawne

  • edukacja

  • obsługa klienta

  • automatyzacja przedsiębiorstwa

  • generowanie kodu

Wygenerowany kod, na przykład, może wyglądać schludnie, ukrywając jednocześnie luki w zabezpieczeniach lub błędy logiczne. Programista, który kopiuje go bezmyślnie, nie jest wydajny – po prostu zleca ryzyko na zewnątrz, w ładniejszej formie. OWASP Top 10 dla aplikacji LLM NCSC o sztucznej inteligencji i cyberbezpieczeństwie

Model może pomóc. Deweloper nadal ponosi odpowiedzialność za wynik. Zasady OECD dotyczące sztucznej inteligencji

Prywatność i ochrona danych nie podlegają negocjacjom 🔐

Tutaj sprawy szybko robią się poważne. Systemy generatywnej sztucznej inteligencji (AI) często opierają się na komunikatach, logach, oknach kontekstowych, warstwach pamięci, analityce i infrastrukturze firm trzecich. Stwarza to wiele możliwości wycieku, utrwalenia lub ponownego wykorzystania poufnych danych w sposób, którego użytkownicy się nie spodziewali. Osiem pytań ICO dotyczących generatywnej sztucznej inteligencji (10 najlepszych odpowiedzi OWASP dla aplikacji LLM)

Obowiązkiem programistów jest ochrona:

  • dane osobowe

  • zapisy finansowe

  • szczegóły medyczne

  • wewnętrzne dane firmy

  • tajemnice handlowe

  • tokeny uwierzytelniające

  • komunikacja z klientem

Odpowiedzialne praktyki obejmują:

To jeden z tych obszarów, w których „zapomnieliśmy o tym pomyśleć” nie jest drobnym błędem. To porażka, która niszczy zaufanie.

A zaufanie, raz nadszarpnięte, rozprzestrzenia się jak rozbite szkło. Może to nie jest najtrafniejsza metafora, ale rozumiesz.

Stronniczość, uczciwość i reprezentacja – cichsze obowiązki ⚖️

Uprzedzenia w generatywnej sztucznej inteligencji rzadko są głównym złem w kreskówce. Zazwyczaj są bardziej nieuchwytne. Model może generować stereotypowe opisy stanowisk, nierówne decyzje moderacyjne, jednostronne rekomendacje lub kulturowo ograniczone założenia, nie wzbudzając przy tym oczywistych obaw. Profil NIST GenAI

Dlatego też odpowiedzialność programistów wykorzystujących Generative AI obejmuje aktywną pracę na rzecz uczciwości.

Programiści powinni:

System może wydawać się ogólnie sprawny, podczas gdy konsekwentnie obsługuje niektórych użytkowników gorzej niż innych. To niedopuszczalne tylko dlatego, że średnia wydajność wygląda dobrze na pulpicie. Wskazówki ICO dotyczące sztucznej inteligencji i ochrony danych – profil NIST GenAI

I tak, uczciwość jest trudniejsza niż schludna lista kontrolna. Zawiera w sobie osąd. Kontekst. Kompromisy. A także pewną dozę dyskomfortu. Ale to nie zwalnia z odpowiedzialności – wręcz ją potwierdza. Wytyczne ICO dotyczące sztucznej inteligencji i ochrony danych

Bezpieczeństwo jest teraz częściowo kwestią szybkiego projektowania, a częściowo dyscypliny inżynieryjnej 🧱

Bezpieczeństwo generatywnej sztucznej inteligencji to osobliwa sprawa. Tradycyjne bezpieczeństwo aplikacji nadal ma znaczenie, oczywiście, ale systemy sztucznej inteligencji stwarzają nietypowe możliwości ataku: natychmiastowe wstrzykiwanie danych, pośrednia manipulacja natychmiastowa, niebezpieczne użycie narzędzi, eksfiltracja danych poprzez kontekst oraz niewłaściwe wykorzystanie modeli poprzez zautomatyzowane przepływy pracy. OWASP Top 10 dla aplikacji LLM NCSC o sztucznej inteligencji i cyberbezpieczeństwie

Deweloperzy odpowiadają za zabezpieczenie całego systemu, a nie tylko interfejsu. Wytyczne NCSC dotyczące bezpieczeństwa sztucznej inteligencji

Do kluczowych obowiązków należą:

Jedną z niewygodnych prawd jest to, że użytkownicy – ​​i atakujący – z pewnością spróbują rzeczy, których programiści się nie spodziewali. Niektórzy z ciekawości, inni ze złej woli, a jeszcze inni dlatego, że kliknęli coś nie tak o 2 w nocy. To się zdarza.

Bezpieczeństwo w przypadku sztucznej inteligencji generatywnej przypomina bardziej zarządzanie gadatliwym strażnikiem, który czasem daje się nabrać na sformułowania, niż budowanie muru.

Przejrzystość i zgoda użytkownika są ważniejsze niż efektowne UX 🗣️

Użytkownicy wchodzący w interakcję ze sztuczną inteligencją powinni o tym wiedzieć. Kodeks postępowania OECD w zakresie sztucznej inteligencji

Nie mgliście. Nie zagrzebane w terminach. Wyraźnie.

Podstawową odpowiedzialnością programistów korzystających ze sztucznej inteligencji generatywnej jest upewnienie się, że użytkownicy rozumieją:

Przejrzystość nie polega na straszeniu użytkowników. Chodzi o ich szacunek.

Dobra przejrzystość może obejmować:

Wiele zespołów produktowych obawia się, że szczerość sprawi, że funkcja będzie mniej magiczna. Być może. Ale fałszywa pewność jest gorsza. Płynny interfejs, który ukrywa ryzyko, to w zasadzie wypolerowane zamieszanie.

Deweloperzy pozostają odpowiedzialni – nawet gdy model „decyduje” 👀

Ta część jest niezwykle istotna. Odpowiedzialność nie może zostać przerzucona na dostawcę modelu, kartę modelu, szablon komunikatu ani tajemniczą atmosferę uczenia maszynowego. Zasady OECD dotyczące sztucznej inteligencji (AI ) NIST AI RMF

Deweloperzy nadal ponoszą odpowiedzialność. Zasady OECD dotyczące sztucznej inteligencji

Oznacza to, że ktoś w zespole powinien posiadać:

Powinny istnieć jasne odpowiedzi na pytania takie jak:

Bez poczucia własności odpowiedzialność zamienia się w mgłę. Każdy zakłada, że ​​ktoś inny się tym zajmuje... a potem nikt tego nie robi.

Tak naprawdę ten schemat jest starszy niż sztuczna inteligencja. Sztuczna inteligencja po prostu sprawia, że ​​jest on bardziej niebezpieczny.

Odpowiedzialni programiści budują z myślą o poprawkach, a nie perfekcji 🔄

Oto mały haczyk w tym wszystkim: odpowiedzialny rozwój sztucznej inteligencji nie polega na udawania, że ​​system będzie idealny. Chodzi o założenie, że w jakiś sposób zawiedzie i projektowanie z uwzględnieniem tej rzeczywistości. NIST AI RMF

Oznacza to tworzenie produktów, które są:

Tak wygląda dojrzałość. Nie błyszczące dema. Nie zapierające dech w piersiach teksty marketingowe. Prawdziwe systemy, z zabezpieczeniami, rejestrami, odpowiedzialnością i wystarczającą pokorą, by przyznać, że maszyna nie jest czarodziejem. Wytyczne NCSC dotyczące bezpiecznej sztucznej inteligencji Zasady OECD dotyczące sztucznej inteligencji

Bo tak nie jest. To narzędzie. Potężne, owszem. Ale wciąż narzędzie.

Końcowa refleksja na temat odpowiedzialności programistów korzystających ze sztucznej inteligencji generatywnej 🌍

Jaka jest zatem odpowiedzialność programistów korzystających ze sztucznej inteligencji generatywnej ?

Chodzi o to, by budować z dbałością. Kwestionować, gdzie system pomaga, a gdzie szkodzi. Chronić prywatność. Testować pod kątem stronniczości. Weryfikować wyniki. Zabezpieczać przepływ pracy. Być transparentnym wobec użytkowników. Zapewnić ludziom istotną kontrolę. Ponosić odpowiedzialność, gdy coś pójdzie nie tak. NIST AI RMF OECD AI Principles

Może to brzmieć ciężko – i tak właśnie jest. Ale to właśnie odróżnia przemyślany rozwój od lekkomyślnej automatyzacji.

Najlepsi programiści korzystający z generatywnej sztucznej inteligencji to nie ci, którzy sprawiają, że model wykonuje najwięcej trików. To ci, którzy rozumieją konsekwencje tych trików i odpowiednio projektują. Wiedzą, że szybkość ma znaczenie, ale prawdziwym produktem jest zaufanie. Co ciekawe, ta staromodna idea wciąż się sprawdza. NIST AI RMF

Ostatecznie odpowiedzialność nie jest przeszkodą dla innowacji. To ona powstrzymuje innowację przed przekształceniem się w kosztowny, burzliwy proces z dopracowanym interfejsem i brakiem pewności siebie 😬✨

A może to jest najprostsza wersja.

Buduj śmiało, jasne – ale buduj tak, jakby to mogło dotknąć ludzi, bo tak jest. Zasady OECD dotyczące sztucznej inteligencji

Często zadawane pytania

Jaka jest odpowiedzialność programistów wykorzystujących w praktyce sztuczną inteligencję generatywną?

Odpowiedzialność programistów korzystających ze sztucznej inteligencji generatywnej wykracza daleko poza szybkie wdrażanie funkcji. Obejmuje ona wybór odpowiedniego przypadku użycia, testowanie wyników, ochronę prywatności, ograniczanie szkodliwych zachowań i uczynienie systemu zrozumiałym dla użytkowników. W praktyce programiści pozostają odpowiedzialni za sposób projektowania, monitorowania, korygowania i zarządzania narzędziem w przypadku awarii.

Dlaczego sztuczna inteligencja generatywna wymaga od programistów większej odpowiedzialności niż zwykłe oprogramowanie?

Tradycyjne błędy są często oczywiste, ale błędy generatywnej sztucznej inteligencji mogą wydawać się dopracowane, a jednocześnie być błędne, stronnicze lub ryzykowne. To utrudnia wykrycie problemów i ułatwia użytkownikom zaufanie przez pomyłkę. Deweloperzy pracują z systemami probabilistycznymi, więc ich odpowiedzialność obejmuje radzenie sobie z niepewnością, ograniczanie szkód i przygotowanie się na nieprzewidywalne rezultaty przed premierą.

Skąd programiści wiedzą, kiedy nie należy stosować sztucznej inteligencji generatywnej?

Typowym punktem wyjścia jest pytanie, czy zadanie jest otwarte, czy też lepiej jest je rozwiązać za pomocą reguł, wyszukiwania lub standardowej logiki oprogramowania. Programiści powinni również rozważyć, jak duże szkody może spowodować błędna odpowiedź i czy człowiek może realistycznie przeanalizować wyniki. Odpowiedzialne korzystanie czasami oznacza decyzję o całkowitym zrezygnowaniu z generatywnej sztucznej inteligencji.

W jaki sposób programiści mogą ograniczyć halucynacje i liczbę błędnych odpowiedzi w generatywnych systemach sztucznej inteligencji?

Dokładność musi być wbudowana, a nie zakładana. W wielu procesach oznacza to oparcie wyników na wiarygodnych źródłach, oddzielenie wygenerowanego tekstu od zweryfikowanych faktów oraz stosowanie procedur weryfikacji w przypadku zadań o podwyższonym ryzyku. Programiści powinni również testować monity mające na celu dezorientację lub wprowadzenie systemu w błąd, szczególnie w obszarach takich jak kodowanie, wsparcie, finanse, edukacja i opieka zdrowotna.

Jaka jest odpowiedzialność programistów wykorzystujących sztuczną inteligencję generatywną w zakresie prywatności i ochrony poufnych danych?

Obowiązkiem programistów korzystających z generatywnej sztucznej inteligencji jest minimalizowanie ilości danych wprowadzanych do modelu oraz traktowanie monitów, logów i wyników jako poufnych. Programiści powinni usuwać identyfikatory, gdzie to możliwe, ograniczać retencję, kontrolować dostęp i dokładnie sprawdzać ustawienia dostawcy. Użytkownicy powinni również być w stanie zrozumieć, jak przetwarzane są ich dane, zamiast odkrywać ryzyko dopiero później.

W jaki sposób programiści powinni radzić sobie z kwestiami stronniczości i uczciwości w generatywnych wynikach sztucznej inteligencji?

Praca nad uprzedzeniami wymaga aktywnej oceny, a nie założeń. Praktycznym podejściem jest testowanie podpowiedzi w różnych grupach demograficznych, językach i kontekstach, a następnie analiza wyników pod kątem stereotypów, wykluczeń lub nierównomiernych wzorców błędów. Programiści powinni również zapewnić użytkownikom lub zespołom możliwość zgłaszania szkodliwych zachowań, ponieważ system może wydawać się ogólnie silny, a mimo to konsekwentnie zawodzić określone grupy.

O jakich zagrożeniach bezpieczeństwa muszą pamiętać deweloperzy korzystający ze sztucznej inteligencji generatywnej?

Sztuczna inteligencja generatywna wprowadza nowe powierzchnie ataków, takie jak szybkie wstrzykiwanie kodu, niebezpieczne użycie narzędzi, wyciek danych poprzez kontekst oraz nadużywanie zautomatyzowanych działań. Programiści powinni oczyszczać dane wprowadzane przez osoby o wątpliwym pochodzeniu, ograniczać uprawnienia narzędzi, ograniczać dostęp do plików i sieci oraz monitorować wzorce nadużyć. Bezpieczeństwo nie dotyczy tylko interfejsu; dotyczy całego procesu roboczego wokół modelu.

Dlaczego przejrzystość jest ważna przy tworzeniu rozwiązań z wykorzystaniem sztucznej inteligencji generatywnej?

Użytkownicy powinni jasno wiedzieć, kiedy w grę wchodzi sztuczna inteligencja, co potrafi i gdzie są jej ograniczenia. Dobra transparentność może obejmować oznaczenia takie jak „wygenerowane przez sztuczną inteligencję” lub „wspomagane przez sztuczną inteligencję”, proste wyjaśnienia i jasne ścieżki do wsparcia technicznego. Taka szczerość nie osłabia produktu, a pomaga użytkownikom budować zaufanie i podejmować lepsze decyzje.

Kto ponosi odpowiedzialność, gdy funkcja sztucznej inteligencji wyrządzi szkodę lub spowoduje jakiś błąd?

Deweloperzy i zespoły produktowe nadal odpowiadają za wynik, nawet gdy model generuje odpowiedź. Oznacza to, że powinna istnieć wyraźna odpowiedzialność za zatwierdzanie wdrożeń, obsługę incydentów, wycofywanie zmian, monitorowanie i komunikację z użytkownikami. „Decyzja modelu” nie wystarczy, ponieważ odpowiedzialność musi pozostać po stronie osób, które zaprojektowały i uruchomiły system.

Jak będzie wyglądał odpowiedzialny rozwój sztucznej inteligencji generatywnej po jej wprowadzeniu na rynek?

Odpowiedzialny rozwój jest kontynuowany po wydaniu poprzez monitorowanie, informacje zwrotne, przegląd i korekty. Silne systemy są audytowalne, możliwe do przerwania, przywracalne i zaprojektowane z uwzględnieniem ścieżek awaryjnych na wypadek awarii sztucznej inteligencji. Celem nie jest perfekcja, lecz zbudowanie czegoś, co można bezpiecznie badać, ulepszać i dostosowywać w miarę pojawiania się rzeczywistych problemów.

Odniesienia

  1. Narodowy Instytut Norm i Technologii (NIST)Profil NIST GenAInvlpubs.nist.gov

  2. OWASPOWASP Top 10 dla aplikacji LLMowasp.org

  3. Biuro Komisarza ds. Informacji (ICO)osiem pytań ICO dotyczących generatywnej sztucznej inteligencjiico.org.uk

Znajdź najnowszą sztuczną inteligencję w oficjalnym sklepie z asystentami AI

O nas

Powrót do bloga