Polityka firmy w zakresie AI to obowiązujący zestaw zasad operacyjnych związanych z prawidłowym wykorzystaniem technologii AI. Pomagają one zachować zgodność z przepisami, zapewniają prywatność danych i bezpieczeństwo cyfrowe.
Aby polityka skutecznie edukowała w zakresie najlepszych praktyk i ograniczała ryzyko, musi koncentrować się na kilku kluczowych obszarach. Są to:
W tej sekcji otwierającej należy objaśnić cele polityki firmy w zakresie AI. Należy również wskazać, kto, oprócz pracowników, musi przestrzegać polityki, np. osoby lub agencje oferujące usługi outsourcingu.
W tym miejscu należy wymienić aplikacje związane z AI, które zostały zatwierdzone do użytku. Można tu też sprecyzować właściwe procedury dostępu do każdej z nich, aby zapewnić zgodność. Należy jednak pominąć poufne informacje, takie jak dane logowania. Te informacje powinny być dostarczane przez kierownictwo w bezpieczny sposób na prośbę osoby ubiegającej się o dostęp lub podczas procesu wdrażania.
Podsumowanie procesu korzystania z AI, np. w formie wypunktowanej listy, pomaga użytkownikom zrozumieć wymagane kroki i ich przestrzegać. Daje to także okazję do wdrożenia barier operacyjnych i poinformowania, jak podchodzić do kwestii uprawnień, komunikacji wewnętrznej, jakości treści generowanych przez AI oraz ogólnego dostępu do danych i narzędzi przyznanego systemom AI. Pomocne może być również określenie, co należy zrobić, jeśli podejrzewa się ryzyko lub podatność na zagrożenia związane z którymkolwiek z powyższych.
W tej sekcji należy wyjaśnić, kiedy, gdzie i jak nie należy używać zatwierdzonych aplikacji AI. Jeśli występują uzasadnione wyjątki, należy je tu uwzględnić. Tak jak w pozostałych częściach polityki, wybrane sformułowania powinny być jasne, zwięzłe i łatwe do wykonania, przy jednoczesnym ograniczeniu ryzyka błędnej interpretacji lub pomyłki.
Ta sekcja ma przypominać użytkownikom o konieczności zapoznania się z warunkami korzystania z narzędzi AI, do których mają dostęp. Pomaga chronić się przed niewłaściwym użyciem lub kwestiami związanymi z odpowiedzialnością. Należy tu podkreślić znaczenie zachowania prywatności danych i unikania plagiatów, poszanowania praw własności intelektualnej i ich posiadaczy oraz nieudzielania danemu narzędziu (lub narzędziom) dostępu do informacji poufnych.
W tym miejscu należy wskazać organy zarządzające i przepisy, z którymi organizacja – a co za tym idzie i zespół – musi zachować zgodność podczas korzystania z AI. Powinny one obejmować ustanowione akty rządowe oraz wszelkie wymagania dotyczące zespołu prawnego, bezpieczeństwa lub IT.
Podzielona według priorytetów strategicznych i zjednoczona w swojej misji organizacja Pan-Canadian Artificial Intelligence Strategy chce „realizować pozytywne zmiany społeczne, ekonomiczne i środowiskowe z korzyścią dla ludzi i planety”.
Zbiór obejmujący wyniki badań, politykę i dokumentację inżynieryjną skoncentrowane narozwijaniu AI w sposób etyczny i odpowiedzialny. W maju 2024 roku firma Microsoft opublikowała własny kompleksowy Raport dotyczący przejrzystości odpowiedzialnej AI, który obejmuje wszystko, od mapowania, pomiaru i zarządzania ryzykiem związanym ze sztuczną inteligencją po budowanie bezpiecznych i odpowiedzialnych modeli AI.
Instytut NIST w ścisłej współpracy z kluczowymi interesariuszami z sektorów prywatnego i publicznego oraz agencjami federalnymi opracował nowe normy w zakresie AI. Instytut jest „mocno angażuje się w działania w USA i na arenie międzynarodowej”. Wysiłki na rzecz polityki w zakresie AI są podejmowane przez różne ciała, takie jak Rada ds. Handlu i Technologii USA-UE, OECD, Rada Europy, „Czterostronny dialog o bezpieczeństwie” i szereg innych. W ramach tych działań NIST współpracuje również z Administracją Handlu Międzynarodowego Departamentu Handlu USA i Departamentem Stanu USA.
W lipcu 2024 r. NIST wydał również cztery publikacje, które „mają pomóc w poprawie bezpieczeństwa, ochrony i wiarygodności systemów sztucznej inteligencji”. Oto one:
Etyka AI obejmuje zasady i wytyczne regulujące odpowiedzialny rozwój, wdrażanie i korzystanie z systemów AI. Dotyka kwestii takich jak dostosowanie, sprawiedliwość, odpowiedzialność, przejrzystość, prywatność, ryzyko oraz społeczny wpływ technologii AI.
Raport opublikowany przez badaczy OpenAI (arXiv:2307.03718: Regulacje dotyczące GenAI: zarządzanie nowymi zagrożeniami dla bezpieczeństwa publicznego) zwraca uwagę na szereg wyzwań związanych z regulacją modeli generatywnej AI celem ochrony użytkowników. Autorzy raportu stwierdzają, że „modele GenAI stanowią szczególne wyzwanie regulacyjne: niebezpieczne możliwości mogą pojawić się nieoczekiwanie; trudno jest skutecznie zapobiegać niewłaściwemu wykorzystaniu wdrożonego modelu; i trudno jest zapobiegać szerokiemu rozprzestrzenianiu się jego możliwości”.
W podsumowaniu raportu stwierdza się ponadto, że regulacji wymagają „co najmniej trzy bloki konstrukcyjne:
Powiązane badania
Powiązane artykuły