Co to jest AI?

Sztuczna inteligencja (ang. Artificial Intelligence, AI) to technologia, która umożliwia komputerom i maszynom naśladowanie zdolności ludzkich, takich jak uczenie się, rozumienie, rozwiązywanie problemów, podejmowanie decyzji, kreatywność i niezależne działanie

Gdzie jest używana AI?

Organizacje używają AI do napędzania innowacji, wzmacniania pozycji swoich zespołów i usprawniania operacji na różne sposoby. W zależności od sposobu jej wdrożenia możliwości AI są często wzmacniane przez analitykę predykcyjną, uczenie maszynowe (ang. Machine Learning, ML) i inne funkcje. Przykładowe zastosowania AI:

  • Wykorzystanie centrów danych AI do trenowania modeli AI
  • Obsługa klienta za pomocą chatbotów
  • Usprawnianie zarządzania łańcuchem dostaw
  • Automatyzacja powtarzalnych zadań w celu uwolnienia zasobów i zespołów
  • Wsparcie podczas burzy mózgów
  • Skrócenie czasu odpowiedzi na zapytania
  • Przyspieszenie procesów decyzyjnych
  • Obniżenie kosztów dzięki optymalizacji i automatyzacji ze wsparciem AI
  • Tłumaczenie tekstu, dźwięku lub mowy
  • Szybka konsolidacja wyników badań i statystyk

Komputery AI

Sprzęt, którego używamy do napędzania innowacji, usprawniania procesów i zarządzania codziennymi operacjami, stale ewoluuje. Zaawansowane architektury, np. komputery o ograniczonym zestawie instrukcji (ang. reduced instruction set computing, RISC) (znane szerzej jako rozwój ARM) oraz architektury o złożonym zestawie instrukcji (ang. complex instruction set computing, CISC), takie jak x86, odgrywają kluczową rolę w branży komputerowej. Apple, Microsoft, Broadcom, Intel i inne firmy intensywnie inwestują w technologie wykorzystujące AI, wkroczyliśmy więc w erę komputerów AI. Systemy te są zoptymalizowane do obsługi szerokiego zakresu zadań opartych na AI, w tym rozpoznawania głosu, przetwarzania języka naturalnego i uczenia maszynowego (Machine Learning, ML). Podzespoły, które wykorzystuje możliwości AI, przyspieszają wiele z tych zadań na urządzeniu, umożliwiając szybkie wnioskowanie, a nawet trenowanie modeli na komputerach codziennego użytku.

Centra danych AI

Aby używać Deep Learning i trenować modele AI, organizacje wykorzystują wydajność i zwiększoną przepustowość oferowaną przez centra danych AI. Są to obiekty mieszczące wiele urządzeń, w tym procesorów graficznych (GPU) i systemów akceleracji AI. Jak zwrócono uwagę w opublikowanym niedawno artykule Forbes, badającym ich możliwości, zapewniają one „znaczącą moc obliczeniową," zużywając ogromne ilości energii i nierzadko wymagających najnowocześniejszych rozwiązań chłodzących.

Co to jest AI dla SOC?

W centrum bezpieczeństwa (ang. Security Operations Center, SOC) AI może być wykorzystywana do efektywniejszego przydzielania zasobów i ograniczania ryzyka. Dzięki Deep Learning (DL), automatyzacji i innym możliwościom AI może przyspieszać identyfikację zagrożeń i poprawiać skuteczność reagowania, zwłaszcza na platformie cyberbezpieczeństwa, na której rozwiązania są skonsolidowane i zintegrowane z AI.

Zagrożenia dla bezpieczeństwa związane z AI

Narzędzia takie jak ChatGPT, OpenAI i Microsoft Copilot są łatwo dostępne, a hakerzy starają się za ich pomocą docierać do poufnych danych. Manipulują zachowaniem narzędzi AI, starając się nakłonić je do działania niezgodnie z ich przeznaczeniem. Kluczowe zagrożenia dla bezpieczeństwa związane z AI obejmują nieuczciwe procesy AI, automatyzację oszustw i niewystarczający poziom zarządzania danymi.

Organizacje muszą nie tylko dotrzymywać kroku cyberprzestępcom, ale być zawsze o krok przed nimi, zapewniając wdrożenia technologii AI ze świadomości ryzyka i zgodne z przepisami. Głębsze zrozumienie zagrożeń dla bezpieczeństwa związanych z AI jest ważnym elementem tej strategii.

Polityki firm w zakresie AI

Polityka oparta na świadomości zagrożeń i obejmująca wytyczne prawidłowego korzystania z AI jest ważnym punktem odniesienia dla pracowników. Zapewnienie jej przestrzegania i ciągłe jej aktualizowanie pomoże zminimalizować ryzyko w organizacji. Posiadanie odpowiednich polityk i procedur jest niezbędne do zachowania zgodności z przepisami i utrzymania skutecznego bezpieczeństwa danych. Zapoznanie się z przykładami federalnych i branżowych organów regulacyjnych oraz współpraca z innymi podmiotami może pomóc w opracowaniu własnej polityki w zakresie AI.

Deepfakes

Wraz z rozwojem generatywnej AI (GenAI) treści Deepfake stają się coraz bardziej przekonujące. Przestępcy wykorzystują je do manipulowania ludźmi, starając się ich przekonać, że wygenerowany obraz, wideo lub tekst są autentyczne i wiarygodne, co stanowi poważne zagrożenie dla bezpieczeństwa danych. Niezależnie od tego, czy AI jest do tego używana, czy nie, intencje cyberprzestępców w stosowaniu obu podejść do wprowadzania w błąd, kradzieży lub defraudacji pozostają takie same.

Jak zabezpieczyć AI

Zrozumienie, jak funkcjonują wdrożenia AI – w tym jak wykorzystują one i potencjalnie przechowują dane – pomaga w skutecznym reagowaniu na cyberzagrożenia. Ponieważ organizacje wciąż dopiero projektują i tworzą innowacje oparte na AI, przestępcy bacznie je obserwują, dostosowując się, by wykorzystać potencjalne luki. Ponieważ krajobraz zagrożeń stale się zmienia wraz z samą AI, organizacje powinny dążyć do proaktywnego zabezpieczania wdrożeń AI.

Zalecane działania z przeglądu Open Web Application Security Project (OWASP) na temat bezpieczeństwa AI

  • Wdrożenie zarządzania AI
  • Rozszerz praktyki bezpieczeństwa poprzez zasoby i mechanizmy kontroli OWASP (a także rozwiązania bezpieczeństwa AI)
  • Upewnij się, że wszyscy dostawcy AI, z usług których korzystasz, wdrożyli odpowiednie mechanizmy kontroli bezpieczeństwa.
  • Ogranicz wpływ wdrożenia AI poprzez ograniczenie ilości danych i uprawnień.
  • Zapobiegaj niekontrolowanemu użyciu i atakom DOS poprzez ograniczenie szybkości.
  • Wprowadź zabezpieczenia w postaci procesów nadzoru (w tym nadzoru ludzkiego).

Oprócz tego, w przypadku własnych systemów AI i niezależnie od tego, czy trenujesz własne modele, OWASP zaleca następujące praktyki:

  • Zaangażowanie inżynierii danych i AI w procesy bezpiecznego tworzenia oprogramowania
  • Zastosowanie odpowiednich kontroli procesowych i technicznych (przez analizę zagrożeń związanych z AI).

Przeczytaj przegląd OWASP dotyczący bezpieczeństwa AI, aby dowiedzieć się więcej.

Bezpieczeństwo danych w kontekście Machine Learning (ML)

Wraz z wykorzystaniem przez GenAI możliwości Machine Learning (ML) do analizy danych i tworzenia kreatywnych rozwiązań, pojawiają się nowe zagrożenia. „Bezpieczeństwo danych używanych przez Machine Learning (ML) musi również uwzględniać integralność danych podczas ich przesyłania i przetwarzania”, zwracają uwagę autorzy artykułu Global Cybersecurity Alliance (GCA) poświęconego bezpieczeństwu danych w kontekście ML. „Naruszenie integralności danych może wypaczać wyniki generowane przez model. Efektem mogą być niedokładne lub stronnicze decyzje o potencjalnie daleko idących konsekwencjach”.

Proaktywne kroki zostały szczegółowo omówione w tym artykule:

  • Kontrola dostępu i uwierzytelnianie
  • Regularne audyty i monitorowanie danych
  • Anonimizacja i pseudonimizacja danych
  • Bezpieczne praktyki udostępniania

Co to jest model AI?

Modele AI to struktury składające się z architektury i wartości parametrów, które umożliwiają systemowi wykonywanie zadań, takich jak przewidywanie lub generowanie treści. Nazywa się to wnioskowaniem. Zadania te mogą obejmować udzielanie odpowiedzi na zapytania, wykrywanie wzorców w zbiorach danych, rozpoznawanie zachowań i wiele innych. Modele AI zazwyczaj przechodzą przez proces szkolenia, aby nauczyć się, które parametry mają najwyższą wartość i zapewnić skuteczne wnioskowanie.

Zależnie od potrzeb, celów, wymogów zgodności i budżetu organizacji (m.in.) można rozważać wdrożenia różnych idealnych modeli AI. Warto tu jednak zauważyć, że z każdym modelem AI wiąże się pewien nieodłączny poziom ryzyka, a także że istnieją różne rodzaje modeli AI, które należy wziąć pod uwagę.

Rodzaje modeli AI

Wąska/tradycyjna AI

Wiele najszerzej wdrożonych i ugruntowanych technologii AI, z których obecnie korzystamy, określa się mianem tradycyjnej lub wąskiej AI. I choć mogą one kontekstowo reagować na pytania i potrzeby użytkownika, to mogą wykonywać tylko z góry określone zadania i często tylko w ramach jednej specjalistycznej dziedziny wiedzy. Przykładami wąskiej AI są chatboty tekstowe do obsługi klienta, wirtualni asystenci, np. Siri czy Asystent Google, czy programy do wykrywania języka z funkcją automatycznego tłumaczenia.

Według zespołu IBM ds. danych i AI istnieją dwie kategorie funkcjonalne wąskiej AI:

Reaktywna AI maszyn

Jak sugeruje nazwa, reaktywna AI maszyn może wykorzystywać tylko informacje, które otrzymuje w danym momencie. Może wchodzić w interakcje ze środowiskiem i użytkownikami, nie potrafi jednak zapamiętywać otrzymywanych danych i nie umie się samodoskonalić. Reaktywną AI maszyn wykorzystują na przykład mechanizmy polecania treści w serwisach streamingowych i w mediach społecznościowych oraz narzędzia do predykcyjnej analizy danych w czasie rzeczywistym.

AI z ograniczoną pamięcią

AI z ograniczoną pamięcią wykorzystuje przeszłe i obecnie dostępne dane, aby Ci pomagać. „Ograniczenie” w jej nazwie odnosi się do tego, że nie może ona przechowywać otrzymywanych danych przez czas nieokreślony, polegając zasadniczo na pamięci krótkoterminowej. Jednak dane, do których ma dostęp, są wykorzystywane do ciągłej optymalizacji jej wydajności i możliwości. Innymi słowy, środowisko AI i Twój wkład pomagają trenować algorytm, by mógł jak najlepiej reagować. Do tej kategorii należą na przykład wirtualni asystenci.

Pionierska AI

Modele pionierskiej AI (częściej określane mianem GenAI) cieszą się dużym zainteresowaniem i, podobnie jak modele wąskiej AI, są coraz chętniej i szerzej stosowane. GenAI jest jednak technologią bardziej zaawansowaną, eksperymentalną i przyszłościową. Jak sugeruje nazwa, generatywna AI ma generować treści na podstawie podpowiedzi lub dostępu do istniejących danych. Wyróżniającymi się przykładami tej technologii są GPT-4 i Google Gemini Ultra.

W raporcie Artificial Intelligence Index Report 2024 opublikowanym na Uniwersytecie Stanford szacuje się, że koszty szkolenia AI osiągnęły „bezprecedensowy poziom”, a koszt samego tylko Google Gemini Ultra to 191 milionów USD. Stwierdzono również, że ważnym motorem badań nad GenAI jest przemysł, odpowiedzialny za stworzenie 51 „godnych uwagi modeli Machine Learning” w 2023 roku w porównaniu do 15 w środowisku akademickim. Jednocześnie 21 takich modeli powstało w wyniku współpracy między przemysłem a środowiskiem akademickim. Autorzy raportu zwracają uwagę, że pomimo spadku inwestycji prywatnych w 2022 r., finansowanie GenAI wzrosło do 25,2 mld USD, a „wszyscy główni gracze [...] zgłosili duże kampanie pozyskiwania funduszy”. 

Podsumowanie rodzajów modeli AI

„Tradycyjna AI przoduje w rozpoznawaniu wzorców, podczas gdy GenAI przoduje w ich tworzeniu. Tradycyjna AI może analizować dane i informować o tym, co widzi, ale GenAI może wykorzystać te same dane do tworzenia zupełnie nowych treści”, podsumowuje Bernard Marr w artykuleThe Difference Between Generative AI and Traditional AI: An Easy Explanation for Everyone (Forbes). „Zarówno generatywna, jak i tradycyjna AI mają do odegrania ważną rolę w kształtowaniu naszej przyszłości, a każda z nich oferuje wyjątkowe możliwości. Wykorzystanie tych zaawansowanych technologii będzie miało kluczowe znaczenie dla firm i użytkowników, chcących być na czele w szybko zmieniającym się cyfrowym krajobrazie”.

Inne pojęcia związane z AI

Algorytm

Zestaw instrukcji krok po kroku mających na celu rozwiązanie problemu lub wykonanie zadania. Definiuje on sekwencję operacji, które mogą być wykonywane przez komputer.

Deep Learning

Podzbiór ML, w którym algorytmy, oparte na strukturze i funkcji sieci neuronowych ludzkiego mózgu, uczą się na podstawie dużych ilości danych. Słowo „deep” (głęboki) odnosi się tu do dużej liczby warstw, w których uporządkowane są sztuczne neurony. Deep Learning świetnie sprawdza się w zadaniach, takich jak rozpoznawanie obrazów i mowy, przetwarzanie języka naturalnego i bardziej złożone rozpoznawanie wzorców.

Agent AI

System zdolny postrzegać środowisko, w którym się znajduje i podejmować działania w celu zmaksymalizowania szans na osiągnięcie określonych celów. Wykorzystuje on czujniki do zbierania informacji i algorytmy do podejmowania decyzji, działań i oceny ich efektów, często z czasem ucząc się i dostosowując.

Treści syntetyczne

Są to treści tworzone lub zmieniane przy użyciu technik AI, takich jak Deep Learning. Są to na przykład generowane obrazy, filmy i dźwięk, które przekonująco naśladują rzeczywistość, zacierając granice między tym, co autentyczne, a symulacją.

Duży model językowy (ang. Large Language Model, LLM)

LLM odnoszą się do modeli AI z miliardami parametrów, takich jak GPT-4, które są szkolone na ogromnych zbiorach danych w celu generowania i redagowania tekstów podobnych do tych, wytwarzanych przez człowieka. Umożliwia to wykonywanie różnych zadań związanych z językiem. Obecnie dominującą architekturą LLM są transformatory.

Model podstawowy

Zwykle jest to model Deep Learning wytrenowany na szerokim zestawie danych, który można następnie wykorzystać do wielu innych zadań. Przykładami modeli podstawowych są LLM, które mogą być wyspecjalizowane do pracy z językiem, kodem, obrazem, dźwiękiem, kombinacjami modalności lub mogą być multimodalne. Modele podstawowe można też dostosowywać do specjalistycznych zastosowań, takich jak chatboty.

Powiązane badania

Powiązane artykuły