L'intelligenza artificiale (IA) è una tecnologia che consente a computer e macchine di imitare le capacità umane come l'apprendimento, la comprensione, il problem solving, il processo decisionale, la creatività e l'azione indipendente
Le organizzazioni utilizzano l'IA per contribuire a promuovere l'innovazione, potenziare i propri team e semplificare le attività operative in vari modi. A seconda di come vengono implementate, le funzionalità di intelligenza artificiale sono spesso supportate da analisi predittive, machine learning (ML) e altre funzionalità. I casi d'uso dell'IA includono, a titolo esemplificativo:
L'hardware che utilizziamo per promuovere l'innovazione, semplificare i processi e gestire le attività quotidiane sta cambiando. Le architetture avanzate come quelle delle macchine RISC (Reduced Instruction Set Computing), comunemente note come sviluppo ARM, e le architetture CISC (Complex Instruction Set Computing), come x86, svolgono entrambe ruoli critici nel settore informatico. Con Apple, Microsoft, Broadcom, Intel e altre aziende che investono pesantemente in tecnologie che abilitano l'IA, siamo entrati nell'era dei PC IA. Questi sistemi sono ottimizzati per gestire una vasta gamma di attività basate sull'IA tra cui, a titolo esemplificativo, il riconoscimento vocale, l'elaborazione del linguaggio naturale e il machine learning. L'hardware specifico per l'IA accelera molte di queste attività sul dispositivo, consentendo una potente inferenza dell'IA e persino l'addestramento sulle macchine di tutti i giorni.
Per potenziare il deep learning e addestrare i modelli di IA, le organizzazioni stanno sfruttando le prestazioni e il throughput maggiorato offerti dai datacenter IA. Si tratta di strutture che ospitano grandi quantità di hardware, tra cui unità di elaborazione grafica (GPU) e sistemi di accelerazione IA. Come osserva un recente articolo di Forbes che esplora le loro capacità, queste forniscono "una notevole potenza di calcolo", consumando nel complesso enormi quantità di energia e richiedendo inoltre soluzioni di raffreddamento all'avanguardia".
I Security Operations Center (SOC) possono sfruttare l'intelligenza artificiale per allocare le risorse in modo più efficiente e ridurre i rischi. Attraverso il deep learning, l'automazione e altre funzionalità, possono accelerare l'identificazione dei rischi e le misure di risposta, in particolare se utilizzano una piattaforma di cybersecurity che consolida le soluzioni e integra l'IA per semplificare ulteriormente le attività operative.
Con strumenti come ChatGPT, OpenAI e Microsoft Copilot facilmente accessibili, gli attori delle minacce tentano continuamente di accedere ai dati sensibili. In alcuni casi, il loro obiettivo è manipolare il comportamento degli strumenti di IA affinché operino in modo diverso rispetto all'uso previsto. I principali rischi relativi alla sicurezza dell'IA includono rogue AI, automazione delle frodi e carente governance dei dati.
Le organizzazioni non devono solo tenere il passo, ma anticipare i criminali informatici garantendo l'adozione della tecnologia IA con la consapevolezza dei rischi e nel rispetto della conformità. Sviluppare una comprensione più profonda dei rischi relativi alla sicurezza dell'IA è una parte vitale di questa strategia.
Una politica consapevole del rischio che fornisca indicazioni sul corretto utilizzo dell'IA è un importante punto di riferimento per i dipendenti. La garanzia che sia rispettata e tenuta aggiornata contribuirà a ridurre al minimo il rischio corso dall'organizzazione. Disporre delle giuste politiche e procedure in atto è essenziale per essere conformi e mantenere un'efficace sicurezza dei dati. Esplorare gli esempi forniti dalle autorità di regolamentazione pubbliche e del settore e lavorare con i colleghi può aiutare a guidare la stesura della propria politica sull'IA.
Man mano che la tecnologia dell'IA generativa (GenAI) continua a progredire, i deepfake sono sempre più convincenti. Con i malintenzionati che li utilizzano per manipolare individui o gruppi affinché credano che l'immagine, il video o il testo generati siano autentici e affidabili, rappresentano un rischio sostanziale per la sicurezza dei dati. Indipendentemente dal fatto che l'IA svolga o meno un ruolo, l'intenzione dei criminali informatici di utilizzare entrambi gli approcci per ingannare, rubare e/o frodare rimane la stessa.
Capire come funzionano le implementazioni dell'IA, incluso il modo in cui sfruttano e potenzialmente conservano i dati, aiuta a fornire una risposta efficace alla cybersecurity. Mentre le organizzazioni continuano a immaginare e innovare con l'IA, i malintenzionati si stanno adattando di conseguenza per sfruttarne le vulnerabilità. Con il panorama delle minacce in continua evoluzione assieme all'IA stessa, le organizzazioni dovrebbero sforzarsi di proteggere in modo proattivo le loro implementazioni di IA.
Inoltre, se si sviluppano i propri sistemi di IA e indipendentemente dal fatto che si addestrino i propri modelli, OWASP consiglia quanto segue:
Leggi la panoramica OWASP sulla sicurezza dell'IA per ulteriori dettagli e approfondimenti tecnici.
Con la GenAI che sfrutta le capacità di ML per l'analisi dei dati e l'output creativo, stanno emergendo nuovi rischi. "La sicurezza dei dati nel machine learning deve anche considerare l'integrità dei dati in transito e durante l'elaborazione", osserva un articolo della Global Cybersecurity Alliance (GCA) sulla sicurezza dei dati nel ML. "La compromissione dell'integrità dei dati può distorcere gli output del modello. Può portare a decisioni imprecise o distorte con conseguenze potenzialmente di vasta portata."
In questo articolo sono descritti in dettaglio i passaggi proattivi:
I modelli di IA sono strutture costituite da un'architettura e valori dei parametri che consentono al sistema di eseguire attività, note come inferenza, come fare previsioni o generare contenuti. Queste attività possono variare dalla risposta alle query, al rilevamento di modelli nei dati, al riconoscimento dei comportamenti e altro ancora. I modelli di IA sono generalmente sottoposti a un processo di addestramento per apprendere i migliori valori dei parametri per un'inferenza efficace.
A seconda, tra gli altri fattori, delle esigenze, degli obiettivi, dei requisiti di conformità e del budget di ogni organizzazione, potrebbe essere presa in considerazione per l'implementazione un'ampia gamma di modelli ideali di IA. Tuttavia, è importante notare che ogni modello di IA ha il proprio livello intrinseco di rischio e ci sono anche diversi tipi di modelli di IA da prendere in considerazione.
Gran parte della tecnologia di IA più ampiamente implementata e consolidata di cui disponiamo oggi viene definita IA tradizionale o debole. Sebbene possa adattarsi alle richieste e/o alle esigenze degli utenti, può eseguire solo attività predeterminate, spesso nell'ambito di un unico dominio di competenza. Esempi di intelligenza artificiale debole includono chatbot basati su testo nei portali di assistenza clienti, assistenti virtuali come Siri o Google Assistant e software di rilevamento della lingua con funzionalità di traduzione automatica.
Secondo il Data and AI Team di IBM, esistono due categorie funzionali di IA debole:
Come suggerisce il termine, l'IA basata su macchine reattive può utilizzare solo le informazioni fornite nell'esatto momento. Può interagire attivamente con il suo ambiente e gli utenti ma, incapace di memorizzare ciò che riceve, non può auto-migliorarsi. Le raccomandazioni sui contenuti integrate nelle piattaforme di streaming e social media utilizzano l'IA basata su macchine reattive, così come gli strumenti progettati per eseguire analisi predittive dei dati in tempo reale.
L'IA a memoria limitata sfrutta i dati passati e attualmente disponibili per offrire una migliore assistenza. La distinzione "limitata" si riferisce all'impossibilità di trattenere i dati forniti a tempo indeterminato, basandosi essenzialmente sulla memoria a breve termine. I dati a cui può accedere, tuttavia, vengono sfruttati per ottimizzare continuamente le sue prestazioni e capacità. In altre parole, il suo ambiente e il tuo contributo aiutano ad addestrarla sul modo migliore per rispondere. Gli assistenti virtuali, ad esempio, rientrano in questa categoria.
Pur essendo l'IA debole utilizzata in una varietà di implementazioni, anche i modelli di IA di frontiera, più comunemente indicati come GenAI, ricevono molta attenzione e investimenti. Si tratta di modelli di IA ancora più avanzati, sperimentali e rivolti al futuro. Come suggerisce il termine, la GenAI è progettata per generare contenuti, sia a partire da prompt che attraverso l'accesso ai dati esistenti. Esempi di spicco includono GPT-4 e Google Gemini Ultra.
L'Artificial Intelligence Index Report 2024 della Stanford University stima che i costi di addestramento dell'IA di frontiera abbiano raggiunto "livelli senza precedenti", con Google Gemini Ultra che da solo è costato 191 milioni di dollari statunitensi. Inoltre, afferma che il settore è un motore significativo della ricerca sull'IA di frontiera, producendo 51 "modelli di machine learning notevoli" nel 2023 rispetto ai 15 del mondo accademico. Eppure, allo stesso tempo, 21 di questi modelli sono emersi da collaborazioni tra industria e università. Il rapporto rileva inoltre che, nonostante il calo degli investimenti privati nel 2022, i finanziamenti per la GenAI sono saliti a 25,2 miliardi di dollari e "tutti i principali attori [...] hanno riportato round di finanziamento con raccolte sostanziali".
"L'IA tradizionale eccelle nel riconoscimento dei modelli, mentre l'IA generativa eccelle nella creazione di modelli. L'intelligenza artificiale tradizionale può analizzare i dati e dirti cosa vede mentre l'intelligenza artificiale generativa può utilizzare gli stessi dati per creare qualcosa di completamente nuovo", riassume l'autore Bernard Marr in The Difference Between Generative AI and Traditional AI: An Easy Explanation for Everyone (Forbes). "Sia l'IA generativa sia l'IA tradizionale hanno un ruolo significativo da svolgere nel plasmare il nostro futuro, e ciascuna di esse sblocca possibilità uniche. L'adozione di queste tecnologie avanzate sarà la chiave per le aziende e gli individui che cercano di stare al passo con i tempi nel nostro panorama digitale in rapida evoluzione."
Una serie di istruzioni dettagliate progettate per risolvere un problema o eseguire un'attività. Definisce una sequenza di operazioni che possono essere eseguite da un computer.
Un sottoinsieme del ML in cui gli algoritmi, ispirati alla struttura e alla funzione delle reti neurali del cervello umano, apprendono a partire da grandi quantità di dati. "Deep" (profondo) si riferisce al gran numero di strati in cui sono organizzati questi neuroni artificiali. Il deep learning eccelle in attività come il riconoscimento di immagini e parlato, l'elaborazione del linguaggio naturale e il riconoscimento di schemi più complessi.
Un sistema progettato per percepire il suo ambiente e intraprendere azioni al fine di massimizzare le sue possibilità di raggiungere obiettivi specifici. Utilizza sensori per raccogliere informazioni e algoritmi per prendere decisioni, intraprendere azioni e valutarne l'effetto, spesso imparando e adattandosi nel tempo.
Si tratta di contenuti prodotti o manipolati utilizzando tecniche di IA, come il deep learning. Include immagini, video e audio generati che simulano in modo convincente elementi del mondo reale, confondendo la linea tra autenticità e simulazione.
I LLM si riferiscono a modelli di IA con miliardi di parametri, come GPT-4, che sono addestrati su vasti set di dati per manipolare e generare testo simile a quello prodotto da un essere umano. Ciò consente varie attività e applicazioni relative alla lingua. I trasformatori sono attualmente l'architettura dominante per gli LLM.
Di solito si tratta di un modello di deep learning addestrato su un ampio set di dati, che può quindi essere riutilizzato per molte attività diverse. I LLM sono esempi di modelli di fondazione, in grado di essere specializzati per linguaggio, codice, immagini, audio, una combinazione di modalità oppure di essere multimodali. I modelli di fondazione possono anche essere perfezionati per applicazioni specializzate, come i chatbot.
Ricerche correlate
Articoli correlati