Cos'è l'IA?

L'intelligenza artificiale (IA) è una tecnologia che consente a computer e macchine di imitare le capacità umane come l'apprendimento, la comprensione, il problem solving, il processo decisionale, la creatività e l'azione indipendente

Dove viene utilizzata l'IA?

Le organizzazioni utilizzano l'IA per contribuire a promuovere l'innovazione, potenziare i propri team e semplificare le attività operative in vari modi. A seconda di come vengono implementate, le funzionalità di intelligenza artificiale sono spesso supportate da analisi predittive, machine learning (ML) e altre funzionalità. I casi d'uso dell'IA includono, a titolo esemplificativo:

  • Sfruttare i datacenter IA per addestrare i modelli IA
  • Assistere i clienti con l'aiuto di chatbot
  • Semplificare i processi di gestione della supply chain
  • Automatizzare le attività ripetitive per liberare risorse e team
  • Offrire assistenza nell'ideazione e nel brainstorming creativo
  • Ridurre i tempi di risposta alle query
  • Accelerare i processi decisionali
  • Ridurre i costi attraverso l'ottimizzazione e l'automazione assistite dall'IA
  • Tradurre testi, audio e/o parlato
  • Consolidare rapidamente i risultati e le statistiche delle ricerche

PC IA

L'hardware che utilizziamo per promuovere l'innovazione, semplificare i processi e gestire le attività quotidiane sta cambiando. Le architetture avanzate come quelle delle macchine RISC (Reduced Instruction Set Computing), comunemente note come sviluppo ARM, e le architetture CISC (Complex Instruction Set Computing), come x86, svolgono entrambe ruoli critici nel settore informatico. Con Apple, Microsoft, Broadcom, Intel e altre aziende che investono pesantemente in tecnologie che abilitano l'IA, siamo entrati nell'era dei PC IA. Questi sistemi sono ottimizzati per gestire una vasta gamma di attività basate sull'IA tra cui, a titolo esemplificativo, il riconoscimento vocale, l'elaborazione del linguaggio naturale e il machine learning. L'hardware specifico per l'IA accelera molte di queste attività sul dispositivo, consentendo una potente inferenza dell'IA e persino l'addestramento sulle macchine di tutti i giorni.

Datacenter IA

Per potenziare il deep learning e addestrare i modelli di IA, le organizzazioni stanno sfruttando le prestazioni e il throughput maggiorato offerti dai datacenter IA. Si tratta di strutture che ospitano grandi quantità di hardware, tra cui unità di elaborazione grafica (GPU) e sistemi di accelerazione IA. Come osserva un recente articolo di Forbes che esplora le loro capacità, queste forniscono "una notevole potenza di calcolo", consumando nel complesso enormi quantità di energia e richiedendo inoltre soluzioni di raffreddamento all'avanguardia".

Che cos'è il SOC IA?

I Security Operations Center (SOC) possono sfruttare l'intelligenza artificiale per allocare le risorse in modo più efficiente e ridurre i rischi. Attraverso il deep learning, l'automazione e altre funzionalità, possono accelerare l'identificazione dei rischi e le misure di risposta, in particolare se utilizzano una piattaforma di cybersecurity che consolida le soluzioni e integra l'IA per semplificare ulteriormente le attività operative.

Rischi relativi alla sicurezza dell'IA

Con strumenti come ChatGPT, OpenAI e Microsoft Copilot facilmente accessibili, gli attori delle minacce tentano continuamente di accedere ai dati sensibili. In alcuni casi, il loro obiettivo è manipolare il comportamento degli strumenti di IA affinché operino in modo diverso rispetto all'uso previsto. I principali rischi relativi alla sicurezza dell'IA includono rogue AI, automazione delle frodi e carente governance dei dati.

Le organizzazioni non devono solo tenere il passo, ma anticipare i criminali informatici garantendo l'adozione della tecnologia IA con la consapevolezza dei rischi e nel rispetto della conformità. Sviluppare una comprensione più profonda dei rischi relativi alla sicurezza dell'IA è una parte vitale di questa strategia.

Politiche aziendali sull'IA

Una politica consapevole del rischio che fornisca indicazioni sul corretto utilizzo dell'IA è un importante punto di riferimento per i dipendenti. La garanzia che sia rispettata e tenuta aggiornata contribuirà a ridurre al minimo il rischio corso dall'organizzazione. Disporre delle giuste politiche e procedure in atto è essenziale per essere conformi e mantenere un'efficace sicurezza dei dati. Esplorare gli esempi forniti dalle autorità di regolamentazione pubbliche e del settore e lavorare con i colleghi può aiutare a guidare la stesura della propria politica sull'IA.

Deepfake

Man mano che la tecnologia dell'IA generativa (GenAI) continua a progredire, i deepfake sono sempre più convincenti. Con i malintenzionati che li utilizzano per manipolare individui o gruppi affinché credano che l'immagine, il video o il testo generati siano autentici e affidabili, rappresentano un rischio sostanziale per la sicurezza dei dati. Indipendentemente dal fatto che l'IA svolga o meno un ruolo, l'intenzione dei criminali informatici di utilizzare entrambi gli approcci per ingannare, rubare e/o frodare rimane la stessa.

Come proteggere l'IA

Capire come funzionano le implementazioni dell'IA, incluso il modo in cui sfruttano e potenzialmente conservano i dati, aiuta a fornire una risposta efficace alla cybersecurity. Mentre le organizzazioni continuano a immaginare e innovare con l'IA, i malintenzionati si stanno adattando di conseguenza per sfruttarne le vulnerabilità. Con il panorama delle minacce in continua evoluzione assieme all'IA stessa, le organizzazioni dovrebbero sforzarsi di proteggere in modo proattivo le loro implementazioni di IA.

Azioni consigliate dalla panoramica dell'Open Web Application Security Project (OWASP) sulla sicurezza dell'IA

  • Implementare la governance dell'IA
  • Estendere le pratiche di sicurezza tramite risorse e controlli OWASP (nonché soluzioni di sicurezza IA)
  • Assicurarsi che tutti i fornitori di IA utilizzati abbiano implementato controlli di sicurezza appropriati
  • Limitare l'impatto dell'implementazione dell'IA riducendo al minimo dati e privilegi
  • Prevenire l'uso incontrollato e il denial of service con limitazioni sul numero di invocazioni
  • Implementare i guardrail sotto forma di processi di supervisione (inclusa la supervisione umana)

Inoltre, se si sviluppano i propri sistemi di IA e indipendentemente dal fatto che si addestrino i propri modelli, OWASP consiglia quanto segue:

  • Coinvolgere i gruppi di ingegneria dei dati e dell'IA nelle pratiche di sviluppo software sicuro
  • Applicare controlli tecnici e di processo appropriati (attraverso la comprensione delle minacce legate all'IA)

Leggi la panoramica OWASP sulla sicurezza dell'IA per ulteriori dettagli e approfondimenti tecnici.

Sicurezza dei dati nel machine learning (ML)

Con la GenAI che sfrutta le capacità di ML per l'analisi dei dati e l'output creativo, stanno emergendo nuovi rischi. "La sicurezza dei dati nel machine learning deve anche considerare l'integrità dei dati in transito e durante l'elaborazione", osserva un articolo della Global Cybersecurity Alliance (GCA) sulla sicurezza dei dati nel ML. "La compromissione dell'integrità dei dati può distorcere gli output del modello. Può portare a decisioni imprecise o distorte con conseguenze potenzialmente di vasta portata."

In questo articolo sono descritti in dettaglio i passaggi proattivi:

  • Controllo degli accessi e autenticazione dell'utente
  • Controllo e monitoraggio periodici dei dati
  • Anonimizzazione e pseudonimizzazione dei dati
  • Pratiche di condivisione sicure

Che cos'è un modello di IA?

I modelli di IA sono strutture costituite da un'architettura e valori dei parametri che consentono al sistema di eseguire attività, note come inferenza, come fare previsioni o generare contenuti. Queste attività possono variare dalla risposta alle query, al rilevamento di modelli nei dati, al riconoscimento dei comportamenti e altro ancora. I modelli di IA sono generalmente sottoposti a un processo di addestramento per apprendere i migliori valori dei parametri per un'inferenza efficace.

A seconda, tra gli altri fattori, delle esigenze, degli obiettivi, dei requisiti di conformità e del budget di ogni organizzazione, potrebbe essere presa in considerazione per l'implementazione un'ampia gamma di modelli ideali di IA. Tuttavia, è importante notare che ogni modello di IA ha il proprio livello intrinseco di rischio e ci sono anche diversi tipi di modelli di IA da prendere in considerazione.

Tipi di modelli di IA

IA ristretta/tradizionale

Gran parte della tecnologia di IA più ampiamente implementata e consolidata di cui disponiamo oggi viene definita IA tradizionale o debole. Sebbene possa adattarsi alle richieste e/o alle esigenze degli utenti, può eseguire solo attività predeterminate, spesso nell'ambito di un unico dominio di competenza. Esempi di intelligenza artificiale debole includono chatbot basati su testo nei portali di assistenza clienti, assistenti virtuali come Siri o Google Assistant e software di rilevamento della lingua con funzionalità di traduzione automatica.

Secondo il Data and AI Team di IBM, esistono due categorie funzionali di IA debole:

IA basata su macchine reattive

Come suggerisce il termine, l'IA basata su macchine reattive può utilizzare solo le informazioni fornite nell'esatto momento. Può interagire attivamente con il suo ambiente e gli utenti ma, incapace di memorizzare ciò che riceve, non può auto-migliorarsi. Le raccomandazioni sui contenuti integrate nelle piattaforme di streaming e social media utilizzano l'IA basata su macchine reattive, così come gli strumenti progettati per eseguire analisi predittive dei dati in tempo reale.

IA a memoria limitata

L'IA a memoria limitata sfrutta i dati passati e attualmente disponibili per offrire una migliore assistenza. La distinzione "limitata" si riferisce all'impossibilità di trattenere i dati forniti a tempo indeterminato, basandosi essenzialmente sulla memoria a breve termine. I dati a cui può accedere, tuttavia, vengono sfruttati per ottimizzare continuamente le sue prestazioni e capacità. In altre parole, il suo ambiente e il tuo contributo aiutano ad addestrarla sul modo migliore per rispondere. Gli assistenti virtuali, ad esempio, rientrano in questa categoria.

IA di frontiera

Pur essendo l'IA debole utilizzata in una varietà di implementazioni, anche i modelli di IA di frontiera, più comunemente indicati come GenAI, ricevono molta attenzione e investimenti. Si tratta di modelli di IA ancora più avanzati, sperimentali e rivolti al futuro. Come suggerisce il termine, la GenAI è progettata per generare contenuti, sia a partire da prompt che attraverso l'accesso ai dati esistenti. Esempi di spicco includono GPT-4 e Google Gemini Ultra.

L'Artificial Intelligence Index Report 2024 della Stanford University stima che i costi di addestramento dell'IA di frontiera abbiano raggiunto "livelli senza precedenti", con Google Gemini Ultra che da solo è costato 191 milioni di dollari statunitensi. Inoltre, afferma che il settore è un motore significativo della ricerca sull'IA di frontiera, producendo 51 "modelli di machine learning notevoli" nel 2023 rispetto ai 15 del mondo accademico. Eppure, allo stesso tempo, 21 di questi modelli sono emersi da collaborazioni tra industria e università. Il rapporto rileva inoltre che, nonostante il calo degli investimenti privati nel 2022, i finanziamenti per la GenAI sono saliti a 25,2 miliardi di dollari e "tutti i principali attori [...] hanno riportato round di finanziamento con raccolte sostanziali". 

Riepilogo dei tipi di modelli di IA

"L'IA tradizionale eccelle nel riconoscimento dei modelli, mentre l'IA generativa eccelle nella creazione di modelli. L'intelligenza artificiale tradizionale può analizzare i dati e dirti cosa vede mentre l'intelligenza artificiale generativa può utilizzare gli stessi dati per creare qualcosa di completamente nuovo", riassume l'autore Bernard Marr in The Difference Between Generative AI and Traditional AI: An Easy Explanation for Everyone (Forbes). "Sia l'IA generativa sia l'IA tradizionale hanno un ruolo significativo da svolgere nel plasmare il nostro futuro, e ciascuna di esse sblocca possibilità uniche. L'adozione di queste tecnologie avanzate sarà la chiave per le aziende e gli individui che cercano di stare al passo con i tempi nel nostro panorama digitale in rapida evoluzione."

Termini aggiuntivi associati all'IA

Algoritmo

Una serie di istruzioni dettagliate progettate per risolvere un problema o eseguire un'attività. Definisce una sequenza di operazioni che possono essere eseguite da un computer.

Deep learning

Un sottoinsieme del ML in cui gli algoritmi, ispirati alla struttura e alla funzione delle reti neurali del cervello umano, apprendono a partire da grandi quantità di dati. "Deep" (profondo) si riferisce al gran numero di strati in cui sono organizzati questi neuroni artificiali. Il deep learning eccelle in attività come il riconoscimento di immagini e parlato, l'elaborazione del linguaggio naturale e il riconoscimento di schemi più complessi.

Agente IA

Un sistema progettato per percepire il suo ambiente e intraprendere azioni al fine di massimizzare le sue possibilità di raggiungere obiettivi specifici. Utilizza sensori per raccogliere informazioni e algoritmi per prendere decisioni, intraprendere azioni e valutarne l'effetto, spesso imparando e adattandosi nel tempo.

Supporti sintetici

Si tratta di contenuti prodotti o manipolati utilizzando tecniche di IA, come il deep learning. Include immagini, video e audio generati che simulano in modo convincente elementi del mondo reale, confondendo la linea tra autenticità e simulazione.

Modello del linguaggio di grandi dimensioni (Large Language Model, LLM)

I LLM si riferiscono a modelli di IA con miliardi di parametri, come GPT-4, che sono addestrati su vasti set di dati per manipolare e generare testo simile a quello prodotto da un essere umano. Ciò consente varie attività e applicazioni relative alla lingua. I trasformatori sono attualmente l'architettura dominante per gli LLM.

Modello di fondazione

Di solito si tratta di un modello di deep learning addestrato su un ampio set di dati, che può quindi essere riutilizzato per molte attività diverse. I LLM sono esempi di modelli di fondazione, in grado di essere specializzati per linguaggio, codice, immagini, audio, una combinazione di modalità oppure di essere multimodali. I modelli di fondazione possono anche essere perfezionati per applicazioni specializzate, come i chatbot.

Ricerche correlate

Articoli correlati