Le politiche aziendali sull'IA sono l'insieme di regole operative di gestione relative al corretto utilizzo della tecnologia IA. Aiutano a rispettare la conformità, garantire la privacy dei dati e mantenere la sicurezza digitale.
Affinché una politica educhi efficacemente sulle migliori pratiche e mitighi il rischio, deve concentrarsi su diverse aree chiave. Tra queste troviamo:
Questa sezione di apertura ha lo scopo di chiarire l'intenzione della politica aziendale sull'IA. Dovrebbe anche specificare chi deve aderire ai suoi requisiti, come individui o agenzie esterne sotto contratto oltre ai dipendenti regolari.
Qui dovrebbero essere elencate le sole applicazioni relative all'IA il cui uso è approvato. Qui possono anche essere specificate le procedure di accesso corrette per ciascuna applicazione al fine di garantire la conformità, anche se i dettagli sensibili come le credenziali di accesso dovrebbero essere omessi. Queste possono invece essere fornite dalla direzione in modo sicuro su richiesta della persona che richiede l'accesso e/o durante il processo di onboarding.
Riassume il processo corretto per l'utilizzo dell'IA, ad esempio attraverso un elenco puntato, per aiutare gli utenti a comprendere i passaggi appropriati e a rispettarli. Questa è un'opportunità per implementare guardrail operativi e comunicare come dovrebbero essere gestiti le autorizzazioni, le comunicazioni interne, la garanzia della qualità dei contenuti generati dall'IA e l'accesso complessivo ai dati e agli strumenti concessi ai sistemi di IA. Inoltre, può essere utile specificare cosa fare se/quando si sospetta un rischio o una vulnerabilità correlata a quanto sopra.
Questa sezione dovrebbe chiarire quando, dove e come le applicazioni di IA approvate non devono essere utilizzate. Qui, se esistenti, dovrebbero essere incluse anche specifiche eccezioni ragionevoli. Come per il resto della politica, la terminologia scelta deve essere chiara, concisa e facile da seguire, riducendo al minimo il rischio di interpretazioni errate o confusione.
Questa sezione ricorda agli utenti di esaminare i termini e le condizioni degli strumenti di IA a cui sono autorizzati ad accedere, contribuendo a proteggere da abusi e/o problemi relativi alla responsabilità. Dovrebbe inoltre concentrarsi sull'importanza di mantenere la privacy dei dati ed evitare il plagio, rispettare i diritti di proprietà intellettuale e i loro titolari e non dare agli strumenti in questione l'accesso a informazioni riservate.
Qui vanno specificati gli organi direttivi e i regolamenti rispetto ai quali l'organizzazione, e per estensione il team, deve mantenere la conformità nell'utilizzo dell'IA. Questi dovrebbero includere gli atti legislativi approvati ed eventuali requisiti per il tuo team legale, di sicurezza e/o IT.
Divisa in più priorità strategiche ma unificata nella sua missione, la strategia di IA pan-canadese ha come obiettivo "portare benefici sociali, economici e ambientali positivi per le persone e il pianeta".
Si tratta di una raccolta di documentazione relativa a ricerche, politiche e ingegneria incentrata sull’avanzamento dell'IA in modo etico e responsabile. A maggio 2024, Microsoft ha anche pubblicato il suo Responsible AI Transparency Report, che copre tutti gli aspetti, dalla mappatura, alla misurazione e gestione dei rischi dell'IA, alla creazione di modelli di IA di frontiera sicuri e responsabili.
Il NIST ha lavorato a stretto contatto con le principali parti interessate del settore pubblico e privato e con le agenzie federali per sviluppare nuovi standard per l'IA. Il NIST è "fortemente impegnato negli sforzi statunitensi e internazionali in materia di politiche sull'IA come l'US-EU Trade and Technology Council, l'OECD, il Consiglio d'Europa, il Dialogo quadrilaterale sulla sicurezza" e diverse altre iniziative. Il NIST sta inoltre collaborando con l'Amministrazione del commercio internazionale del Dipartimento del Commercio degli Stati Uniti e il Dipartimento di Stato degli Stati Uniti nell'ambito di questi sforzi.
Nel luglio 2024, il NIST ha anche pubblicato quattro pubblicazioni che "intendono contribuire a migliorare la sicurezza e l'affidabilità dei sistemi di IA". Tra cui:
L'etica dell'IA implica principi e linee guida che regolano lo sviluppo, l'implementazione e l'uso responsabili dei sistemi di IA. Affronta questioni come l'allineamento, l'equità, la responsabilità, la trasparenza, la privacy, il rischio e l'impatto sociale delle tecnologie di IA.
Un report pubblicato sui OpenAI (arXiv:2307.03718: Frontier AI Regulation: Managing Emerging Risks to Public Safety) evidenzia diverse sfide associate alla regolamentazione dei modelli di IA di frontiera per garantire la salvaguardia degli utenti. Afferma che "i modelli di IA di frontiera rappresentano una sfida normativa unica: le capacità pericolose possono sorgere inaspettatamente. È difficile impedire in modo robusto che un modello implementato venga utilizzato in modo improprio ed è difficile impedire che le capacità di un modello proliferino ampiamente".
Inoltre, il riepilogo del report rileva che ci sono "almeno tre elementi costitutivi" necessari per la regolamentazione:
Ricerche correlate
Articoli correlati