La regolamentazione dell’intelligenza artificiale
Tra etica dell’intelligenza artificiale responsabilità, tra innovazione e trasparenza
Ci siamo ormai tutti immersi, la usiamo, ci offre degli spunti preziosissimi, ma poco si parla di regolamentazione dell’intelligenza artificiale e ancor meno si prendono in considerazione le implicazioni etiche legate all’utilizzo dell’intelligenza artificiale in azienda.
Siamo in un periodo particolare e anche un po’ critico, secondo me, ma per certi versi paragonabile ad un momento che tutti abbiamo conosciuto: la mattina di Natale.
Hai appena ricevuto in dono l’oggetto che più brami: un computer con il rivoluzionario Windows 95, o il Dolceforno, o un manuale di D&D, oppure magari una chitarra, in ogni caso un qualsiasi “tool” con cui interagire per generare o produrre qualcos’altro (dalla dopamina, ai mostriciattoli di gel… che bei tempi..).
Da una parte hai la smania di giocare, provare, suonare, utilizzare questo strumento e padroneggiarlo. Dall’altra però ci sono libretti di istruzioni da leggere, studiare e imparare, teoria da approfondire, tutta roba un po’ meno entusiasmante del toccare e provare con mano, ammettiamolo.
Dopo arrivava la pratica, il doverci prendere la mano in modo da utilizzarlo al meglio, in modo da farlo tuo ed essere tu a governarlo.
Con la l’intelligenza artificiale (AI), siamo nel punto in cui stiamo provando e iniziando ad usarla, più o meno da autodidatti, ci affascina, ci esalta, ma non abbiamo un libretto di istruzioni, una regolamentazione dell’intelligenza artificiale che ci dica come utilizzarla e applicarla.
E questo, diciamolo… fa paura.
La regolamentazione Europea dell’intelligenza artificiale: l’AI Act.

Nel 2021, ci è venuta in aiuto la Comunità Europea (che in questo caso ci fa un po’ da genitor* dicendo come non rompere il nuovo giocattolo, o spiegandoci per evitare che diventi dannoso per i nostri fratelli e per l’ambiente domestico), che ha proposto questo primo quadro normativo per garantire un uso sicuro, trasparente ed etico dell’AI. Come? favorendo sì l’innovazione di tutti gli Stati membri, ma attraverso regole che tutelino i diritti fondamentali dei cittadini.
L’AI Act fornisce una prima regolamentazione dell’intelligenza artificiale, che attraverso una classificazione in 4 gruppi, categorizza il rischio che comporta l’applicazione dell’Intelligenza Artificiale in vari ambiti:
- Rischio minimo: Sistemi che presentano pochi o nessun rischio, come quelli utilizzati per il trattamento di dati generali. Questi non sono soggetti a regolamentazioni particolari.
- Rischio limitato: Sistemi che hanno un impatto moderato sui diritti e la sicurezza degli utenti, come i chatbot. Per questi sistemi, l’AI Act prevede alcune misure di trasparenza, come l’obbligo di informare gli utenti che stanno interagendo con un’AI.
- Alto rischio: Sistemi che presentano rischi significativi per la sicurezza, i diritti e la libertà degli utenti, come quelli utilizzati nei settori della sanità, dei trasporti o nel settore pubblico (ad esempio, per la giustizia penale). Questi sistemi sono soggetti a rigorose valutazioni di conformità, che includono la necessità di trasparenza, supervisione umana, sicurezza dei dati e la possibilità di audit.
- Rischio inaccettabile: Sistemi che sono considerati troppo pericolosi per essere utilizzati in qualsiasi contesto, come i sistemi di AI per il “social scoring” (come quelli utilizzati per classificare le persone sulla base del comportamento sociale). Questi sono vietati in modo esplicito.
Ovviamente sulla base di questi parametri ci sono conseguenti azioni che l’AI Act impone di applicare: dalla supervisione umana, a certificazioni di conformità, alla tracciabilità e a vere e proprie sanzioni.
Da questi punti però è chiaro che non è tanto la tipologia di AI (generativa, predittiva…) che ne definisce il rischio, bensì lo scopo di applicazione deciso dall’essere umano…
E anche questo, diciamolo, fa paura.
Etica e Intelligenza Artificiale: la responsabilità di come utilizzare la AI
Ci serve l’Etica, c’è poco da fare.
Come possiamo assicurarci che l’AI non alimenti pregiudizi o venga utilizzata in modo dannoso per la privacy o la libertà individuale? è necessario stabilire delle regole sociali ed etiche chiare e funzionali che aiutino a determinare un’applicazione dell’AI in modo sicuro, consapevole e tutelante.
Parliamo ad esempio di dati. L’AI “impara” dai dati che vengono inseriti dall’essere umano.
Se i dati raccolti sono di bassa qualità o parziali, il rischio è che l’intelligenza artificiale perpetui errori, discriminazioni e che continui a produrre baias troppo evidenti da non poterne tener conto. Questo non riguarda solo il marketing, la generazione di immagini o di contenuti: è parte di ogni settore in cui l’AI viene utilizzata, proprio perché i dati di partenza erano non del tutto inclusivi.
Nel ruolo che ricopriamo professionalmente, dobbiamo quindi chiederci: come gestiamo i dati che alimentano l’AI? Li raccogliamo in modo trasparente? Abbiamo il consenso degli utenti? Come possiamo evitare che l’AI prenda decisioni che possano minare la fiducia del nostro pubblico?
Etica e approccio Human Centred per creare un utilizzo dell’intelligenza artificiale per tutt*

L’Intelligenza Artificiale è quindi lo specchio dei comportamenti (dati) che noi esseri umani le stiamo “insegnando”. Ma se i dati molto spesso sono discriminatori perché basati su una porzione di popolazione, la maggioranza, senza tener conto di variabili o “numeri” meno evidenti, il quadro che ci restituirà l’AI è per ovvie ragioni, incompleto.
La trasparenza, la capacità di recepire e correggere gli algoritmi, laddove non si comportano seguendo i valori aziendali e personali, o la responsabilità di monitorare gli effetti delle decisioni automatizzate sono compiti che è nostra responsabilità portare avanti e non delegare.
Queste macro questioni, che sembrano molto distanti dal lavoro di ogni giorno, sono però già visibili nel linguaggio con cui molte aziende stanno comunicando. Far generare testi a ChatGPT o a Gemini senza padroneggiare la costruzione di prompt complessi, ma soprattutto senza far propri e rielaborare i concetti e i temi proposti dall’AI generativa, in modo che siano le persone e l’Azienda a parlare, è un errore grandissimo, con conseguenze a lungo termine.
Dalla regolamentazione dell’Intelligenza Artificiale all’Etica delle Aziende
Siamo solo agli inizi di un’era in cui l’AI svolgerà un ruolo sempre più centrale nelle nostre vite e nelle nostre professioni. I manager della comunicazione e del marketing si trovano davanti a un’opportunità unica: quella di guidare l’adozione dell’AI in modo etico, responsabile e consapevole. Ma per farlo, dobbiamo prima confrontarci con la domanda cruciale: Qual è la nostra responsabilità nella progettazione, implementazione e regolamentazione dell’intelligenza artificiale, per garantire che il suo impatto sul mondo non sia solo positivo, ma anche giusto?
E se, invece di avere paura che l’AI prenda il nostro posto, la vera paura fosse dimenticare il nostro ruolo di esseri umani nel dare un senso a tutto ciò che l’AI è in grado di fare?
Per approfondire:
Una Newsletter perfetta, unica nel suo genere, che letteralmente narra i dati in un modo nuovo!
Più informazioni sulla regolamentazione dell’intelligenza artificiale in Europa, l’AI Act