Non è facile riconoscere le immagini e i progetti generati da AI e le Big Tech stanno lavorando su accordi etici su questo tema: Paolo Bottazzini dell'Università Statale di Milano ci ha spiegato cosa sta succedendo

il mondo occidentale si sta chiedendo come rendere riconoscibile un'immagine generata da AI. L’amministrazione Biden ha lavorato molto per spingere le più importanti tech company del mondo a lavorare sulla trasparenza etica e ad aderire al Processo Hiroshima.

È importante, per ragioni ovvie ma anche per rassicurare le persone sulla propria autonomia di giudizio.

Leggi anche: la nuova autorialità nell'era di AI

L’AI potrebbe sostituirsi a un designer competente e di talento?

Un esempio che potrebbe avere a che fare con il nostro mondo, quello del design, per rendere più chiaro il problema.

Immaginiamo di osservare un nuovo prodotto. È bello, funzionale, impeccabile dal punto di vista dell’innovazione, della sostenibilità e dell’intelligenza che sostiene l’intero processo progettuale.

Immaginiamo che venda bene, che risolva un problema serio, che non rappresenti un pericolo per la salute umana o per quella del pianeta. L’oggetto finisce davanti alla commissione dell’ADI.

Ecco, in questo frangente in cui sono la creatività e l’intelligenza produttiva umana ad essere premiate, è fondamentale sapere che se ci troviamo di fronte a un'immagine generata da AI (e al prodotto che ne deriva) oppure no.

Per rassicurare, soprattutto sul fattore umano. Abbiamo molto bisogno di riconoscerci nella creatività prodotta nel nostro tempo, e ammettiamolo: non siamo ancora sicuri di volere una relazione prossemica con oggetti che non sappiamo da chi o cosa sono progettati.

Perché è importante distinguere fra tecnologia generativa e cervello umano

È lo stesso tipo di prudenza che utilizziamo quando diamo siamo di fronte a qualsiasi novità. Il cervello umano non ama il cambiamento. Con l’aggravante, in questo caso, di un tema etico veramente delicato.

L’amministrazione Biden sta infatti prendendo molto sul serio la questione e, in vista delle elezioni del 2024, sta attuando rapidamente una serie di decreti in tema di ordine pubblico, sicurezza nazionale, salute e protezione dei cittadini da bias razziali e di genere. E di fake news, ovviamente, che sono il più grande problema quando si parla di immagini generate da AI.

Come distinguere un'immagine generata da AI da una man made?

Lo abbiamo chiesto a Paolo Bottazzini, professore di Social network analysis al dipartimento di filosofia dell’Università Statale di Milano e founder di VentunoLab.

“C’è una ragione precisa per cui l'attuale amministrazione americana si sta preoccupando dei problemi etici legati all’uso dell’AI: le prossime elezioni presidenziali.

Ma a parte il problema contingente, negli Stati Uniti l’emergenza è legata anche al più diffuso utilizzo di AI da parte del sistema amministrativo e giudiziario.

L’intelligenza artificiale è usata nei tribunali per velocizzare l’analisi dei casi pregressi, che informano costantemente il sistema legale.

Inoltre la polizia utilizza l’AI per fare analisi preventive e i bias razziali e di genere sono molto probabili perché di fatto il machine learning è stimolato da prompt umani”.

Tornando però ai prodotti creativi, è possibile riconoscere un testo o un’immagine generata da AI?

Continua Bottazzini: “Ovviamente è possibile, ma può richiedere tempo. E quel tempo sarà sempre superiore a quello che l'immagine fake impiega per fare il giro del mondo. La verità è che non c’è un sistema, una pratica o un meccanismo che veramente possa impedire la diffusione di un fake. Che, ricordiamolo, è un'immagine generata da AI che però non si dichiara tali.

La tecnologia generativa è estremamente aperta, accessibile praticamente a chiunque e semplice da usare.

Le leggi, da questo punto di vista, servono per poter perseguire chi fa un uso non etico dell’AI. Non solo nel caso di notizie o immagini, ma anche in casi molto più gravi per la sicurezza delle persone”.

Cosa dice il testo dell’Hiroshima Process

Recentemente i più importanti player del settore AI, Amazon, Open Ai, Microsoft, Google, Meta, hanno concordato un codice volontario di condotta che sancisce delle direttive etiche condivise sui progetti AI.

“Bisogna sottolineare che molte tech company hanno integrato da tempo dei codici etici all’interno dei propri documenti fondativi. Quindi il tema non è nuovo.

Allo stato attuale le misure prese ad esempio per rendere distinguibile un’immagine AI da una analogica sono spesso ingenue. Mettere un marchio watercolor su un’immagine digitale o integrare metainformazioni all’interno dei pixel non è assolutamente sufficiente per avere certezze. Sono tutti sistemi facilmente superabili da praticamente qualunque programmatore o esperto di immagini digitali”.

Per ora buon senso e etica sono l'arma più utile contro i fake

Quindi cosa rimane per renderci autonomi nell’analisi di una notizia? “Il buon senso”, dice Bottazzini. “Le parti radicali della società, come quelle rappresentate ad esempio da Trump, hanno mostrato grande capacità di organizzazione e una buona misura di audacia.

Ma rimane il fatto che non brillano per raffinatezza: diciamo che se domani mattina una foto di Biden che commette un crimine, o ancora meglio un video, comincia a circolare in rete, abbiamo il buon senso di farci delle serie domande sulla sua autenticità. Viene ovvio pensare che sia un'immagine generata da AI.

Rimane però, ovviamente, l’urgenza di un’etica condivisa, che è il primo vero tassello dell’uso corretto dell’AI”.

Perché tutto, come al solito, dipende dalle intenzioni di chi programma la macchina, di chi ne costruisce il software e l'hardware e progetta il processo di machine learning.

In questo senso l’Hiroshima Process garantisce la volontà delle big tech di agire in modo trasparente nei confronti delle istituzioni. Un grande passo avanti, perché su quella base condivisa i singoli governi potranno cominciare a ragionare e a costruire un’infrastruttura legale.

I brand europei stanno procedendo con prudenza

Per quanto riguarda invece l’uso dell’AI all’interno delle aziende, il discorso in Europa è ancora al di là da essere urgente. “I brand sono restii a integrare l’AI nei propri processi, lo fanno in questo momento a un livello micro procedurale.

È una questione di diffidenza ma anche identitaria: l’AI è destinata a diventare una commodity simile al wi-fi: qualcosa che diamo per scontato sia come servizio che come utilizzo.

Già ora abbiamo a che fare quotidianamente, in modo spesso inconsapevole, con l’AI e non ne siamo minimamente disturbati, perché di fatto è qualcosa che migliora e velocizza enormemente i servizi delle aziende”.

Ma da qui a lasciare che l’AI diventi pervasiva nei processi progettuali o strategici, il passo è veramente grande, conclude Paolo Bottazzini.

 

L'AUTORE DELLE IMMAGINI di questo articolo è Arturo Tedeschi architetto, designer computazionale e scrittore italiano. È il fondatore dell'omonimo studio di architettura e consulenza di design che promuove una progettazione basata sull'uso (creativo) degli algoritmi.