L’Intelligenza artificiale non è né intelligente né artificiale. È quanto sostiene, in un modo completamente condivisibile, l’esperta di Ia Cate Crawford in Atlas of Ai, Power, Politics, and the Planetary Costs of Artificial Intelligence . Già questo è un buon punto di partenza per porsi di fronte a questo nuovo hype sul tema, scaturito dal perfetto meccanismo di comunicazione che ha consentito ai creatori di ChatGpt di poter contare su un servizio di marketing gratuito da parte di migliaia di media in tutto il mondo. Un po’ tutti si sono voluti cimentare nel dire la propria sul chatbot di Open Ai, fino ad arrivare a porre domande esistenziali: questa chat porrà fine al mestiere di scrittore, autore, giornalista, insomma ormai l’Ia davvero già è pronta a rimpiazzarci?

Molte meno speculazioni sono arrivate da chi invece di Ia se ne occupa da tempo, o ci lavora, e osserva questo dibattito con un certo distacco. O non ne parla, o specifica che l’Ia non è ChatGpt, quanto la robotica, la possibilità di creare sistemi in grado di aiutarci (ad esempio nella medicina o nella cura degli anziani) in modo performante e senza porre in dubbio la nostra centralità umana che ora pare così a rischio (per l’Ia mica per i cambiamenti climatici, le guerre, le diseguaglianze).

Il fatto che l’intelligenza artificiale non sia né artificiale né intelligente è un punto di partenza da cui ne segue un altro: l’Ia è uno strumento di dominio. «A causa del capitale necessario per costruire l’Ia su larga scala e i modi per ottimizzarla, sono in definitiva progettati per servire gli interessi dominanti esistenti. In questo senso, l’intelligenza artificiale è un registro del potere», scrive ancora Crawford. È che per alimentare i sistemi di Ia servono soldi, tanti: è un modello estrattivo intanto, quindi servono risorse per catturare ogni momento nel quale regaliamo un dato per nutrire l’Ia, per lavorarlo (con il deep learning ad esempio) e per infilarlo all’interno di data set solitamente prodotti da maschi, bianchi, occidentali. Da qui ne consegue che l’Ia non è artificiale, perché riproduce i pregiudizi umani e anzi, nel suo modo di apprendere, finisce per aumentarne l’impatto sugli output, sulla risposta fornita dall’Ia (ad esempio una domanda posta a ChatGpt o a Siri, Alexa e compagnia). Non è intelligente, proprio perché non è in grado di “creare” e finisce per reiterare inesattezze e falsità che stanno a monte. Quindi, intanto, faremmo bene a non dimenticare il concetto di «tecnologia del dominio» introdotto da Donna Haraway: ci serve per spezzare i teorici dell’ineluttabilità del processo tecnologico e per ricordare se mai ce ne fosse ancora bisogno che la tecnologia non è neutra. Non dipende da chi la usa, come spesso viene detto alla ricerca di un buonismo tecnologico: dipende da chi ne è proprietario.

Da questo arriva un altro consiglio: la necessità di diffidare dal «tecno soluzionismo». Un esempio: durante la pandemia si è creduto che la tecnologia potesse essere “la” soluzione di fronte al dilagare del virus, per contenerlo. Si è quindi provveduto a creare diverse app di tracciamento, come Immuni. Sicuramente utili, in linea di principio. Ma non risolutive, contrariamente a quanto è stato più volte sostenuto dai «tecno-ottimisti». David Lyon, che da tempo si occupa di sorveglianza, lo ha ricordato nel suo ultimo libro, Gli occhi del virus, pandemia e sorveglianza. Sia i paesi democratici, sia quelli autoritari hanno utilizzato il sistema di tracciamento. E in tutti i paesi il sistema ha mostrato limiti o non ha proprio funzionato. E in diversi casi è stato utilizzato come uno strumento di controllo.

Alla base dell’Ia e del «tecno-soluzionismo» che ne deriva, c’è la raccolta dei dati: le aziende ne vogliono sempre di più, poco importa se questo – nell’immediato – risolve problemi. Intanto i dati li raccogliamo, sembrano dire le aziende, poi vedremo a cosa serviranno. Per come è scaturito il dibattito nostrano sull’Ia (e pure quello internazionale considerata l’enfasi data alla storia del programmatore che si è innamorato della sua chat, tanto da definirla «senziente», una eventualità romantica e da cui potrebbero scaturire interessanti trame di film e serie tv, ma fondamentalmente una cosa impossibile) è fondamentale ricordare che cosa sia «questo tipo» di Ia di cui parliamo: proprietaria, sostenuta dai soldi di grandi aziende che già possiedono moltissimi dati (non a caso Microsoft su ChatGpt vuole metterci 10 miliardi di dollari) e finalizzata a un utilizzo commerciale: ovvero per portarci a spendere di più, creare nuovi bisogni eccetera.

Non solo: la vicenda di Chat Gpt ci dice anche altre due cose del nostro tempo. Intanto la voglia di avere risposte rapide, immediate. Un paradosso considerando il mondo che ci circonda, sempre più complesso. In secondo luogo la smania per «questo tipo» di Ia punta all’omologazione, al rifiuto dello spirito critico, in nome di una «imparzialità» fittizia, tanto quanto l’intelligenza e l’artificialità dell’Ia. Anni fa Enzo Jannacci in Quelli che cantava «Quelli, quelli che: l’ha detto il telegiornale, l’ha detto il telegiornale. Han detto che piove… (l’ha detto il telegiornale), Va beh ma ho sen…(l’ha detto il telegiornale)». Ecco, oggi rischiamo che a dirlo sia «l’Ia» o quello che stanno cercando di farci credere sia l’Ia.