Oggi è previsto il varo da parte della Commissione europea di un testo volto a disciplinare i confini dell’intelligenza artificiale. Si tratta, ovviamente, dell’inizio di un percorso, che porterà ad un Regolamento impegnativo e certamente inedito.

Chi legge potrebbe utilmente obiettare che sarebbe un buon risultato avere l’intelligenza normale. Già. Ma il tempo digitale incombe e ci impone di cambiare profondamente i nostri modelli cognitivi, l’approccio ad una realtà di cui la componente virtuale è un ingrediente fondamentale.

Dopo il Regolamento sulla privacy (n.679/2016) e, nel contesto dei due significativi articolati Digital Services Act e Digital Markets Act volti a limitare il potere assoluto degli oligarchi della rete, ecco delinearsi sessantanove articoli ed otto annessi che delineano l’approccio europeo sull’IA. Già nel febbraio del 2020 era stato varato, anticipando i contenuti odierni, uno specifico Libro bianco.

Insomma, qualcosa si muove sotto il cielo di Bruxelles. Sembra invertirsi la rotta rispetto ai trattati degli anni novanta del secolo scorso (e scorso non solo nel calendario) e alle logiche quasi paranoiche della concorrenza e delle privatizzazioni.

L’interesse delle aziende e la liberalizzazione spinta dei mercati avevano segnato quasi l’intero quadro delle direttive comunitarie, contribuendo paradossalmente a fomentare le concentrazioni economiche e finanziarie, piuttosto che a frenarle. Secondo le indicazioni generali ben descritte dal super miliardario Warren Buffett, vale a dire la lotta di classe al rovescio vinta dai ricchi.

Nell’età numerica, peraltro inseguita a vista dai computer quantici (la celebrata fisica quantistica di cui è testimonial mediatico Carlo rovelli), gli squilibri si sono incredibilmente moltiplicati. Al punto che le antiche versioni analogiche del diritto sembrano ormai inadeguate nell’interazione con la cosiddetta plenitudine digitale: il flusso continuo ed eclettico, che sovverte consuetudini e gerarchie. La velocità futurista dei social è solo un assaggio.

Il provvedimento sull’AI si pone finalmente dal punto di osservazione delle persone in carne e ossa, che non possono essere annientate dalle sofisticatissime macchine algoritmiche arricchite anche dai miliardi di dati carpiti e sottratti alle spesso ignare soggettività naviganti. Spicca il titolo secondo, che proibisce alcune pratiche pericolose e nocive, con sanzioni piuttosto aspre verso i trasgressori.

I rischi vengono classificati. Sotto controllo vi sono quelli ritenuti alti. Lì scatta il cartellino rosso. Parliamo dei casi di sorveglianza di massa e del ricorso massivo (né temporaneo, né confinato a casistiche particolari) al riconoscimento facciale. Ovviamente, il tema diviene delicatissimo e rigidamente verificato laddove i dispositivi tecnologici si applichino alla salute e alle iniziative mediche.

Non è chiaro se analoga attenzione, però, è dedicata all’inquietante ingresso dei robot nelle strutture editoriali e nelle varie forme della produzione culturale. E sembra rimossa l’enorme questione degli utilizzi a fini militari dell’intelligenza artificiale. Vedremo in corso d’opera.

L’articolo 50 disegna un organismo di vigilanza composto dai diversi stati dell’unione, coordinato con le autorità nazionali. Al solito, è da capire quale sarà il grado di autonomia e di potenzialità coercitiva. Quante volte a buone leggi non è seguita un’azione effettiva, non contro le piccole trasgressioni, bensì nei confronti degli sfuggenti e impermeabili gerarchi Over The Top. Comunque, pare un passo avanti, dopo anni di complice subalternità al predominio assoluto di tecniche avulse da un indirizzo governato e sostenibile.

Norbert Wiener, Alan Turing, Giulio Maccacaro, Marcello Cini – per citare solo alcune figure significative- furono tra i sostenitori di ipotesi alternative e non subalterne al determinismo tecnologico. Non tutto ciò che è possibile fare si deve fare.
Lo sviluppo meramente quantitativo è diventato non solo una odiosa tendenza del capitale liberista, bensì la condanna per la sopravvivenza dell’umanità.