Anche le ricercatrici e i ricercatori scientifici, nonostante la notevole dote di intelligenza naturale a loro disposizione, devono fare i conti che le opportunità e le insidie di quella artificiale. Una rete neurale come ChatGpt può intervenire in tutte le fasi della ricerca scientifica. Potrebbe aiutare uno scienziato a individuare le linee di ricerca più promettenti. Oppure, scovare correlazioni nei dati meglio degli strumenti tradizionali. Infine, accelerare il lavoro di redazione degli articoli scientifici.

Non è impensabile, e questo è lo scenario che più interroga la comunità scientifica, che presto o tardi l’intelligenza artificiale (Ia) assuma su di sé l’intero processo di innovazione della conoscenza. Sono già numerose le ricerche in cui gli autori dichiarano che il contenuto è da attribuire almeno in parte all’Ia. Nelle ultime settimane ne sono comparse altre che annoverano ChatGpt direttamente tra gli autori, con pari dignità dei colleghi umani.

Di fronte a questa prospettiva, le riviste scientifiche Science e Nature, le più influenti e dalle cui pubblicazioni può dipendere la carriera di un ricercatore, hanno messo paletti chiari: l’Ia non è uno scienziato e non potrà figurare tra gli autori delle scoperte. Troppo alto il rischio di pubblicare contenuti non originali e magari sbagliati.

«In un’epoca in cui cresce la sfiducia nei confronti della scienza, è fondamentale che gli scienziati dedichino la massima attenzione ai dettagli» ha scritto Holden Thorp, direttore di Science. «La trasparenza nei metodi e l’onestà e la verità da parte degli autori sono le fondamenta su cui si basa il progresso scientifico» e l’Ia non fornisce sufficienti garanzie, recita l’editoriale di Nature.

Le preoccupazioni non sembrano infondate. Un team di psichiatri dell’università di Amsterdam, ad esempio, ha mostrato che ChatGpt compie errori grossolani quando deve sintetizzare le conoscenze acquisite in un campo di ricerca di elevato impatto sociale, come l’efficacia dei farmaci anti-depressivi. Anche nel mondo dell’istruzione i docenti più innovativi stanno usando ChatGpt per così dire «al contrario», chiedendo agli studenti di correggere le soluzioni a semplici problemi di fisica e matematica su cui l’intelligenza artificiale sbaglia con frequenza allarmante.

Allo stesso tempo, tuttavia, fuori dalle scienze più «dure» ChatGpt è in grado di superare i filtri della valutazione umana. In un esperimento svolto alla Northwestern University di Chicago (Usa), un gruppo di esperti umani ha saputo rilevare il contributo dell’intelligenza artificiale solo nel 66% dei testi di argomento medico scritti da ChatGpt. Che ha pure superato esami universitari di giurisprudenza e economia – anche se con votazioni piuttosto basse, a dire dei docenti delle università del Minnesota e della Pennsylvania che hanno dovuto valutarli.

I meccanismi di controllo nel tempo potranno essere perfezionati. Ma subappaltare la scienza alle macchine rischia di sovvertire le regole che si è data la comunità scientifica. Come il sistema dei brevetti, con cui si premiano le tecnologie innovative attribuendo un monopolio ventennale ai loro inventori.

Anche in questo ambito iniziano a comparire le prime «invenzioni» messe a punto dall’Ia. Le regole attuali, fanno notare i giuristi australiani Alexandra George e Toby Walsh in un commento su Nature, si rivelano inadatte nell’attribuire la paternità e il tasso di innovazione delle tecnologie: ogni invenzione compiuta da un’Ia rischia infatti di apparire ovvia rendendone impossibile la brevettabilità.

Dire addio alla proprietà intellettuale – non un male di per sé – potrebbe però disincentivare le ricerche in campi fondamentali come quello dei farmaci, con un danno per tutta la società. «Invece di forzare la vecchia legge sui brevetti per adattarsi alle nuove tecnologie – scrivono George e Walsh – proponiamo che i governi elaborino un nuovo diritto brevettuale che protegga le invenzioni delle intelligenze artificiali».

L’aumento del rischio di frodi e le controversie legali sui brevetti potrebbero essere solo i primi segnali che l’impatto dell’Ia sul mondo della ricerca è più vasto di quanto pensiamo. A partire dall’era moderna, la società ha architettato un delicato equilibrio di incentivi (prestigio, carriere, premi) e disincentivi (i monopoli brevettuali) per stimolare la comunità scientifica a perseguire ricerche innovative. Questo sistema di regole è strettamente legato alla natura umanissima dello scienziato, dotato come tutti di immaginazione, ambizione, idiosincrasie. Se il fattore umano ne venisse espulso, l’architettura della scienza che ha funzionato per secoli rischia di crollare.