A volte una immagine vale più di 100 parole. Ho cercato su Google istruzioni su come usare il “cortisonico Clenil con il distanziatore”, prescritto dalla pediatra di mio figlio minore.

Il motore di ricerca mi spedisce sulla “solita” pagina di un sito italiano che regolarmente si piazza tra i primissimi risultati quando cerchi qualcosa sui farmaci e sulla salute. Ecco l’immagine:

 

Bella eh? Ottimamente illuminata! Ma subito noto qualcosa di strano. CLEMIL? Aterosolic? Strani numeri per i dosaggi? Flaconcini, ma anche uno stranissimo blister di oggetti che sembrano più mini assorbenti che non capsule?

Eh già, non c’è alcun dubbio. Stiamo guardando una immagine generata sinteticamente da un modello di intelligenza artificiale, forse Midjourney? forse DALL-E? No, ho trovato.

Quella qui sopra è una immagine generata da ChatGPT4-o, l’ultimo modello di OpenAI al momento in cui scrivo. Come faccio a saperlo? Beh ho scritto anche io un prompt chiedendo di generare una immagine del potente anestetico Fentanyl, un oppioide che purtroppo solo negli Usa sta facendo oltre 1500 morti alla settimana per overdose, e che come tutte le cose tremende che nascono oltreoceano, da Halloween a McDonalds, si sta tristemente diffondendo anche da noi.

La redazione consiglia:
Fentanyl, il business del dolore

Ecco l’immagine artificiale generata:

Una finta immagine di Fenttanyl generata dall'IA di ChatGpt-4o
Una finta immagine di Fenttanyl generata dall’IA di ChatGpt-4o

La prima domanda che mi sono posto è stata: “Ma a questo sito di informazioni sui farmaci, chi glielo fa fare di generare immagini con ChatGPT?”.

La mia ipotesi è che per alimentare un ritmo di pubblicazioni elevato (che premia con un risultato più “in alto” nei motori di ricerca) la generazione sintetica delle immagini velocizza molto il flusso redazionale. Prima ti dovevi andare a cercare una immagine vera ed includerla. Oggi invece voilà, ci pensa il sistema generativo in automatico.

La redazione consiglia:
Google, Nature e il supermercato di quartiere

Ma a che prezzo? Queste immagini sono ovviamente farlocche. Beh ovviamente sono false per me, che sono un medico. Ad esempio la dose riportata su quella scatola finta basterebbe per anestetizzare circa 6000 persone.

Mi domando però se immagini del genere potrebbero fuorviare un utente ignaro? Secondo me il pericolo c’è.

E poi mi sorge un dubbio atroce. Ma il sito in oggetto si limita a generare le immagini, oppure per sbrigarsi fa generare artificialmente – magari anche solo in parte – il contenuto scritto? E mi dico che, nel secondo caso, anche se ci fosse una supervisione umana, la distrazione è sempre dietro l’angolo, e trattandosi di consigli medici il rischio di un errore può arrivare sino alle estreme conseguenze.

Insomma, che i sistemi generativi si debbano usare solo in ambiti in cui inevitabili invenzioni non provochino danni gravi lo so bene, lavorandoci da un “paio” di anni.

La redazione consiglia:
Emozione artificiale e sofferenza naturale

Penso che il lettore debba sempre avere ben chiaro se sta leggendo o guardando qualcosa prodotto da un essere umano oppure prosa o immagini o video (oggi non abbiamo parlato di deep fakes o voci artificiali) generati artificialmente da macchine.

L’etichettatura dovrebbe essere un obbligo morale di chi pubblica, ancora prima di leggi che lo impongano.

Il confine tra realtà, opinioni, generazione e finzione sta diventando sempre più confuso. Da medico posso prescrivere un antidoto? Leggete il manifesto!