Poco si sa dello scrambling ai vertici di OpenAI, del siluramento del CEO Sam Altman, della minaccia di uno scisma che ne è seguito e del tentativo (pare) di marcia indietro, ma si capisce al volo che la questione gira attorno ai soldi. Quando ai portatori di interesse (leggi Microsoft) interessano solo quelli, alla guida delle macchine aziendali ci vanno persone con un robusto senso degli affari inquadrate in una chiara catena di comando, altro che quello strano meccanismo di governance messo in piedi dai geek del non-profit che fondarono la startup di ChatGPT.

Il passaggio di OpenAI dalla charity tutta (fintamente) votata alla “democratizzazione” della tecnologia a spina dorsale (nonché gallina dalle uova d’oro) di uno dei maggiori ordigni del capitalismo globale non poteva essere meno complesso e drammatico di come si sta rivelando.

Le avvisaglie di quanto sta accadendo si potevano già scorgere a metà Novembre, quando erano cambiate le terms and conditions per l’uso dei servizi targati GPT. Si trattava chiaramente di variazioni sul tema della difesa del profitto: si introducevano restrizioni alla possibilità di estrarre dati dal gigantesco language model e il divieto di usare le capacità generative di GPT per addestrare altri modelli potenzialmente concorrenti, inclusi quelli davvero “open”.

Ora: quando qualcuno sente l’urgenza di regolamentare qualcosa, è chiaro che si tratta di qualcosa di molto diffuso, pensiamo ad esempio il consumo di alcool, tabacco e altre sostanze. Se a poco tempo dal lancio di GPT4 e di nuove features che ne consentono anche una certa personalizzazione, OpenAI ha cambiato i termini e le condizioni per l’uso dei suoi generatori linguistici, evidentemente qualche pratica di “plagio del secondo ordine” stava rapidamente prendendo piede. C’era ad esempio chi addestrava il modello concorrente (relativamente) aperto LLama2 (Meta, cioè Facebook), proprio con l’output di GPT4, in una specie di vertiginosa mise en abyme che è forse anche una nemesi storica, visto il poco scrupolo con cui OpenAI aveva acquisito i dati per addestrare i suoi modelli un paio di anni fa.

La redazione consiglia:
Quell’algoritmo «velenoso» ci difenda

Ma non era proprio la “democratizzazione” dell’AI senza fini di lucro lo scopo sociale dichiarato di OpenAI? Ora che lo scopo sociale si può dire raggiunto, i geek invertono la rotta: cosa può aver loro fatto cambiare idea se non proprio l’idea di quel metallo, come cantava Figaro? Non che alla “democratizzazione” ci avessimo tanto creduto: una rete neurale da centinaia di miliardi di parametri non è che la puoi dar via in download. Peraltro, per addestrarla ci vogliono milioni, qualcuno deve metterli e poi riprenderseli con gli interessi, e da ciò consegue che il modello di business di GPT non poteva che basarsi, classicamente, sulla centralizzazione dei suoi servizi.

Ma le nuove terms and condition, assieme all’attuale psicodramma del board, dicono chiaramente che ora ci troviamo davanti alla più classica delle figure del capitalismo: chi riesce a sviluppare una capacità cerca di monopolizzarla e fa il possibile per ostacolare la concorrenza, altro che “democratizzare”.

Le mire monopolistiche non potranno però andare a segno solo in forza del gigantismo delle reti neurali generative: il numero dei modelli alternativi a GPT, di dimensioni assolutamente accessibili, cresce continuamente grazie a una ricerca che è sempre più febbrile. Non che i misteri che si celano nei miliardi di connessioni siano stati svelati (ciò è ben difficile che accada), ma ad esempio si sono sperimentate con successo tecniche di “quantizzazione” che permettono di ridurre notevolmente le dimensioni dei modelli, con poca differenza sul piano delle prestazioni. Insomma si tratta di fare “compressione”, un po’ come con le fotografie o i filmati.

La redazione consiglia:
La guerra dei microchip in un mondo di silicio

Dunque per garantirsi il monopolio dell’AI generativa, le big tech dovranno inventarsi qualcosa, e anche se a pensar male si fa peccato, qualcuno avanza l’ipotesi che nell’appello alla regolamentazione che si leva a gran voce dai big vi sia proprio il tentativo di rendere la vita difficile ai modelli aperti che si stanno affermando.

Ciò che sta avvenendo nella Silicon Valley e nel resto del mondo ci dice che il monopolio dell’AI non solo non è ineluttabile, ma forse neanche probabile, e che molte cose si possono fare anche in modo decentralizzato e sotto il controllo delle comunità locali. Questo avviene ad esempio in Francia con l’esperienza di Mistral, che vuole (forse perfino autenticamente) produrre un large language model aperto e dell’accento parigino. Se invece di starnazzare come galli sulla mondezza parlando di sovranità, o puntare tutto sulla burocrazia come sembra fare il PD con il suo recente (cosiddetto) “Digital Innovation Act”, la politica italiana volesse dare impulso allo sviluppo di buoni modelli aperti per la lingua del sì ecco: sarebbe perfettamente in grado di farlo.