Nella fantasmagorica proliferazione di studi dedicati alle tecnologie digitali non potevano mancare i software studies, che nell’accademia anglosassone hanno come docenti filosofi, giuristi, antropologi, informatici e critici d’arte. Al di là della genericità del loro statuto – si occupano un po’ di tutto, dal ruolo del software nell’economia digitale alla estetica delle interfaccia umani/computer – gli studi sul software affrontano il ruolo sempre più rilevante degli algoritmi nel definire e consolidare i rapporti di potere e sociali dominanti nel capitalismo. Gli algoritmi vengono indagati come «oggetti tecnico-sociali» che hanno una duplice funzione: rispecchiare, appunto, i rapporti sociali dominanti e, al tempo stesso, prefigurare quelli a venire all’interno di una conferma dei rapporti di potere esistenti.

FACENDO PROPRIA la tesi del filosofo francese Gilbert Simondon sulla tecnica, gli algoritmi sono analizzati a partire dalla connotazione sociale che presiede il loro uso. E se per Simondon questo significava affrontare la dimensione psicosociale e la storicità degli oggetti tecnici, per comprendere il potere «politico» degli algoritmi e del software nel capitalismo delle piattaforme è determinante la ritualizzazione e la magicità che accompagna il loro uso. È quindi rilevante la decostruzione di quella che Simondon chiama «tecnofania» – ad esempio le leggende e l’alone di mistero che circonda l’algoritmo Page Rank di Google – che accompagna gli algoritmi: «tecnofania» che consolida, occultandolo, l’ordine del discorso sulla non neutralità del software, quasi che le procedure per la risoluzione di un problema siano equiparabili a fenomeni oggettivi, naturali.
È questo il background teorico della network culture dominante da cui prendono le mosse e distanza due esponenti dei software studies considerati pionieri e massimi esponenti di questa disciplina nonostante la loro giovane età. Il primo è Ed Finn, docente all’Arizon State University, con una formazione che si avvicina più allo studioso di estetica che di informatico. È autore di Che cosa vogliono gli algoritmi (Einaudi, pp. 236, euro 20), libro nel quale è scandita l’adesione a una etica hacker – aprire la scatola nera degli algoritmi – e in cui è forte l’influsso sia di Simondon che di Gilles Deleuze, Donna Haraway e Benjamin Bratton, autore del fondamentale saggio The Stack (Mit Press), che attende purtroppo ancora una traduzione italiana.

IL SECONDO STUDIOSO è Luciano Floridi, filosofo della comunicazione di origine italiana: insegna da anni alla Oxford University, dirigendo al tempo stesso il Data Ethic Group dell’Alan Turing Institute. Per Floridi lo studio degli algoritmi è propedeutico alla comprensione della Quarta rivoluzione, cioè di Come l’infosfera sta cambiando il mondo, come recita il sottotitolo del libro da poco pubblicato in Italia da Raffaello Cortina (pp. 285, euro 24). Anche in questo caso, gli algoritmi giocano un ruolo rilevante nel tratteggiare le contraddizioni di un mondo retto da una logica che fa della calcolabilità la sua caratteristica principale.

IL PRIMO SCOGLIO che i due autori si propongono di aggirare è la definizione di algoritmi, meglio del significato sociale che è associato a questo termine. Una macchina culturale o una tecnologia cognitiva per Finn; una sequenza di operazioni per la risoluzione di un problema, gli fa eco Floridi. In entrambi i casi, lo scoglio è evitato. Sono necessarie, però, alcune precisazioni per comprendere conquali modalità venga aggirato. Una macchina culturale è sempre un aggregato di astrazioni, di processi cognitivi, di uomini e donne che interagiscono per definire e risolvere un problema. Già in questo emerge che un algoritmo, e il successivo software per tradurlo in operazioni che una macchina «stupida» come un computer può eseguire, è un prodotto sociale che contribuisce alla edificazione di una «cattedrale computazionale» e della conseguente «teocrazia computazionale» necessaria per gestirla. Gli informatici, i fisici, gli ingegneri sono i sacerdoti di una logica computazionale che si propone di indirizzare lo sviluppo delle società.

LA TENSIONE TEORICA deve tuttavia tenere insieme l’«architettura del codice» e la complessa rete delle relazioni che lega lavoratori della conoscenza, imprenditori della Rete all’interno di una vera e propria ideologia, quella della «calcolabilità effettiva», cioè all’idea di poter calcolare e ridurre matematicamente la vita umana. Insomma, la «calcolabilità effettiva» è resa possibile da una subalternità dei lavoratori della conoscenza imposta politicamente attraverso la deregolamentazione del mercato del lavoro (la precarietà è molto diffusa nella Silicon Valley) e le norme sulle proprietà intellettuale, che definiscono la linea di condotta – il segreto industriale, la brevettabilità del software, il divieto di condividere la conoscenza tecnica scientifica. Come rompere questa alleanza sociale interclassista e l’egemonia culturale della calcolabilità effettiva non è interesse di nessuno dei due autori.
C’è inoltre un passaggio della calcolabilità effettiva che è poco sottolineato. È quello che vede il predominio della probabilità e la conseguente adattabilità di interfacce e piattaforme digitali su ciò che impone, appunto, la probabilità dei comportamenti individuali e collettivi. In questo caso, gli algoritmi servono a dare forma e sostanza a una macchina cognitiva che fa della probabilità non solo un possibile esito di dinamiche sociali in continuo divenire, ma la leva per sviluppare soluzioni alle quali gli uomini e le donne devono conformarsi, adattarsi. E quello che sembrava debole rispetto alla certezza inseguita da matematici, ingegneri e fisici manifesta invece una sua potenza ordinatrice del mondo.

IN QUESTO SCHEMA ANALITICO c’è la sottolineatura della capacità di una macchina culturale di plasmare la realtà e il modo con il quale gli umani si rapportano alla natura come un mondo da conquistare. La logica computazionale è quindi funzionale a quell’«era dell’antropocene» che atterrisce ecologisti, antropologi e non pochi filosofi, dato che è l’era dove sono irreversibili – e potenzialmente autodistruttivi – i cambiamenti introdotti dagli umani nell’habitat naturale. Ma di questo spinoso argomento non c’è traccia nei due saggi.
Più interessanti sono invece le analisi che entrambi gli autori fanno dell’«economia delle piattaforme». Le big five della Rete (Amazon , Google, Facebook, Apple e Microsoft), ma ormai quasi tutte le imprese capitalistiche, si basano su algoritmi che devono anticipare i comportamenti collettivi per introdurre vincoli, divieti e zone off-limiti ai desideri e ai bisogni individuali e sociali.

MANIFESTANO quindi una dimensione performativa sulla realtà: per questo devono rispondere, conversare, anticipare le domande dei singoli. Da qui il proliferare di call center e dispositivi digitali tesi all’interattività con l’utente, la formula magica della «logica computazionale» dominante.
A ciò si affianca la costruzione dell’«uomo algoritmico», cioè di un umano che si muove secondo i princìpi della calcolabilità effettiva. È questo, d’altronde, l’obiettivo della «teocrazia computazionale». E del capitalismo delle piattaforme. L’«uomo algoritmico» ha caratteristiche che non differiscono molto da quanto postulato dalle teste d’uovo neoliberiste per definire l’imprenditore di se stesso. Ma se l’imprenditore di se stesso deve far valere sul mercato il proprio capitale umano, l’«uomo algoritmico» è l’esito di una astrazione matematica di quel capitale umano. Allo stesso tempo, sembrano ricalcate sulla spostamento del potere economico dagli Stati Uniti alla Cina le parole chiave della «logica computazionale»: accentramento politico, un certo autoritarismo per favorire innovazione e sperimentazione.

SIGNIFICATIVI SONO GLI ESEMPI di come gli algoritmi siano determinanti nel capitalismo delle piattaforme. Netflix è infatti descritta come macchina culturale che si fonda sul lavoro mal pagato degli «etichettatori», cioè di coloro che appongono tag a merci – poco importa se materiali e immateriali – da vendere come strumento di promozione di sviluppo di attenzione, una delle merci rare della vita on line.
Rilevante è anche l’analisi sulla cosiddetta gamification, cioè a quell’attività della industria dei videogiochi quando traducono le realtà sociali in una forma giocabile all’interno di una cornice gerarchica funzionale al capitalismo delle piattaforme. Oppure alla «apoptosi politica», cioè a quel processo di autocorrezione del Politico per essere ferocemente compatibile con gli altrettanto ferrei rapporti di produzione capitalistici.

DUE LIBRI IMPORTANTI che coprono un vuoto nel panorama intellettuale italiano, quello appunto sul ruolo del software, la sua non neutralità nel definire, legittimare i rapporti sociali dominanti. Un aspetto senza il quale ogni analisi critica del capitalismo delle piattaforme, megli del capitalismo contemporaneo risulta parziale.