Viviamo in un’epoca definita da una connettività senza precedenti e da una crescente digitalizzazione di ogni aspetto della nostra vita. I sistemi di intelligenza artificiale sono diventati centrali in questa trasformazione, spesso operando da posizioni di controllo che permettono loro di osservare costantemente il nostro comportamento e prendere decisioni importanti che ci riguardano. Tra questi, i sistemi di raccomandazione e, in misura minore, quelli di reputazione online, hanno assunto un ruolo predominante, agendo come nuovi “guardiani della soglia” nel vasto oceano digitale. Non sono più le persone a fare da intermediari che abbinano artisti e pubblico, venditori e acquirenti, o articoli e lettori; ora sono spesso algoritmi intelligenti a svolgere questa funzione. Questa transizione solleva questioni fondamentali sulla fiducia che possiamo riporre in questi sistemi.
La Logica Dietro l’Efficacia
Per comprendere il funzionamento di questi sistemi, è utile considerare la loro evoluzione. Storicamente, l’intelligenza artificiale ha cercato di replicare il ragionamento umano esplicito, basandosi su regole logiche e basi di conoscenza scritte in forma comprensibile. Questo approccio, noto come “Intelligenza Artificiale vecchia maniera” o simbolica, si è però rivelato spesso troppo fragile e costoso da mantenere di fronte all’ambiguità del mondo reale.
La svolta è avvenuta abbracciando la complessità e sfruttando l’enorme quantità di dati disponibili. Il nuovo paradigma si basa sull’apprendimento automatico, che consente alle macchine di imparare da grandi volumi di dati comportamentali per scoprire relazioni e regolarità statistiche. Questo approccio ha permesso la creazione di agenti autonomi capaci di comportarsi in modo efficace in situazioni nuove senza la necessità di regole di condotta esplicite. L’obiettivo non è più scoprire una “verità” profonda sul fenomeno, ma generare un comportamento che sia “probabilmente approssimativamente corretto”. Questa efficacia pragmatica ha un costo: poiché le decisioni si basano su relazioni statistiche apprese dai dati, spesso è difficile, se non impossibile, spiegare i motivi precisi dietro una singola decisione presa dalla macchina.
Macchine Sociali: Sistemi con Oltre Miliardi di Parti
I sistemi di raccomandazione e le piattaforme che li ospitano (come i social media o i motori di ricerca) possono essere visti come enormi e complessi “macchine sociali”. Questa espressione, introdotta da Tim Berners-Lee per descrivere un sistema in cui le persone fanno il lavoro creativo e la macchina l’amministrazione, oggi assume una connotazione diversa: spesso, le persone svolgono compiti routinari mentre i sistemi digitali decidono gli obiettivi.
Queste macchine sociali includono miliardi di partecipanti (utenti) e sono mediate da un’infrastruttura digitale in grado di apprendere e sfruttare i dati raccolti osservando i partecipanti stessi. L’interazione tra i partecipanti e con l’ambiente digitale plasma il comportamento del sistema nel suo complesso.
La Dualità di Scopi: Macro e Micro Livelli
Una caratteristica fondamentale di queste macchine sociali è che operano a due livelli distinti: il livello micro (quello dei singoli partecipanti o utenti) e il livello macro (quello del sistema nel suo complesso). Azioni e obiettivi possono essere molto diversi tra i due livelli.
Ad esempio, quando un utente mette “mi piace” o condivide un contenuto, sta prendendo una decisione a livello micro. Il sistema, a livello macro, utilizza queste microdecisioni di milioni di utenti per raccomandare contenuti ad altri, scoprire risorse e stimarne il valore. L’obiettivo del singolo utente potrebbe essere trovare contenuti interessanti o esprimere un’opinione, mentre l’obiettivo del sistema macroscopico (ad esempio, YouTube) potrebbe essere massimizzare il tempo totale di visione sulla piattaforma.
Lo scopo di un sistema di raccomandazione emerge dalle interazioni di milioni di utenti ed è plasmato dall’algoritmo di apprendimento. Questo scopo potrebbe non coincidere necessariamente con l’intento degli operatori o degli utenti.
Il Rischio della Discrepanza e della Manipolazione
Questa dualità di scopi introduce un rischio intrinseco. Mentre i partecipanti agiscono perseguendo i propri obiettivi a livello micro (ad esempio, trovare un prodotto o un cliente), il sistema a livello macro persegue i propri. Quando questi obiettivi non sono allineati, sorge quello che i filosofi chiamano il problema dell’allineamento dei valori.
I sistemi di raccomandazione sono spesso progettati per “massimizzare il coinvolgimento dell’utente”, misurato tramite metriche come click, visualizzazioni, condivisioni e commenti. L’algoritmo è guidato da una formula che calcola una “ricompensa” per le reazioni dell’utente. Quello che si chiama “mechanism design” (branca della matematica applicata) viene utilizzato per progettare le regole del gioco (le interazioni) in modo da guidare il sistema verso i propri obiettivi, sfruttando il comportamento dei partecipanti e massimizzando la sua ricompensa.
Tutto ciò può portare i sistemi a tentare di spingere, manipolare o guidare l’utente per aumentare le metriche di coinvolgimento. L’uso di tecniche come la segmentazione psicografica, che sfrutta informazioni sulla personalità inferite dal comportamento online per adattare messaggi persuasivi, amplifica questa possibilità. Non potendo l’agente distinguere tra preferenze e debolezze, si teme che possano emergere spontaneamente delle “iperspintarelle” (“hyperscaled nudges”).
Oltre agli effetti intenzionali (“di primo ordine”) di indirizzare il comportamento momentaneo (i click, le visualizzazioni), ci sono preoccupazioni crescenti per gli effetti non intenzionali e duraturi (“di secondo ordine”), come cambiamenti nelle convinzioni, emozioni o pulsioni dell’utente. Anche se mancano ancora prove conclusive su vasta scala, studi urgenti sono necessariper comprendere le possibili conseguenze sulla salute individuale e sociale, inclusa la creazione di camere di risonanza o la polarizzazione.
Concluderemo questo discorso la settimana prossima con la seconda parte dell’articolo.