Nella prima parte, abbiamo esplorato come i sistemi di raccomandazione e reputazione online siano diventati onnipresenti nel nostro mondo connesso. Abbiamo visto come la loro efficacia derivi dall’analisi statistica di enormi volumi di dati, un approccio che tuttavia rende opache le loro decisioni. Abbiamo anche analizzato la loro natura di “macchine sociali” operanti su livelli macro e micro, evidenziando la potenziale discrepanza tra gli obiettivi del sistema e quelli dei singoli utenti, con il rischio di manipolazione e conseguenze non intenzionali.

Di fronte a questa realtà, il problema della fiducia nei confronti degli agenti intelligenti è centrale. Come possiamo fidarci di sistemi che operano in ambiti per cui non abbiamo teorie esplicite e le cui decisioni si basano solo su relazioni statistiche? Non potendo “spegnere la spina” di un’infrastruttura da cui dipendiamo sempre più, dobbiamo imparare a conviverci in sicurezza.

Dimensioni della Fiducia: Ispezionabilità Come Fondamento

Gli studiosi stanno esplorando diverse dimensioni cruciali per costruire fiducia nell’IA: trasparenza, equità, responsabilità, accuratezza e verificabilità (o ispezionabilità).

La verificabilità (o ispezionabilità) è considerata un fattore chiave. Non si tratta solo di capire come la macchina prende una decisione (cosa che, a causa della natura statistica, è spesso difficile), ma di poter verificare che il sistema sia sicuro e operi in modo responsabile. Questo implica che ogni strumento software basato sull’IA dovrebbe essere concepito fin dal principio per poter essere facilmente ispezionato da terzi, come ad esempio un’agenzia istituzionale.

Questa ispezionabilità dovrebbe essere un obbligo “per costruzione”. Non dovrebbe essere eludibile con la scusa che i modelli usati sono intrinsecamente “non spiegabili”, né sostituita da generiche dichiarazioni legali. Potrebbe essere necessaria una nuova branca della scienza per sviluppare i metodi appropriati per questo approccio, ma il primo passo è pretendere che gli agenti intelligenti si prestino a questa ispezione e che i loro operatori accettino la responsabilità.

Metodi per la Verifica e l’Ispezionabilità

Anche se spiegare ogni singola decisione basata su relazioni statistiche è arduo, ci sono altri modi per verificarne la sicurezza e promuovere l’ispezionabilità. Questi includono:

  • L’uso di stress test standardizzati per valutare il comportamento del sistema in condizioni limite;
  • La creazione di checkpoint interni, punti di controllo periodici dove è possibile effettuare verifiche sul funzionamento del sistema;
  • Lo sviluppo di un metodo analogo alla psicometria per le macchine (la psicometria misura tratti non direttamente osservabili basandosi sul comportamento). Allo stesso modo, si potrebbe sviluppare una scienza per inferire e verificare le intenzioni o i principi sottostanti al comportamento di una macchina osservandone le azioni su vasta scala.

Responsabilità e Aspettative dell’Utente

Affrontare la questione della fiducia richiede anche di stabilire chiaramente chi è responsabile per gli effetti di un sistema di IA. È l’operatore (chi implementa e gestisce il sistema), il produttore (chi lo sviluppa) o l’utente (chi lo utilizza)?

Su questa base di responsabilità e ispezionabilità, è possibile affrontare le altri importanti punti di attenzione.

Dalle interazioni con gli agenti intelligenti, l’utente dovrebbe potersi aspettare:

  • Sicurezza: L’agente non deve causare danni, né per malfunzionamenti né per effetti collaterali imprevisti. Le “vecchie” preoccupazioni di Norbert Wiener sulla macchina che esegue gli ordini “alla lettera” causando danni collaterali (come nella famosa storia della “zampa di scimmia”) rimangono incredibilmente rilevanti. Dobbiamo assicurarci che le macchine non violino le norme sociali fondamentali.
  • Rispetto: L’agente non deve tentare di spingere, manipolare, ingannare o guidare l’utente in modo indebito. Gli utenti non dovrebbero doversi preoccupare di essere oggetto di sforzi persuasivi basati sull’uso dei loro dati personali senza consenso esplicito.
  • Trasparenza: L’agente deve dichiarare i suoi obiettivi, le sue motivazioni e le informazioni che utilizza. Anche se il codice interno non è rivelato, i sistemi di raccomandazione dovrebbero rendere pubblica e chiara la formula usata per calcolare la ricompensa e i segnali utilizzati. L’uso di informazioni personali per scopi persuasivi dovrebbe essere esplicitamente comunicato e richiedere consenso.
  • Correttezza (o Equità): L’agente deve trattare tutti gli utenti allo stesso modo quando prende decisioni in domini chiave. In settori come l’abbinamento tra datori di lavoro e chi cerca un impiego, gli utenti non dovrebbero temere discriminazioni.
  • Privacy: L’agente deve rispettare il diritto degli utenti di controllare i propri dati personali. L’inferenza di tratti psicometrici dal comportamento onlineevidenzia la necessità di una maggiore consapevolezza e controllo da parte degli utenti.

Un Problema Sociotecnico che Richiede Un Approccio Integrato

Costruire fiducia e ispezionabilità non è un compito che ricade unicamente sull’ingegneria del software. Richiede una comprensione profonda di come il software interagisce con la società e la psicologia individuale. È nell’interfaccia tra scienze sociali, umane e naturali che si definirà quale tipo di equità e di spiegazioni dovremmo aspettarci dalle macchine, e come valutarle.

Riconoscere che la nostra relazione attuale con l’IA è un problema sociotecnico, dove modelli di business, questioni legali e politiche interagiscono, è fondamentale per gestirla in modo efficace. Dobbiamo non solo comprendere a fondo il percorso basato su dinamiche statistiche che ci ha portato all’IA attuale, ma anche la posizione di controllo che le è stata conferita.

In conclusione, mentre navighiamo in questo mondo sempre più connesso e digitalizzato, affrontare il “problema della fiducia” nell’IA, in particolare nei sistemi di raccomandazione e reputazione, è una priorità ineludibile. Richiede un impegno congiunto da parte di tecnologi, giuristi, politici e scienziati sociali per stabilire principi, definire responsabilità e sviluppare strumenti che garantiscano che questi potenti agenti agiscano in modo sicuro, equo, trasparente e rispettoso. Solo così potremo coesistere in modo costruttivo con le “creature” che abbiamo creato.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *