Il guasto osservato nei processi umani “analogici” non è un mero inconveniente, ma una manifestazione dell’atrofia cognitiva, un fenomeno radicato nei principi dell’ingegneria dei fattori umani e supportato da evidenze neuroscientifiche.
Il panorama del conflitto globale ha subito una trasformazione radicale, evolvendo da una concezione tradizionale incentrata su domini fisici verso una guerra multi-dominio che include il cyberspazio e l’arena cognitiva. Le minacce contemporanee sono sempre più descritte come “ibride”, caratterizzate da impegni non cinetici che colpiscono infrastrutture industriali, finanziarie e tecnologiche. In questo contesto, la manipolazione delle percezioni sta diventando uno strumento più potente della forza fisica. La guerra moderna non è più limitata alla distruzione di obiettivi militari o alla conquista di territori, ma opera in sinergia su tre domini di conflitto non cinetico. La guerra informatica si concentra sull’interruzione, il sabotaggio e il furto di dati. La guerra economica mira all’accumulo di potere e all’indebolimento del nemico attraverso sanzioni e spionaggio. La guerra cognitiva, emersa come concetto nel 2017 , posiziona la mente umana come campo di battaglia principale, con l’obiettivo di “distorcere, prevenire o annientare i processi di pensiero” dell’avversario. A differenza della guerra psicologica o informativa, essa si distingue per l’uso di tecnologie avanzate come l’intelligenza artificiale e le neuroscienze per colpire direttamente la percezione e il processo decisionale. La guerra cognitiva utilizza la tecnologia non solo come mezzo di trasmissione della disinformazione, ma come vera e propria arma per “disturbare funzioni cognitive specifiche” quali memoria, attenzione e comunicazione.
I domini sono profondamente interconnessi. Un cyberattacco a un’infrastruttura civile, come un aeroporto, non è un semplice atto di sabotaggio tecnico; è un’operazione che serve un fine cognitivo. L’interruzione dei sistemi digitali provoca un effetto a cascata che si manifesta in tre fasi: il fallimento del sistema tecnico, seguito dal guasto nel processo umano (l’incapacità del personale di gestire i compiti “analogici”) e, infine, l’impatto sociale. Il pubblico, assistendo al caos, perde fiducia nella resilienza del sistema e si demoralizza. Questo processo dimostra che un avversario moderno può corrodere la fiducia pubblica e causare il “decadimento della razionalità” attaccando direttamente il capitale umano di una nazione.
L’incidente aeroportuale recente è un caso di studio esemplare della “compiacenza dell’automazione” (automation complacency), un fenomeno documentato nell’ingegneria dei fattori umani. La ricerca indica che l’eccessiva fiducia in sistemi automatizzati porti a una ridotta vigilanza e a una minore capacità di “tornare alla prestazione manuale” in caso di guasto. Questo comportamento, in cui la persona smette di fare affidamento sulle proprie capacità cognitive e dipende interamente da un ausilio tecnologico, è stato la causa del disordine osservato. La delega di funzioni alla tecnologia, nota come “scarico cognitivo” (cognitive offloading), comporta una minore pratica di competenze complesse, mettendo a rischio il deterioramento di pensiero critico, risoluzione dei problemi e creatività per “mancanza di uso”. Le neuroscienze mostrano che un minor sforzo cognitivo può portare a “connessioni neuronali più deboli nel tempo” , una condizione che si può paragonare all’atrofia muscolare. Uno studio ha rilevato una forte correlazione negativa tra l’uso frequente di strumenti di intelligenza artificiale e le abilità di pensiero critico, mediata proprio dall’aumento dello scarico cognitivo.
La relazione tra tecnologia e sviluppo cognitivo è complessa. Alcuni studi hanno documentato un’associazione tra l’uso intensivo di media digitali e un “minor spessore corticale” (CT) in aree del cervello responsabili del linguaggio, della lettura e delle abilità sociali in bambini in età prescolare . L’esposizione eccessiva è stata associata a un sottosviluppo di aree cerebrali di ordine superiore che supportano competenze più complesse, e può compromettere le funzioni esecutive come la memoria di lavoro, il controllo inibitorio e l’attenzione. Inoltre, l’utilizzo di strumenti di scrittura basati sull’intelligenza artificiale ha mostrato un minore coinvolgimento cerebrale e una mancanza di pensiero originale negli utenti.
La complessità dei dati suggerisce che l’impatto della tecnologia non è monolitico, ma dipende dalla natura dell’interazione (passiva contro attiva), dall’età dell’utente e dalla specifica funzione cognitiva esaminata. La vera vulnerabilità non risiede nella tecnologia in sé, ma nella mancanza di equilibrio e nel mancato sviluppo di competenze analogiche in un mondo onnipresente digitalmente.
L’incidente aeroportuale illustra un principio fondamentale dell’ingegneria dei fattori umani: la catastrofe non è il fallimento della tecnologia, ma l’incapacità dell’operatore umano di compensare . La ricerca sulla dipendenza umana dall’automazione conferma che gli operatori tendono a “fidarsi eccessivamente” (over-rely) di sistemi che considerano affidabili, portando a un “bias di automazione” e a una mancata verifica delle funzioni. L’automazione spesso fallisce nel fornire i benefici attesi perché non si limita a sostituire l’uomo in un compito, ma ne cambia la natura e la struttura. Questa difficoltà non è una semplice mancanza di abilità manuali, ma un’erosione della capacità di pensiero fondamentale: il ragionamento analogico. La dipendenza da ausili tecnologici ha creato una situazione in cui la conoscenza è stata scaricata nel sistema, anziché essere integrata nella cognizione umana, rendendo le persone incapaci di funzionare in sua assenza. L’aeroporto è una dimostrazione concreta di come una società la cui popolazione ha delegato le proprie competenze cognitive a sistemi esterni diventi un bersaglio perfetto nella guerra multi-dominio. Un avversario può semplicemente orchestrare un cyberattacco limitato per interrompere i sistemi digitali su cui una popolazione fa affidamento per lo “scarico cognitivo”. L’incapacità della popolazione di tornare a processi manuali e analogici crea un caos sociale ed economico sproporzionato rispetto alla portata dell’attacco. Questo rappresenta un nuovo e significativo vettore di vulnerabilità.

