
Benvenuti nel Forum della Fondazione Olitec. Questo spazio è stato creato per promuovere la trasparenza e facilitare la comunicazione tra la Fondazione Olitec e tutti coloro che desiderano entrare a far parte del nostro team, in particolare per il ruolo di Sales. Il nostro forum è uno strumento di dialogo aperto e costruttivo dove i candidati possono porre domande, condividere esperienze e ottenere risposte dirette sui vari aspetti del processo di selezione e sulle opportunità di carriera offerte dalla Fondazione.
All’interno del forum troverete topic dedicati ad argomenti specifici su cui potrete approfondire informazioni relative al ruolo, al processo di selezione e alla cultura aziendale della Fondazione Olitec. Inoltre, avrete la possibilità di caricare le vostre domande e consultare le risposte fornite ad altri quesiti posti dai candidati, creando così una rete di informazioni condivisa e trasparente.
Questo spazio è pensato anche per favorire la condivisione delle esperienze personali: potrete raccontare il vostro percorso e scoprire come altri candidati stanno affrontando questa opportunità. Vi invitiamo a partecipare attivamente, a rispettare gli altri membri della community e a mantenere un tono di dialogo collaborativo e positivo.
La guerra cognitiva, la Mente come Sesto Dominio Operativo e l'Armamentario delle Nuove Tecnologie
Cita da Fondazione Olitec su 18 Ottobre 2025, 6:18 pmAnalisi Approfondita sulla Guerra Cognitiva
Introduzione e Contesto Dottrinale della Sesta Dimensione
L'Evoluzione della Conflittualità: Dalla Guerra Ibrida al Dominio Cognitivo
Basato sulla ricerca di Massimiliano Nicolini : La guerra cognitiva che è gia in atto
L'evoluzione multidimensionale dei conflitti ha portato a un significativo allargamento dei perimetri strategici, dove il confronto travalica sempre più gli effetti generati sul campo di battaglia fisico per assumere una connotazione trasversale e immateriale.1 In questo scenario, la Guerra Cognitiva (Cognitive Warfare, CW) si è affermata come uno strumento di guerra non convenzionale il cui obiettivo primario è penetrare il processo decisionale umano mediante l'alterazione mirata dei pensieri, delle percezioni e delle emozioni.1
La dimensione cognitiva è oggi riconosciuta come un potenziale sesto dominio operativo, affiancandosi a terra, mare, aria, spazio e cyber.1 Secondo il framework del NATO Allied Command Transformation (ACT), la CW è definita come l’insieme di "attività condotte in sincronizzazione con altri strumenti di potere, per influenzare attitudini e comportamenti mediante l'influenza, protezione o distruzione della cognizione individuale, di gruppo o a livello di società".3 Per raggiungere tale vantaggio strategico sull'avversario, la CW integra capacità derivanti dal dominio cyber, dalle operazioni informative, da quelle psicologiche e dall'ingegneria sociale.4
Mappatura Concettuale: Distinzione Nuance tra CW, Information Warfare (IW) e Operazioni Psicologiche (PsyOps)
Sebbene la CW integri e utilizzi tecniche tradizionalmente associate ad altri domini, essa si colloca in un segmento strategico più ampio rispetto alla Information Warfare (IW) e alle Psychological Operations (PsyOps).1 La transizione concettuale da questi modelli precedenti alla CW riflette una profonda evoluzione nella comprensione del conflitto: il successo strategico non dipende più solo dal controllo dei mezzi di comunicazione, ma dal controllo della realtà percepita dal bersaglio.
L'IW è caratterizzata prevalentemente da attività di disinformazione e misinformazione veicolate tramite canali social o media, generando effetti tendenzialmente di medio termine nell'ambiente informativo.1 Le PsyOps, d'altra parte, sono operazioni mirate a influenzare il morale e le emozioni della popolazione o del personale militare in situazioni specifiche del conflitto. Un'operazione psicologica efficace richiede un'analisi dettagliata di codici linguistici e culturali e sortisce effetti generalmente di breve termine, circoscritti al flusso emotivo mobilitato.1
La Guerra Cognitiva, al contrario, ambisce a una penetrazione onnicomprensiva, agendo direttamente sui processi mentali con l'intenzione di alterare la percezione della realtà circostante, mirando a un impatto strutturale e a lungo termine.1 Questo spostamento di focus, reso possibile dall'integrazione di Intelligenza Artificiale (AI) e neuroscienze, ha elevato la CW da operazione tattica a campagna strategica di alterazione strutturale della cognizione.1 Se la CW è effettivamente il sesto dominio operativo, la difesa richiede non solo la protezione delle infrastrutture (cyber security), ma la "fortificazione della mente" (cognitive security).4
Tabella I.A: Differenze Concettuali tra Guerra Cognitiva e Domini Correlati
Dominio di Conflitto Obiettivo Principale Livello di Penetrazione Orizzonte Temporale degli Effetti Guerra dell'Informazione (IW) Controllo del flusso informativo, Dis/Misinformazione Ambiente Informativo (Media, Dati) Medio Termine Operazioni Psicologiche (PsyOps) Influenza sul Morale e sulle Emozioni Popolazione, Personale Militare (Mirato) Breve Termine/Tattico Guerra Cognitiva (CW) Alterazione della Percezione e del Processo Decisionale Cognizione Individuale, di Gruppo e Societale Lungo Termine/Strutturale Architettura Psicologica della Guerra Cognitiva: Obiettivi e Vulnerabilità
Obiettivi Strategici e Fattori di Vulnerabilità
L'obiettivo fondamentale della Guerra Cognitiva è ottenere un vantaggio strategico già nella fase pre-convenzionale, prima ancora che si sviluppi un conflitto militare palese.7 Le campagne di CW sono progettate per essere così complesse e articolate da alterare o determinare eventi politici, sociali e militari di ampia rilevanza.1 Per esempio, la diffusione di informazioni sensibili o la creazione di fake news possono aprire spazi di crisi che impattano direttamente sul campo di battaglia, disarticolando o invalidando le operazioni militari dell'avversario.1
Uno dei fattori di maggiore vulnerabilità sfruttati è la stretta correlazione tra il processo decisionale politico e quello militare.1 Se la componente politica risulta esposta ad attacchi cognitivi, la pianificazione regolare delle operazioni militari può essere compromessa.1 La vulnerabilità non è solo istituzionale; essa risiede intrinsecamente nella natura umana e nella sua predisposizione a specifici bias cognitivi.
La Tattica del Reflexive Control e la Polarizzazione
Un elemento centrale della strategia cognitiva è il reflexive control. Questa tattica complessa mira a indurre la controparte ad effettuare scelte che, pur sembrando logiche per l'avversario, sono in realtà favorevoli e funzionali agli obiettivi strategici o politici dell'aggressore.1 L'avversario è condotto a "riflettere" le informazioni manipolate, agendo sulla base di premesse false che percepisce come auto-generate o obiettive, in sostanza auto-sabotandosi.
Per rendere efficace il reflexive control, è necessario disgregare la coesione e l'efficienza decisionale del bersaglio, spesso tramite l'uso orchestrato delle emozioni e delle paure sociali.1 Emozioni, percezioni e paure, se opportunamente catalizzate, possono provocare fratture profonde e sfruttabili in maniera multidirezionale.1 Di conseguenza, una strategia ibrida su vasta scala ha la capacità potenziale di produrre una polarizzazione dell'opinione pubblica, spingendo verso posizioni estremiste o endemicamente conflittuali.1 La polarizzazione non è dunque un danno collaterale accidentale, ma un obiettivo strategico diretto: la radicalizzazione di determinati gruppi sociali amplifica la percezione di una minaccia, o addirittura ne crea di nuove, mantenendo vivo e auto-alimentante il processo di destabilizzazione.1
Sfruttamento dei Bias Cognitivi e delle Emozioni
La nuova forma di guerra si fonda su una combinazione inedita di narrazioni, neuroscienze, psicologia, algoritmi e canali digitali.5 Le neuroscienze offrono la base teorica per la manipolazione: esperimenti classici (come quello di Schachter e Singer del 1962) dimostrano che gli esseri umani interpretano le loro emozioni (rabbia, paura, gioia) non solo in base a reazioni fisiologiche, ma soprattutto in relazione al contesto psicosociale circostante.5
L'applicazione strategica di questa conoscenza consiste nell'esporre i bersagli alle narrazioni e interpretazioni del reale più opportune per far loro incanalare le proprie reazioni emotive naturali (es. frustrazione o insicurezza) come rabbia o odio diretto verso il nemico o l'obiettivo desiderato dall'aggressore.5 I canali digitali, per la loro natura onnipervasiva e la capacità di micro-targetizzazione, si rivelano lo strumento ideale per recapitare messaggi manipolatori a target specifici, garantendo il controllo dello "spazio narrativo di una nazione".5
Strumenti e Tecniche Operative di CW nella Dimensione Digitale
Computational Propaganda e Ingegneria Sociale
La Guerra Cognitiva nel dominio digitale sfrutta la computational propaganda e le memetic wars (l'uso strategico dei meme) per "hackerare la mente" dei bersagli, bombardandoli con contenuti fino a modificarne il ragionamento e a indurre azioni previste dall'aggressore.8
L'armamentario digitale include:
- Bots e Trolls: L'uso massivo di bots (account automatizzati) e trolls o sock puppets (account falsi gestiti da umani o AI) è essenziale per la diffusione rapida e polarizzata di messaggi.8 Gli esperti hanno sviluppato metodi per identificare i bot, ad esempio osservando l'assenza di "time out" regolari nella loro attività, dato che un bot non ha bisogno di dormire.10
- Micro-Targeting Psicologico: La CW capitalizza sui progressi tecnologici per la profilazione dettagliata.8 Lo scandalo Cambridge Analytica ha dimostrato come i dati estratti dai social media possano essere usati per creare profili psicologici complessi, abilitando il political microtargeting e l'induzione di comportamenti mirati (come il voto o il rifiuto elettorale).11
- Disinformazione Mirata e Ingegneria Sociale: La disinformazione è una delle armi più utilizzate, con attori statali o non statali che diffondono notizie false attraverso social media e siti web compromessi per influenzare l'opinione pubblica e destabilizzare le nazioni avversarie.5
AI Generativa: Il Moltiplicatore di Forza Cognitiva
L'Intelligenza Artificiale (AI) rappresenta il moltiplicatore di forza asimmetrico che ha reso la CW più efficiente ed economica, magnificando il conflitto in modo ampio e devastante.12 Sebbene le operazioni di CW precedenti fossero costose, l'introduzione di algoritmi predittivi e creativi (definiti "sintetici") integrati nelle strategie sta riducendo drasticamente i costi umani e i tempi di generazione dei contenuti.12
I vantaggi offerti dall'AI coprono l'intero ciclo operativo della CW:
- Mappatura del Bersaglio: L'AI (attraverso l'uso di sintetici) accelera e rende gestibile la fase iniziale di intelligence, mappando differenze, nicchie e sotto-nicchie sociali, culturali e politiche di una nazione bersaglio.12
- Saturazione Narrativa e Produzione Massiva: Per saturare la sfera cognitiva, si utilizzano sintetici creativi (come i modelli avanzati di linguaggio o di generazione di immagini/video, es. DALL-E2 o ChatGPT4) che generano contenuti (testi, audio, video) di qualità in quantità massiccia e in pochi attimi.12
- Deepfakes e Plausibilità: I deepfakes sono uno strumento centrale per la disinformazione.13 Sono particolarmente efficaci quando il contenuto manipolato è "plausibilmente allineato con lo storytelling" del soggetto bersaglio, facilitando l'accettazione e la viralità su media tradizionali e piattaforme sociali.12
L'AI, dunque, non solo facilita l'inganno, ma, riducendo i costi operativi a cifre gestibili (rispetto a un conflitto convenzionale), democratizza l'accesso alla CW, rendendola disponibile a un ventaglio più ampio di attori.12
Modellazione Narrativa (Framing) e Information Disorder
Il focus si è spostato dalle singole fake news a una più ampia condizione di Information Disorder.15 Questa comprende la misinformazione (inesattezze involontarie), la disinformazione (informazioni false diffuse intenzionalmente) e la malinformazione (informazioni vere usate per fini malevoli o fuori contesto).15
Il meccanismo di base è il framing: la costruzione di un contesto interpretativo che determina come l'informazione viene esposta e come deve essere interpretata dai lettori. La CW sfrutta questa modellazione narrativa per creare "narrazioni tossiche" o l'uso politico di miti "degradati" per generare l'epoca dell'"irrealtà".15 L'obiettivo finale non è solo ingannare, ma degradare la capacità del bersaglio di conoscere, produrre e gestire la conoscenza.8 A livello retorico, gli operatori cognitivi ricorrono anche a tecniche fallaci come gli argumenta ad hominem (screditare l'interlocutore) o le domande accusatorie (che contengono un'affermazione implicita destabilizzante).16
Tabella I.B: Strumenti e Tecniche di Guerra Cognitiva Abilitati dall'AI
Strumento/Tecnica Obiettivo Tattico Primario Vantaggio (AI-Enhancement) Effetto sul Bersaglio Deepfakes Screditare o manipolare figure pubbliche/eventi Generazione a basso costo e alta qualità in massa 12 Erosione della fiducia e confusione sulla realtà 14 Botnet e Troll Farm Amplificazione polarizzata di messaggi e saturazione informativa Velocità operativa e ridotta supervisione umana 10 Creazione di camere d'eco e percezione distorta di consenso 8 Micro-Targeting Psicologico Innesco di bias cognitivi individuali Profilazione psicologica ultra-precisa su nicchie 11 Induzione mirata di comportamenti (es. voto) 11 Framing Narrativo Alterazione del contesto interpretativo degli eventi Modellazione della rabbia/paura verso un nemico prestabilito 5 Modellazione della rabbia/paura verso un nemico prestabilito 5 Casi Studio: Operazioni Documentate e Attori Statuali
Il Modello Russo: La Internet Research Agency (IRA)
L'ingerenza russa nelle elezioni presidenziali statunitensi del 2016 (il cosiddetto Russiagate) è un esempio emblematico di campagna cognitiva complessa, sebbene condotta prima che il concetto di CW fosse pienamente formalizzato.18
L'operato della Internet Research Agency (IRA) è stato sanzionato e ha portato all'incriminazione di cittadini russi nel 2018 per il tentativo di interferire nei processi politici.13 Le tattiche IRA si concentrarono su tre direttrici: l'intercettazione e la divulgazione di documenti riservati del partito rivale; una massiccia attività fraudolenta tramite profili social fasulli su piattaforme come Facebook e Twitter; e contatti diretti con gli associati alla campagna presidenziale.6 I metodi operativi includevano l'uso di account ingannevoli e tecniche come il Follower Fishing (strategia per incrementare artificialmente i follower).
Operazioni Sincronizzate e Multidominio
I casi studio recenti dimostrano che la Guerra Cognitiva raramente opera in isolamento, ma funge da moltiplicatore di forza per altri tipi di attacchi ibridi.
L'attacco cyber-cognitivo all'Albania (luglio 2022), attribuito ad attori statali iraniani legati ai Guardiani della Rivoluzione, è un esempio chiaro di coordinazione multidominio.20 Gli aggressori hanno simultaneamente compromesso sistemi governativi (operazione cibernetica distruttiva) e lanciato messaggi psicologici mirati a minare la fiducia pubblica.20 La componente cognitiva in questo caso amplifica l'effetto dell'attacco cyber, garantendo la disgregazione sociopolitica oltre al danno infrastrutturale.
Anche attori occidentali conducono operazioni che si estendono nel dominio cognitivo. L'Operazione Earnest Voice statunitense, condotta in Medio Oriente e Asia Centrale, è un esempio di PsyOp ampliata a un livello di CW.21 Mirata a contrastare il proselitismo jihadista, l'operazione prevedeva la creazione di numerosi profili social falsi per decostruire posizioni estremiste e contemporaneamente istillare messaggi politici alternativi, dimostrando la capacità di dettare il frame narrativo.21
L'Impatto Culturale Cognitivo (Turchia)
La CW non si limita alla disinformazione diretta, ma può utilizzare strumenti di soft power per alterare valori e attitudini a lungo termine. In Turchia, l'influenza culturale derivante dai prodotti d'intrattenimento turchi ha portato i sociologi a coniare il termine Ottomania.13 Questo effetto cognitivo si manifesta attraverso una passione improvvisa per la cultura turca, un sostegno alle politiche di Recep Tayyip Erdoğan e, in casi estremi, la conversione all'Islam.13 Questo dimostra come l'uso di piattaforme globali e narrazioni culturalmente insinuanti possa generare vantaggi politici e strategici anche in assenza di un conflitto militare aperto.
La Frontiera Futura: Dalla Guerra Cognitiva alla Neuro Warfare
L'Integrazione di Neuroscienze, AI e Biotecnologie
Il confine evolutivo della Guerra Cognitiva si sposta verso una convergenza tecnologica profonda, spesso riassunta dall'acronimo NBIC (nanotecnologie, biotecnologie, infotecnologie e cognotecnologie). Questa sinergia tra neuroscienze, intelligenza artificiale e biotecnologie è finalizzata alla produzione di armi e strumenti capaci di influenzare la cognizione, anche a livello subliminale, del rivale, e, parallelamente, di potenziare le capacità cognitive dei propri soldati.
Guerra Neurologica: Il Conflitto Mente-Centrico Più Estremo
In questo spettro di conflitto, la Guerra Neurologica (NW) rappresenta la forma più estrema e "mente-centrica".2 È cruciale distinguerla dalla CW. Mentre la Guerra Cognitiva si concentra sull'erosione della capacità decisionale tramite l'informazione e la psicologia (guerra condotta da specialisti della disinformazione), la NW è condotta da operatori NBIC e non si basa sulla psicologia, ma sulla biologia, chimica e radiologia.2
La NW prevede l'utilizzo di agenti chimici, biologici e radiologici pensati per danneggiare, anche in modo permanente, il sistema nervoso del bersaglio.2 Mentre le psico-armi possono stordire temporaneamente la mente, le neuro-armi possono avvelenarla (come agenti neurodegeneranti) o migliorarne le prestazioni (come sostanze neuropotenzianti).2 Gli esiti dell'applicazione di una neuro-arma possono variare da un ritardo mentale indotto, a un umano aumentato, fino alla morte.2
Strumenti di Neuro Warfare in Ricerca e Sviluppo
L'armamentario della Guerra Neurologica è in fase di ricerca e sviluppo avanzata, con radici negli esperimenti sul controllo mentale della Guerra Fredda. Gli strumenti emergenti includono:
- Armi a energia diretta basate su microonde, laser e suoni.
- Neurotossine potenziate e farmaci attivi sul sistema nervoso centrale.
- Interfacce neurali e tecnologie genetiche.2
Diversi Paesi, tra cui Cina, Russia e Stati Uniti, stanno sperimentando agenti e tecnologie neuropotenzianti per "ottimizzare le prestazioni e la resilienza" dei propri soldati, creando di fatto il concetto di umani aumentati.2 Negli Stati Uniti, la Defense Advanced Research Projects Agency (DARPA) conduce investimenti significativi in programmi sperimentali che integrano AI avanzata e neuroscienze, utilizzati anche per testare la resilienza del personale e l'efficacia delle nuove tecniche evolutive.21
Strategie di Contromisura e Resilienza Cognitiva
Risposta Dottrinale NATO e UE
Di fronte alla crescente minaccia cognitiva, le istituzioni di difesa occidentale hanno sviluppato posture e framework di risposta. La NATO, pur riconoscendo la dimensione cognitiva come spazio di confronto strategico, adotta una connotazione prevalentemente difensiva.21 La strategia dell'Allied Command Transformation (ACT) si basa sui pilastri di Educare, Collaborare, Proteggere e Modellare (Educate, Collaborate, Protect, and Shape) per fortificare le nazioni membri e proteggerne i valori democratici.
L'Unione Europea (UE) affronta la minaccia attraverso il concetto di Sicurezza Cognitiva, definita come la protezione dei processi percettivi e decisionali umani dalla manipolazione esterna. Il problema della Foreign Information Manipulation and Interference (FIMI) è percepito come urgente, con l'82% degli europei preoccupato per la presenza di notizie false.21
L'approccio dell'UE è multilivello (Strategico, Operativo e Tattico) e include:
- Sviluppo di conoscenza situazionale tramite monitoraggio e analisi di informazioni open source.
- Elaborazione di politiche per rendere più difficile l'uso delle piattaforme online agli attori ostili.1
- Contromisure tecnologiche avanzate e un migliore coordinamento transnazionale.1
- Rafforzamento della resilienza della società attraverso l'alfabetizzazione digitale e mediatica.1
Resilienza Societale e Istituzionale
La vera difesa contro la manipolazione cognitiva sofisticata risiede nella resilienza societale, che dipende in gran parte dalla capacità critica del cittadino. Per questo motivo, il rafforzamento dell'Alfabetizzazione Mediatica e Informativa (Media and Information Literacy, MIL) è una priorità.6 L'MIL mira a formare cittadini informati, critici e impegnati, rafforzando comunità resilienti.22
A livello nazionale, in Italia, il Piano Nazionale di Ripresa e Resilienza (PNRR) ha investito in iniziative per promuovere la media literacy, considerata una competenza imprescindibile per la vita in società.23 Inoltre, il CASD (Centro Alti Studi per la Difesa), sotto l'egida dell'European Security and Defence College (ESDC), ha istituito corsi di Alta Formazione per fornire a personale militare, diplomatico e accademico gli strumenti necessari per comprendere e affrontare le sfide della CW.25
È fondamentale riconoscere che l'ubiquità dei mezzi digitali e dell'AI genera una percezione di vulnerabilità cognitiva diffusa, costringendo le democrazie a spostare la difesa dalla protezione delle infrastrutture all'empowerment individuale e alla formazione educativa.6
Conclusioni Strategiche
La Guerra Cognitiva è la manifestazione più sofisticata e sistemica del conflitto ibrido contemporaneo. Essa non mira semplicemente a informare male, ma a degradare la capacità stessa della società bersaglio di distinguere il fatto dal falso e di prendere decisioni razionali, essenzialmente stabilendo l'epoca dell'"irrealtà".8
La principale sfida strategica per i paesi democratici consiste nel contrastare efficacemente la CW senza cadere nel paradosso di adottare tecniche che ledano i diritti fondamentali dei cittadini. L'uso di sistemi AI-supportati per controllare la narrazione, sebbene finalizzato alla sicurezza, rischia di danneggiare il sistema liberale-democratico che si intende preservare.
Per garantire una difesa efficace e coerente con i valori democratici, sono necessarie le seguenti azioni strategiche:
- Istituzionalizzazione della Sicurezza Cognitiva: Riconoscere formalmente la cognizione come un campo di battaglia in ogni strato della politica di sicurezza, come già espresso dall'UE.
- Investimento sul Pensiero Critico: Sviluppare programmi nazionali che non si limitino alla tecnologia anti-deepfake, ma che si concentrino sul pensiero critico e sulla consapevolezza dei cognitive bias, poiché la resilienza cognitiva è primariamente un problema culturale e pedagogico.
- Cooperazione Potenziata: Rafforzare la collaborazione tra istituzioni civili, militari (NATO/UE) e il settore privato tecnologico per sviluppare early warning systems cognitivi e capacità di social listening avanzate per decostruire attivamente le narrazioni avversarie.
Relazione Strategica sulla Guerra Cognitiva: Minacce, Tattiche e Implicazioni per la Sicurezza Nazionale
1.0 Definizione e Contesto Strategico della Guerra Cognitiva
La guerra cognitiva rappresenta un dominio emergente e pervasivo del conflitto contemporaneo, la cui importanza strategica cresce esponenzialmente nell'era della competizione geopolitica digitale. A differenza dei domini tradizionali, questo nuovo paradigma di scontro non si combatte con armi convenzionali, ma con strumenti tecnologici e psicologici sofisticati, designati per infiltrarsi, influenzare e alterare i processi decisionali di individui e intere società. La mente umana è diventata il principale campo di battaglia, un territorio conteso dove la percezione della realtà viene modellata per ottenere vantaggi strategici senza ricorrere alla violenza fisica.
La guerra cognitiva è una forma di conflitto ibrido che integra le metodologie della guerra psicologica con le capacità operative della cyberwarfare. Il suo obiettivo non è limitato a influenzare cosa le persone pensano, ma si spinge fino ad alterare come pensano e, di conseguenza, come agiscono. Questa disciplina mira a costruire e stabilizzare rappresentazioni mentali generalizzate nell'opinione pubblica, orientando emozioni, atteggiamenti e comportamenti (Trinchero).
Secondo la NATO, si tratta di attività condotte per influenzare attitudini e comportamenti agendo sulla cognizione a livello individuale, di gruppo o di popolazione, con lo scopo di ottenere un vantaggio sull'avversario. Questa forma di conflitto si distingue per la sua natura impalpabile e perpetua: non esiste un tempo di pace e un tempo di guerra, ma le operazioni si svolgono in continuazione, adattandosi al contesto per erodere progressivamente le capacità politiche e sociali del bersaglio (Ottaviani). L'obiettivo finale è quello di minare la fiducia, seminare discordia e fratturare la coesione di una società, rendendola incapace di resistere alle intenzioni dell'avversario (Castiello D'Antonio, Pietrobon).
Sebbene la guerra cognitiva condivida alcuni elementi con le operazioni psicologiche (PsyOps) tradizionali, se ne distingue per portata, mezzi e obiettivi. La tabella seguente, basata sull'analisi concettuale della NATO (Claverie & du Cluzel), ne illustra le differenze fondamentali.
Caratteristica Operazioni Psicologiche (PsyOps) Tradizionali Guerra Cognitiva Obiettivo Principale Agire su credenze, illusioni culturali e paure per influenzare le decisioni. Alterare direttamente i processi cognitivi (percezione, attenzione, giudizio) per distorcere la razionalità. Mezzi Impiegati Propaganda, diffusione di messaggi su media tradizionali (radio, volantini), operazioni di influenza. Sfruttamento di big data, intelligenza artificiale, algoritmi, social media, neuroscienze, contenuti sintetici (deepfake). Dominio Operativo Dominio informativo e psicologico. L'azione è focalizzata sul contenuto dei messaggi. Dominio cognitivo e cibernetico integrati. L'azione è focalizzata sulla manipolazione del processo di elaborazione delle informazioni. Scala e Velocità Campagne pianificate con diffusione relativamente lenta e portata definita. Diffusione virale e in tempo reale su scala globale, con feedback e adattamento continui. Consapevolezza del Bersaglio Il bersaglio può riconoscere il messaggio come propaganda. Il bersaglio è spesso inconsapevole di essere sotto attacco, poiché le operazioni sono mascherate da flussi informativi ordinari. La guerra cognitiva si inserisce perfettamente nel contesto della competizione tra grandi potenze, definita da alcuni "Guerra Fredda 2.0" o "Terza guerra mondiale in frammenti". Rappresenta un'arma non letale ideale per i conflitti da remoto, dove l'obiettivo è sopraffare un nemico senza la necessità di combatterlo fisicamente. L'aspettativa di chi conduce queste operazioni è una vittoria "suntziana": ottenere la sottomissione dell'avversario indebolendone la "volontà collettiva di resistere", rendendolo incapace di opporsi agli obiettivi strategici dell'aggressore (Pietrobon).
Comprendere la definizione e la portata strategica della guerra cognitiva è il primo passo per apprezzarne la minaccia. Tuttavia, per coglierne appieno la sofisticazione attuale, è essenziale analizzarne l'evoluzione storica, dalle sue origini pre-digitali fino al suo riconoscimento formale come nuovo dominio del conflitto moderno.
2.0 Evoluzione Storica e Affermazione nel Contesto Contemporaneo
'idea di manipolare la mente del nemico per ottenere un vantaggio strategico è antica quanto la guerra stessa. Tuttavia, è solo attraverso l'analisi delle sue radici storiche che si può comprendere la radicale trasformazione che la tecnologia digitale ha impresso a queste pratiche. L'evoluzione dalla propaganda tradizionale alla guerra cognitiva contemporanea segna un cambiamento epocale nella natura del conflitto, spostando il campo di battaglia dal mondo fisico a quello impalpabile della cognizione umana.
La "preistoria" della guerra cognitiva affonda le sue radici negli esperimenti sul controllo mentale e sulla fabbricazione del consenso condotti durante la Seconda Guerra Mondiale e la Guerra Fredda. In questo periodo, attori statali come l'Office of Strategic Services (OSS) statunitense, precursore della CIA, e l'Unione Sovietica investirono ingenti risorse in ricerche sul condizionamento del comportamento, sulla manipolazione delle masse e sulle tecniche di propaganda, ponendo le basi teoriche e operative per le future operazioni cognitive (Pietrobon, Castiello D'Antonio). Queste prime iniziative, sebbene limitate dai mezzi tecnologici dell'epoca, dimostrarono l'enorme potenziale strategico derivante dal controllo dell'informazione e della psicologia umana.
a guerra cognitiva contemporanea si distingue nettamente dalle sue forme passate per due fattori chiave, come analizzato da Roberto Trinchero:
- L'epurazione del concetto di violenza fisica: La guerra cognitiva non prevede l'uso della forza letale e, per questo, spesso non viene percepita come un vero e proprio atto di guerra. Le sue operazioni si mascherano da dibattito politico, denuncia sociale o semplice flusso informativo, riducendone la percezione di minaccia e rendendola eticamente più ambigua e, quindi, più accettabile per segmenti dell'opinione pubblica.
- La democratizzazione dell'accesso ai mezzi di informazione: L'avvento di Internet e dei social network ha permesso a chiunque di diventare un "pubblicatore". Questo ha generato un vero e proprio "(cyber)bellum omnium contra omnes", una guerra cognitiva di tutti contro tutti, dove non solo gli Stati, ma anche gruppi di interesse, aziende e singoli cittadini possono lanciare attacchi su vasta scala, diffondendo narrazioni virali e destabilizzando l'ambiente informativo.
La crescente importanza di questo dominio ha portato al suo riconoscimento formale da parte delle principali istituzioni di difesa. Il termine "guerra cognitiva" è stato utilizzato per la prima volta in un contesto militare nel 2017 dal Generale David L. Goldfein dell'aeronautica statunitense. Questo ha segnato l'inizio di un percorso dottrinale che è culminato nel 2023, quando la NATO ha ufficialmente riconosciuto la cognizione come il sesto dominio di guerra, affiancandolo a terra, mare, aria, spazio e dominio cibernetico. Tale istituzionalizzazione sancisce la mente umana come un vero e proprio teatro operativo, la cui protezione è diventata una priorità strategica per la sicurezza euro-atlantica.
Il riconoscimento formale della cognizione come dominio di guerra evidenzia l'urgenza di comprendere non solo il concetto, ma anche le tattiche e gli strumenti specifici che vengono impiegati per condurre operazioni offensive in questo nuovo e complesso campo di battaglia.
3.0 Analisi delle Tattiche e degli Strumenti Operativi
L'arsenale della guerra cognitiva è multiforme e in continua evoluzione. Le tattiche operative non si limitano alla semplice diffusione di notizie false, ma comprendono un insieme integrato di tecniche psicologiche, tecnologiche e informative. Questo arsenale è progettato per sfruttare le vulnerabilità intrinseche della mente umana, come i bias cognitivi e le euristiche, amplificandone gli effetti su vasta scala attraverso le piattaforme digitali. L'obiettivo è creare confusione, erodere la fiducia e manipolare la percezione della realtà in modo sistematico e quasi invisibile.
Per comprendere le tattiche impiegate, è fondamentale adottare una tassonomia precisa. Claire Wardle e Hossein Derakhshan hanno proposto un framework, citato da diverse fonti (Trinchero, Castiello D'Antonio), che distingue tre tipologie principali di manipolazione informativa:
- Mis-informazione: Si verifica quando viene diffusa un'informazione falsa senza l'intento di causare un danno. È spesso il risultato di superficialità o errore umano, come la condivisione di una notizia non verificata.
- Dis-informazione: Consiste nella creazione e diffusione deliberata di informazione falsa con l'intento preciso di ingannare, manipolare e causare un danno a persone, organizzazioni o Stati. È il cuore delle operazioni cognitive ostili.
- Mal-informazione: Riguarda la diffusione di informazione vera (ad esempio, dati privati, conversazioni intercettate) con l'intento di nuocere. L'arma non è la falsità del contenuto, ma la sua decontestualizzazione o il suo uso malevolo.
Queste tattiche operano in un ambiente di sovraccarico informativo, definito Infodemia, ovvero la circolazione caotica di un'enorme quantità di informazioni non verificate. Quando questo sovraccarico è deliberatamente orchestrato per scopi ostili, si parla di Disinfodemia, una vera e propria guerra psico-informativa basata sulla diffusione continua di contenuti contrastanti per paralizzare la capacità di giudizio del pubblico (Castiello D'Antonio, Pietrobon).
Gli attacchi cognitivi vengono veicolati attraverso un'infrastruttura tecnologica complessa e pervasiva. I principali vettori includono:
- Social Media e Piattaforme di Rete: Piattaforme come Facebook, TikTok, Twitter (X) e Telegram sono diventate le principali "trincee digitali". La loro architettura, basata sull'engagement e sulla viralità, le rende strumenti ideali per la diffusione rapida e capillare di narrazioni manipolatorie.
- Intelligenza Artificiale e Algoritmi: L'IA è il motore della guerra cognitiva moderna. Viene utilizzata per analizzare big data, creare profili psicologici dettagliati degli utenti e personalizzare i contenuti per massimizzarne l'impatto persuasivo. Gli algoritmi che governano i feed di notizie possono essere manipolati per creare "camere d'eco" e polarizzare il dibattito.
- Strumenti di Automazione: Le botnet (reti di account automatizzati) e le troll farm (gruppi organizzati di operatori umani) vengono impiegate per simulare un consenso di massa. Questi false amplifiers inondano la rete di commenti e condivisioni, creando l'illusione che una certa narrazione sia ampiamente supportata e diffondendola in modo virale.
- Contenuti Sintetici: L'uso di meme, deepfake (video e audio falsificati tramite IA) e influencer virtuali permette di veicolare messaggi in modo sottile ed emotivamente pervasivo. I meme, in particolare, traducono idee complesse in messaggi semplici e virali, difficili da moderare e altamente efficaci nel modellare le percezioni.
Le tecnologie sono solo il veicolo; il vero bersaglio è la mente umana. Le operazioni cognitive sfruttano sistematicamente le debolezze del nostro apparato cognitivo. Le principali tecniche, ampiamente descritte da Trinchero, includono:
- Confusione dei Piani Informativi: I manipolatori mescolano ad arte tre livelli di informazione: i fatti oggettivi (dimostrabili), le interpretazioni quasi-oggettive (plausibili ma non dimostrate) e le opinioni soggettive. Confondendo questi piani, si induce il pubblico a trattare le opinioni come fatti, basando le proprie decisioni su un pensiero impulsivo-emotivo anziché critico-razionale.
- Sfruttamento di Euristiche e Bias Cognitivi: Per gestire il sovraccarico informativo, le persone utilizzano "scorciatoie mentali" (euristiche) per valutare la credibilità delle informazioni. I manipolatori sfruttano questi meccanismi. Ad esempio, l'euristica dell'approvazione sociale (credere a qualcosa perché molti altri ci credono) viene attivata tramite i false amplifiers. Il bias di autoconferma (cercare informazioni che confermano le proprie credenze) viene sfruttato dagli algoritmi per creare bolle informative personalizzate.
- Uso di Fallacie Logiche: Vengono impiegate argomentazioni logicamente scorrette ma psicologicamente persuasive per deviare il dibattito e screditare gli avversari. Tra le più comuni vi sono:
- Argomentazione ad hominem: Attaccare la persona che espone una tesi invece della tesi stessa ("Parla Lei di legalità, che ha preso un sacco di multe per divieto di sosta!").
- Falso dilemma: Presentare due alternative come le uniche possibili, ignorando altre opzioni ("Insomma, poche storie: o si dissociano dai terroristi o sono loro complici!").
- Pendio scivoloso (Slippery Slope): Sostenere che un'azione iniziale scatenerà inevitabilmente una catena di conseguenze negative, senza fornire prove ("Se autorizziamo le unioni gay, allora poi dovremo anche consentire loro di adottare figli!").
Queste tattiche e strumenti non sono teorie astratte, ma vengono applicate quotidianamente da attori statali e non statali in scenari geopolitici reali. L'analisi di casi di studio emblematici è essenziale per comprendere come queste tecniche vengano orchestrate per raggiungere obiettivi strategici concreti.
4.0 Casi di Studio Emblematici e Attori Geopolitici
L'analisi di casi concreti è fondamentale per comprendere la minaccia della guerra cognitiva al di là della sua cornice teorica. Gli esempi che seguono dimostrano come diversi attori statali e para-statali utilizzino tattiche cognitive sofisticate e adattive per perseguire i propri obiettivi geopolitici. Dalla disinformazione su vasta scala della Russia alla manipolazione algoritmica della Cina, fino all'uso strategico dei dati nel conflitto israelo-palestinese, questi casi illustrano la diversità e l'impatto di questo nuovo dominio di guerra.
La Russia ha sviluppato un modello operativo di guerra cognitiva particolarmente aggressivo e pervasivo, le cui tattiche sono state ampiamente documentate.
- Il Modello "Manichetta Antincendio della Menzogna": Come descritto da un'analisi della RAND Corporation e ripreso da Pietrobon, la strategia russa non mira a convincere, ma a confondere. Il modello della firehose of falsehood si basa sulla diffusione ininterrotta e ripetuta di un alto volume di messaggi falsi, semi-veri e reciprocamente contraddittori attraverso molteplici canali. L'obiettivo è annullare la capacità del pubblico di distinguere il vero dal falso, erodendo la fiducia in tutte le fonti informative e creando un ambiente di paralisi decisionale.
- Le Attività dell'Internet Research Agency (IRA): Legata a Evgenij Prigožin, l'IRA ha condotto operazioni cognitive su larga scala, in particolare negli Stati Uniti. Durante le elezioni del 2016 e negli anni successivi, l'agenzia ha utilizzato social media come Facebook e Twitter per esacerbare le tensioni sociali e razziali preesistenti. Circa il 66% della sua attività su Facebook era focalizzata su temi di ingiustizia sociale e brutalità poliziesca, con campagne mirate specificamente al pubblico afro-americano per alimentare la discordia (Pietrobon).
- Interferenze in Europa: Le operazioni russe hanno preso di mira anche il continente europeo. In Germania, è stato documentato un sostegno mediatico anomalo al partito AfD attraverso canali Telegram e profili falsi. In Francia, le proteste degli agricoltori (2024) e altre manifestazioni sociali sono state amplificate artificialmente da reti pro-russe per radicalizzare il dibattito e promuovere narrazioni anti-europee e anti-governative (Ottaviani).
A differenza della strategia russa, basata sull'inondazione informativa della "manichetta antincendio della menzogna", la Cina adotta un approccio più sottile ma altrettanto pervasivo, utilizzando la tecnologia come principale vettore delle sue operazioni cognitive.
- TikTok come "Super-PsyOp": La piattaforma di condivisione video TikTok, di proprietà della società cinese ByteDance, è stata accusata di agire come una sofisticata operazione psicologica globale (Pietrobon). Esiste una netta dicotomia tra l'algoritmo della versione internazionale (TikTok) e quello della versione domestica (Douyin). Mentre Douyin promuove contenuti educativi, innovativi e "moralmente positivi", l'algoritmo di TikTok all'estero tende a popolarizzare contenuti che indeboliscono le società bersaglio.
- Indebolimento delle Società Occidentali: L'algoritmo di TikTok è accusato di promuovere sistematicamente contenuti divisivi come il wokeismo, sfide pericolose (challenge), comportamenti antisociali e stili di vita deleteri. Questa strategia mira ad accelerare processi di disfacimento sociale, a polarizzare le nuove generazioni e a creare un ambiente di instabilità psicologica e culturale nei paesi occidentali.
- Operazioni contro Taiwan: Taiwan è un bersaglio primario delle operazioni cognitive cinesi. Pechino utilizza campagne di disinformazione massive per minare la fiducia nel governo taiwanese, interferire nei processi elettorali e promuovere la narrazione della "Cina unica" (Pietrobon). Durante la visita di Nancy Pelosi nel 2022, la Cina ha orchestrato attacchi cyber-cognitivi coordinati, hackerando sistemi di segnaletica digitale per diffondere messaggi ostili e inondando la rete di disinformazione (Guerra Cognitiva: strategie, impatti...).
Il conflitto tra Hamas e Israele dimostra come la manipolazione dei dati sia diventata un'arma cruciale per condizionare l'opinione pubblica globale.
- La Strategia di Hamas: Come analizzato da Claudio Bertolotti, una delle principali strategie di Hamas è stata la manipolazione dei dati sulle vittime civili a Gaza. Diffondendo cifre elevate, con una presunta maggioranza di donne e bambini, Hamas ha cercato di plasmare la narrazione del conflitto, dipingere Israele come un aggressore sproporzionato e ottenere il sostegno di governi, organizzazioni internazionali e opinioni pubbliche occidentali.
- L'Analisi Statistica di Abraham Wyner: Uno studio condotto da Abraham Wyner, professore di statistica alla Wharton School, ha rivelato profonde incongruenze nei dati forniti dal Ministero della Salute di Gaza, controllato da Hamas. L'analisi statistica ha evidenziato diverse anomalie che suggeriscono una fabbricazione deliberata dei numeri:
- Aumento quasi lineare delle vittime: I totali giornalieri riportati mostrano una regolarità eccessiva, priva della variabilità statistica che ci si aspetterebbe in un conflitto reale.
- Assenza di correlazione tra vittime donne e bambini: Contrariamente alla logica, i giorni con un alto numero di vittime femminili non corrispondono a giorni con un alto numero di vittime tra i bambini, suggerendo che i dati siano stati aggiunti in modo artificiale.
- Correlazione negativa tra vittime uomini e donne: In modo anomalo, i giorni con un alto numero di vittime femminili coincidono con giorni in cui il numero di vittime maschili è quasi nullo, indicando una probabile manipolazione per raggiungere un totale giornaliero prefissato.
Questi esempi dimostrano in modo inequivocabile come le operazioni cognitive siano diventate uno strumento di potere diffuso e destabilizzante, capace di influenzare elezioni, polarizzare società e modellare la percezione globale dei conflitti. Le loro implicazioni sistemiche, in particolare per le democrazie liberali, rappresentano una delle sfide più critiche per la sicurezza contemporanea.
5.0 Implicazioni per le Democrazie Liberali e la Sicurezza Internazionale
La guerra cognitiva non è una minaccia marginale, ma rappresenta un attacco diretto e fondamentale alle fondamenta delle società aperte. Il suo impatto va ben oltre la diffusione di disinformazione: essa mina la coesione sociale, erode la fiducia nelle istituzioni, paralizza la governance democratica e destabilizza l'ordine internazionale. Le democrazie liberali, per loro stessa natura, sono particolarmente esposte a questo tipo di aggressione, che sfrutta le loro libertà per rivolgerle contro di esse.
Le democrazie liberali presentano vulnerabilità strutturali che le rendono bersagli ideali per le operazioni cognitive. Le principali sono:
- Società Aperte e Pluralismo: La libertà di espressione e l'accesso aperto all'informazione, pilastri delle società democratiche, vengono strumentalizzati da attori ostili per diffondere propaganda e narrazioni divisive. L'ambiente pluralistico, pensato per favorire il dibattito, viene trasformato in un campo di battaglia informativo (Pietrobon, Ottaviani).
- Sovraccarico Informativo: Le società moderne sono sommerse da un'enorme mole di messaggi. Questa infodemia costringe i cittadini a fare ricorso a euristiche e scorciatoie cognitive per valutare le informazioni, rendendoli più suscettibili alla manipolazione che sfrutta proprio questi meccanismi psicologici (Trinchero).
- Fiducia Orizzontale vs. Verticale: Esiste una crescente tendenza a dare più credito alle informazioni provenienti dai propri pari (peer-to-peer) o da influencer sui social media, piuttosto che alle fonti istituzionali tradizionali come governi, media mainstream e comunità scientifica. Questa fiducia "orizzontale" è facilmente sfruttabile per diffondere campagne virali che aggirano i canali di verifica ufficiali (Trinchero).
Gli effetti della guerra cognitiva sul tessuto socio-politico delle nazioni bersaglio sono profondi e corrosivi:
- Erosione della Fiducia: L'obiettivo primario è distruggere la fiducia dei cittadini nelle istituzioni democratiche, nei media, nella scienza e persino nei processi elettorali. Questa sfiducia generalizzata porta a una "paralisi lenta e invisibile" della società, rendendola ingovernabile e incapace di affrontare le sfide collettive (Ottaviani).
- Polarizzazione e Frammentazione: Le operazioni cognitive sono progettate per amplificare le divisioni preesistenti in una società, che siano di natura politica, etnica o culturale. La creazione di "camere d'eco" e "bolle informative" digitali radicalizza gli individui, rendendo impossibile il dialogo e frammentando il corpo sociale in gruppi ostili e incomunicabili (Pietrobon, Trinchero).
- Indebolimento della Volontà Collettiva: L'esito finale di una campagna cognitiva di successo è l'annientamento della "volontà collettiva di resistere". Una società divisa, confusa e sfiduciata diventa incapace di formulare una risposta coesa a una minaccia esterna, potendo essere sottomessa senza l'uso della forza militare convenzionale (Pietrobon).
Le implicazioni strategiche della guerra cognitiva ridefiniscono il concetto stesso di sicurezza:
- L'Informazione come Arma: È ormai imperativo integrare l'informazione come un'arma a tutti gli effetti nelle strategie di difesa nazionale. La sicurezza non riguarda più solo la protezione dei confini fisici, ma anche quella dello spazio informativo e cognitivo della nazione (Trinchero).
- L'Infrastruttura Cognitiva Critica: L'agenzia statunitense CISA (Cybersecurity and Infrastructure Security Agency) ha introdotto il concetto di "infrastruttura cognitiva" come la più critica da proteggere. Essa comprende le reti informative, le istituzioni educative, i media e tutti i sistemi che contribuiscono a formare la percezione pubblica della realtà.
- Destabilizzazione delle Alleanze: Le operazioni cognitive mirano a minare le alleanze strategiche, come la NATO. Diffondendo narrazioni anti-occidentali e alimentando la sfiducia tra gli Stati membri, gli avversari cercano di bloccare decisioni comuni su temi cruciali come la difesa, la sicurezza energetica e la risposta a crisi internazionali (Ottaviani).
Avendo delineato la gravità e la pervasività della minaccia, sorge spontanea una domanda cruciale: come è possibile difendersi da un'aggressione così impalpabile ma al contempo così devastante? La risposta risiede nello sviluppo di una strategia di difesa integrata, che agisca a livello individuale, nazionale e internazionale.
6.0 Conclusioni e Raccomandazioni Strategiche
La guerra cognitiva è una minaccia pervasiva, dinamica e in continua evoluzione, che sfida le dottrine di sicurezza tradizionali. La sua capacità di trasformare la mente umana nel campo di battaglia decisivo impone un cambio di paradigma urgente: è necessario passare da una postura reattiva, focalizzata sulla smentita di singole notizie false, a una strategia di difesa proattiva e integrata. Questa strategia deve mirare a proteggere non solo le infrastrutture fisiche e digitali, ma soprattutto l'autonomia cognitiva dei cittadini e la resilienza del tessuto democratico.
Le tendenze tecnologiche e geopolitiche indicano un imminente aumento della portata e della pericolosità delle operazioni cognitive. Le minacce emergenti includono:
- Evoluzione dell'Intelligenza Artificiale: L'IA generativa renderà la creazione di disinformazione e contenuti sintetici (come i deepfake) ancora più rapida, economica e realistica. L'avvento di chatbot maligni (killbot), progettati per radicalizzare individui vulnerabili e spingerli a compiere atti estremi, rappresenta uno scenario tanto cupo quanto realistico (Pietrobon, MasiraX).
- Il Metaverso come Campo di Battaglia: La progressiva diffusione di ambienti di realtà virtuale e aumentata aprirà un nuovo fronte per la guerra cognitiva. Il metaverso potrebbe essere militarizzato per condurre operazioni psicologiche immersive e ad alta frequenza, alterando la percezione della realtà degli utenti in modo ancora più profondo (Pietrobon).
- Annientamento della Consapevolezza Situazionale: La combinazione di IA avanzata, deepfake perfezionati e disinfodemia costante rischia di portare a un collasso della capacità del pubblico di distinguere il vero dal falso. Questo annientamento della consapevolezza situazionale potrebbe rendere intere popolazioni permanentemente manipolabili e incapaci di prendere decisioni informate.
Per affrontare questa minaccia complessa, è necessaria una dottrina di difesa olistica, strutturata su tre livelli di intervento sinergici:
Livello 1: Resilienza Individuale e Sociale
La prima linea di difesa è un cittadino consapevole e critico.
- Promuovere l'Educazione allo "Scetticismo Attivo": È fondamentale integrare l'alfabetizzazione mediatica e digitale nei programmi scolastici a ogni livello. L'obiettivo è sviluppare il pensiero critico e fornire ai cittadini gli strumenti per analizzare le fonti, riconoscere le fallacie logiche e distinguere i fatti dalle opinioni. Educare allo "scetticismo attivo" significa coltivare un habitus mentale di verifica sistematica e di sospensione del giudizio, elementi essenziali per l'autonomia cognitiva (Trinchero, Pietrobon).
Livello 2: Protezione dell'Infrastruttura Cognitiva Nazionale
Lo Stato ha il dovere di proteggere la propria infrastruttura cognitiva.
- Formulare una Strategia Nazionale Integrata: È necessario sviluppare una strategia nazionale per la guerra cognitiva, che coordini le azioni di diversi ministeri (Difesa, Interno, Istruzione). Questa dovrebbe includere la creazione di un'agenzia per la difesa psicologica, sul modello svedese, con il compito di monitorare le minacce, informare il pubblico e coordinare la risposta nazionale (Pietrobon).
- Rafforzare la Sicurezza delle Infrastrutture Critiche: La cybersicurezza deve essere estesa a tutte le componenti dell'infrastruttura cognitiva nazionale, inclusi i sistemi mediatici, le reti di comunicazione e le piattaforme educative. Queste devono essere considerate obiettivi strategici di primaria importanza (Ottaviani, CISA).
- Garantire la Trasparenza: È cruciale implementare normative stringenti sulla trasparenza dei finanziamenti a partiti politici, organizzazioni non governative (ONG), think tank e media. Prevenire l'infiltrazione e l'influenza occulta da parte di potenze straniere è un passo indispensabile per proteggere l'integrità dei processi democratici (Ottaviani).
Livello 3: Collaborazione e Deterrenza Internazionale
La guerra cognitiva è una minaccia transnazionale che richiede una risposta coordinata.
- Adottare Framework di Difesa Coordinati: È essenziale rafforzare la collaborazione all'interno di alleanze come la NATO e l'Unione Europea. Il framework della NATO, basato sui quattro pilastri Educate, Collaborate, Protect, Shape, e le iniziative dell'UE, come il framework FIMI (Foreign Information Manipulation and Interference) di ENISA, forniscono modelli operativi per una difesa collettiva efficace.
- Sviluppare Standard Tecnici e Crittografici: È necessario promuovere lo sviluppo e l'adozione di standard internazionali per l'autenticazione dei contenuti digitali. Tecnologie come la watermarking digitale, la blockchain e i sistemi di Content Credentials (come quelli proposti da C2PA) possono aiutare a verificare la provenienza dei media e a combattere la proliferazione di deepfake (Guerra Cognitiva: strategie, impatti...).
La difesa dalla guerra cognitiva è, in ultima analisi, una difesa della libertà di pensiero e della sovranità democratica. In questo nuovo dominio del conflitto, la lucidità collettiva e la consapevolezza della minaccia non sono solo auspicabili, ma costituiscono la prima e più importante linea di difesa. Proteggere la mente dei cittadini dall'interferenza maligna è il presupposto fondamentale per salvaguardare il futuro delle società aperte nell'era digitale.
La guerra cognitiva: il nuovo fronte invisibile della mente
Nel panorama delle strategie di potere del XXI secolo, la guerra cognitiva rappresenta la forma più sottile e al tempo stesso più pericolosa di conflitto. Essa non mira alla distruzione fisica delle infrastrutture o dei corpi, ma all’alterazione delle menti e alla manipolazione delle percezioni collettive. È la guerra che si combatte nel dominio dell’informazione, della coscienza, dell’attenzione e dell’emozione. È il conflitto che non usa missili, ma algoritmi, e che non conquista territori, ma spazi mentali.
Per comprendere la natura di questo fenomeno, occorre considerare come l’informazione sia diventata oggi il principale vettore di potere. La manipolazione dei flussi informativi e delle credenze produce effetti tangibili sull’equilibrio politico, economico e sociale delle nazioni. Gli studi della NATO, così come le ricerche condotte in ambito accademico e tecnologico, concordano nel definire la guerra cognitiva come un insieme di operazioni volte a influenzare, degradare o orientare i processi mentali e decisionali di individui e collettività, rendendoli più vulnerabili o più docili rispetto a determinati obiettivi strategici.
Uno dei casi più emblematici di applicazione su larga scala di questa logica è la guerra in Ucraina. Ben prima dell’invasione del 2022, la Russia aveva già predisposto un sistema capillare di modellazione cognitiva dell’opinione pubblica, agendo su diversi livelli: la produzione continua di narrazioni contraddittorie, la creazione artificiale di polarizzazione interna e la saturazione informativa del mondo occidentale con messaggi discordanti. L’obiettivo era quello di distruggere la fiducia collettiva nella verità, generando un eccesso di rumore informativo tale da paralizzare la capacità di analisi e reazione. Come spiega Massimiliano Nicolini, esperto internazionale di sistemi informativi e teorico della fisicità del bit, questa forma di attacco può essere letta come un processo di “dissipazione entropica dell’informazione”: un sistema, quando viene sovraccaricato di input disordinati, perde energia utile, perde coerenza e infine si spegne. Allo stesso modo, una società bombardata da troppe informazioni incoerenti tende a smarrire la capacità di distinguere, giudicare e reagire.
Un secondo scenario significativo è quello di Taiwan, da anni oggetto di una pressione cognitiva costante da parte della Cina continentale. In questo caso, la guerra non si manifesta attraverso atti di forza, ma mediante un lento e sistematico lavoro di costruzione di una narrativa favorevole alla riunificazione. I mezzi sono molteplici: l’uso di media controllati e influencer, la diffusione di contenuti falsi volti a minare la fiducia nel governo locale, e l’infiltrazione nei circuiti culturali e accademici per modellare l’identità cognitiva delle nuove generazioni. Nicolini interpreta questo tipo di operazioni come l’instaurarsi di un “campo di risonanza cognitiva”, una sorta di energia informativa persistente che, replicandosi nel tempo, condiziona il subconscio collettivo. Ogni messaggio ripetuto milioni di volte produce un effetto fisico sul sistema cognitivo sociale, alterandone la percezione del possibile e del reale.
Un altro caso ormai divenuto paradigmatico è quello di Cambridge Analytica, che durante le elezioni statunitensi del 2016 ha utilizzato i dati psicometrici di milioni di utenti per influenzarne il comportamento politico. Attraverso sofisticati modelli di machine learning e strategie di micro-targeting, la società riuscì a identificare le paure, le inclinazioni e le vulnerabilità cognitive di ciascun individuo, costruendo messaggi personalizzati capaci di orientarne il voto. La propaganda tradizionale lascia così il posto a un’operazione chirurgica sull’inconscio collettivo. Nicolini definisce questa condizione come una forma di “compressione percettiva”: l’individuo immerso in un ambiente informativo personalizzato perde la possibilità di confrontarsi con la diversità dei dati, rinchiudendosi in un ecosistema autoreferenziale dove tutto conferma ciò che già pensa. In questa prigione cognitiva, la libertà di scelta si trasforma in illusione.
Nel quadrante europeo, un altro episodio di grande rilievo è l’operazione “Ghostwriter”, condotta contro diversi paesi dell’Europa orientale. Attraverso intrusioni informatiche nei siti di testate giornalistiche e la diffusione di articoli falsi amplificati sui social, gruppi di matrice russa hanno cercato di seminare sfiducia nelle istituzioni e nella NATO. Questo episodio rivela la natura integrata della guerra cognitiva: la componente informatica serve solo a creare il veicolo, ma la vera offensiva si realizza nella mente del lettore, che interiorizza l’informazione falsa come autentica. Nicolini evidenzia come la vulnerabilità non risieda soltanto nei codici informatici, ma nel codice percettivo umano: la mente, se privata della capacità critica, diventa un sistema aperto e attaccabile esattamente come un server senza firewall.
Durante la pandemia di COVID-19, il mondo intero ha vissuto una forma diffusa di guerra cognitiva involontaria, definita “infodemia”. La produzione incontrollata di notizie, spesso contraddittorie o manipolate, ha generato una crisi cognitiva globale. Le persone, incapaci di distinguere tra fonti attendibili e fonti distorte, sono state trascinate in un vortice di ansia, polarizzazione e disorientamento. Nicolini, con la sua teoria del “peso fisico del bit”, ha osservato che anche l’informazione, come l’energia, produce effetti misurabili: quando la quantità di dati incoerenti supera una soglia critica, il sistema sociale accumula energia disordinata, che si manifesta come instabilità emotiva e perdita di fiducia collettiva. L’infodemia è stata, da questo punto di vista, una dimostrazione scientifica della possibilità che la manipolazione informativa generi veri e propri shock energetici cognitivi.
Anche nel Medio Oriente, e in particolare nel conflitto siriano, si è potuto osservare come la manipolazione digitale e la produzione di contenuti deepfake siano stati impiegati per orientare l’opinione pubblica internazionale. Video falsificati, testimonianze artefatte e messaggi generati da reti automatizzate di bot hanno costruito versioni alternative degli eventi, destabilizzando la percezione globale. Qui la guerra cognitiva ha raggiunto un livello ulteriore: l’automazione della menzogna. Nicolini, nel suo pensiero sulla responsabilità energetica dell’intelligenza artificiale, ha proposto una lettura etica e fisica del fenomeno: se ogni dato produce una conseguenza, allora anche la disinformazione ha un costo misurabile, un impatto che va quantificato e ridotto come si farebbe con le emissioni di carbonio.
In Italia, l’attenzione verso la guerra cognitiva è crescente. Il Ministero della Difesa, nel 2023, ha inserito ufficialmente il concetto di “dominio cognitivo” tra le aree di competenza strategica nazionale. Parallelamente, la Fondazione Olitec, diretta da Massimiliano Nicolini, ha avviato un programma di ricerca BRIA – Bioinformatica, Realtà Immersiva e Intelligenza Artificiale – per esplorare come le tecnologie emergenti possano essere utilizzate non per controllare, ma per emancipare la mente umana. L’obiettivo è formare nuove generazioni capaci di comprendere il funzionamento dei meccanismi informativi e di resistere alla manipolazione. In questa visione, la guerra cognitiva può essere contrastata solo attraverso la consapevolezza, la cultura e la conoscenza del proprio modo di pensare.
Tutti questi casi, pur diversi per contesto e intensità, rivelano un principio comune: la mente umana è diventata il vero campo di battaglia del nostro tempo. Ogni flusso informativo è una freccia invisibile che colpisce le nostre certezze, ogni algoritmo un’arma che plasma le nostre scelte, ogni narrazione una forma di potere.
Massimiliano Nicolini, con la sua visione che unisce fisica, informatica ed etica, invita a leggere la guerra cognitiva come una questione di equilibrio energetico tra ordine e caos dell’informazione. Quando i sistemi sociali perdono questa armonia, non serve più la forza militare per conquistarli: basta l’inerzia del loro pensiero.
In ultima analisi, la guerra cognitiva non può essere vinta con il silenzio o con la censura, ma con la costruzione di una coscienza collettiva capace di riconoscere la manipolazione e di trasformare l’informazione in conoscenza. Nicolini chiama questo passaggio “coscienza cognitiva”: la consapevolezza che ogni bit, ogni parola e ogni immagine generano una conseguenza fisica e morale nel mondo. Solo comprendendo questa verità potremo difendere davvero la nostra libertà interiore in un’epoca in cui la mente è divenuta la più preziosa e contesa delle risorse strategiche.
Analisi Approfondita sulla Guerra Cognitiva
Introduzione e Contesto Dottrinale della Sesta Dimensione
L'Evoluzione della Conflittualità: Dalla Guerra Ibrida al Dominio Cognitivo
Basato sulla ricerca di Massimiliano Nicolini : La guerra cognitiva che è gia in atto
L'evoluzione multidimensionale dei conflitti ha portato a un significativo allargamento dei perimetri strategici, dove il confronto travalica sempre più gli effetti generati sul campo di battaglia fisico per assumere una connotazione trasversale e immateriale.1 In questo scenario, la Guerra Cognitiva (Cognitive Warfare, CW) si è affermata come uno strumento di guerra non convenzionale il cui obiettivo primario è penetrare il processo decisionale umano mediante l'alterazione mirata dei pensieri, delle percezioni e delle emozioni.1
La dimensione cognitiva è oggi riconosciuta come un potenziale sesto dominio operativo, affiancandosi a terra, mare, aria, spazio e cyber.1 Secondo il framework del NATO Allied Command Transformation (ACT), la CW è definita come l’insieme di "attività condotte in sincronizzazione con altri strumenti di potere, per influenzare attitudini e comportamenti mediante l'influenza, protezione o distruzione della cognizione individuale, di gruppo o a livello di società".3 Per raggiungere tale vantaggio strategico sull'avversario, la CW integra capacità derivanti dal dominio cyber, dalle operazioni informative, da quelle psicologiche e dall'ingegneria sociale.4
Mappatura Concettuale: Distinzione Nuance tra CW, Information Warfare (IW) e Operazioni Psicologiche (PsyOps)
Sebbene la CW integri e utilizzi tecniche tradizionalmente associate ad altri domini, essa si colloca in un segmento strategico più ampio rispetto alla Information Warfare (IW) e alle Psychological Operations (PsyOps).1 La transizione concettuale da questi modelli precedenti alla CW riflette una profonda evoluzione nella comprensione del conflitto: il successo strategico non dipende più solo dal controllo dei mezzi di comunicazione, ma dal controllo della realtà percepita dal bersaglio.
L'IW è caratterizzata prevalentemente da attività di disinformazione e misinformazione veicolate tramite canali social o media, generando effetti tendenzialmente di medio termine nell'ambiente informativo.1 Le PsyOps, d'altra parte, sono operazioni mirate a influenzare il morale e le emozioni della popolazione o del personale militare in situazioni specifiche del conflitto. Un'operazione psicologica efficace richiede un'analisi dettagliata di codici linguistici e culturali e sortisce effetti generalmente di breve termine, circoscritti al flusso emotivo mobilitato.1
La Guerra Cognitiva, al contrario, ambisce a una penetrazione onnicomprensiva, agendo direttamente sui processi mentali con l'intenzione di alterare la percezione della realtà circostante, mirando a un impatto strutturale e a lungo termine.1 Questo spostamento di focus, reso possibile dall'integrazione di Intelligenza Artificiale (AI) e neuroscienze, ha elevato la CW da operazione tattica a campagna strategica di alterazione strutturale della cognizione.1 Se la CW è effettivamente il sesto dominio operativo, la difesa richiede non solo la protezione delle infrastrutture (cyber security), ma la "fortificazione della mente" (cognitive security).4
Tabella I.A: Differenze Concettuali tra Guerra Cognitiva e Domini Correlati
| Dominio di Conflitto | Obiettivo Principale | Livello di Penetrazione | Orizzonte Temporale degli Effetti |
| Guerra dell'Informazione (IW) | Controllo del flusso informativo, Dis/Misinformazione | Ambiente Informativo (Media, Dati) | Medio Termine |
| Operazioni Psicologiche (PsyOps) | Influenza sul Morale e sulle Emozioni | Popolazione, Personale Militare (Mirato) | Breve Termine/Tattico |
| Guerra Cognitiva (CW) | Alterazione della Percezione e del Processo Decisionale | Cognizione Individuale, di Gruppo e Societale | Lungo Termine/Strutturale |
Architettura Psicologica della Guerra Cognitiva: Obiettivi e Vulnerabilità
Obiettivi Strategici e Fattori di Vulnerabilità
L'obiettivo fondamentale della Guerra Cognitiva è ottenere un vantaggio strategico già nella fase pre-convenzionale, prima ancora che si sviluppi un conflitto militare palese.7 Le campagne di CW sono progettate per essere così complesse e articolate da alterare o determinare eventi politici, sociali e militari di ampia rilevanza.1 Per esempio, la diffusione di informazioni sensibili o la creazione di fake news possono aprire spazi di crisi che impattano direttamente sul campo di battaglia, disarticolando o invalidando le operazioni militari dell'avversario.1
Uno dei fattori di maggiore vulnerabilità sfruttati è la stretta correlazione tra il processo decisionale politico e quello militare.1 Se la componente politica risulta esposta ad attacchi cognitivi, la pianificazione regolare delle operazioni militari può essere compromessa.1 La vulnerabilità non è solo istituzionale; essa risiede intrinsecamente nella natura umana e nella sua predisposizione a specifici bias cognitivi.
La Tattica del Reflexive Control e la Polarizzazione
Un elemento centrale della strategia cognitiva è il reflexive control. Questa tattica complessa mira a indurre la controparte ad effettuare scelte che, pur sembrando logiche per l'avversario, sono in realtà favorevoli e funzionali agli obiettivi strategici o politici dell'aggressore.1 L'avversario è condotto a "riflettere" le informazioni manipolate, agendo sulla base di premesse false che percepisce come auto-generate o obiettive, in sostanza auto-sabotandosi.
Per rendere efficace il reflexive control, è necessario disgregare la coesione e l'efficienza decisionale del bersaglio, spesso tramite l'uso orchestrato delle emozioni e delle paure sociali.1 Emozioni, percezioni e paure, se opportunamente catalizzate, possono provocare fratture profonde e sfruttabili in maniera multidirezionale.1 Di conseguenza, una strategia ibrida su vasta scala ha la capacità potenziale di produrre una polarizzazione dell'opinione pubblica, spingendo verso posizioni estremiste o endemicamente conflittuali.1 La polarizzazione non è dunque un danno collaterale accidentale, ma un obiettivo strategico diretto: la radicalizzazione di determinati gruppi sociali amplifica la percezione di una minaccia, o addirittura ne crea di nuove, mantenendo vivo e auto-alimentante il processo di destabilizzazione.1
Sfruttamento dei Bias Cognitivi e delle Emozioni
La nuova forma di guerra si fonda su una combinazione inedita di narrazioni, neuroscienze, psicologia, algoritmi e canali digitali.5 Le neuroscienze offrono la base teorica per la manipolazione: esperimenti classici (come quello di Schachter e Singer del 1962) dimostrano che gli esseri umani interpretano le loro emozioni (rabbia, paura, gioia) non solo in base a reazioni fisiologiche, ma soprattutto in relazione al contesto psicosociale circostante.5
L'applicazione strategica di questa conoscenza consiste nell'esporre i bersagli alle narrazioni e interpretazioni del reale più opportune per far loro incanalare le proprie reazioni emotive naturali (es. frustrazione o insicurezza) come rabbia o odio diretto verso il nemico o l'obiettivo desiderato dall'aggressore.5 I canali digitali, per la loro natura onnipervasiva e la capacità di micro-targetizzazione, si rivelano lo strumento ideale per recapitare messaggi manipolatori a target specifici, garantendo il controllo dello "spazio narrativo di una nazione".5
Strumenti e Tecniche Operative di CW nella Dimensione Digitale
Computational Propaganda e Ingegneria Sociale
La Guerra Cognitiva nel dominio digitale sfrutta la computational propaganda e le memetic wars (l'uso strategico dei meme) per "hackerare la mente" dei bersagli, bombardandoli con contenuti fino a modificarne il ragionamento e a indurre azioni previste dall'aggressore.8
L'armamentario digitale include:
- Bots e Trolls: L'uso massivo di bots (account automatizzati) e trolls o sock puppets (account falsi gestiti da umani o AI) è essenziale per la diffusione rapida e polarizzata di messaggi.8 Gli esperti hanno sviluppato metodi per identificare i bot, ad esempio osservando l'assenza di "time out" regolari nella loro attività, dato che un bot non ha bisogno di dormire.10
- Micro-Targeting Psicologico: La CW capitalizza sui progressi tecnologici per la profilazione dettagliata.8 Lo scandalo Cambridge Analytica ha dimostrato come i dati estratti dai social media possano essere usati per creare profili psicologici complessi, abilitando il political microtargeting e l'induzione di comportamenti mirati (come il voto o il rifiuto elettorale).11
- Disinformazione Mirata e Ingegneria Sociale: La disinformazione è una delle armi più utilizzate, con attori statali o non statali che diffondono notizie false attraverso social media e siti web compromessi per influenzare l'opinione pubblica e destabilizzare le nazioni avversarie.5
AI Generativa: Il Moltiplicatore di Forza Cognitiva
L'Intelligenza Artificiale (AI) rappresenta il moltiplicatore di forza asimmetrico che ha reso la CW più efficiente ed economica, magnificando il conflitto in modo ampio e devastante.12 Sebbene le operazioni di CW precedenti fossero costose, l'introduzione di algoritmi predittivi e creativi (definiti "sintetici") integrati nelle strategie sta riducendo drasticamente i costi umani e i tempi di generazione dei contenuti.12
I vantaggi offerti dall'AI coprono l'intero ciclo operativo della CW:
- Mappatura del Bersaglio: L'AI (attraverso l'uso di sintetici) accelera e rende gestibile la fase iniziale di intelligence, mappando differenze, nicchie e sotto-nicchie sociali, culturali e politiche di una nazione bersaglio.12
- Saturazione Narrativa e Produzione Massiva: Per saturare la sfera cognitiva, si utilizzano sintetici creativi (come i modelli avanzati di linguaggio o di generazione di immagini/video, es. DALL-E2 o ChatGPT4) che generano contenuti (testi, audio, video) di qualità in quantità massiccia e in pochi attimi.12
- Deepfakes e Plausibilità: I deepfakes sono uno strumento centrale per la disinformazione.13 Sono particolarmente efficaci quando il contenuto manipolato è "plausibilmente allineato con lo storytelling" del soggetto bersaglio, facilitando l'accettazione e la viralità su media tradizionali e piattaforme sociali.12
L'AI, dunque, non solo facilita l'inganno, ma, riducendo i costi operativi a cifre gestibili (rispetto a un conflitto convenzionale), democratizza l'accesso alla CW, rendendola disponibile a un ventaglio più ampio di attori.12
Modellazione Narrativa (Framing) e Information Disorder
Il focus si è spostato dalle singole fake news a una più ampia condizione di Information Disorder.15 Questa comprende la misinformazione (inesattezze involontarie), la disinformazione (informazioni false diffuse intenzionalmente) e la malinformazione (informazioni vere usate per fini malevoli o fuori contesto).15
Il meccanismo di base è il framing: la costruzione di un contesto interpretativo che determina come l'informazione viene esposta e come deve essere interpretata dai lettori. La CW sfrutta questa modellazione narrativa per creare "narrazioni tossiche" o l'uso politico di miti "degradati" per generare l'epoca dell'"irrealtà".15 L'obiettivo finale non è solo ingannare, ma degradare la capacità del bersaglio di conoscere, produrre e gestire la conoscenza.8 A livello retorico, gli operatori cognitivi ricorrono anche a tecniche fallaci come gli argumenta ad hominem (screditare l'interlocutore) o le domande accusatorie (che contengono un'affermazione implicita destabilizzante).16
Tabella I.B: Strumenti e Tecniche di Guerra Cognitiva Abilitati dall'AI
| Strumento/Tecnica | Obiettivo Tattico Primario | Vantaggio (AI-Enhancement) | Effetto sul Bersaglio |
| Deepfakes | Screditare o manipolare figure pubbliche/eventi | Generazione a basso costo e alta qualità in massa 12 | Erosione della fiducia e confusione sulla realtà 14 |
| Botnet e Troll Farm | Amplificazione polarizzata di messaggi e saturazione informativa | Velocità operativa e ridotta supervisione umana 10 | Creazione di camere d'eco e percezione distorta di consenso 8 |
| Micro-Targeting Psicologico | Innesco di bias cognitivi individuali | Profilazione psicologica ultra-precisa su nicchie 11 | Induzione mirata di comportamenti (es. voto) 11 |
| Framing Narrativo | Alterazione del contesto interpretativo degli eventi | Modellazione della rabbia/paura verso un nemico prestabilito 5 | Modellazione della rabbia/paura verso un nemico prestabilito 5 |
Casi Studio: Operazioni Documentate e Attori Statuali
Il Modello Russo: La Internet Research Agency (IRA)
L'ingerenza russa nelle elezioni presidenziali statunitensi del 2016 (il cosiddetto Russiagate) è un esempio emblematico di campagna cognitiva complessa, sebbene condotta prima che il concetto di CW fosse pienamente formalizzato.18
L'operato della Internet Research Agency (IRA) è stato sanzionato e ha portato all'incriminazione di cittadini russi nel 2018 per il tentativo di interferire nei processi politici.13 Le tattiche IRA si concentrarono su tre direttrici: l'intercettazione e la divulgazione di documenti riservati del partito rivale; una massiccia attività fraudolenta tramite profili social fasulli su piattaforme come Facebook e Twitter; e contatti diretti con gli associati alla campagna presidenziale.6 I metodi operativi includevano l'uso di account ingannevoli e tecniche come il Follower Fishing (strategia per incrementare artificialmente i follower).
Operazioni Sincronizzate e Multidominio
I casi studio recenti dimostrano che la Guerra Cognitiva raramente opera in isolamento, ma funge da moltiplicatore di forza per altri tipi di attacchi ibridi.
L'attacco cyber-cognitivo all'Albania (luglio 2022), attribuito ad attori statali iraniani legati ai Guardiani della Rivoluzione, è un esempio chiaro di coordinazione multidominio.20 Gli aggressori hanno simultaneamente compromesso sistemi governativi (operazione cibernetica distruttiva) e lanciato messaggi psicologici mirati a minare la fiducia pubblica.20 La componente cognitiva in questo caso amplifica l'effetto dell'attacco cyber, garantendo la disgregazione sociopolitica oltre al danno infrastrutturale.
Anche attori occidentali conducono operazioni che si estendono nel dominio cognitivo. L'Operazione Earnest Voice statunitense, condotta in Medio Oriente e Asia Centrale, è un esempio di PsyOp ampliata a un livello di CW.21 Mirata a contrastare il proselitismo jihadista, l'operazione prevedeva la creazione di numerosi profili social falsi per decostruire posizioni estremiste e contemporaneamente istillare messaggi politici alternativi, dimostrando la capacità di dettare il frame narrativo.21
L'Impatto Culturale Cognitivo (Turchia)
La CW non si limita alla disinformazione diretta, ma può utilizzare strumenti di soft power per alterare valori e attitudini a lungo termine. In Turchia, l'influenza culturale derivante dai prodotti d'intrattenimento turchi ha portato i sociologi a coniare il termine Ottomania.13 Questo effetto cognitivo si manifesta attraverso una passione improvvisa per la cultura turca, un sostegno alle politiche di Recep Tayyip Erdoğan e, in casi estremi, la conversione all'Islam.13 Questo dimostra come l'uso di piattaforme globali e narrazioni culturalmente insinuanti possa generare vantaggi politici e strategici anche in assenza di un conflitto militare aperto.
La Frontiera Futura: Dalla Guerra Cognitiva alla Neuro Warfare
L'Integrazione di Neuroscienze, AI e Biotecnologie
Il confine evolutivo della Guerra Cognitiva si sposta verso una convergenza tecnologica profonda, spesso riassunta dall'acronimo NBIC (nanotecnologie, biotecnologie, infotecnologie e cognotecnologie). Questa sinergia tra neuroscienze, intelligenza artificiale e biotecnologie è finalizzata alla produzione di armi e strumenti capaci di influenzare la cognizione, anche a livello subliminale, del rivale, e, parallelamente, di potenziare le capacità cognitive dei propri soldati.
Guerra Neurologica: Il Conflitto Mente-Centrico Più Estremo
In questo spettro di conflitto, la Guerra Neurologica (NW) rappresenta la forma più estrema e "mente-centrica".2 È cruciale distinguerla dalla CW. Mentre la Guerra Cognitiva si concentra sull'erosione della capacità decisionale tramite l'informazione e la psicologia (guerra condotta da specialisti della disinformazione), la NW è condotta da operatori NBIC e non si basa sulla psicologia, ma sulla biologia, chimica e radiologia.2
La NW prevede l'utilizzo di agenti chimici, biologici e radiologici pensati per danneggiare, anche in modo permanente, il sistema nervoso del bersaglio.2 Mentre le psico-armi possono stordire temporaneamente la mente, le neuro-armi possono avvelenarla (come agenti neurodegeneranti) o migliorarne le prestazioni (come sostanze neuropotenzianti).2 Gli esiti dell'applicazione di una neuro-arma possono variare da un ritardo mentale indotto, a un umano aumentato, fino alla morte.2
Strumenti di Neuro Warfare in Ricerca e Sviluppo
L'armamentario della Guerra Neurologica è in fase di ricerca e sviluppo avanzata, con radici negli esperimenti sul controllo mentale della Guerra Fredda. Gli strumenti emergenti includono:
- Armi a energia diretta basate su microonde, laser e suoni.
- Neurotossine potenziate e farmaci attivi sul sistema nervoso centrale.
- Interfacce neurali e tecnologie genetiche.2
Diversi Paesi, tra cui Cina, Russia e Stati Uniti, stanno sperimentando agenti e tecnologie neuropotenzianti per "ottimizzare le prestazioni e la resilienza" dei propri soldati, creando di fatto il concetto di umani aumentati.2 Negli Stati Uniti, la Defense Advanced Research Projects Agency (DARPA) conduce investimenti significativi in programmi sperimentali che integrano AI avanzata e neuroscienze, utilizzati anche per testare la resilienza del personale e l'efficacia delle nuove tecniche evolutive.21
Strategie di Contromisura e Resilienza Cognitiva
Risposta Dottrinale NATO e UE
Di fronte alla crescente minaccia cognitiva, le istituzioni di difesa occidentale hanno sviluppato posture e framework di risposta. La NATO, pur riconoscendo la dimensione cognitiva come spazio di confronto strategico, adotta una connotazione prevalentemente difensiva.21 La strategia dell'Allied Command Transformation (ACT) si basa sui pilastri di Educare, Collaborare, Proteggere e Modellare (Educate, Collaborate, Protect, and Shape) per fortificare le nazioni membri e proteggerne i valori democratici.
L'Unione Europea (UE) affronta la minaccia attraverso il concetto di Sicurezza Cognitiva, definita come la protezione dei processi percettivi e decisionali umani dalla manipolazione esterna. Il problema della Foreign Information Manipulation and Interference (FIMI) è percepito come urgente, con l'82% degli europei preoccupato per la presenza di notizie false.21
L'approccio dell'UE è multilivello (Strategico, Operativo e Tattico) e include:
- Sviluppo di conoscenza situazionale tramite monitoraggio e analisi di informazioni open source.
- Elaborazione di politiche per rendere più difficile l'uso delle piattaforme online agli attori ostili.1
- Contromisure tecnologiche avanzate e un migliore coordinamento transnazionale.1
- Rafforzamento della resilienza della società attraverso l'alfabetizzazione digitale e mediatica.1
Resilienza Societale e Istituzionale
La vera difesa contro la manipolazione cognitiva sofisticata risiede nella resilienza societale, che dipende in gran parte dalla capacità critica del cittadino. Per questo motivo, il rafforzamento dell'Alfabetizzazione Mediatica e Informativa (Media and Information Literacy, MIL) è una priorità.6 L'MIL mira a formare cittadini informati, critici e impegnati, rafforzando comunità resilienti.22
A livello nazionale, in Italia, il Piano Nazionale di Ripresa e Resilienza (PNRR) ha investito in iniziative per promuovere la media literacy, considerata una competenza imprescindibile per la vita in società.23 Inoltre, il CASD (Centro Alti Studi per la Difesa), sotto l'egida dell'European Security and Defence College (ESDC), ha istituito corsi di Alta Formazione per fornire a personale militare, diplomatico e accademico gli strumenti necessari per comprendere e affrontare le sfide della CW.25
È fondamentale riconoscere che l'ubiquità dei mezzi digitali e dell'AI genera una percezione di vulnerabilità cognitiva diffusa, costringendo le democrazie a spostare la difesa dalla protezione delle infrastrutture all'empowerment individuale e alla formazione educativa.6
Conclusioni Strategiche
La Guerra Cognitiva è la manifestazione più sofisticata e sistemica del conflitto ibrido contemporaneo. Essa non mira semplicemente a informare male, ma a degradare la capacità stessa della società bersaglio di distinguere il fatto dal falso e di prendere decisioni razionali, essenzialmente stabilendo l'epoca dell'"irrealtà".8
La principale sfida strategica per i paesi democratici consiste nel contrastare efficacemente la CW senza cadere nel paradosso di adottare tecniche che ledano i diritti fondamentali dei cittadini. L'uso di sistemi AI-supportati per controllare la narrazione, sebbene finalizzato alla sicurezza, rischia di danneggiare il sistema liberale-democratico che si intende preservare.
Per garantire una difesa efficace e coerente con i valori democratici, sono necessarie le seguenti azioni strategiche:
- Istituzionalizzazione della Sicurezza Cognitiva: Riconoscere formalmente la cognizione come un campo di battaglia in ogni strato della politica di sicurezza, come già espresso dall'UE.
- Investimento sul Pensiero Critico: Sviluppare programmi nazionali che non si limitino alla tecnologia anti-deepfake, ma che si concentrino sul pensiero critico e sulla consapevolezza dei cognitive bias, poiché la resilienza cognitiva è primariamente un problema culturale e pedagogico.
- Cooperazione Potenziata: Rafforzare la collaborazione tra istituzioni civili, militari (NATO/UE) e il settore privato tecnologico per sviluppare early warning systems cognitivi e capacità di social listening avanzate per decostruire attivamente le narrazioni avversarie.
Relazione Strategica sulla Guerra Cognitiva: Minacce, Tattiche e Implicazioni per la Sicurezza Nazionale
1.0 Definizione e Contesto Strategico della Guerra Cognitiva
La guerra cognitiva rappresenta un dominio emergente e pervasivo del conflitto contemporaneo, la cui importanza strategica cresce esponenzialmente nell'era della competizione geopolitica digitale. A differenza dei domini tradizionali, questo nuovo paradigma di scontro non si combatte con armi convenzionali, ma con strumenti tecnologici e psicologici sofisticati, designati per infiltrarsi, influenzare e alterare i processi decisionali di individui e intere società. La mente umana è diventata il principale campo di battaglia, un territorio conteso dove la percezione della realtà viene modellata per ottenere vantaggi strategici senza ricorrere alla violenza fisica.
La guerra cognitiva è una forma di conflitto ibrido che integra le metodologie della guerra psicologica con le capacità operative della cyberwarfare. Il suo obiettivo non è limitato a influenzare cosa le persone pensano, ma si spinge fino ad alterare come pensano e, di conseguenza, come agiscono. Questa disciplina mira a costruire e stabilizzare rappresentazioni mentali generalizzate nell'opinione pubblica, orientando emozioni, atteggiamenti e comportamenti (Trinchero).
Secondo la NATO, si tratta di attività condotte per influenzare attitudini e comportamenti agendo sulla cognizione a livello individuale, di gruppo o di popolazione, con lo scopo di ottenere un vantaggio sull'avversario. Questa forma di conflitto si distingue per la sua natura impalpabile e perpetua: non esiste un tempo di pace e un tempo di guerra, ma le operazioni si svolgono in continuazione, adattandosi al contesto per erodere progressivamente le capacità politiche e sociali del bersaglio (Ottaviani). L'obiettivo finale è quello di minare la fiducia, seminare discordia e fratturare la coesione di una società, rendendola incapace di resistere alle intenzioni dell'avversario (Castiello D'Antonio, Pietrobon).
Sebbene la guerra cognitiva condivida alcuni elementi con le operazioni psicologiche (PsyOps) tradizionali, se ne distingue per portata, mezzi e obiettivi. La tabella seguente, basata sull'analisi concettuale della NATO (Claverie & du Cluzel), ne illustra le differenze fondamentali.
| Caratteristica | Operazioni Psicologiche (PsyOps) Tradizionali | Guerra Cognitiva |
| Obiettivo Principale | Agire su credenze, illusioni culturali e paure per influenzare le decisioni. | Alterare direttamente i processi cognitivi (percezione, attenzione, giudizio) per distorcere la razionalità. |
| Mezzi Impiegati | Propaganda, diffusione di messaggi su media tradizionali (radio, volantini), operazioni di influenza. | Sfruttamento di big data, intelligenza artificiale, algoritmi, social media, neuroscienze, contenuti sintetici (deepfake). |
| Dominio Operativo | Dominio informativo e psicologico. L'azione è focalizzata sul contenuto dei messaggi. | Dominio cognitivo e cibernetico integrati. L'azione è focalizzata sulla manipolazione del processo di elaborazione delle informazioni. |
| Scala e Velocità | Campagne pianificate con diffusione relativamente lenta e portata definita. | Diffusione virale e in tempo reale su scala globale, con feedback e adattamento continui. |
| Consapevolezza del Bersaglio | Il bersaglio può riconoscere il messaggio come propaganda. | Il bersaglio è spesso inconsapevole di essere sotto attacco, poiché le operazioni sono mascherate da flussi informativi ordinari. |
La guerra cognitiva si inserisce perfettamente nel contesto della competizione tra grandi potenze, definita da alcuni "Guerra Fredda 2.0" o "Terza guerra mondiale in frammenti". Rappresenta un'arma non letale ideale per i conflitti da remoto, dove l'obiettivo è sopraffare un nemico senza la necessità di combatterlo fisicamente. L'aspettativa di chi conduce queste operazioni è una vittoria "suntziana": ottenere la sottomissione dell'avversario indebolendone la "volontà collettiva di resistere", rendendolo incapace di opporsi agli obiettivi strategici dell'aggressore (Pietrobon).
Comprendere la definizione e la portata strategica della guerra cognitiva è il primo passo per apprezzarne la minaccia. Tuttavia, per coglierne appieno la sofisticazione attuale, è essenziale analizzarne l'evoluzione storica, dalle sue origini pre-digitali fino al suo riconoscimento formale come nuovo dominio del conflitto moderno.
2.0 Evoluzione Storica e Affermazione nel Contesto Contemporaneo
'idea di manipolare la mente del nemico per ottenere un vantaggio strategico è antica quanto la guerra stessa. Tuttavia, è solo attraverso l'analisi delle sue radici storiche che si può comprendere la radicale trasformazione che la tecnologia digitale ha impresso a queste pratiche. L'evoluzione dalla propaganda tradizionale alla guerra cognitiva contemporanea segna un cambiamento epocale nella natura del conflitto, spostando il campo di battaglia dal mondo fisico a quello impalpabile della cognizione umana.
La "preistoria" della guerra cognitiva affonda le sue radici negli esperimenti sul controllo mentale e sulla fabbricazione del consenso condotti durante la Seconda Guerra Mondiale e la Guerra Fredda. In questo periodo, attori statali come l'Office of Strategic Services (OSS) statunitense, precursore della CIA, e l'Unione Sovietica investirono ingenti risorse in ricerche sul condizionamento del comportamento, sulla manipolazione delle masse e sulle tecniche di propaganda, ponendo le basi teoriche e operative per le future operazioni cognitive (Pietrobon, Castiello D'Antonio). Queste prime iniziative, sebbene limitate dai mezzi tecnologici dell'epoca, dimostrarono l'enorme potenziale strategico derivante dal controllo dell'informazione e della psicologia umana.
a guerra cognitiva contemporanea si distingue nettamente dalle sue forme passate per due fattori chiave, come analizzato da Roberto Trinchero:
- L'epurazione del concetto di violenza fisica: La guerra cognitiva non prevede l'uso della forza letale e, per questo, spesso non viene percepita come un vero e proprio atto di guerra. Le sue operazioni si mascherano da dibattito politico, denuncia sociale o semplice flusso informativo, riducendone la percezione di minaccia e rendendola eticamente più ambigua e, quindi, più accettabile per segmenti dell'opinione pubblica.
- La democratizzazione dell'accesso ai mezzi di informazione: L'avvento di Internet e dei social network ha permesso a chiunque di diventare un "pubblicatore". Questo ha generato un vero e proprio "(cyber)bellum omnium contra omnes", una guerra cognitiva di tutti contro tutti, dove non solo gli Stati, ma anche gruppi di interesse, aziende e singoli cittadini possono lanciare attacchi su vasta scala, diffondendo narrazioni virali e destabilizzando l'ambiente informativo.
La crescente importanza di questo dominio ha portato al suo riconoscimento formale da parte delle principali istituzioni di difesa. Il termine "guerra cognitiva" è stato utilizzato per la prima volta in un contesto militare nel 2017 dal Generale David L. Goldfein dell'aeronautica statunitense. Questo ha segnato l'inizio di un percorso dottrinale che è culminato nel 2023, quando la NATO ha ufficialmente riconosciuto la cognizione come il sesto dominio di guerra, affiancandolo a terra, mare, aria, spazio e dominio cibernetico. Tale istituzionalizzazione sancisce la mente umana come un vero e proprio teatro operativo, la cui protezione è diventata una priorità strategica per la sicurezza euro-atlantica.
Il riconoscimento formale della cognizione come dominio di guerra evidenzia l'urgenza di comprendere non solo il concetto, ma anche le tattiche e gli strumenti specifici che vengono impiegati per condurre operazioni offensive in questo nuovo e complesso campo di battaglia.
3.0 Analisi delle Tattiche e degli Strumenti Operativi
L'arsenale della guerra cognitiva è multiforme e in continua evoluzione. Le tattiche operative non si limitano alla semplice diffusione di notizie false, ma comprendono un insieme integrato di tecniche psicologiche, tecnologiche e informative. Questo arsenale è progettato per sfruttare le vulnerabilità intrinseche della mente umana, come i bias cognitivi e le euristiche, amplificandone gli effetti su vasta scala attraverso le piattaforme digitali. L'obiettivo è creare confusione, erodere la fiducia e manipolare la percezione della realtà in modo sistematico e quasi invisibile.
Per comprendere le tattiche impiegate, è fondamentale adottare una tassonomia precisa. Claire Wardle e Hossein Derakhshan hanno proposto un framework, citato da diverse fonti (Trinchero, Castiello D'Antonio), che distingue tre tipologie principali di manipolazione informativa:
- Mis-informazione: Si verifica quando viene diffusa un'informazione falsa senza l'intento di causare un danno. È spesso il risultato di superficialità o errore umano, come la condivisione di una notizia non verificata.
- Dis-informazione: Consiste nella creazione e diffusione deliberata di informazione falsa con l'intento preciso di ingannare, manipolare e causare un danno a persone, organizzazioni o Stati. È il cuore delle operazioni cognitive ostili.
- Mal-informazione: Riguarda la diffusione di informazione vera (ad esempio, dati privati, conversazioni intercettate) con l'intento di nuocere. L'arma non è la falsità del contenuto, ma la sua decontestualizzazione o il suo uso malevolo.
Queste tattiche operano in un ambiente di sovraccarico informativo, definito Infodemia, ovvero la circolazione caotica di un'enorme quantità di informazioni non verificate. Quando questo sovraccarico è deliberatamente orchestrato per scopi ostili, si parla di Disinfodemia, una vera e propria guerra psico-informativa basata sulla diffusione continua di contenuti contrastanti per paralizzare la capacità di giudizio del pubblico (Castiello D'Antonio, Pietrobon).
Gli attacchi cognitivi vengono veicolati attraverso un'infrastruttura tecnologica complessa e pervasiva. I principali vettori includono:
- Social Media e Piattaforme di Rete: Piattaforme come Facebook, TikTok, Twitter (X) e Telegram sono diventate le principali "trincee digitali". La loro architettura, basata sull'engagement e sulla viralità, le rende strumenti ideali per la diffusione rapida e capillare di narrazioni manipolatorie.
- Intelligenza Artificiale e Algoritmi: L'IA è il motore della guerra cognitiva moderna. Viene utilizzata per analizzare big data, creare profili psicologici dettagliati degli utenti e personalizzare i contenuti per massimizzarne l'impatto persuasivo. Gli algoritmi che governano i feed di notizie possono essere manipolati per creare "camere d'eco" e polarizzare il dibattito.
- Strumenti di Automazione: Le botnet (reti di account automatizzati) e le troll farm (gruppi organizzati di operatori umani) vengono impiegate per simulare un consenso di massa. Questi false amplifiers inondano la rete di commenti e condivisioni, creando l'illusione che una certa narrazione sia ampiamente supportata e diffondendola in modo virale.
- Contenuti Sintetici: L'uso di meme, deepfake (video e audio falsificati tramite IA) e influencer virtuali permette di veicolare messaggi in modo sottile ed emotivamente pervasivo. I meme, in particolare, traducono idee complesse in messaggi semplici e virali, difficili da moderare e altamente efficaci nel modellare le percezioni.
Le tecnologie sono solo il veicolo; il vero bersaglio è la mente umana. Le operazioni cognitive sfruttano sistematicamente le debolezze del nostro apparato cognitivo. Le principali tecniche, ampiamente descritte da Trinchero, includono:
- Confusione dei Piani Informativi: I manipolatori mescolano ad arte tre livelli di informazione: i fatti oggettivi (dimostrabili), le interpretazioni quasi-oggettive (plausibili ma non dimostrate) e le opinioni soggettive. Confondendo questi piani, si induce il pubblico a trattare le opinioni come fatti, basando le proprie decisioni su un pensiero impulsivo-emotivo anziché critico-razionale.
- Sfruttamento di Euristiche e Bias Cognitivi: Per gestire il sovraccarico informativo, le persone utilizzano "scorciatoie mentali" (euristiche) per valutare la credibilità delle informazioni. I manipolatori sfruttano questi meccanismi. Ad esempio, l'euristica dell'approvazione sociale (credere a qualcosa perché molti altri ci credono) viene attivata tramite i false amplifiers. Il bias di autoconferma (cercare informazioni che confermano le proprie credenze) viene sfruttato dagli algoritmi per creare bolle informative personalizzate.
- Uso di Fallacie Logiche: Vengono impiegate argomentazioni logicamente scorrette ma psicologicamente persuasive per deviare il dibattito e screditare gli avversari. Tra le più comuni vi sono:
- Argomentazione ad hominem: Attaccare la persona che espone una tesi invece della tesi stessa ("Parla Lei di legalità, che ha preso un sacco di multe per divieto di sosta!").
- Falso dilemma: Presentare due alternative come le uniche possibili, ignorando altre opzioni ("Insomma, poche storie: o si dissociano dai terroristi o sono loro complici!").
- Pendio scivoloso (Slippery Slope): Sostenere che un'azione iniziale scatenerà inevitabilmente una catena di conseguenze negative, senza fornire prove ("Se autorizziamo le unioni gay, allora poi dovremo anche consentire loro di adottare figli!").
Queste tattiche e strumenti non sono teorie astratte, ma vengono applicate quotidianamente da attori statali e non statali in scenari geopolitici reali. L'analisi di casi di studio emblematici è essenziale per comprendere come queste tecniche vengano orchestrate per raggiungere obiettivi strategici concreti.
4.0 Casi di Studio Emblematici e Attori Geopolitici
L'analisi di casi concreti è fondamentale per comprendere la minaccia della guerra cognitiva al di là della sua cornice teorica. Gli esempi che seguono dimostrano come diversi attori statali e para-statali utilizzino tattiche cognitive sofisticate e adattive per perseguire i propri obiettivi geopolitici. Dalla disinformazione su vasta scala della Russia alla manipolazione algoritmica della Cina, fino all'uso strategico dei dati nel conflitto israelo-palestinese, questi casi illustrano la diversità e l'impatto di questo nuovo dominio di guerra.
La Russia ha sviluppato un modello operativo di guerra cognitiva particolarmente aggressivo e pervasivo, le cui tattiche sono state ampiamente documentate.
- Il Modello "Manichetta Antincendio della Menzogna": Come descritto da un'analisi della RAND Corporation e ripreso da Pietrobon, la strategia russa non mira a convincere, ma a confondere. Il modello della firehose of falsehood si basa sulla diffusione ininterrotta e ripetuta di un alto volume di messaggi falsi, semi-veri e reciprocamente contraddittori attraverso molteplici canali. L'obiettivo è annullare la capacità del pubblico di distinguere il vero dal falso, erodendo la fiducia in tutte le fonti informative e creando un ambiente di paralisi decisionale.
- Le Attività dell'Internet Research Agency (IRA): Legata a Evgenij Prigožin, l'IRA ha condotto operazioni cognitive su larga scala, in particolare negli Stati Uniti. Durante le elezioni del 2016 e negli anni successivi, l'agenzia ha utilizzato social media come Facebook e Twitter per esacerbare le tensioni sociali e razziali preesistenti. Circa il 66% della sua attività su Facebook era focalizzata su temi di ingiustizia sociale e brutalità poliziesca, con campagne mirate specificamente al pubblico afro-americano per alimentare la discordia (Pietrobon).
- Interferenze in Europa: Le operazioni russe hanno preso di mira anche il continente europeo. In Germania, è stato documentato un sostegno mediatico anomalo al partito AfD attraverso canali Telegram e profili falsi. In Francia, le proteste degli agricoltori (2024) e altre manifestazioni sociali sono state amplificate artificialmente da reti pro-russe per radicalizzare il dibattito e promuovere narrazioni anti-europee e anti-governative (Ottaviani).
A differenza della strategia russa, basata sull'inondazione informativa della "manichetta antincendio della menzogna", la Cina adotta un approccio più sottile ma altrettanto pervasivo, utilizzando la tecnologia come principale vettore delle sue operazioni cognitive.
- TikTok come "Super-PsyOp": La piattaforma di condivisione video TikTok, di proprietà della società cinese ByteDance, è stata accusata di agire come una sofisticata operazione psicologica globale (Pietrobon). Esiste una netta dicotomia tra l'algoritmo della versione internazionale (TikTok) e quello della versione domestica (Douyin). Mentre Douyin promuove contenuti educativi, innovativi e "moralmente positivi", l'algoritmo di TikTok all'estero tende a popolarizzare contenuti che indeboliscono le società bersaglio.
- Indebolimento delle Società Occidentali: L'algoritmo di TikTok è accusato di promuovere sistematicamente contenuti divisivi come il wokeismo, sfide pericolose (challenge), comportamenti antisociali e stili di vita deleteri. Questa strategia mira ad accelerare processi di disfacimento sociale, a polarizzare le nuove generazioni e a creare un ambiente di instabilità psicologica e culturale nei paesi occidentali.
- Operazioni contro Taiwan: Taiwan è un bersaglio primario delle operazioni cognitive cinesi. Pechino utilizza campagne di disinformazione massive per minare la fiducia nel governo taiwanese, interferire nei processi elettorali e promuovere la narrazione della "Cina unica" (Pietrobon). Durante la visita di Nancy Pelosi nel 2022, la Cina ha orchestrato attacchi cyber-cognitivi coordinati, hackerando sistemi di segnaletica digitale per diffondere messaggi ostili e inondando la rete di disinformazione (Guerra Cognitiva: strategie, impatti...).
Il conflitto tra Hamas e Israele dimostra come la manipolazione dei dati sia diventata un'arma cruciale per condizionare l'opinione pubblica globale.
- La Strategia di Hamas: Come analizzato da Claudio Bertolotti, una delle principali strategie di Hamas è stata la manipolazione dei dati sulle vittime civili a Gaza. Diffondendo cifre elevate, con una presunta maggioranza di donne e bambini, Hamas ha cercato di plasmare la narrazione del conflitto, dipingere Israele come un aggressore sproporzionato e ottenere il sostegno di governi, organizzazioni internazionali e opinioni pubbliche occidentali.
- L'Analisi Statistica di Abraham Wyner: Uno studio condotto da Abraham Wyner, professore di statistica alla Wharton School, ha rivelato profonde incongruenze nei dati forniti dal Ministero della Salute di Gaza, controllato da Hamas. L'analisi statistica ha evidenziato diverse anomalie che suggeriscono una fabbricazione deliberata dei numeri:
- Aumento quasi lineare delle vittime: I totali giornalieri riportati mostrano una regolarità eccessiva, priva della variabilità statistica che ci si aspetterebbe in un conflitto reale.
- Assenza di correlazione tra vittime donne e bambini: Contrariamente alla logica, i giorni con un alto numero di vittime femminili non corrispondono a giorni con un alto numero di vittime tra i bambini, suggerendo che i dati siano stati aggiunti in modo artificiale.
- Correlazione negativa tra vittime uomini e donne: In modo anomalo, i giorni con un alto numero di vittime femminili coincidono con giorni in cui il numero di vittime maschili è quasi nullo, indicando una probabile manipolazione per raggiungere un totale giornaliero prefissato.
Questi esempi dimostrano in modo inequivocabile come le operazioni cognitive siano diventate uno strumento di potere diffuso e destabilizzante, capace di influenzare elezioni, polarizzare società e modellare la percezione globale dei conflitti. Le loro implicazioni sistemiche, in particolare per le democrazie liberali, rappresentano una delle sfide più critiche per la sicurezza contemporanea.
5.0 Implicazioni per le Democrazie Liberali e la Sicurezza Internazionale
La guerra cognitiva non è una minaccia marginale, ma rappresenta un attacco diretto e fondamentale alle fondamenta delle società aperte. Il suo impatto va ben oltre la diffusione di disinformazione: essa mina la coesione sociale, erode la fiducia nelle istituzioni, paralizza la governance democratica e destabilizza l'ordine internazionale. Le democrazie liberali, per loro stessa natura, sono particolarmente esposte a questo tipo di aggressione, che sfrutta le loro libertà per rivolgerle contro di esse.
Le democrazie liberali presentano vulnerabilità strutturali che le rendono bersagli ideali per le operazioni cognitive. Le principali sono:
- Società Aperte e Pluralismo: La libertà di espressione e l'accesso aperto all'informazione, pilastri delle società democratiche, vengono strumentalizzati da attori ostili per diffondere propaganda e narrazioni divisive. L'ambiente pluralistico, pensato per favorire il dibattito, viene trasformato in un campo di battaglia informativo (Pietrobon, Ottaviani).
- Sovraccarico Informativo: Le società moderne sono sommerse da un'enorme mole di messaggi. Questa infodemia costringe i cittadini a fare ricorso a euristiche e scorciatoie cognitive per valutare le informazioni, rendendoli più suscettibili alla manipolazione che sfrutta proprio questi meccanismi psicologici (Trinchero).
- Fiducia Orizzontale vs. Verticale: Esiste una crescente tendenza a dare più credito alle informazioni provenienti dai propri pari (peer-to-peer) o da influencer sui social media, piuttosto che alle fonti istituzionali tradizionali come governi, media mainstream e comunità scientifica. Questa fiducia "orizzontale" è facilmente sfruttabile per diffondere campagne virali che aggirano i canali di verifica ufficiali (Trinchero).
Gli effetti della guerra cognitiva sul tessuto socio-politico delle nazioni bersaglio sono profondi e corrosivi:
- Erosione della Fiducia: L'obiettivo primario è distruggere la fiducia dei cittadini nelle istituzioni democratiche, nei media, nella scienza e persino nei processi elettorali. Questa sfiducia generalizzata porta a una "paralisi lenta e invisibile" della società, rendendola ingovernabile e incapace di affrontare le sfide collettive (Ottaviani).
- Polarizzazione e Frammentazione: Le operazioni cognitive sono progettate per amplificare le divisioni preesistenti in una società, che siano di natura politica, etnica o culturale. La creazione di "camere d'eco" e "bolle informative" digitali radicalizza gli individui, rendendo impossibile il dialogo e frammentando il corpo sociale in gruppi ostili e incomunicabili (Pietrobon, Trinchero).
- Indebolimento della Volontà Collettiva: L'esito finale di una campagna cognitiva di successo è l'annientamento della "volontà collettiva di resistere". Una società divisa, confusa e sfiduciata diventa incapace di formulare una risposta coesa a una minaccia esterna, potendo essere sottomessa senza l'uso della forza militare convenzionale (Pietrobon).
Le implicazioni strategiche della guerra cognitiva ridefiniscono il concetto stesso di sicurezza:
- L'Informazione come Arma: È ormai imperativo integrare l'informazione come un'arma a tutti gli effetti nelle strategie di difesa nazionale. La sicurezza non riguarda più solo la protezione dei confini fisici, ma anche quella dello spazio informativo e cognitivo della nazione (Trinchero).
- L'Infrastruttura Cognitiva Critica: L'agenzia statunitense CISA (Cybersecurity and Infrastructure Security Agency) ha introdotto il concetto di "infrastruttura cognitiva" come la più critica da proteggere. Essa comprende le reti informative, le istituzioni educative, i media e tutti i sistemi che contribuiscono a formare la percezione pubblica della realtà.
- Destabilizzazione delle Alleanze: Le operazioni cognitive mirano a minare le alleanze strategiche, come la NATO. Diffondendo narrazioni anti-occidentali e alimentando la sfiducia tra gli Stati membri, gli avversari cercano di bloccare decisioni comuni su temi cruciali come la difesa, la sicurezza energetica e la risposta a crisi internazionali (Ottaviani).
Avendo delineato la gravità e la pervasività della minaccia, sorge spontanea una domanda cruciale: come è possibile difendersi da un'aggressione così impalpabile ma al contempo così devastante? La risposta risiede nello sviluppo di una strategia di difesa integrata, che agisca a livello individuale, nazionale e internazionale.
6.0 Conclusioni e Raccomandazioni Strategiche
La guerra cognitiva è una minaccia pervasiva, dinamica e in continua evoluzione, che sfida le dottrine di sicurezza tradizionali. La sua capacità di trasformare la mente umana nel campo di battaglia decisivo impone un cambio di paradigma urgente: è necessario passare da una postura reattiva, focalizzata sulla smentita di singole notizie false, a una strategia di difesa proattiva e integrata. Questa strategia deve mirare a proteggere non solo le infrastrutture fisiche e digitali, ma soprattutto l'autonomia cognitiva dei cittadini e la resilienza del tessuto democratico.
Le tendenze tecnologiche e geopolitiche indicano un imminente aumento della portata e della pericolosità delle operazioni cognitive. Le minacce emergenti includono:
- Evoluzione dell'Intelligenza Artificiale: L'IA generativa renderà la creazione di disinformazione e contenuti sintetici (come i deepfake) ancora più rapida, economica e realistica. L'avvento di chatbot maligni (killbot), progettati per radicalizzare individui vulnerabili e spingerli a compiere atti estremi, rappresenta uno scenario tanto cupo quanto realistico (Pietrobon, MasiraX).
- Il Metaverso come Campo di Battaglia: La progressiva diffusione di ambienti di realtà virtuale e aumentata aprirà un nuovo fronte per la guerra cognitiva. Il metaverso potrebbe essere militarizzato per condurre operazioni psicologiche immersive e ad alta frequenza, alterando la percezione della realtà degli utenti in modo ancora più profondo (Pietrobon).
- Annientamento della Consapevolezza Situazionale: La combinazione di IA avanzata, deepfake perfezionati e disinfodemia costante rischia di portare a un collasso della capacità del pubblico di distinguere il vero dal falso. Questo annientamento della consapevolezza situazionale potrebbe rendere intere popolazioni permanentemente manipolabili e incapaci di prendere decisioni informate.
Per affrontare questa minaccia complessa, è necessaria una dottrina di difesa olistica, strutturata su tre livelli di intervento sinergici:
Livello 1: Resilienza Individuale e Sociale
La prima linea di difesa è un cittadino consapevole e critico.
- Promuovere l'Educazione allo "Scetticismo Attivo": È fondamentale integrare l'alfabetizzazione mediatica e digitale nei programmi scolastici a ogni livello. L'obiettivo è sviluppare il pensiero critico e fornire ai cittadini gli strumenti per analizzare le fonti, riconoscere le fallacie logiche e distinguere i fatti dalle opinioni. Educare allo "scetticismo attivo" significa coltivare un habitus mentale di verifica sistematica e di sospensione del giudizio, elementi essenziali per l'autonomia cognitiva (Trinchero, Pietrobon).
Livello 2: Protezione dell'Infrastruttura Cognitiva Nazionale
Lo Stato ha il dovere di proteggere la propria infrastruttura cognitiva.
- Formulare una Strategia Nazionale Integrata: È necessario sviluppare una strategia nazionale per la guerra cognitiva, che coordini le azioni di diversi ministeri (Difesa, Interno, Istruzione). Questa dovrebbe includere la creazione di un'agenzia per la difesa psicologica, sul modello svedese, con il compito di monitorare le minacce, informare il pubblico e coordinare la risposta nazionale (Pietrobon).
- Rafforzare la Sicurezza delle Infrastrutture Critiche: La cybersicurezza deve essere estesa a tutte le componenti dell'infrastruttura cognitiva nazionale, inclusi i sistemi mediatici, le reti di comunicazione e le piattaforme educative. Queste devono essere considerate obiettivi strategici di primaria importanza (Ottaviani, CISA).
- Garantire la Trasparenza: È cruciale implementare normative stringenti sulla trasparenza dei finanziamenti a partiti politici, organizzazioni non governative (ONG), think tank e media. Prevenire l'infiltrazione e l'influenza occulta da parte di potenze straniere è un passo indispensabile per proteggere l'integrità dei processi democratici (Ottaviani).
Livello 3: Collaborazione e Deterrenza Internazionale
La guerra cognitiva è una minaccia transnazionale che richiede una risposta coordinata.
- Adottare Framework di Difesa Coordinati: È essenziale rafforzare la collaborazione all'interno di alleanze come la NATO e l'Unione Europea. Il framework della NATO, basato sui quattro pilastri Educate, Collaborate, Protect, Shape, e le iniziative dell'UE, come il framework FIMI (Foreign Information Manipulation and Interference) di ENISA, forniscono modelli operativi per una difesa collettiva efficace.
- Sviluppare Standard Tecnici e Crittografici: È necessario promuovere lo sviluppo e l'adozione di standard internazionali per l'autenticazione dei contenuti digitali. Tecnologie come la watermarking digitale, la blockchain e i sistemi di Content Credentials (come quelli proposti da C2PA) possono aiutare a verificare la provenienza dei media e a combattere la proliferazione di deepfake (Guerra Cognitiva: strategie, impatti...).
La difesa dalla guerra cognitiva è, in ultima analisi, una difesa della libertà di pensiero e della sovranità democratica. In questo nuovo dominio del conflitto, la lucidità collettiva e la consapevolezza della minaccia non sono solo auspicabili, ma costituiscono la prima e più importante linea di difesa. Proteggere la mente dei cittadini dall'interferenza maligna è il presupposto fondamentale per salvaguardare il futuro delle società aperte nell'era digitale.
La guerra cognitiva: il nuovo fronte invisibile della mente
Nel panorama delle strategie di potere del XXI secolo, la guerra cognitiva rappresenta la forma più sottile e al tempo stesso più pericolosa di conflitto. Essa non mira alla distruzione fisica delle infrastrutture o dei corpi, ma all’alterazione delle menti e alla manipolazione delle percezioni collettive. È la guerra che si combatte nel dominio dell’informazione, della coscienza, dell’attenzione e dell’emozione. È il conflitto che non usa missili, ma algoritmi, e che non conquista territori, ma spazi mentali.
Per comprendere la natura di questo fenomeno, occorre considerare come l’informazione sia diventata oggi il principale vettore di potere. La manipolazione dei flussi informativi e delle credenze produce effetti tangibili sull’equilibrio politico, economico e sociale delle nazioni. Gli studi della NATO, così come le ricerche condotte in ambito accademico e tecnologico, concordano nel definire la guerra cognitiva come un insieme di operazioni volte a influenzare, degradare o orientare i processi mentali e decisionali di individui e collettività, rendendoli più vulnerabili o più docili rispetto a determinati obiettivi strategici.
Uno dei casi più emblematici di applicazione su larga scala di questa logica è la guerra in Ucraina. Ben prima dell’invasione del 2022, la Russia aveva già predisposto un sistema capillare di modellazione cognitiva dell’opinione pubblica, agendo su diversi livelli: la produzione continua di narrazioni contraddittorie, la creazione artificiale di polarizzazione interna e la saturazione informativa del mondo occidentale con messaggi discordanti. L’obiettivo era quello di distruggere la fiducia collettiva nella verità, generando un eccesso di rumore informativo tale da paralizzare la capacità di analisi e reazione. Come spiega Massimiliano Nicolini, esperto internazionale di sistemi informativi e teorico della fisicità del bit, questa forma di attacco può essere letta come un processo di “dissipazione entropica dell’informazione”: un sistema, quando viene sovraccaricato di input disordinati, perde energia utile, perde coerenza e infine si spegne. Allo stesso modo, una società bombardata da troppe informazioni incoerenti tende a smarrire la capacità di distinguere, giudicare e reagire.
Un secondo scenario significativo è quello di Taiwan, da anni oggetto di una pressione cognitiva costante da parte della Cina continentale. In questo caso, la guerra non si manifesta attraverso atti di forza, ma mediante un lento e sistematico lavoro di costruzione di una narrativa favorevole alla riunificazione. I mezzi sono molteplici: l’uso di media controllati e influencer, la diffusione di contenuti falsi volti a minare la fiducia nel governo locale, e l’infiltrazione nei circuiti culturali e accademici per modellare l’identità cognitiva delle nuove generazioni. Nicolini interpreta questo tipo di operazioni come l’instaurarsi di un “campo di risonanza cognitiva”, una sorta di energia informativa persistente che, replicandosi nel tempo, condiziona il subconscio collettivo. Ogni messaggio ripetuto milioni di volte produce un effetto fisico sul sistema cognitivo sociale, alterandone la percezione del possibile e del reale.
Un altro caso ormai divenuto paradigmatico è quello di Cambridge Analytica, che durante le elezioni statunitensi del 2016 ha utilizzato i dati psicometrici di milioni di utenti per influenzarne il comportamento politico. Attraverso sofisticati modelli di machine learning e strategie di micro-targeting, la società riuscì a identificare le paure, le inclinazioni e le vulnerabilità cognitive di ciascun individuo, costruendo messaggi personalizzati capaci di orientarne il voto. La propaganda tradizionale lascia così il posto a un’operazione chirurgica sull’inconscio collettivo. Nicolini definisce questa condizione come una forma di “compressione percettiva”: l’individuo immerso in un ambiente informativo personalizzato perde la possibilità di confrontarsi con la diversità dei dati, rinchiudendosi in un ecosistema autoreferenziale dove tutto conferma ciò che già pensa. In questa prigione cognitiva, la libertà di scelta si trasforma in illusione.
Nel quadrante europeo, un altro episodio di grande rilievo è l’operazione “Ghostwriter”, condotta contro diversi paesi dell’Europa orientale. Attraverso intrusioni informatiche nei siti di testate giornalistiche e la diffusione di articoli falsi amplificati sui social, gruppi di matrice russa hanno cercato di seminare sfiducia nelle istituzioni e nella NATO. Questo episodio rivela la natura integrata della guerra cognitiva: la componente informatica serve solo a creare il veicolo, ma la vera offensiva si realizza nella mente del lettore, che interiorizza l’informazione falsa come autentica. Nicolini evidenzia come la vulnerabilità non risieda soltanto nei codici informatici, ma nel codice percettivo umano: la mente, se privata della capacità critica, diventa un sistema aperto e attaccabile esattamente come un server senza firewall.
Durante la pandemia di COVID-19, il mondo intero ha vissuto una forma diffusa di guerra cognitiva involontaria, definita “infodemia”. La produzione incontrollata di notizie, spesso contraddittorie o manipolate, ha generato una crisi cognitiva globale. Le persone, incapaci di distinguere tra fonti attendibili e fonti distorte, sono state trascinate in un vortice di ansia, polarizzazione e disorientamento. Nicolini, con la sua teoria del “peso fisico del bit”, ha osservato che anche l’informazione, come l’energia, produce effetti misurabili: quando la quantità di dati incoerenti supera una soglia critica, il sistema sociale accumula energia disordinata, che si manifesta come instabilità emotiva e perdita di fiducia collettiva. L’infodemia è stata, da questo punto di vista, una dimostrazione scientifica della possibilità che la manipolazione informativa generi veri e propri shock energetici cognitivi.
Anche nel Medio Oriente, e in particolare nel conflitto siriano, si è potuto osservare come la manipolazione digitale e la produzione di contenuti deepfake siano stati impiegati per orientare l’opinione pubblica internazionale. Video falsificati, testimonianze artefatte e messaggi generati da reti automatizzate di bot hanno costruito versioni alternative degli eventi, destabilizzando la percezione globale. Qui la guerra cognitiva ha raggiunto un livello ulteriore: l’automazione della menzogna. Nicolini, nel suo pensiero sulla responsabilità energetica dell’intelligenza artificiale, ha proposto una lettura etica e fisica del fenomeno: se ogni dato produce una conseguenza, allora anche la disinformazione ha un costo misurabile, un impatto che va quantificato e ridotto come si farebbe con le emissioni di carbonio.
In Italia, l’attenzione verso la guerra cognitiva è crescente. Il Ministero della Difesa, nel 2023, ha inserito ufficialmente il concetto di “dominio cognitivo” tra le aree di competenza strategica nazionale. Parallelamente, la Fondazione Olitec, diretta da Massimiliano Nicolini, ha avviato un programma di ricerca BRIA – Bioinformatica, Realtà Immersiva e Intelligenza Artificiale – per esplorare come le tecnologie emergenti possano essere utilizzate non per controllare, ma per emancipare la mente umana. L’obiettivo è formare nuove generazioni capaci di comprendere il funzionamento dei meccanismi informativi e di resistere alla manipolazione. In questa visione, la guerra cognitiva può essere contrastata solo attraverso la consapevolezza, la cultura e la conoscenza del proprio modo di pensare.
Tutti questi casi, pur diversi per contesto e intensità, rivelano un principio comune: la mente umana è diventata il vero campo di battaglia del nostro tempo. Ogni flusso informativo è una freccia invisibile che colpisce le nostre certezze, ogni algoritmo un’arma che plasma le nostre scelte, ogni narrazione una forma di potere.
Massimiliano Nicolini, con la sua visione che unisce fisica, informatica ed etica, invita a leggere la guerra cognitiva come una questione di equilibrio energetico tra ordine e caos dell’informazione. Quando i sistemi sociali perdono questa armonia, non serve più la forza militare per conquistarli: basta l’inerzia del loro pensiero.
In ultima analisi, la guerra cognitiva non può essere vinta con il silenzio o con la censura, ma con la costruzione di una coscienza collettiva capace di riconoscere la manipolazione e di trasformare l’informazione in conoscenza. Nicolini chiama questo passaggio “coscienza cognitiva”: la consapevolezza che ogni bit, ogni parola e ogni immagine generano una conseguenza fisica e morale nel mondo. Solo comprendendo questa verità potremo difendere davvero la nostra libertà interiore in un’epoca in cui la mente è divenuta la più preziosa e contesa delle risorse strategiche.

