
di Lorenzo Nannetti /
Esiste un’espressione che viene spesso citata in ambito analitico, in vari campi: red teaming. Ma che cos’è?
Se cercate su un motore di ricerca, spesso le prime risposte indicheranno l’ambito informatico: “red teaming” è un’attività dove qualcuno – spesso un consulente esterno – prova a “bucare” le difese informatiche di un’azienda su richiesta dell’azienda stessa, per verificare appunto quanto esse siano solide o presentino vulnerabilità, umane o di hardware e software. Questa analisi delle vulnerabilità servirà poi a capire come migliorare il proprio network, la formazione degli addetti ecc…
Tutto questo è vero ma è solo una tipologia specifica di red teaming, termine che include in realtà un intero approccio applicabile a molti più campi della semplice informatica.
Red Teaming significa infatti “analizzare qualcosa (problema, dinamica, situazione…) con gli occhi dell’avversario”.
“Red” (rosso) è infatti il colore con cui tradizionalmente (in ambito NATO/occidentale) vengono disegnate su mappa le unità del nemico in ambito militare, per differenziarle dalle proprie (Blue). Altri colori servono per indicare alleati, o ancora altri la cui identificazione è incerta.
(Paesi differenti usano colori differenti, ad esempio i Cinesi usano i colori al contrario: loro sono i “rossi”, i nemici “blu”).
Non è qualcosa però di limitato all’ambito militare: il termine, per estensione, si usa anche per indicare il competitor in ambito economico o di business o qualunque “avversario”. Se immaginiamo di analizzare la situazione di interesse come se fossimo “nella squadra dell’avversario”, ecco che arriviamo proprio al concetto di essere nel “Red Team”. Da cui l’espressione “Red Teaming” per indentificare l’approccio.
Perché usare il red teaming? Può essere utile per chiedersi cosa farebbe l’altro, come reagirebbe, come potrebbe trarre vantaggio da una certa situazione o sviluppo. Oppure quali punti deboli abbia il nostro approccio, piano, punto di vista.
Più correttamente, il “Red Teaming” comprende un’intera categoria di tecniche strutturate di analisi (SAT – Structured Analytical Techniques), tipiche del mondo dell’intelligence e dell’analisi militare, che puntano ad osservare l’oggetto dell’analisi da un punto di vista differente e aiutano a identificare bias e vulnerabilità non facilmente identificabili altrimenti.
Nel 2015 il Ministero della Difesa britannico ha pubblicato anche un Red Teaming Handbook, che raccoglie e illustra tali tecniche. Tuttavia, a dispetto dal concetto intuitivamente semplice che ne sta alla base, molte di queste richiedono addestramento e/o supervisione da parte di esperti per evitare di essere usate in maniera errata o fornire risultati sballati.
In ambito wargaming il Red Teaming significa “play Red”, ovvero guidare le forze avversarie nel wargame. Ma non basta: più propriamente significa “play Red like Red would play it”. Cioè guidare le forze dell’avversario così come l’avversario reale le guiderebbe.
Questo aspetto è da un lato fondamentale e dall’altro costituisce una delle difficoltà principali dell’approccio. Il Red Team, cioè la squadra che ricopre il ruolo dell’avversario, infatti non è l’avversario. Non ha necessariamente la stessa mentalità, punto di vista, schemi logici (soprattutto se si parla di differenze culturali significative) E’ ovvio quindi che una totale immedesimazione e rappresentazione dell’avversario sia sostanzialmente impossibile, tuttavia l’obiettivo a cui si aspira è provare ad avvicinarvisi per quanto possibile.
Questo significa che un Red Team efficace non può prescindere da uno studio approfondito e continuamente aggiornato dell’avversario, del suo modus operandi e della sua cultura. Questo include, ove possibile (l’accessibilità dipende molto da caso a caso).
– La sua dottrina militare (come si addestra a operare e come approccia il conflitto)
– Le sue esercitazioni (come davvero prova a mettere in pratica la sua dottrina, dove è aderente ad essa e dove se ne distoglie, e perché)
– Le sue operazioni militari recenti (cosa ha davvero fatto, cosa si può imparare)
– La sua letteratura specialistica (come il pensiero dell’avversario evolve nel tempo, a cosa presta attenzione, quali problemi e quali soluzioni discute – spesso queste cose precedono evoluzioni future)
– La sua storia (cosa ha influenzato e continua a influenzare il suo pensiero)
Tutto questo aiuta a “mettersi nei panni dell’avversario”, e consente al Red Team di fornire un supporto addestrativo, educativo o analitico adeguato alle necessità.
Esistono tuttavia due eccessi da cui guardarsi. Un Red Team, specialmente in ambito wargaming, può operare tra due estremi opposti:
Si parla di “Doctrinal Red” quando il Red Team prova a rispecchiare quanto più fedelmente la dottrina conosciuta dell’avversario, per le motivazioni sopra indicate.
Si parla di “Free Red” quanto invece il Red Team è libero di operare senza restrizioni particolari e può adottare anche soluzioni lontane dalla dottrina avversaria. Generalmente si usa nei casi in cui si vuole evidenziare i punti deboli di un proprio piano o approccio testandolo contro ogni possibile contromisura.
Entrambi questi approcci possono portare a effetti negativi se portati all’estremo.
Essere “troppo” dottrinali può portare ad applicare la dottrina in maniera letterale e stereotipata, cercando di replicare quanto scritto su manuali e documenti senza alcuna flessibilità o adattamento alla situazione sotto osservazione. Generalmente avviene se il Red Team non ha compreso la sostanza della dottrina avversaria, limitandosi a riprodurne la forma in maniera meccanica. Il risultato è spesso far agire l’avversario in maniera “stupida”: rigido, prevedibile, spesso controproducente. Nulla esclude che nella realtà l’avversario compia errori, ma abituarsi a pensare che l’avversario sia appunto “stupido” può portare a gravi problemi di sottovalutazione o, peggio, fornire lezioni sbagliate.
Al contrario, un approccio eccessivamente libero (se non espressamente richiesto) può portare a proporre soluzioni, tattiche o procedure totalmente scollegate dalla realtà, che privilegiano la creatività estrema ma sono eccessivamente lontane dal pensiero, possibilità o addestramento avversario. Questa situazione si verifica più facilmente nei casi in cui il Red Team risulti maggiormente concentrato sul “vincere” a tutti i costi dimenticando gli scopi educativi, addestrativi o analitici richiesti. Anche in questo caso, l’utilità può risultare limitata.
Va sempre ricordato infatti come ogni dottrina (contrariamente a quanto ogni tanto si pensi, anche quella russa e quella cinese per esempio sono così) includa sempre la possibilità di adattare i principi base alla situazione, terreno, contesto che si ha di fronte e ogni avversario tenda sempre ad adattarsi e imparare continuamente (lo vediamo anche dalla guerra in Ucraina, dove il ciclo di esperienza e adattamento di entrambi è continuo). Allo stesso tempo, è sempre possibile riconoscere i principi base del suo approccio.
Fonti:
Esperienza personale: ho fatto attività di Red Teaming per anni con Wikistrat anche per clienti istituzionali e attualmente sono parte della Red Cell del Fight Club International
Red Team Handbook, 3rd ed. (2021), UK Ministry of Defence
Captain Dale C. Rielage, U.S. Navy, “War Gaming Must Get Red Right”, Proceedings, Vol. 143/1/1,367, USNI.
M.Zenko, “Red Team: How to Succeed by Thinking Like the Enemy”, Basic Books (2015)
I.M.Sullivan, “Seven Reflections of a “Red Commander”
What I’ve Learned from Playing the Adversary in Department of Defense Wargames”, Military Review Online Exclusive, September 2024
(Ti è piaciuto questo articolo? Commentiamolo insieme sul gruppo Facebook LudoStoria!)





