Non è la prima volta che affrontiamo in questa sede il tema dell’evoluzione e dell’integrazione dei sistemi di intelligenza artificiale nei perimetri di sicurezza industriali o istituzionali: se però in passato abbiamo trattato, ad esempio, il tema dell’influenza e impatto dell’intelligenza artificiale sui processi di cybersecurity, oggi vogliamo analizzare un diverso punto di vista.
L’avvento dell’intelligenza artificiale, infatti, ha aperto nuove frontiere nei settori della comunicazione, dell’analisi dei dati e dell’automazione. Tuttavia, come spesso accade con le tecnologie dirompenti, anche l’AI può essere sfruttata per scopi malevoli e, negli ultimi tempi, si è assistito a un preoccupante aumento delle operazioni di ‘influenza occulta’ che fanno leva sulle capacità dell’AI per manipolare l’opinione pubblica e influenzare la vita politica.
Queste operazioni, spesso condotte da attori statuali o comunque threat actors politicamente ideologizzati, mirano a diffondere disinformazione, promuovere narrative faziose e fuorvianti e amplificare la polarizzazione sociale attraverso l’uso di bot, account falsi e contenuti generati dall’AI. La sofisticazione di tali tecniche rende sempre più difficile per i cittadini distinguere tra informazioni autentiche e operazioni di mera propaganda.
La crescente minaccia del condizionamento dell’opinione pubblica
Gli attori malevoli stanno sfruttando sempre di più le capacità dell’intelligenza artificiale per generare contenuti fuorvianti o manipolatori su larga scala. Questa tendenza rappresenta una sfida significativa per la società, poiché rende più difficile distinguere tra informazioni autentiche e disinformazione.
L’AI generativa consente agli attaccanti di creare testi, immagini e video realistici con il minimo sforzo umano. Questi contenuti possono essere personalizzati per adattarsi a specifici obiettivi di propaganda e diffusi rapidamente attraverso bot e account falsi. Di conseguenza, il volume e la varietà della disinformazione online stanno aumentando in modo allarmante.
Combinazione di tecniche vecchie e nuove
Gli attori malevoli non si limitano a utilizzare esclusivamente l’AI, ma combinano tecniche tradizionali con altre più innovative per massimizzare l’impatto delle loro operazioni di influenza occulta. Questa strategia ibrida rende più difficile l’individuazione e il contrasto di tali minacce.
Accanto ai contenuti generati dall’AI, gli attaccanti continuano a impiegare tattiche collaudate come la creazione manuale di contenuti falsi, l’hacking e il furto di identità digitali. L’integrazione di questi metodi con l’AI consente loro di adattarsi rapidamente al mutevole panorama online e di eludere i sistemi di difesa.
Falso engagement
Una tendenza preoccupante è l’uso dell’AI per generare falso engagement online, dando l’impressione di un ampio sostegno o interesse per determinati contenuti o narrative: gli attaccanti utilizzano bot e account falsi per creare like, commenti e condivisioni artificiali, influenzando la percezione pubblica e l’algoritmo delle piattaforme social.
Questo falso engagement può portare all’amplificazione della disinformazione, rendendo più difficile per gli utenti distinguere tra interazioni autentiche e manipolate. Inoltre, può influenzare i trend e le raccomandazioni delle piattaforme, esponendo un pubblico ancora più vasto a contenuti fuorvianti.
Guadagni in produttività
L’AI sta consentendo agli attori malevoli di aumentare significativamente produttività e scalabilità nelle operazioni di influenza occulta. Processi che in precedenza richiedevano molto tempo e risorse umane, come la creazione di contenuti e la gestione di account falsi, possono ora essere automatizzati o semi-automatizzati.
Di conseguenza, anche attori con risorse limitate possono condurre campagne di disinformazione e condizionamento su larga scala, adattando rapidamente le tattiche alle mutevoli circostanze. Questa crescente efficienza rappresenta una sfida significativa per i difensori, che devono tenere il passo con la velocità e il volume delle minacce.
Strategie di adeguamento delle linee di difesa
Per contrastare l’uso malevolo dell’AI sempre più diffuso, ricercatori e professionisti si stanno lentamente orientando verso uno sviluppo più consapevole e responsabile dei nuovi modelli e sistemi di intelligenza artificiale: l’obiettivo è creare un’AI intrinsecamente più robusta e resiliente agli abusi, incorporando salvaguardie e meccanismi di mitigazione fin dalla fase di progettazione.
Questo approccio include tecniche come l’addestramento ‘avversariale’ (neologismo per l’anglosassone adversarial machine learning), in cui i modelli di AI vengono esposti a esempi di contenuti malevoli durante la fase di training per migliorare la loro capacità di rilevamento e resistenza. Inoltre, vengono sviluppati metodi per rendere i modelli più trasparenti e interpretabili, consentendo un migliore monitoraggio e controllo del loro comportamento.
Non solo sviluppo, ma impiego sul campo
I difensori stanno cercando a loro volta di sfruttare le capacità delle AI generative per combattere le operazioni di influenza occulta: sistemi di intelligenza artificiale vengono impiegati per rilevare e analizzare in tempo reale contenuti sospetti, identificare pattern e anomalie nei dati e supportare il processo decisionale umano.
L’AI può certamente avere un impiego sostanziale nell’individuazione di bot, account falsi e reti di disinformazione su larga scala, consentendo ai difensori di rispondere rapidamente alle minacce emergenti. Inoltre, è anche possibile usare i sistemi automatici per sviluppare contromisure che operino nello stesso campo degli attaccanti, come nella generazione di contro-narrativa in opposizione alla propaganda e nella promozione di contenuti affidabili che contrastino la diffusione della disinformazione.
L’importanza della collaborazione
È centrale considerare non solo il contenuto delle operazioni di influenza occulta, ma anche i meccanismi di distribuzione utilizzati dagli attaccanti. La diffusione di disinformazione spesso si basa, come già accennato, su reti complesse di account falsi, bot e gruppi di coordinamento che amplificano strategicamente contenuto e portata dei messaggi.
Per contrastare efficacemente queste minacce, è fondamentale identificare ‘fisicamente’ e smantellare le infrastrutture di distribuzione degli attaccanti. Ciò richiede una stretta collaborazione tra piattaforme online, ricercatori e autorità competenti nella condivisione di informazioni, nel coordinamento delle azioni di remediation e nell’adattamento continuo alle tattiche degli attaccanti.
Data soprattutto la natura transnazionale e in rapida evoluzione delle operazioni di influenza occulta, condivisione e collaborazione tra difensori sono fondamentali: organizzazioni di diversi settori e paesi devono porsi come obiettivo primario l’information sharing, l’analisi congiunta e l’istituzione di best practices standardizzate nel contrasto a questo tipo di minacce.
Iniziative come partenariati pubblico-privato, forum di condivisione delle informazioni e progetti di ricerca collaborativa già oggi stanno emergendo per promuovere un approccio più coordinato e globale alla difesa contro le operazioni di influenza occulta incentrate sull’uso dell’AI. Lo stesso legislatore europeo, con l’approvazione del cosiddetto «AI Act», ha riconosciuto l’importanza di una evoluzione e gestione controllata e responsabile dei sistemi di intelligenza artificiale, che si poggi su di uno sviluppo etico e ‘antropocentrico’.
L’elemento umano
Nonostante i progressi tecnologici, l’elemento umano rimane cruciale nella difesa contro le operazioni di influenza occulta. La consapevolezza e l’educazione del pubblico svolgono un ruolo chiave nel creare degli ‘anticorpi’ contro la disinformazione.
Sarà dunque fondamentale investire in programmi di alfabetizzazione mediatica e digitale per aiutare le persone a identificare e valutare criticamente le informazioni online, oltre che responsabilizzare società civile, professionisti dell’informazione ed influencer nel fungere da “moltiplicatori di verità” e promuovere narrazioni basate sui fatti e sul fact-checking.
Casi di studio
OpenAI, azienda all’avanguardia nello sviluppo di modelli di intelligenza artificiale generativa, nonché proprietaria del noto ChatGPT, ha identificato alcune delle principali operazioni di disinformazione condotte attraverso le sue piattaforme, di cui riteniamo utile riportare una breve analisi che aiuti a delineare, anche se non esaustivamente, la portata e la gravità del fenomeno.
Bad Grammar
Bad Grammar è un’operazione di influenza occulta relativamente recente, attribuita ad attori di provenienza russa. Tale operazione si è concentrata principalmente sulla piattaforma di messaggistica Telegram, prendendo di mira l’utenza ucraina, moldava, baltica e statunitense.
Profilo comportamentale
Bad Grammar ha utilizzato i modelli di intelligenza artificiale di OpenAI per generare commenti in inglese e russo, successivamente pubblicati su Telegram attraverso una rete di account (presumibilmente fake) controllati dall’attore malevolo. I commenti generati dall’AI sono stati spesso caratterizzati da errori grammaticali e sintattici, da cui il nome “Bad Grammar”.
L’attore ha impiegato l’AI per creare commenti di sedicenti utenti appartenenti a diverse fasce demografiche e schieramenti politici, nel tentativo di condizionare il dibattito pubblico su temi come il supporto alla resistenza ucraina.
La strategia adottata da Bad Grammar è stata quella di concentrare gli sforzi su un numero limitato di canali Telegram (commentando ripetutamente i post per aumentare la visibilità dei propri messaggi) i cui frequentatori si ritenevano già ‘sensibili’ ad un certo tipo di narrativa. Nel novero sono presenti, infatti, canali pro-Russia frequentati da utenti dell’est europeo, così come canali in lingua inglese con un pubblico a forte prevalenza di conservatori americani[1].
Contenuti
I commenti generati da Bad Grammar si sono focalizzati su questioni politiche, tra cui la guerra in Ucraina, la situazione in Moldavia e negli Stati baltici e la politica statunitense. I messaggi indirizzati al pubblico russofono miravano a screditare i leader ucraini e moldavi, accusandoli di corruzione e mancanza di sostegno popolare, oltre a criticare le interferenze occidentali nella regione. Quelli in lingua inglese, invece, erano incentrati su tematiche quali immigrazione e crisi economica, puntando sulla falsa narrativa dei soldi destinati all’Ucraina sottratti alla risoluzione dei problemi degli americani.

In alcuni casi, l’attore ha adottato persino un approccio “dialogico”, con account che impersonavano voci contrastanti sulla stessa questione, potenzialmente per attirare un pubblico specifico o promuovere la divisione. Dopo l’attentato terroristico a Mosca del marzo 2024, Bad Grammar ha iniziato anche a pubblicare commenti che invitavano all’unità tra russi e tagiki e al rispetto della legge russa.
Valutazione dell’impatto
Nonostante l’uso di tecniche innovative basate sull’AI per generare contenuti, Bad Grammar ha faticato ad attrarre un pubblico partecipativo e a suscitare un engagement significativo. I commenti del gruppo criminale hanno ricevuto pochi like o risposte e non sono riusciti a dominare le discussioni sui temi presi di mira.
Sulla base della Breakout Scale, che valuta l’impatto delle operazioni di influenza su una scala da 1 (più basso) a 6 (più alto), Bad Grammar vine classificata da OpenAI come un’operazione di Categoria 1, caratterizzata da attività su una singola piattaforma e nessuna prova di amplificazione significativa da parte di persone reali al di fuori della rete.

Doppelganger
Doppelganger è un noto attore di minaccia russo – di cui abbiamo recentemente già parlato in relazione alla possibile ingerenza nelle imminenti elezioni europee – che conduce operazioni di influenza occulta su varie piattaforme online. Secondo quanto riportato da OpenAI, l’azienda avrebbe già identificato e bloccato quattro cluster di account collegati a questo threat actor, ognuno con tattiche, tecniche e procedure (TTP) distinte, il che suggerisce una struttura organizzativa complessa e composta da team distinti e indipendenti.
Profilo comportamentale
Doppelganger ha tendenzialmente come obiettivo l’opinione pubblica europea e nordamericana, e si concentra sulla generazione di contenuti per siti web e social media in lingue diverse, quali inglese, francese, tedesco, italiano e polacco. L’attore di minaccia ha utilizzato i modelli di OpenAI per generare commenti testuali, articoli e headline, integrandoli poi con meme, video e link apparentemente non generati dall’AI.
L’operazione ha impiegato una rete di falsi account su piattaforme come 9GAG (piattaforma dedicata alla condivisione di meme), X (già Twitter) e Facebook per pubblicare i contenuti generati dall’AI: gli account hanno spesso utilizzato foto di profilo di celebrità o animali domestici, pubblicando messaggi all’interno di una vasta gamma di canali tematici per cercare di massimizzarne la visibilità. Doppelganger ha anche tentato di alimentare un falso engagement, con cluster di account che interagivano esclusivamente con i contenuti dell’operazione.
Contenuti
La maggior parte dei contenuti pubblicati da Doppelganger si è concentrata sulla guerra in Ucraina, dipingendo in modo negativo Ucraina, Stati Uniti, NATO e UE, comunicando al contempo un’immagine positiva della Russia.
I messaggi tipici sostenevano l’importanza economica della Russia per i paesi europei, accusavano i leader occidentali critici verso la Russia di essere lontani dai bisogni dei propri elettori e sottolineavano la debolezza e la corruzione dell’Ucraina.
La retorica anti-atlantista ha poi, in termini più specifici, nel breve e medio termine, l’obiettivo di condizionare i risultati elettorali sia europei che statunitensi, attraverso post che mirano creare sfiducia nell’elettorato circa gli stanziamenti di aiuti all’Ucraina ed in generale la posizione dell’Occidente nei “conflitti globali”.

In alcuni casi, i membri di Doppelganger hanno tentato di utilizzare i modelli di OpenAI per generare immagini di caricature di noti politici europei e personaggi pubblici critici nei confronti della Russi, tuttavia senza successo per via dei filtri automatici inseriti sulla generazione di contenuti.
Valutazione dell’impatto
Nonostante i tentativi di Doppelganger di utilizzare l’AI per migliorare la qualità e la scalabilità dei propri contenuti, l’operazione non sembra aver ottenuto un coinvolgimento significativo da parte del pubblico di riferimento: i post su piattaforme come 9GAG e X hanno ricevuto pochi voti positivi e commenti, principalmente da account che facevano parte della rete di Doppelganger stessa, mentre spesso attiravano critiche da utenti reali che li identificavano come falsi.
Secondo la Breakout Scale, l’attività di Doppelganger che ha coinvolto l’uso dei modelli generativi di intelligenza artificiale può essere classificata come un’operazione di Categoria 2, caratterizzata da attività su più piattaforme, ma senza un breakthrough o un engagement significativo del pubblico in nessuna di esse.
Spamouflage
Spamouflage è un noto attore di minaccia cinese che conduce operazioni di influenza occulta su varie piattaforme online. Meta ha attribuito la paternità di questa serie di campagne di disinformazione ad “individui associati alle forze dell’ordine cinesi”, mentre l’FBI ha collegato parte dell’attività rilevata sui social media a un’unità specifica del Ministero della Pubblica Sicurezza cinese.
Profilo comportamentale
Spamouflage ha come obiettivo un pubblico globale (in particolare membri della ‘diaspora cinese’ e critici del governo di Pechino) e genera contenuti principalmente in lingua cinese e, in misura minore, inglese, giapponese e coreano. L’attore di minaccia ha utilizzato l’AI generativa di OpenAI per il debug del codice, l’analisi dei social media, la ricerca di notizie o eventi di attualità e la generazione di contenuti successivamente pubblicati su blog, forum e social media.
L’operazione ha impiegato l’AI per migliorare la qualità dei propri contenuti, correggendo errori grammaticali e sintattici, ma anche per aumentare il volume di commenti generati, nel tentativo di influenzare la percezione e il sentiment online. Spamouflage ha integrato contenuti generati dall’AI con post apparentemente creati manualmente, adottando un approccio ibrido per eludere il rilevamento.
Contenuti
I contenuti generati da Spamouflage hanno riguardato una vasta gamma di temi, con il filo conduttore di un generale elogio dell’operato del governo cinese e discredito delle voci critiche. I post hanno esaltato la cooperazione internazionale della Cina in materia di law enforcement, ma anche persino criticato gli abusi contro i nativi americani negli Stati Uniti o attaccato il governo americano e Microsoft per aver esposto le attività del gruppo di hacker cinese noto come “Volt Typhoon”.
Altri messaggi hanno preso di mira personalità notoriamente critiche verso governo cinese, dall’attore e attivista per il Tibet Richard Gere al dissidente Cai Xia. L’operazione ha anche generato post che accusavano il Giappone di inquinare le acque del Pacifico con gli scarichi della centrale nucleare di Fukushima, tema ricorrente nella propaganda cinese.
Valutazione dell’impatto
Nonostante l’uso di tecniche basate sull’AI, Spamouflage non sembra aver ottenuto un engagement significativo da parte della rete. I blog, gli articoli e gli account sui social media identificati come parte dell’operazione hanno attirato poche interazioni o follower autentici, con alcuni post che hanno registrato visualizzazioni solo da parte dello stesso team investigativo di OpenAI.
Sulla base della Breakout Scale, Spamouflage può essere classificata come un’operazione di Categoria 2, caratterizzata da attività su più piattaforme, ma senza prove di amplificazione significativa da parte di persone reali al di fuori della rete.
Evidenze aggiuntive
L’indagine di OpenAI ha identificato il dominio revealscum[.]com come associato a questa campagna. Il sito web ha pubblicato contenuti in cinese che criticavano e divulgavano informazioni personali su membri della diaspora cinese critici nei confronti del governo di Pechino, etichettandoli come “traditori”.
International Union of Virtual Media (IUVM)
L’International Union of Virtual Media (IUVM) è un’entità iraniana che conduce operazioni di influenza occulta online, studiata dalla comunità di ricercatori open-source sin dal 2018. In merito all’uso dell’intelligenza artificiale generativa, OpenAI ha comunicato di aver identificato e bloccato un piccolo numero di account collegati a individui associati all’IUVM.
Profilo comportamentale
L’attività dell’IUVM mira ad un pubblico globale, concentrandosi sulla generazione di contenuti in inglese e francese. L’operazione ha utilizzato i modelli generativi per creare e revisionare articoli, headline e tag per siti web, poi pubblicati sul dominio corrente dell’IUVM, iuvmpress[.]co[2].
Gli articoli sono stati generalmente creati il giorno prima della pubblicazione, mentre i tag per i siti web sono stati generati immediatamente prima della pubblicazione e probabilmente in modo automatizzato (In un’occasione, OpenAI ha identificato un set di tag che includeva il messaggio di risposta del modello di AI, suggerendo un processo automatizzato o una scarsa revisione).

Contenuti
I contenuti generati dall’IUVM comprendono articoli di lunghezza consistente, titoli e tag per siti web, tipicamente con toni anti-statunitensi e anti-israeliani ed un parallelo elogio di Palestina, Iran e quella che viene definita “Asse della Resistenza”. I post hanno accusato Stati Uniti e Israele di varie azioni criminali, presentando al contempo l’Iran come una forza di stabilità e progresso.
Valutazione dell’impatto
L’impatto online dell’IUVM è stato contenuto da ripetute azioni di rimozione sui social media e dal sequestro dei suoi domini da parte dell’FBI. Oltre al suo sito web, sono stati identificati account con il marchio IUVM su TikTok, VKontakte e Odnoklassniki[3], benché tutti con un seguito limitato.
Sulla base della Breakout Scale, l’IUVM può essere classificata come un’operazione di Categoria 2, caratterizzata da attività su più piattaforme, ma senza un breakthrough o un engagement significativo del pubblico in nessuna di esse.
Evidenze aggiuntive
L’indagine condotta da OpenAI ha identificato i seguenti domini come associati a questa campagna:
- iuvmpress[.]co
- iuvmarchive[.]org
Zero Zeno
Zero Zeno[4] è il nome dato da OpenAI a un’operazione di influenza occulta ricollegabile alla società israeliana di gestione di campagne politiche STOIC.
Profilo comportamentale
Zero Zeno ha avuto come target prevalentemente un’utenza canadese, statunitense e israeliana, con contenuti in inglese ed ebraico; si è rivolta, secondariamente, anche ad un pubblico indiano, sempre con post in inglese, a partire dal maggio 2024. L’operazione sembra anche ricomprendere una campagna destinata ad un’audience ghanese.
L’attore di minaccia ha utilizzato i modelli di AI per generare articoli web e commenti sui social media, pubblicati su piattaforme come Instagram, Facebook e X. Zero Zeno ha anche impiegato l’AI per creare profili di personaggi fittizi e condurre ricerche su persone reali in Israele che commentavano pubblicamente l’organizzazione sindacale Histadrut.
Contenuti
I contenuti di Zero Zeno si sono concentrati su una serie di campagne tematiche, per lo più collegate al conflitto di Gaza e alla più ampia questione delle relazioni tra individui di fede ebraica e musulmana. I messaggi erano specificamente critici verso l’UNRWA (l’agenzia ONU per il soccorso ai rifugiati palestinesi) e accusatori nei confronti dei manifestanti filo-palestinesi delle università statunitensi di promozione dell’antisemitismo e del terrorismo; un cluster separato si è concentrato sul dipingere le relazioni e gli investimenti del Qatar negli Stati Uniti come una minaccia allo stile di vita americano.
Altri post hanno elogiato il sindacato israeliano Histadrut e la sua leadership, mentre a maggio l’operazione ha iniziato a generare commenti critici verso il partito BJP al governo in India ed elogiativi verso il partito di opposizione.
Valutazione dell’impatto
L’attività di Zero Zeno sembra aver attirato poco o nessun engagement autentico, al di là delle interazioni generate dai suoi stessi account fake. Molti di questi sono stati disabilitati da Meta e X, rendendo difficile valutare appieno l’impatto dell’operazione.
Sulla base della Breakout Scale, Zero Zeno può essere classificata come un’operazione di Categoria 2, caratterizzata da attività su più piattaforme e siti web, ma senza prove di amplificazione significativa da parte di persone reali al di fuori della rete.
Evidenze aggiuntive
Sono stati identificati i seguenti domini come associati alle campagne di Zero Zeno:
- nonagenda[.]com
- the-good-samaritan[.]com
- uc4canada[.]com
- ufnews[.]io
Conclusioni
Sintesi delle principali tendenze nelle operazioni di influenza occulta che utilizzano l’AI
Le operazioni di influenza occulta che sfruttano l’intelligenza artificiale rappresentano una sfida crescente per la società nell’era digitale. Gli attori malevoli, sia statuali che non statuali, stanno adottando l’AI per generare operazioni di disinformazione su larga scala, combinando tecniche tradizionali e innovative per manipolare l’opinione pubblica e perseguire i propri obiettivi politici o ideologici.
Le principali tendenze emerse dai casi di studio includono:
- L’uso dell’AI per generare contenuti testuali e visivi che imitano la comunicazione umana, rendendo più difficile l’identificazione della disinformazione.
- L’integrazione di contenuti generati dall’AI con tattiche tradizionali, come la creazione manuale di post e l’uso di account falsi, per eludere il rilevamento.
- L’impiego dell’AI per creare engagement artificiale, dando l’illusione di un ampio sostegno o interesse per narrative specifiche.
- L’aumento della produttività e della scalabilità delle operazioni di influenza grazie all’automazione basata sull’AI.
Tuttavia, nonostante l’adozione di tecnologie avanzate, fino ad oggi queste operazioni spesso faticano a ottenere un engagement significativo da parte di pubblici autentici.
Necessità di sforzi congiunti per contrastare le minacce
Contrastare efficacemente le operazioni di influenza occulta che sfruttano l’AI richiede uno sforzo coordinato e trasversale da parte di aziende tecnologiche, governi, società civile e singoli individui. Solo attraverso la collaborazione e la condivisione di informazioni possiamo sperare di stare al passo con l’evoluzione delle tattiche degli attori malevoli e sviluppare efficaci contromisure.
Alcune aree chiave di collaborazione devono includere:
- Lo sviluppo di standard e best practice per l’uso responsabile e trasparente dell’AI.
- La condivisione di intelligence sulle minacce tra piattaforme online, ricercatori e autorità competenti.
- Investimenti nella ricerca e nello sviluppo di tecnologie di AI robuste e allineate ai valori umani.
- Programmi di alfabetizzazione mediatica e digitale per aumentare la resilienza del pubblico alla disinformazione.
- Quadri normativi che promuovano la responsabilità e la trasparenza nell’uso dell’AI, tutelando al contempo la libertà di espressione.
Riferimenti
↑1 | ad esempio Meta, già in un report di diversi mesi fa, segnalava uno di questi canali, @SGTNewsNetwork – spacciato come gestito da “veterani conservatori americani” – come in realtà di origine iraniana |
---|---|
↑2 | i domini precedenti dell’IUVM sono stati sequestrati dall’FBI nel 2020 |
↑3 | social network russo |
↑4 | Il nome è un omaggio al fondatore della scuola filosofica stoica e riflette i bassi livelli di engagement generati dalle varie campagne dell’operazione (“zero”) |