Laboratorio Erasmus. Proviamo a scrivere con IA. Esteri

Di Caterina Maggi e Paolo Magliani



Guerre artificiali e reporters: se l’arma è l’IA

Con l’avvento dell’Intelligenza Artificiale anche nei sistemi bellici, i reporter e corrispondenti dei conflitti sapranno utilizzare al meglio questa tecnologia?

 

La guerra è in continua evoluzione e rappresenta lo specchio dei tempi che corrono. Quella a cui assistiamo oggi, dagli schermi delle nostre tv e dei nostri smartphone, si chiama “guerra ibrida”, concetto introdotto dall’invasione irachena dell’amministrazione Bush jr: non più e non solo il classico “boots on the ground”, come dicono negli USA, ma sabotaggio informatico, tecnologico, e anche mediatico. Un sistema bellico integrato tra operazioni sul campo e cyberwar, che l’AI potrebbe raffinare. E se i reporter di guerra usassero questa tecnologia per combattere il “nemico”, cioè la disinformazione, con le stesse armi? 

La guerra ai tempi dei post

 

L’Intelligenza Artificiale potrebbe essere la nuova frontiera della guerra e della sicurezza. In realtà è una metamorfosi già in atto: attraverso il riconoscimento dei dati biometrici è possibile individuare, ad esempio, un membro di una cellula terroristica o di un esercito nemico attraverso i sistemi di sorveglianza. Un sistema già in uso: secondo fonti statunitensi, Israele starebbe utilizzando il riconoscimento facciale intelligente nella West Bank almeno dal 2021. Il problema è: chi controlla i controllori? Non una domanda da poco: le IA non agiscono loro sponte, ma a partire da parametri inseriti da un operatore, che stabilisce così le caratteristiche dei “ricercati”. Nel mondo, queste tecnologie sviluppate per la sicurezza potrebbero essere (o sono già state) utilizzate per tenere d’occhio attivisti e reporter, a portata di schermo e di cecchino.

La IA inoltre potrebbe accelerare lo sviluppo di malware sempre più potenti, com’è stato il caso dell’attacco informatico contro gli  U.S.A  da parte della Russia putiniana durante le presidenziali del 2016: in futuro (o forse già oggi) la guerra potrebbe essere combattuta creando immagini false curate al dettaglio, o utilizzando software per la produzione di articoli e notizie fake ma dall’alto potenziale di condivisione. Una nuova frontiera della cyberwar che i giornalisti sono chiamati a conoscere e contrastare. La strumentalizzazione dell’Intelligenza Artificiale può produrre danni ingenti alla causa dell’informazione o proficue opportunità di disinformazione. E se tuttavia desse ai reporter impegnati nelle zone di conflitto anche delle opportunità? 

 

Cacciatori di bufale

Un primo esempio potrebbe essere applicare l’intelligenza artificiale al debunking. In un certo senso è letteralmente “combattere il nemico con le stesse armi”. Si potrebbe ad esempio chiedere a più software IA di analizzare una notizia per verificare l’autenticità delle fonti, o per vagliare la veridicità dei fatti. Problema: le IA allo stato attuale non sono in grado di fare tutto ciò senza comunque appoggiarsi a fonti giornalistiche. Chiedendo a Perplexity o Gemini di analizzare una news per capire se è una bufala, risponderanno attingendo a fonti giornalistiche (e non) trovate online. 

Un rischio e un lavoro inutile, considerando che occorrerebbe comunque avere un reporter sul campo per produrre queste informazioni. Anche se, va detto, poter chiedere a un “copilota robotico” di verificare le fonti accelera e non poco il processo di ricerca, analisi e autenticazione di una bufala. Un’altro impiego potrebbe essere, ad esempio, chiedere a ChatGPT di analizzare un documento alla ricerca di errori o di parole chiave. Ad esempio, chiedere se effettivamente in un documento (anche in lingua straniera) è presente una dichiarazione di guerra o la prova del coinvolgimento di membri dell’Onu in un’operazione bellica. Un lavoro che certo, andrebbe raffinato dalla mente umana; ma che ridurrebbe nell’arco di poche ore il lavoro di ricerca, traduzione, analisi e verifica per cui oggi occorrono giorni. 

 

Uno sguardo più etico?

 

Resta poi un’ulteriore tema: usare immagini generate con IA.  Un dilemma etico del fotogiornalismo ad esempio: è giusto fotografare uomini, donne e bambini in situazioni di intenso disagio, come una guerra o una crisi umanitaria? Per anni le comunità del Sud del Mondo sono state pubblicate in prima pagina senza troppi riguardi al loro diritto alla privacy o all’oblio. Per restituire a queste persone la dignità violata, si potrebbe ipotizzare di utilizzare l’IA per generare immagini casuali; un’alternativa etica che cattura l’attenzione del lettore con una foto senza sacrificare i diritti alla riservatezza di altri.

 


Le immagini di seguito sono state tutte generate con IA.

Riflessioni sulla produzione di immagini

Le critiche però sono tante, e non solo sotto il profilo etico: i sistemi sono ancora troppo rudimentali, o sono pesantemente influenzati da bias razziali. Abbiamo provato a chiedere a Leonardo, strumento di creazione di immagini con Ia alcune foto che possono descrivere un conflitto. Abbiamo chiesto ad esempio “soldati bianchi impegnati nella guerra a Gaza del 2023”. Il sistema ha però generato solo ed esclusivamente militari dalla fisionomia medio orientale. 

 

Stessa cosa quando gli è stato chiesto “bambini bianchi rifugiati a causa di un conflitto”. Le uniche immagini previste sono o troppo rudimentali, o solo di persone nere. Il filtro moderazione inoltre impone un limite al tipo di immagine che si può richiedere. Per tematiche particolarmente violente, molte app giustamente hanno disposto dei filtri di moderazione.

 

 

La guerra, una faccenda umana

In pratica, quanto emerge è che AI può aiutare nel lavoro di ricerca e di verifica di dati e fonti. È utile però solamente per un’infarinatura generale del lettore o del redattore, non certo per un’informazione completa sugli argomenti o per scrivere articoli (le “prove” di AI che trovate più in basso). Per quella occorre una mente allenata a conoscere i difetti di una tecnologia ancora troppo poco umana, che possa dedurre come un articolo, una fotografia o un reel siano generati da un operatore o da un algoritmo. Per fare questo la ricetta è una sola: restare umani. Almeno per ora.

 

 

Di seguito gli articoli generati con intelligenza artificiale sul tema dell’uso di IA nei conflitti, di ChatGPT e Gemini

 

Versione con Chat GPT

 

La “cyberwar” è un termine che si riferisce alla guerra condotta tramite il cyberspazio, che include Internet, reti informatiche e sistemi digitali. Questa forma di guerra coinvolge attacchi informatici, hacking e altre azioni offensive e difensive che mirano a danneggiare o controllare i sistemi informatici di un avversario.

Le guerre cybernetiche possono includere diverse tattiche:

  • attacchi informatici: Questi possono essere mirati per interrompere servizi critici, come reti di energia elettrica, sistemi finanziari, infrastrutture di comunicazione, ecc.
  • operazioni di disinformazione: Utilizzando social media e altri mezzi digitali per diffondere notizie false, manipolare opinioni pubbliche e influenzare il processo decisionale.
  • spionaggio cibernetico: Rubando segreti governativi, industriali o militari attraverso attacchi informatici mirati.
  • attacchi DDoS (Distributed Denial of Service): Saturare un sistema con traffico web per renderlo inaccessibile agli utenti legittimi.
  • hacking di sistemi militari: Accedere a sistemi di difesa per intercettare comunicazioni sensibili o compromettere le operazioni.

L’intelligenza artificiale (AI) svolge un ruolo sempre più importante nelle cyberwarfare. Ecco come:

  • Attacchi più sofisticati: Gli attaccanti possono utilizzare l’IA per creare malware più sofisticati che possono adattarsi e mutare nel tempo, rendendo più difficile per i sistemi di sicurezza rilevarli.
  • Difesa avanzata: Le organizzazioni usano l’IA per monitorare e analizzare il traffico di rete in tempo reale, cercando pattern sospetti che potrebbero indicare un attacco.
  • Riconoscimento di pattern: L’AI può essere utilizzata per identificare pattern di attacco, comportamenti anomali nei sistemi e per prevedere potenziali minacce.
  • Decisioni autonome: In situazioni di cyberwarfare in tempo reale, l’IA può essere utilizzata per prendere decisioni autonome riguardo alla mitigazione degli attacchi, come l’isolamento automatico di parti di una rete infetta.

Tuttavia, ci sono anche preoccupazioni riguardo l’uso dell’IA in cyberwarfare:

  • Autonomia incontrollata: Se l’IA è autorizzata a prendere decisioni autonome, potrebbe agire in modi non previsti o non desiderati.
  • Bias: Se i dati con cui viene addestrata un’IA sono sbagliati o distorti, potrebbe prendere decisioni errate o discriminatorie.
  • Corsa agli armamenti: Come con molte tecnologie, c’è la preoccupazione che una corsa all’IA nella cyberwarfare possa portare a un escalation di conflitti e a una maggiore instabilità.

In sintesi, la cyberwarfare è diventata una parte significativa del panorama della sicurezza globale, e l’intelligenza artificiale svolge un ruolo sempre più importante sia come strumento difensivo che offensivo. È essenziale che le nazioni e le organizzazioni sviluppino politiche e protocolli per affrontare queste sfide in modo efficace e responsabile.

In definitiva, l’IA sta giocando un ruolo sempre più importante nei conflitti moderni, e l’uso di droni con questa tecnologia è un esempio di come le forze armate stiano adottando strumenti avanzati per migliorare le loro capacità operative. Tuttavia, ci sono molte considerazioni da affrontare in termini di sicurezza, etica e conseguenze umanitarie di tali sviluppi tecnologici.

 

Versione con Gemini

L’impatto rivoluzionario dell’Intelligenza artificiale nei conflitti armati dal 2000 in poi

 

Nel corso degli ultimi decenni, l’evoluzione dell’intelligenza artificiale (IA) ha rivoluzionato molteplici settori della società, incluso il campo militare. L’impiego dell’IA nei conflitti armati, a partire dagli anni 2000, ha introdotto nuove dinamiche e sfide, ponendo interrogativi etici e strategici di grande rilevanza.

 

Droni e UAV: precisione e sorveglianza

 

Una delle applicazioni più evidenti dell’IA nei conflitti moderni è l’utilizzo di droni e veicoli aerei a pilotaggio remoto (UAV). Questi dispositivi, armati con tecnologie avanzate di sorveglianza e missilistiche, hanno permesso alle forze militari di condurre operazioni di precisione su vasta scala. L’IA è stata fondamentale nel migliorare la capacità di identificare e colpire bersagli specifici, riducendo al minimo il rischio di danni collaterali e massimizzando l’efficacia delle missioni.

 

Sistemi di sorveglianza e sicurezza: analisi dei big data

 

Un altro campo in cui l’IA ha rivoluzionato le operazioni militari è la sorveglianza e l’analisi dei dati. Sistemi basati sull’IA sono in grado di analizzare enormi quantità di informazioni provenienti da varie fonti, come telecamere di sorveglianza, satelliti e sensori, per rilevare minacce, individuare attività sospette e prevenire attacchi terroristici. Questo livello di analisi dei big data ha reso possibile una sorveglianza e una sicurezza senza precedenti sul campo di battaglia.

 

Cyber warfare: difesa e attacco

 

Con l’avvento dell’IA, le operazioni di cyber warfare hanno raggiunto un nuovo livello di sofisticazione. L’IA è stata impiegata sia per difendere che per attaccare infrastrutture critiche, sistemi di comunicazione e reti informatiche. Algoritmi intelligenti sono in grado di individuare e contrastare minacce informatiche in tempo reale, mentre al contempo vengono sviluppate nuove strategie per penetrare e destabilizzare i sistemi avversari.

 

Addestramento militare e simulazioni: miglioramenti delle capacità

 

L’IA è stata ampiamente utilizzata anche nell’addestramento militare e nelle simulazioni di combattimento. I sistemi di intelligenza artificiale possono creare ambienti virtuali complessi, replicando scenari realistici di guerra per addestrare le truppe e sviluppare strategie militari più efficaci. Questi strumenti consentono alle forze armate di migliorare le proprie capacità operative e di adattarsi più prontamente alle mutevoli dinamiche del campo di battaglia.

 

Considerazioni etiche e morali

 

Nonostante i numerosi vantaggi offerti dall’utilizzo dell’IA nei conflitti armati, sorgono importanti questioni etiche e morali. L’automazione delle decisioni belliche e il rischio di perdere il controllo sui sistemi autonomi sollevano preoccupazioni riguardo alla responsabilità e alla sicurezza delle operazioni militari. È fondamentale che l’impiego dell’IA nelle guerre sia regolamentato da norme internazionali e da rigorosi principi etici per garantire il rispetto dei diritti umani e la minimizzazione del danno civile.

 

In conclusione, l’intelligenza artificiale ha introdotto una nuova era nei conflitti armati, offrendo opportunità senza precedenti per migliorare l’efficacia e la precisione delle operazioni militari. Tuttavia, è essenziale accompagnare questo progresso con una riflessione critica sulle implicazioni etiche e strategiche dell’uso dell’IA nella guerra, al fine di garantire un futuro più sicuro e responsabile per le generazioni a venire.