giochi di guerra

Per i miei figli, per i miei amici (contiene una riverenza alle donne).

Quando eravamo giovani genitori abbiamo sempre guardato con occhio ostile i giochi di guerra proposti ai bambini, e poi da loro scelti quando ragazzi. La guerra non l'abbiamo fatta, ma abbiamo sviluppato forti anticorpi contro ogni forma di violenza.

Ovviamente sono seguite discussioni, di fronte alle quali i 'giocatori' difendevano la loro scelta con molte, a volte notevoli, interessanti osservazioni.

Ora che i 'bimbi' sono grandi continuano a giocare alla guerra, così come molti amici,  'rilassandosi' nei momenti di libertà.

Oggi sono trafitto dalla notizia de 'Il manifesto' che riporta una indagine di una rivista israeliana, sui metodi di guerra utilizzati da Israele contro i palestinesi; si sa che si usa l'intelligenza artificiale per fare qualsiasi cosa, non stupisce che venga utilizzata anche in guerra; non è di questo che voglio parlare.

Riprendo in mano la penna,come nel periodo in cui scrivevo dei vaccini obbligatori, non perchè abbia cose da dire, ma perchè non posso tacerle.

Luciano Floridi, filosofo italiano naturalizzato inglese, sostiene che con l'IA abbiamo separato la capacità di raggiungere un risultato dall'essere capaci di farlo. Gli algoritmi di ia ci consentono di raggiungere risultati che avrebbero altrimenti  richiesto conoscenze tecniche e di dominio che oggi non sono più necessarie, non ci si 'immerge' più nel problema perchè si ha già la soluzione.

Dando in pasto i dati biografici ad un motore ia con tutte e caratteristiche dei palestinesi, lo si allena 'spiegandogli' che per ogni militante di hamas 'bombardato' vale la pena avere 15 vittime civili, per ogni capo di hamas se ne ammettono cento; in base a questo il sistema può 'decidere' quali vittime uccidere, con bombe più o meno precise che raggiungono l'obbiettivo anche in casa ('Daddy is home' è lo straziante nome di uno di questi programmi).

Il sistema potrebbe funzionare in automatico, eliminando tutti, ma si decide (e ci mancherebbe) che ci vuole comunque una supervisione umana; prima di fare partire la bomba guidata ci vuole un consenso umano da parte di un militare incaricato.

Venti secondi il tempo concesso.
Durante questi venti secondi il militare ha il compito di verificare se l'obbiettivo sia una donna o meno; se è donna non fa partire la bomba perchè le donne non sono in hamas.
Ecco la riverenza.

Il motore IA è stato adottato quando ha raggiunto la precisione del 90%; quindi nel 10% dei casi, oltre alle vittime collaterali, vengono anche bombardate persone innocenti.
Inoltre chi conosce le IA sa che sono affette da amnesie e allucinazioni; sopratutto il secondo caso può portare a definire come altamente preciso un risultato che in realtà non lo è.
Nei sistemi che costruisco, quando un motore allucina prevede un costo sbagliato, scrive una frase fuori luogo, crea una immagine diversa da quanto chiesto.
Nei sistemi sopra citati, può darsi che un convoglio umanitario venga scambiato per un obbiettivo militare; una allucinazione.

Nel mio pensiero, in questo caso il militare ha ricevuto la segnalazione come altamente importante, ha verificato che non fosse una donna, ha fatto partire la bomba.
Un tragico errore, l'ha definito il governo israeliano.

Quel militare ha 'giocato' alla guerra; tornando a Floridi, è stata separato l'obbiettivo, cioè uccidere persone, dalla capacità di farlo, cioè essere loro davanti per l'esecuzione. 

Tutto è più facile, non richiede emozione, non richiede impegno; sembra proprio un gioco, il gioco a cui siamo così abituati.

Con questa facilità più di trentamila persone sono diventate lucine di un videogioco che prima si muovevano, poi in un lampo di luce si sono fermate; ed il giocatore accumula punti, passa di livello.

 

Figli, amici, prima di diventare lucine,

smettete di giocare alla guerra. 

 

https://ilmanifesto.it/20-secondi-per-uccidere-lo-decide-la-macchina

Condividi su