Messaggio singolo
TX-2165Permalink aperto
IranIsraeleStati UnitiAlgoritmoConfermatoIntelligenceMilitareTop Secret
Le piattaforme AI nella kill chain sono state programmate per accettare da 10 a 20 vittime civili per ogni bersaglio. Fino a 100 se l'obiettivo è ad alto valore. Non è una scelta dell'algoritmo. Qualcuno ha dato quell'ordine.
Articoli collegati
ArticoloLa guerra algoritmica produce ciò che dice di combattere
Le piattaforme AI impiegate da Stati Uniti e Israele nella catena di attacco sono state deliberatamente programmate per accettare da 10 a 20 vittime civili per ogni bersaglio colpito. Quando l'obiettivo è ad alto valore, la soglia autorizzata sale fino a 100. Questo non è un limite tecnico. È una scelta politica tradotta in codice.
L'intelligenza artificiale non ha deciso nulla. Quei numeri sono stati inseriti da esseri umani, su ordine di governi e comandi militari, e implementati da aziende tecnologiche che hanno accettato il mandato. La responsabilità non è dell'algoritmo. È di chi ha dato l'ordine e di chi lo ha eseguito.
Quelle vittime innocenti lasciano dietro di sé famiglie, figli, comunità. Il dolore di chi perde un familiare in un attacco aereo non si elabora politicamente. Diventa risentimento. Diventa radicalizzazione. Diventa il prossimo combattente. L'algoritmo ha l'orizzonte di un secondo. Il conflitto ha l'orizzonte di una generazione.
Un sistema programmato per produrre morti civili non combatte il terrorismo. Lo genera. E chi ha firmato quegli ordini, chi ha scritto quel codice e chi ha incassato i contratti ne porta la responsabilità penale.