Terminator è uno dei film più affascinanti e insieme angoscianti del cinema hollywoodiano, in cui si ipotizza un futuro nel quale le macchine prendono il sopravvento sugli uomini e si specializzano nella loro eliminazione. Fantasia irrealistica? Meno di quanto si pensi, tanto che i più grandi cervelli della scienza, della fisica e della filosofia hanno firmato una lettera aperta per avvisare l’umanità proprio dei rischi del proliferare di armi con intelligenza artificiale. “La questione cruciale per l’umanità”, si legge nel documento, “oggi è se avviare oppure prevenire una corsa globale alle armi Ai”. Tra i firmatari, celebrità come il fisico e matematico Stephen Hawking, il filosofo Noam Chomsky, l’imprenditore Elon Musk (fondatore di PayPal e di Tesla), Steve Wozniak (co-fondatore di Apple).
Nella lettera si mette in guardia contro armi che non richiedono l’intervento umano per uccidere: “La tecnologia dell’intelligenza artificiale ha raggiunto un livello in cui lo sviluppo di armi autonome è – di fatto anche se non legalmente – questione di anni, non decenni. E la posta in gioco è alta: le armi autonome sono state descritte come la terza rivoluzione negli armamenti, dopo la polvere da sparo e le armi nucleari”. La lettera contiene una breve lista dei vantaggi delle armi Ai (meno vittime) e un lungo elenco di conseguenze pericolose se le armi diventeranno realtà: economiche da produrre, abbasseranno la soglia psicologica degli interventi bellici e potranno facilmente essere commercializzate nel mercato nero finendo nelle mani di dittatori, terroristi, signori della guerra. Se niente verrà fatto, “le armi autonome potranno diventare i Kalashnikov di domani”.
Tuttavia, non tutti gli scienziati sono d’accordo. In un blog, l’esperto di robotica australiano Rodney Brooks si dice certo che l’Ia sia uno strumento e non una minaccia. Brooks, che ha fondato la start-up “Rethink robotics”, dice: “Credo che sia un errore preoccuparsi dello sviluppo di un’Ai cattiva da qui alle prossime centinaia di anni. Credo che le preoccupazioni nascano da un errore fondamentale: non distinguere la differenza tra i concreti, reali progressi in un particolare aspetto dell’Ai e l’enormità e la complessità di costruire un’intelligenza cosciente e volitiva”. Brooks conclude: “Preoccuparsi che l’Ia possa essere intenzionalmente cattiva significa voler diffondere la paura. E un’immensa perdita di tempo. Andiamo avanti a inventare un’Ai migliore e brillante”.