L’idea della singolarità tecnologica, e cosa significherebbe se l’intelligenza umana ordinaria fosse potenziata o superata dall’intelligenza artificiale.
L’idea che la storia umana si stia avvicinando a una “singolarità” – che gli esseri umani ordinari saranno un giorno superati da macchine artificialmente intelligenti o da un’intelligenza biologica potenziata cognitivamente, o da entrambe – è passata dal regno della fantascienza a un serio dibattito. Alcuni teorici della singolarità prevedono che se il campo dell’intelligenza artificiale (IA) continua a svilupparsi al suo attuale ritmo vertiginoso, la singolarità potrebbe verificarsi a metà di questo secolo. Murray Shanahan offre un’introduzione all’idea della singolarità e considera le ramificazioni di un tale evento potenzialmente sismico.
L’obiettivo di Shanahan non è quello di fare previsioni, ma piuttosto di indagare una serie di scenari. Che si creda che la singolarità sia vicina o lontana, probabile o impossibile, apocalisse o utopia, l’idea stessa solleva questioni filosofiche e pragmatiche cruciali, costringendoci a pensare seriamente a ciò che vogliamo come specie.
Shanahan descrive i progressi tecnologici dell’IA, sia di ispirazione biologica che progettati da zero. Una volta che l’IA a livello umano – teoricamente possibile, ma difficile da realizzare – è stata raggiunta, spiega, la transizione all’IA superintelligente potrebbe essere molto rapida. Shanahan considera ciò che l’esistenza di macchine superintelligenti potrebbe significare per questioni come la personalità, la responsabilità, i diritti e l’identità. Alcuni agenti di IA sovrumana potrebbero essere creati per beneficiare il genere umano; altri potrebbero diventare disonesti. (Siri è il modello, o HAL?) La singolarità presenta sia una minaccia esistenziale per l’umanità che un’opportunità esistenziale per l’umanità di trascendere i suoi limiti. Shanahan chiarisce che dobbiamo immaginare entrambe le possibilità se vogliamo ottenere il risultato migliore.