A ideia de singularidade tecnológica, e o que significaria se a inteligência humana comum fosse reforçada ou ultrapassada pela inteligência artificial.
A ideia de que a história humana está a aproximar-se de uma “singularidade” – que o ser humano comum será um dia ultrapassado por máquinas artificialmente inteligentes ou inteligência biológica cognitivamente melhorada, ou ambas – passou do reino da ficção científica para um debate sério. Alguns teóricos da singularidade prevêem que, se o campo da inteligência artificial (IA) continuar a desenvolver-se ao seu ritmo vertiginoso actual, a singularidade poderá surgir em meados do século presente. Murray Shanahan oferece uma introdução à ideia da singularidade e considera as ramificações de um tal evento potencialmente sísmico.
Shanahan não pretende fazer previsões, mas sim investigar uma série de cenários. Quer acreditemos que a singularidade está perto ou longe, provável ou impossível, apocalipse ou utopia, a própria ideia levanta questões filosóficas e pragmáticas cruciais, forçando-nos a pensar seriamente sobre o que queremos como espécie.
Shanahan descreve os avanços tecnológicos na IA, tanto biologicamente inspirados como concebidos a partir do zero. Uma vez que a IA a nível humano – teoricamente possível, mas difícil de realizar – tenha sido alcançada, explica ele, a transição para a IA superinteligente poderia ser muito rápida. Shanahan considera o que a existência de máquinas superinteligentes poderia significar para assuntos como a personalidade, responsabilidade, direitos, e identidade. Alguns agentes super-inteligentes de IA poderiam ser criados para beneficiar a humanidade; alguns poderiam tornar-se desonestos. (Será Siri o modelo, ou HAL?) A singularidade apresenta tanto uma ameaça existencial para a humanidade como uma oportunidade existencial para a humanidade transcender as suas limitações. Shanahan deixa claro que precisamos de imaginar ambas as possibilidades se quisermos obter o melhor resultado.