O general Paul Selva falou sobre os perigos da criação de sistemas de armas totalmente autônomos.
Os riscos de dar autonomia às chamadas “máquinas assassinas” foram destacadas de em filmes como ‘The Terminator’ e ‘The Matrix’, mas um computador inteligente pode realmente decidir que a humanidade é uma ameaça e tentar nos arrancar do planeta?
Durante uma recente audiência do Comitê de Serviços Armados do Senado, o general dos EUA Paul Selva expressou o quão importante era manter o controle humano sobre sistemas capazes de matar outras pessoas “para que não descartem a humanidade por meio de robôs que não sabemos controlar”.
“Não penso que seja razoável colocar a vida humana nas mãos dos robôs”, disse ele. “Há um debate estridente se nós tiramos ou não os humanos da decisão de tomar uma ação letal”.
É uma preocupação que foi levada muitas vezes pelo CEO da SpaceX, Elon Musk, que advertiu que as máquinas inteligentes representam um “risco fundamental para a existência da civilização”.
“Eu tenho acesso à inteligência artificial de ponta, e acho que as pessoas deveriam estar realmente preocupadas com isso”, disse ele.
“IA é um caso raro em que eu acho que precisamos ser proativos na regulamentação em vez de reativos”.
“Caso sejamos reativos na regulação da AI, com certeza será muito tarde”.