Força Aérea dos EUA diz que não executou simulação em que drone de IA ‘matou seu operador’

8

WASHINGTON — A Força Aérea dos EUA negou na sexta-feir (2/6) a a realização de uma simulação com um drone controlado por IA no qual a inteligência artificial voltou-se para o seu operador e o atacou para atingir seu objetivo.

A história se espalhou nas redes sociais com base em comentários aparentemente mal interpretados de um coronel da Força Aérea em um seminário em Londres no mês passado. O coronel Tucker Hamilton, um piloto de testes de caça experimental, descreveu um exercício no qual um drone controlado por IA foi programado para destruir as defesas aéreas inimigas. Quando ordenado a ignorar um alvo, o drone atacou seu operador por interferir em seu objetivo principal.

O tema apocalíptico das máquinas se voltando contra os humanos e se tornando assassinos autônomos coincidiu com a crescente preocupação com o perigo da inteligência artificial. Na quinta-feira, o presidente Joe Biden alertou que a IA “poderia ultrapassar o pensamento humano”.

No entanto, Hamilton estava falando apenas sobre um cenário hipotético para ilustrar os perigos potenciais da inteligência artificial, de acordo com a Força Aérea. Não realizou tal simulação com um drone.

“O Departamento da Força Aérea não realizou nenhuma dessas simulações de drones de IA e continua comprometido com o uso ético e responsável da tecnologia de IA”, disse Ann Stefanek, porta-voz da Força Aérea, em comunicado.

Os comentários de Hamilton parecem ter sido tirados do contexto, disse Stefanek.

O piloto de teste de caça posteriormente esclareceu em uma declaração que ele “se expressou mal” em sua apresentação na cúpula de Londres e que a “simulação de drone de IA rebelde” era um “experimento de pensamento” hipotético.

A rápida ascensão da IA e o aumento da acessibilidade suscitaram preocupação até mesmo de alguns dos tecnólogos que ajudaram a desenvolvê-la, como Geoffrey Hinton, um renomado pesquisador britânico e um dos chamados padrinhos da IA.

Em uma recente aparição em uma conferência, Hinton foi questionado pelo moderador de um painel qual era o “pior cenário que você acha que é concebível” para IA. Hinton respondeu sem hesitar.

“Acho perfeitamente concebível”, disse ele, “que a humanidade seja apenas uma fase passageira na evolução da inteligência”.

O canadense Yoshua Bengio, outro cientista da computação frequentemente descrito como o “padrinho da IA”, disse à BBC esta semana que não achava que os militares deveriam ter permissão para usar os poderes da IA. Ele disse que era um dos “piores lugares onde poderíamos colocar uma IA superinteligente” e que a segurança da IA deveria ser priorizada em relação à utilidade.

FONTE: USA Today

wpDiscuz