Pentágono lança guia para uso ético de Inteligência Artificial em tecnologia de guerra

Na esperança de se preparar para o que muitos veem, como uma futura revolução em armamentos capacitados para Inteligência Artificial (IA). Onde convencer o público cético de que é possível aplicar essas inovações com responsabilidade, as forças armadas dos EUA estão tomando medidas antecipadas para definir os limites éticos de como serão utilizados estes sistemas.

Na última quinta-feira (31), uma organização consultora do Pentágono chamada Defense Innovation Board (DIB) publicou um conjunto de princípios éticos sobre como as agências militares devem projetar armas capacitadas para IA e aplicá-las no campo de batalha. As recomendações do conselho não são juridicamente vinculativas. Cabe ao Pentágono determinar se e como proceder com elas.

O diretor do Centro Conjunto de Inteligência Artificial do Departamento de Defesa (DoD), tenente-general Jack Shanahan, disse esperar que as recomendações estabeleçam o padrão para o uso responsável e ético de tais ferramentas.

“As recomendações do DIB ajudarão a aprimorar o compromisso do DoD de manter os mais altos padrões éticos, conforme descrito na estratégia de IA do DoD, ao mesmo tempo em que abraça a sólida história das forças armadas dos EUA de aplicar rigorosos padrões de testes e aplicação para inovações tecnológicas”, disse Shanahan por meio de nota.

Algoritmos de IA são programas de computador que podem aprender com dados prévios ​​e fazer escolhas sem a contribuição de um ser humano.

Esses programas já se mostraram úteis na análise das vastas quantidades de dados de inteligência coletadas pelas forças armadas e as agências de inteligência, e o mundo dos negócios comerciais encontrou inúmeros usos para eles.

Mas a perspectiva de computadores tomando decisões em um cenário de combate foi recebida com ceticismo em algumas áreas do mundo da tecnologia. Em 2017, um grupo de 116 executivos de tecnologia pediu à Organização das Nações Unidas que fosse adotada uma proibição total de armas autônomas.

O Google chegou ao ponto de banir completamente o uso de seu algoritmo de IA em qualquer sistema de armas, uma decisão tomada após queixas dos funcionários sobre seu envolvimento em um programa para analisar imagens de drones.

Outras empresas de tecnologia, como Microsoft e Amazon, abraçaram oportunidades de trabalhar com os militares e defenderam uma abordagem mais flexível para a questão. Os usos conhecidos da IA ​​no Pentágono estão muito longe das visões distópicas que aparecem na ficção popular há décadas.

O Exército vem experimentando os chamados programas de “manutenção preditiva”, na esperança de sinalizar peças defeituosas do veículo antes que elas quebrem em combate.

Agências de defesa e inteligência têm usado inteligência artificial para analisar dados de drones, para evitar que equipes da Força Aérea gastem inúmeras horas olhando as transmissões de vídeo coletadas por aeronaves de vigilância.

No ano passado, o Departamento de Defesa criou um Centro Conjunto de Inteligência Artificial para coordenar as atividades relacionadas à IA entre os ramos militares e apresentou uma estratégia de inteligência artificial focada em acelerar o uso dessa tecnologia para competir com a Rússia e a China.

Até o momento, o Departamento de Defesa está apenas dando os seus primeiros passos, afirmam analistas.

“O que você vê o DoD pesquisando são alguns casos de uso iniciais que são relativamente fáceis dos pontos de vista técnico, cultural e político”, disse Paul Scharre, ex-oficial do Pentágono que estuda a questão no Centro para Nova Segurança Americana , um think tank. “Eles estão buscando a capacidade de demonstrar um valor claro”, disse ele.

Os princípios de IA ​​divulgados na quinta-feira não se aprofundaram em detalhes, estabelecendo poucas das fronteiras rígidas que os céticos da IA ​​poderiam ter esperado.

As recomendações para o Departamento de Defesa se referiam principalmente a objetivos mais vagamente definidos, como “formalizar esses princípios” ou “cultivar o campo da engenharia de IA”.

Outras recomendações incluíram a criação de um comitê diretor ou um conjunto de programas de treinamento da força de trabalho. O que o documento fez foi estabelecer um conjunto de objetivos éticos de alto nível que o departamento deve buscar ao elaborar sistemas capacitados para IA.

O conjunto de princípios esclareceu que os sistemas de IA devem, em primeiro lugar, ser “responsáveis” e estar sempre sob o controle total de seres humanos. O documento especificou que os sistemas de IA deveriam ser “equitativos”, reconhecendo que já houve casos de sistemas de IA que demonstraram vieses raciais.

O documento afirma que eles também devem ser “rastreáveis”, de modo que seu design e uso possam ser auditados por observadores externos, e “confiáveis” o suficiente para funcionar como pretendido. E os sistemas devem ser “controláveis” para que possam ser desligados quando agirem inadequadamente.

Peter Singer, membro da New America Foundation que está trabalhando em um livro chamado “Burn In” sobre inteligência artificial em guerra, disse que a tecnologia de inteligência artificial ainda não está avançada o suficiente para que princípios específicos sejam desenvolvidos.

Outros países que investem em IA militar geralmente não têm esse tipo de conversa sobre o uso ético, disse ele. “Não há equivalente a este conselho em Pequim”, disse Singer.

Scharre, o membro do Centro para Nova Segurança Americana, diz que o impacto real das recomendações dependerá de como o Departamento de Defesa procederá. “Terá de haver uma supervisão contínua de alto escalão sobre essa questão”, afirmou Scharre.

  • Por: Aaron Gregg/Washington Post


Receba nossas notícias em tempo real pelos aplicativos de mensagem abaixo:

Ninguém do DefesaTV está autorizado a entrar em contato com os leitores. Caso deseje de alguma informação envie um e-mail [email protected]

Assine nossa Newsletter


Receba todo final de tarde as últimas notícias do DefesaTV em seu e-mail, é de graça!

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here