Google atualiza compromisso sobre uso de IA em armamento militar

Google atualiza compromisso sobre uso de IA em armamento militar

A ascensão da inteligência artificial: implicações e desenvolvimentos

A Inteligência Artificial (IA) surgiu no centro das atenções, capturando a atenção global após a imensa popularidade de chatbots de modelos de linguagem grandes (LLM) como ChatGPT dos EUA e DeepSeek da China, que impactaram notavelmente o mercado de ações. Esse interesse recém-descoberto levanta questões pertinentes sobre a influência da IA ​​em vários setores, particularmente entre indivíduos que podem não estar familiarizados com o termo “Inteligência Artificial”.

Preocupações em torno das tecnologias de IA

Apesar dos benefícios que a IA oferece, há riscos inerentes que não podem ser ignorados. Problemas como desinformação, violações de privacidade, dependência excessiva de tecnologia e potenciais aplicações militares apresentam sérias preocupações. A responsabilidade de mitigar tais perigos recai diretamente sobre os pioneiros da IA ​​e os líderes da indústria.

Compromisso do Google com a IA responsável

Em resposta a esses desafios, o Google tem consistentemente priorizado a segurança dentro do reino do desenvolvimento de IA. Nos últimos seis anos, a empresa publicou um “Relatório de Progresso de IA Responsável” anual. Mais recentemente, eles lançaram seu relatório de progresso de 2024, um documento que descreve seus esforços contínuos para fortalecer a segurança da IA.

Uma atualização significativa do último relatório é a modificação do Frontier Safety Framework do Google. Este framework, iniciado pelo Google DeepMind, visa identificar e abordar proativamente riscos potenciais vinculados a sistemas avançados de IA. Alguns aprimoramentos importantes incluem:

  • Recomendações para maior segurança : Propor estratégias para aprimorar medidas de segurança contra violações de dados.
  • Procedimento de mitigação de implantação : Estabelecer diretrizes para evitar o uso indevido de recursos poderosos de IA.
  • Risco de alinhamento enganoso : enfrentando a ameaça representada por sistemas autônomos que podem manipular a supervisão humana.

Liderança democrática no desenvolvimento de IA

Junto com atualizações em seus protocolos de segurança, o Google reafirmou sua posição de que as democracias devem liderar o desenvolvimento de tecnologias de IA, enfatizando valores como liberdade, igualdade e respeito aos direitos humanos. A empresa também anunciou revisões em seus Princípios de IA originais, que foram publicados pela primeira vez em 2018.

Mudanças nos Princípios de IA do Google

Uma visita à página AI Principles revela uma ausência notável em relação ao uso de IA em armamento. Uma versão arquivada da página de 22 de fevereiro de 2024 incluía um compromisso de se abster de criar ou implantar tecnologias de IA projetadas para causar danos:

Armas ou outras tecnologias cujo principal propósito ou implementação é causar ou facilitar diretamente ferimentos às pessoas.

No entanto, esse compromisso foi omitido nos princípios revisados, que agora se concentram em três princípios fundamentais:

  • Inovação ousada : Nosso objetivo é desenvolver tecnologias de IA que capacitem indivíduos e impulsionem avanços em vários campos, melhorando o bem-estar econômico e social.
  • Desenvolvimento e implantação responsáveis : reconhecendo a natureza transformadora da IA, estamos comprometidos em garantir seu desenvolvimento e implementação seguros por meio de testes rigorosos e considerações éticas.
  • Progresso colaborativo, juntos : valorizamos parcerias e nos dedicamos a criar tecnologias que permitam que outros utilizem IA para obter resultados positivos.

Preocupações dos funcionários e considerações éticas

Curiosamente, o Google ainda precisa abordar a remoção de seu compromisso anterior contra o uso de IA para fins militares, uma decisão que encontrou resistência significativa de sua força de trabalho. Em 2018, quase 4.000 funcionários assinaram uma petição solicitando a rescisão do contrato da empresa com o Departamento de Defesa dos EUA, conhecido como Projeto Maven, que utilizava IA para analisar imagens de drones.

Mais recentemente, funcionários do Google DeepMind expressaram preocupações semelhantes, instando a empresa de tecnologia a cortar laços com entidades militares. Este chamado para ação fez referência aos princípios de IA da empresa, argumentando que tais relacionamentos entram em conflito com seu compromisso anterior de se abster de desenvolver tecnologias militares.

Para uma visão mais detalhada, visite Depositphotos.com.

Fonte e Imagens

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *