À medida que a tecnologia de inteligência artificial (IA) continua a evoluir, os métodos de elaboração e apresentação de comunicação escrita estão passando por uma transformação significativa. No entanto, a crescente dependência de IA para desenvolvimento de conteúdo introduziu novos desafios. Um incidente recente envolvendo um especialista em desinformação demonstra as complexidades associadas ao uso de texto gerado por IA. Esse indivíduo enfrentou críticas após utilizar IA para preparar um documento legal, que enganosamente incluía citações fabricadas. Ironicamente, esse processo legal visava se opor ao uso de material gerado por IA que poderia enganar os eleitores antes das eleições.
Armadilhas imprevistas da IA segundo especialistas em desinformação
Jeff Hancock, professor da Universidade de Stanford e renomado especialista em desinformação, apresentou uma declaração juramentada apoiando uma lei de Minnesota projetada para proibir tecnologias Deep Fake que poderiam distorcer os resultados das eleições. Infelizmente, a própria declaração juramentada destinada a combater a influência da IA sobre os eleitores também continha imprecisões da IA, minando a confiabilidade de suas alegações.
Em uma declaração subsequente, Hancock reconheceu usar o ChatGPT-4o para organizar citações. No entanto, ele alegou não estar ciente de que essa ferramenta poderia gerar informações ou referências falsas. Hancock enfatizou que não havia empregado a ferramenta de IA para redigir o conteúdo principal do documento e descreveu os erros de citação como não intencionais.
“Eu escrevi e revisei a substância da declaração e apoio firmemente cada uma das alegações feitas nela, todas apoiadas pelas pesquisas acadêmicas mais recentes na área e refletem minha opinião como especialista em relação ao impacto da tecnologia de IA na desinformação e seus efeitos sociais.”
Elaborando mais, Hancock mencionou que ele alavancou tanto o Google Scholar quanto o GPT-4o para compilar a lista de citações, mas reiterou que a IA não foi usada na criação dos principais argumentos do documento. Ele admitiu abertamente sua falta de familiaridade com o conceito de “alucinações” de IA, o que resultou em citações errôneas. Apesar disso, Hancock permaneceu comprometido com os pontos substantivos estabelecidos na declaração, insistindo que estes não deveriam ser ofuscados por erros de citação relacionados à IA.
“Não tive a intenção de enganar o Tribunal ou o advogado. Expresso meu sincero pesar por qualquer confusão que isso possa ter causado. Dito isso, mantenho-me firme em todos os pontos substantivos da declaração.”
As implicações da experiência de Hancock levantam questões críticas sobre o uso de ferramentas de IA no campo jurídico. Embora sua explicação possa ser levada em consideração pelo tribunal, este incidente ressalta os riscos inerentes associados à integração de IA em ambientes formais.
Deixe um comentário