Un investigador de desinformación afirma utilizar ChatGPT para citas y niega tener conocimiento de que las «alucinaciones» de la IA añaden información falsa

Un investigador de desinformación afirma utilizar ChatGPT para citas y niega tener conocimiento de que las «alucinaciones» de la IA añaden información falsa

A medida que la tecnología de inteligencia artificial (IA) continúa evolucionando, los métodos de redacción y presentación de comunicaciones escritas están experimentando una transformación significativa. Sin embargo, la creciente dependencia de la IA para el desarrollo de contenido ha generado nuevos desafíos. Un incidente reciente que involucró a un experto en desinformación demuestra las complejidades asociadas con el uso de texto generado por IA. Este individuo enfrentó críticas después de utilizar IA para preparar un documento legal, que incluía citas falsas de manera engañosa. Irónicamente, esta presentación legal tenía como objetivo oponerse al uso de material generado por IA que pudiera engañar a los votantes antes de las elecciones.

Los imprevistos errores de la IA según los expertos en desinformación

Jeff Hancock, profesor de la Universidad de Stanford y destacado experto en desinformación, presentó una declaración jurada en apoyo de una ley de Minnesota diseñada para prohibir las tecnologías Deep Fake que podrían distorsionar los resultados electorales. Lamentablemente, la misma declaración jurada destinada a combatir la influencia de la IA en los votantes también contenía imprecisiones de la IA, lo que socava la fiabilidad de sus afirmaciones.

En una declaración posterior, Hancock reconoció haber utilizado ChatGPT-4o para organizar las citas, pero afirmó no saber que esta herramienta podía generar información o referencias falsas. Hancock enfatizó que no había empleado la herramienta de inteligencia artificial para redactar el contenido principal del documento y calificó los errores de citación como involuntarios.

“Escribí y revisé el contenido de la declaración y apoyo firmemente cada una de las afirmaciones que se hacen en ella, todas las cuales están respaldadas por la investigación académica más reciente en el campo y reflejan mi opinión como experto sobre el impacto de la tecnología de IA en la desinformación y sus efectos sociales”.

En un mayor detalle, Hancock mencionó que utilizó tanto Google Scholar como GPT-4o para compilar la lista de citas, pero reiteró que no se utilizó la IA para crear los argumentos principales del documento. Admitió con franqueza que no estaba familiarizado con el concepto de «alucinaciones» de la IA, lo que dio lugar a las citas erróneas. A pesar de ello, Hancock siguió comprometido con los puntos sustanciales expuestos en la declaración, insistiendo en que estos no deberían verse eclipsados ​​por errores de citas relacionados con la IA.

“No tuve intención de engañar al Tribunal ni a los abogados. Lamento sinceramente cualquier confusión que esto pueda haber causado. Dicho esto, apoyo firmemente todos los puntos sustantivos de la declaración”.

Las implicaciones de la experiencia de Hancock plantean cuestiones críticas sobre el uso de herramientas de IA en el ámbito jurídico. Si bien el tribunal puede tener en cuenta su explicación, este incidente pone de relieve los riesgos inherentes asociados a la integración de la IA en entornos formales.

Fuente e imágenes

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *