Un ricercatore di disinformazione afferma di usare ChatGPT per le citazioni, nega di essere a conoscenza delle “allucinazioni” dell’intelligenza artificiale aggiungendo informazioni false

Un ricercatore di disinformazione afferma di usare ChatGPT per le citazioni, nega di essere a conoscenza delle “allucinazioni” dell’intelligenza artificiale aggiungendo informazioni false

Con l’evoluzione della tecnologia dell’intelligenza artificiale (IA), i metodi di stesura e presentazione della comunicazione scritta stanno subendo una significativa trasformazione. Tuttavia, la crescente dipendenza dall’IA per lo sviluppo di contenuti ha introdotto nuove sfide. Un recente incidente che ha coinvolto un esperto di disinformazione dimostra le complessità associate all’utilizzo di testo generato dall’IA. Questo individuo ha dovuto affrontare critiche dopo aver utilizzato l’IA per preparare un documento legale, che includeva in modo fuorviante citazioni inventate. Ironicamente, questo deposito legale mirava a opporsi all’uso di materiale generato dall’IA che avrebbe potuto trarre in inganno gli elettori prima delle elezioni.

Le insidie ​​impreviste dell’intelligenza artificiale secondo l’esperto di disinformazione

Jeff Hancock, professore alla Stanford University e noto esperto di disinformazione, ha depositato una dichiarazione giurata a sostegno di una legge del Minnesota progettata per vietare le tecnologie Deep Fake che potrebbero distorcere i risultati elettorali. Sfortunatamente, la stessa dichiarazione giurata intesa a combattere l’influenza dell’IA sugli elettori conteneva anche inesattezze da parte dell’IA, minando l’affidabilità delle sue affermazioni.

In una dichiarazione successiva, Hancock ha ammesso di aver utilizzato ChatGPT-4o per organizzare le citazioni. Tuttavia, ha affermato di non essere a conoscenza del fatto che questo strumento potesse generare informazioni o riferimenti falsi. Hancock ha sottolineato di non aver utilizzato lo strumento AI per redigere il contenuto principale del documento e ha descritto gli errori di citazione come involontari.

“Ho scritto e rivisto la sostanza della dichiarazione e sostengo fermamente ciascuna delle affermazioni in essa contenute, tutte supportate dalle più recenti ricerche accademiche nel settore e che riflettono la mia opinione di esperto in merito all’impatto della tecnologia AI sulla disinformazione e sui suoi effetti sociali”.

Approfondendo ulteriormente, Hancock ha menzionato di aver sfruttato sia Google Scholar che GPT-4o per compilare l’elenco delle citazioni, ma ha ribadito che l’IA non è stata utilizzata per creare gli argomenti principali del documento. Ha ammesso candidamente la sua scarsa familiarità con il concetto di “allucinazioni” dell’IA, che ha portato alle citazioni errate. Nonostante ciò, Hancock è rimasto fedele ai punti sostanziali esposti nella dichiarazione, insistendo sul fatto che questi non dovrebbero essere oscurati da errori di citazione relativi all’IA.

“Non avevo intenzione di fuorviare la Corte o l’avvocato. Esprimo il mio sincero rammarico per qualsiasi confusione ciò possa aver causato. Detto questo, sostengo fermamente tutti i punti sostanziali della dichiarazione.”

Le implicazioni dell’esperienza di Hancock sollevano questioni critiche sull’uso degli strumenti di IA nel campo legale. Mentre la sua spiegazione potrebbe essere presa in considerazione dalla corte, questo incidente sottolinea i rischi intrinseci associati all’integrazione dell’IA in contesti formali.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *