A gennaio, un dipendente Microsoft di nome Shane Jones ha inviato lettere al procuratore generale dello Stato di Washington Bob Ferguson e ad un certo numero di senatori e rappresentanti degli Stati Uniti. Jones afferma di aver riscontrato problemi con i guardrail per Designer, creatore d’arte basato sull’intelligenza artificiale di Microsoft (precedentemente noto come Bing Image Creator). Oggi, Jones sta avanzando nuove affermazioni secondo cui Designer può essere utilizzato per creare immagini violente e sessuali con alcuni messaggi di testo che non dovrebbero essere consentiti da Microsoft.
Secondo la CNBC , Jones ha inviato oggi nuove lettere a Lina Khan, presidente della Federal Trade Commission degli Stati Uniti, insieme ad un’altra lettera al consiglio di amministrazione di Microsoft. Nella lettera inviata a Khan, Jones afferma di aver esortato Microsoft a rimuovere Designer dall’uso pubblico per diversi mesi fino a quando non verranno implementate nuove e migliori barriere.
Jones afferma che Microsoft si è rifiutata di rimuovere Designer, quindi ora ha chiesto alla società di inserire nuove informazioni su ciò che Designer può creare e anche di modificare la classificazione per l’app Android in modo che non sia classificata come E (per tutti).
La CNBC afferma che Jones afferma di aver digitato “Pro-choice” in Designer, che ha poi creato una serie di immagini di cartoni animati violenti. Ha dichiarato:
Le immagini, visualizzate dalla CNBC, includevano un demone con denti aguzzi in procinto di mangiare un neonato, Darth Vader che impugnava una spada laser accanto a neonati mutati e un dispositivo portatile simile a un trapano etichettato “scelta professionale” utilizzato su un bambino adulto.
Jones afferma inoltre che Designer può essere utilizzato per creare immagini di personaggi Disney protetti da copyright. L’articolo dice di aver visto immagini di cose come “lattine Bud Light marchiate Star Wars e la somiglianza di Biancaneve su un vaporizzatore”.
In una dichiarazione inviata alla CNBC, un portavoce di Microsoft ha dichiarato di apprezzare gli sforzi dei dipendenti dell’azienda che testano la sua tecnologia e i suoi servizi per renderli più sicuri da usare. Il portavoce ha aggiunto:
Quando si tratta di aggiramenti della sicurezza o preoccupazioni che potrebbero avere un potenziale impatto sui nostri servizi o sui nostri partner, abbiamo stabilito solidi canali di segnalazione interni per indagare e risolvere adeguatamente eventuali problemi, che incoraggiamo i dipendenti a utilizzare in modo da poter convalidare e testare adeguatamente i loro preoccupazioni.
A febbraio, Google ha spento il generatore di immagini AI utilizzato nel suo chatbot Gemini AI dopo aver scoperto che poteva essere utilizzato per creare immagini offensive dal punto di vista razziale . La società afferma che sta installando nuovi guardrail in modo che quando la funzionalità tornerà non creerà quelle stesse immagini.
Queste nuove affermazioni di Jones arrivano proprio mentre una nuova ricerca del Center for Countering Digital Hate ha dimostrato che i creatori d’arte basati sull’intelligenza artificiale, inclusa quella di Microsoft, possono essere facilmente utilizzati per creare immagini progettate per creare false informazioni su elezioni e candidati .
Lascia un commento