IA, Grok ammette falle nei sistemi di sicurezza: generate immagini sessualizzate su minori

3 Min di lettura

Grok, il modello conversazionale sviluppato da xAI, la società di Elon Musk, ha ammesso la presenza di gravi falle nei sistemi di sicurezza che hanno consentito la generazione sulla piattaforma X, di immagini raffiguranti minori con indumenti ridotti al minimo.

Utenti di Grok hanno generato immagini a sfondo sessuale su minori

Negli ultimi giorni il chatbot ha prodotto numerosi contenuti a sfondo sessualizzato in risposta ai prompt degli utenti, come dimostrato dagli screenshot circolati su X ultimamente.

xAI ha confermato l’accaduto, assicurando di essere intervenuta con urgenza per rafforzare le protezioni e prevenire altri episodi simili. “Ci sono stati casi isolati in cui utenti hanno richiesto di generare immagini con l’IA che raffiguravano minori con indumenti ridotti al minimo“, ha scritto Grok in risposta a un utente. “Sono già presenti misure di tutela, ma stiamo lavorando a ulteriori miglioramenti per bloccare completamente richieste di questo genere” ha concluso Grok nella nota.

Nel successivo intervento dell’account ufficiale di Grok, la società ha ribadito che il materiale di abuso sessuale su minori è severamente vietato, sottolineando di aver individuato le falle nel sistema di protezione e di procedere alla correzione immediata.

X ha confermato delle falle nel sistema di protezione

Il caso si inserisce in un trend recente sulla piattaforma, dove numerosi utenti hanno sollecitato Grok a generare immagini sessualizzate e non consensuali. Lo stesso Elon Musk ha ricondiviso, nei giorni scorsi, un’immagine generata dall’intelligenza artificiale che lo ritraeva in bikini, accompagnandola con un commento ironico. Secondo quanto riportato, la diffusione di questi contenuti ha contribuito a mettere in luce le falle del sistema, già oggetto di critiche in passato, come evidenziato anche nell’analisi pubblicata da Il Difforme sulle controversie legate a Grok e ai suoi limiti di moderazione.

Il rischio che l’intelligenza artificiale possa produrre materiale di abuso sessuale su minori è un problema già noto. Il Guardian, ha citato uno studio dell’università di Stanford del 2023: in un dataset utilizzato per addestrare strumenti di generazioni di immagini, erano presenti oltre mille immagini a sfondo sessuale su minori.

© Riproduzione riservata

TAGGED:
Condividi questo Articolo
Antichi Telai 1894

Avvertenza legale sulle immagini

Alcune delle immagini pubblicate all’interno di questa testata giornalistica sono tratte da fonti online liberamente accessibili. Tali immagini non sono in alcun modo utilizzate per finalità commerciali e i relativi diritti restano di esclusiva titolarità dei rispettivi aventi diritto.

Nonostante le verifiche preventive effettuate dagli autori (incluse, a titolo esemplificativo, l’analisi di metadati, Exif, watermark, loghi o altri segni distintivi), qualora la pubblicazione di un contenuto grafico dovesse risultare lesiva di diritti di proprietà intellettuale o di altri diritti soggettivi, la redazione, su richiesta del titolare, si impegna a rimuoverlo immediatamente o, ove richiesto, a indicarne correttamente l’attribuzione.

Eventuali segnalazioni possono essere inoltrate all’indirizzo e-mail: proprietaintellettuale@ildifforme.it.

In caso di accertata violazione, la redazione adotterà senza indugio ogni misura necessaria alla cessazione della stessa.