Grok, il modello conversazionale sviluppato da xAI, la società di Elon Musk, ha ammesso la presenza di gravi falle nei sistemi di sicurezza che hanno consentito la generazione sulla piattaforma X, di immagini raffiguranti minori con indumenti ridotti al minimo.
Utenti di Grok hanno generato immagini a sfondo sessuale su minori
Negli ultimi giorni il chatbot ha prodotto numerosi contenuti a sfondo sessualizzato in risposta ai prompt degli utenti, come dimostrato dagli screenshot circolati su X ultimamente.
Leggi Anche
xAI ha confermato l’accaduto, assicurando di essere intervenuta con urgenza per rafforzare le protezioni e prevenire altri episodi simili. “Ci sono stati casi isolati in cui utenti hanno richiesto di generare immagini con l’IA che raffiguravano minori con indumenti ridotti al minimo“, ha scritto Grok in risposta a un utente. “Sono già presenti misure di tutela, ma stiamo lavorando a ulteriori miglioramenti per bloccare completamente richieste di questo genere” ha concluso Grok nella nota.
Nel successivo intervento dell’account ufficiale di Grok, la società ha ribadito che il materiale di abuso sessuale su minori è severamente vietato, sottolineando di aver individuato le falle nel sistema di protezione e di procedere alla correzione immediata.
X ha confermato delle falle nel sistema di protezione
Il caso si inserisce in un trend recente sulla piattaforma, dove numerosi utenti hanno sollecitato Grok a generare immagini sessualizzate e non consensuali. Lo stesso Elon Musk ha ricondiviso, nei giorni scorsi, un’immagine generata dall’intelligenza artificiale che lo ritraeva in bikini, accompagnandola con un commento ironico. Secondo quanto riportato, la diffusione di questi contenuti ha contribuito a mettere in luce le falle del sistema, già oggetto di critiche in passato, come evidenziato anche nell’analisi pubblicata da Il Difforme sulle controversie legate a Grok e ai suoi limiti di moderazione.
Il rischio che l’intelligenza artificiale possa produrre materiale di abuso sessuale su minori è un problema già noto. Il Guardian, ha citato uno studio dell’università di Stanford del 2023: in un dataset utilizzato per addestrare strumenti di generazioni di immagini, erano presenti oltre mille immagini a sfondo sessuale su minori.
© Riproduzione riservata


