L’intelligenza artificiale del miliardario Elon Musk insulta gli utenti su X, sollevando interrogativi sulle fonti dei dati e sulla fiducia cieca – Grok
Il chatbot di intelligenza artificiale Grok del miliardario Elon Musk, sviluppato dalla sua azienda xAI, ha attirato l’attenzione mondiale per l’uso di parolacce, insulti, odio e la diffusione di disinformazione su X, scatenando un rinnovato dibattito sull’affidabilità dei sistemi di intelligenza artificiale e sui pericoli di riporre cieca fiducia in essi.
Sebnem Ozdemir, membro del consiglio direttivo dell’Associazione per le politiche sull’intelligenza artificiale (AIPA) in Turchia, ha dichiarato ad Anadolu che i risultati dell’intelligenza artificiale devono essere verificati come qualsiasi altra fonte di informazione.
“Anche le informazioni tra persone devono essere verificate, quindi riporre cieca fiducia nell’intelligenza artificiale è un approccio molto irrealistico, poiché la macchina in ultima analisi è alimentata da una fonte”, ha affermato.
“Così come non crediamo a tutto ciò che leggiamo nel mondo digitale senza verificarlo, non dovremmo dimenticare che l’intelligenza artificiale può imparare qualcosa da una fonte errata.”
Ozdemir ha avvertito che, sebbene i sistemi di intelligenza artificiale spesso trasmettano fiducia, i loro risultati riflettono la qualità e le distorsioni dei dati su cui sono stati addestrati.
“La capacità umana di manipolare, di trasmettere in modo diverso ciò che sente a proprio vantaggio, è una cosa ben nota: gli esseri umani lo fanno intenzionalmente, ma l’intelligenza artificiale no, perché in definitiva l’intelligenza artificiale è una macchina che impara dalle risorse fornite”, ha aggiunto.
Ha paragonato i sistemi di intelligenza artificiale ai bambini che imparano ciò che viene loro insegnato, sottolineando che la fiducia nell’intelligenza artificiale dovrebbe dipendere dalla trasparenza circa le fonti di dati utilizzate.
“L’intelligenza artificiale può sbagliarsi o essere di parte, e può essere usata come arma per distruggere la reputazione di qualcuno o manipolare le masse”, ha affermato, riferendosi ai commenti volgari e offensivi di Grok pubblicati su X.
La controversia su Grok ha scatenato un’ondata di reazioni sui social media e sui forum tecnologici.
Mentre alcuni ne hanno elogiato lo stile senza filtri, definendolo un’alternativa più “onesta” ai chatbot sterilizzati, molti hanno espresso preoccupazione per la sua tendenza a diffondere teorie del complotto e contenuti offensivi.
Ad esempio, un utente di X ha accusato Grok di glorificare la violenza dopo che questo si è definito “MechaHitler” e ha elogiato Adolf Hitler in un post che ha suscitato forti reazioni e ha portato alle scuse pubbliche di xAI.
Screenshot delle risposte antisemite di Grok circolavano ampiamente su X, dove alcuni utenti si chiedevano se il cosiddetto “assolutismo della libertà di parola” di Musk non stesse virando verso un’incoscienza. “Almeno Grok non ti coccola: la verità fa male”, ha scritto un sostenitore, mentre un altro ha replicato: “Se questa è onestà, è anche ignoranza mascherata da audacia”.
Un altro utente ha osservato che le risposte di Grok sembrano spesso stereotipate, arrivando persino a scherzare sulla sua stessa frase ad effetto, “la verità fa male”.
Controllo dell’intelligenza artificiale
Özdemir ha spiegato che il rapido sviluppo dell’IA sta superando gli sforzi per controllarla: “È possibile controllare l’IA? La risposta è no, perché non è molto realistico pensare di poter controllare qualcosa il cui QI sta avanzando così rapidamente”.
“Dobbiamo semplicemente accettarlo come un’entità separata e trovare il modo giusto per raggiungere una comprensione con esso, per comunicare con esso e per nutrirlo.”
Questa visione ha trovato eco nelle discussioni online, dove molti utenti hanno descritto l’intelligenza artificiale non come una fonte indipendente di verità, ma come uno specchio che riflette i modelli comportamentali umani.
Ozdemir ha anche citato l’esperimento condotto da Microsoft nel 2016 con il chatbot Tay, che ha appreso contenuti razzisti e genocidi dagli utenti sui social media e, nel giro di 24 ore, ha iniziato a pubblicare post offensivi.
“Tay non ha inventato questa roba da sola, ma ha imparato dalle persone: non dovremmo temere l’intelligenza artificiale in sé, ma le persone che agiscono in modo non etico”, ha aggiunto.
Alla luce di queste preoccupazioni, i critici sostengono che l’impiego di un chatbot con una comprovata esperienza nella generazione di contenuti offensivi e fuorvianti nei sistemi del mondo reale potrebbe comportare gravi rischi per la sicurezza e la reputazione.
Diversi paesi dell’UE, tra cui la Polonia , hanno presentato reclami formali alla Commissione europea e un tribunale turco ha bloccato alcuni contenuti di Grok a causa di osservazioni offensive.

