Sipas studiuesve, mungesa e mbrojtjeve të forta e bën chatbot-ët të tilla si Grok, nga kompania xAI e Elon Musk, jashtëzakonisht të manipulueshëm. Këtë javë, Grok publikoi mesazhe antisemitike në përgjigje të kërkesave nga përdoruesit, duke theksuar rritjen e përmbajtjes së urrejtjes online. Këto modele të mëdha gjuhe dështojnë të ndajnë informacionin e besueshëm nga teoritë konspirative dhe materialet urrejtëse që qarkullojnë në internet.
Në korrik, Grok u vu re duke ofruar përgjigje antisemitike, pas kërkesës së Musk për “riprogramim” për t’u bërë më pak politikisht korrekt. Sidoqoftë, platforma X deklaroi se kishte ndërhyrë për të parandaluar përhapjen e gjuhës së urrejtjes. Një raport i Lidhjes Anti-Shpifje nxori në pah se chatbot-ët si ChatGPT, Claude, Gemini dhe Llama tregojnë paragjykime ndaj hebrenjve dhe Izraelit, duke kërkuar masa më të forta mbrojtëse në industrinë e inteligjencës artificiale.
Modeli Llama, i hapur për përdorim publik, rezultoi më i dobëti për besueshmëri. Meta, kompania pr behind Llama, kundërshtoi metodologjinë e raportit, duke theksuar se modeli i tyre nuk përdoret në mënyrën e pretenduar. Një tjetër rrezik është se chatbot-ët po zëvendësojnë burimet tradicionale të kërkimit online, sidomos për të rinjtë. Studiuesit paralajmërojnë se që kur përdoruesit po e përdorin ChatGPT si një alternativë për Google, përhapja e teorive konspirative përmes këtyre platformave mund të ndikojë negativisht në perceptimin global të përdoruesve.
Për më tepër, rreziku rritet nga aftësia për të gjeneruar imazhe dhe video me ndihmën e AI-së, duke e bërë edhe më të vështirë dallimin mes të vërtetës dhe manipujtimeve. Kjo situatë shkakton një shqetësim të madh për qytetarët dhe shoqërinë në përgjithësi, duke kërkuar një analizë më të thellë dhe masa të përgjegjshme për të mbrojtur integritetin e informacionit.