Per alcuni gli #LLM sono gli oracoli digitali: si chiede e si hanno risposte
Uno studio di AI4TRUST ha dimostrato che #GPT-4o, #Gemini, #Llama e #Grok hanno fornito il 100% di risposte sbagliate a domande relative alla salute
I prompt erano costruiti per favorire l’errore, ma gli LLM non hanno applicato sistemi di controllo e verifica, rivelandosi inattendibili
Uno scenario ideale per gli agenti della #disinformazione