-
Trump, Dem provano a distrarre con la bufala su Epstein
-
Dombrovskis, l'economia dell'Eurozona cresce più del previsto
-
'Dal Cuore alle Mani: Dolce&Gabbana' nel 2026 apre a Miami
-
Scala, Premio Galleria a Riccardo Chailly e Pertusi
-
Nuova vita per l'ex Lilli di Perugia, spazio a cultura e arte
-
Il Diavolo Veste Prada 2 nelle sale italiane il 29 aprile 2026
-
Azzurri: Gattuso "domani non sarà facile, serve grande impegno"
-
Mondiali: ct Moldavia, "determinati e coraggiosi con l'Italia"
-
Olidata torna su hardware, in arrivo notebook e tablet
-
Emesso decreto Via per nuova pista di aeroporto di Firenze
-
Life is Blu, campagna contro i tumori maschili con Federugby
-
Gli 85 anni di Marcello Panni, Nuova Consonanza lo festeggia
-
Fuori Massena, la radio esce da studi e diventa voce visibile
-
Venerdì consiglio Volkswagen, timori per vendita Italdesign
-
Le aquile della Repubblica su al Sisi vince il MedFilm festival
-
Falaschi, partire o restare nell'Italia dei paesi
-
Zangrillo, stop a rinnovo della carta d'identità per gli over 70
-
Amnesty, 2 miliardi di persone a rischio per i pozzi petroliferi
-
Calcio: il Napoli riprende gli allenamenti, Conte assente
-
Schönberg secondo i Berliner Philharmoniker in triplo cd
-
Vogue World a Milano, Wintour 'celebriamo tocco umano moda'
-
Antonin Tron è il nuovo direttore creativo di Balmain
-
Tfi, società di produzione e filiera del cinema a Torino
-
Protocollo fra i Comuni di Bologna e di Andria per Farinelli
-
Rose Villain annuncia repack di Radio Vega
-
Porti: Camera vota a favore per Consalvo a presidenza Trieste
-
Msc Crociere ordina altre due navi per 3,5 miliardi di euro
-
Alabama Shakes E Matt Berninger al Lucca Summer Festival
-
Premio Venezia, al via il concorso pianistico alla Fenice
-
Due famiglie, un funerale. Mattioli e Salvi becchini da ridere
-
Ivass, due podcast per il prossimo lancio arbitro assicurativo
-
L'Egitto aumenta di 9 volte la spesa sanitaria
-
Sindacati, da Ikea "premio bluff", sciopero il 5 dicembre
-
Emis Killa annuncia il nuovo album Musica Triste
-
Arriva il singolo natalizio del maestro Gianni Mazza
-
Esce per la prima volta in Italia Bon The Last Highway
-
Sindacati, da Urso tradimento, Meloni prenda tavolo ex Ilva
-
Unindustria, Anima premia 'la crescita di coscienza etica'
-
Email Epstein, 'Trump ore a casa mia con una ragazza'
-
Il nuovo Parlamento olandese giura a L'Aja, più giovane e rosa
-
Storia di Sergio, il corto italiano in corsa agli Oscar
-
Cannavaro'Gattuso ha esperienza giusta per portarci al Mondiale'
-
Auto: si accendono i riflettori sul 22° Rally Tirreno-Messina
-
Ancora debole economia tedesca, Pil 2025 +0,2%, ripresa nel 2026
-
Taf 11:la rinascita del pugilato italiano, notte record a Milano
-
Il pianista Monty Alexander domani al Bologna Jazz Festival
-
Kings League: arriva finale Kings Cup Lottomatica.sport Italy
-
Ecco primo episodio di AperiTotti con Materazzi ed ex n.10 Roma
-
L'Algeria concede la grazia allo scrittore Boualem Sansal
-
Red Bull bc one worldfinal 2025,Giappone campione mondo breaking
Le IA non sanno distinguere tra opinioni personali e i fatti
Studio, limitazione cruciale, rischio disinformazione
I grandi modelli linguistici di Intelligenza Artificiale come ChatGpt non sono affidabili quando si tratta di distinguere tra opinioni personali e fatti: una limitazione cruciale, vista la crescente diffusione di questi strumenti in ambiti chiave come la medicina, il diritto, il giornalismo e la scienza, nei quali è imperativa la capacità di distinguere la realtà dalla finzione. Lo afferma lo studio pubblicato sulla rivista Nature Machine Intelligence e guidato dall'Università americana di Stanford: evidenzia la necessità di essere cauti nell'affidarsi a questi programmi e il rischio che possano favorire la diffusione della disinformazione. I ricercatori coordinati da James Zou hanno messo alla prova 24 Large Language Model i cosiddetti Llm, tra cui ChatGpt della californiana OpenAI e il cinese DeepSeek, ponendo loro 13mila domande. Quando è stato chiesto di verificare dati fattuali veri o falsi, la precisione è risultata elevata pari a oltre il 91% per le versioni più nuove dei programmi. Passando alle credenze espresse in prima persona, invece, tutti i modelli testati hanno fallito: Gpt 4, la versione rilasciata a maggio 2024, ha visto scendere la sua affidabilità dal 98,2% al 64,4%, mentre la versione R1 di DeepSeek è precipitata addirittura da oltre il 90% al 14,4%. La riduzione dell'accuratezza è stata meno marcata per le opinioni espresse in terza persona e ciò, secondo gli autori dello studio, rivela un preoccupante bias di attribuzione, cioè una distorsione nel modo in cui vengono valutate le affermazioni fatte da altri. Inoltre, gli Llm risultano meno propensi a riconoscere una credenza falsa rispetto ad una vera: più precisamente, il 34,3% meno propensi per gli ultimi modelli. I ricercatori affermano, dunque, che miglioramenti in questo ambito sono urgentemente necessari se si vuole prevenire la diffusione di fake news.
E.Raimundo--PC