-
Il GP del Portogallo tornerà in calendario nel 2027 e 2028
-
Robotica in agricoltura e formazione digitale, Ue finanzia progetti in Sicilia
-
Cresce patrimonio fondi immobiliari italiani, a 150 miliardi
-
Il Brent scivola sotto i 60 dollari per la prima volta da maggio
-
GigaTime, l'IA di Microsoft aiuta a capire lo sviluppo dei tumori
-
Aperta Host Arabia, il Made in Italy dell'ospitalità a Riyad
-
"In 2025 meno perdite assicurate per catastrofi ma sempre oltre 100 miliardi'
-
'La mia vita in uno scatto', in mostra cicatrici e coraggio delle pazienti oncologiche
-
Borsa: Milano maglia rosa con le banche, a picco Leonardo e Fincantieri
-
Prezzi al consumo giù dello 0,2% a novembre, inflazione cala all'1,1%
-
La corazzata Potëmkin, al Museo del Cinema versione musicata dal vivo
-
Kering incassa 587 milioni, jv con Ardian sull'immobile della Fifth Avenue
-
Tennis: Djokovic senza età, in campo anche ad Adelaide
-
Prezzo oro in calo, Spot scambiato a 4.279 dollari
-
Tennis: Atp introduce norma anticalore, possibili stop agli incontri
-
Psoriasi, 'anche in maternità soluzioni terapeutiche sicure ed efficaci'
-
Borsa: l'Europa apre fiacca, Francoforte cede lo 0,4%
-
Prezzo petrolio in calo, Wti scambiato a 56,45 dollari
-
Lo spread Btp-Bund apre invariato a 71 punti base
-
Borsa: l'Asia pesante in attesa dei dati Usa, future in calo
-
Euro poco mosso, scambiato a 1,1751 dollari
-
Forze armate russe abbattono un drone sui cieli di Mosca
-
Usa colpiscono tre imbarcazioni nel Pacifico orientale, otto morti
-
Zelensky, 'non riconosceremo il Donbass come territorio russo'
-
Ft, gli Usa hanno sospeso l'accordo sulla tecnologia con il Regno Unito
-
Trump fa causa alla Bbc, chiede 5 miliardi
-
1-0 al Como, la Roma rivede la vetta
-
In Venezuela i familiari chiedono la libertà dei prigionieri politici
-
Trump, siamo più vicini che mai alla fine della guerra in Ucraina
-
Europei e Usa, impegno per una forza multinazionale in Ucraina
-
Leader europei, significativi progressi di Trump per la pace in Ucraina
-
Ambasciatore d'Israele in Italia, 'qui gli ebrei non si sentono sicuri'
-
Terremoto 4.0 nel mar Ionio, rilevato da una stazione a 3,5 km di profondità
-
La cinese Cmoc acquista quattro miniere d'oro in Brasile
-
iRobot getta la spugna, il robot aspirapolvere Roomba in bancarotta
-
Bozza Ue sull'automotive, 'maxi-incentivi per le mini car elettriche'
-
Fincantieri, "la Fondazione ponte con la storia per costruire il futuro"
-
Borsa: Milano maglia rosa in Europa, vola la Juve
-
Merz, stasera Witkoff e Kushner ai colloqui con gli europei
-
Kallas, rifiuto di Hamas a disarmo importante ostacolo alla pace
-
Trump lancia la 'Tech Force', 1.000 ingegneri per l'IA
-
Usa, risolto il 90% delle questioni tra Mosca e Kiev
-
Lo spread Btp-Bund chiude in calo a 67 punti e torna a livelli 2008
-
Eg Group completa la vendita delle attività, Esso torna italiana
-
Il governo Milei denuncia la Federcalcio argentina per corruzione
-
Usa, 'Trump soddisfatto del punto dei negoziati'
-
'Io l'ho conosciuta', presentato il docufilm che racconta Mia Martini
-
Le cantate di Vivaldi secondo Raffaele Pe e La Lira di Orfeo
-
Media, Reiner aveva in testa almeno un altro film
-
Saline di Sicilia, parte il dossier per la candidatura al MaB Unesco
La capacità di giudizio dell'IA è solo apparenza
Grandi rischi nel delegare scelte e giudizi agli Llm
La capacità di giudizio dei modelli linguistici come ChatGpt o Gemini è solo apparenza: a dimostrarlo è lo studio guidato da Walter Quattrociocchi, dell'Università Sapienza di Roma, e pubblicato sulla rivista dell'Accademia Nazionale degli Stati Uniti Pnas. Un lavoro che sottolinea i rischi concreti di affidare a questi modelli di Intelligenza Artificiale la delega di fare scelte o prendere decisioni. "Cosa avviene realmente quando chiediamo a un'IA di eseguire una scelta, ad esempio determinare se una notizia del web sia credibile o è piuttosto una fake news?", ha detto Quattrociocchi all'ANSA per raccontare il nuovo studio che ha eseguito una serie di test a gran parte dei più importanti modelli linguisti Llm in circolazione, come ChatGpt, Gemini, Llama, Deepseek e Mistral. Un lungo lavoro che ha messo a confronto umani e IA per capire le differenze di 'ragionamento' dei due. "Quello che abbiamo messo qui molto bene in evidenza è che nonostante i risultati, le IA riconosco infatti molto bene le fake news, il meccanismo che utilizzano non si basa però su riscontri reali ma su una mera capacità di simulare i giudizi. In altre parole, i giudizi formulati dagli Llm sono plausibili ma disancorati dalla realtà fattuale". Una sostituzione della verità con la plausibilità che in un futuro non molto lontano, sottolineano gli autori, potrebbe portare a problemi gravi quando gradualmente daremo sempre più autorevolezza alle capacità degli Llm di gestire azioni o prendere scelte per noi, in totale delega. "Ma questi sistemi sembrano valutare come noi solo perché simulano le tracce del pensiero, non il pensiero stesso", ha aggiunto il ricercatore italiano. "Questo studio - ha concluso - dimostra che ciò che stiamo automatizzando non è il giudizio, ma la sua apparenza".
A.Santos--PC