-
F1: a Russel le ultime libere di Abu Dhabi, incidente Hamilton
-
Milano Cortina: la fiamma viaggia per Roma, Berrettini tedoforo
-
Dieci parti in 26 ore, giorno da record a Legnago
-
Sci nordico: Klaebo vittoria n.101 in coppa, Pellegrino 16/o
-
Codacons, per Natale spesa famiglie raggiungerà 28 miliardi
-
Cgia di Mestre, 'con le feste aumenta il rischio usura'
-
Polonara tedoforo 'che emozione,un successo essere qui in piedi'
-
Mocio (Assiom Forex), 2025 anno molto buono, non c'è bolla Ai
-
'Costo panettoni e pandori +42% da 2021, con materie prime'
-
Emozione Tamberi 'passare fiamma a Polonara una soddisfazione'
-
Nba: Boston travolge i Lakers, Oklahoma sa solo vincere
-
Sci: austriaco Kriechmayr vince superG Beaver, Paris quarto
-
Sci:maltempo a Beaver Creek, tante interruzioni e gara a rischio
-
Mondiali: Inghilterra con la Croazia, ecco i 12 gironi
-
Il cda di Mps rinnova la piena fiducia a Lovaglio
-
Mondiali: se qualificata l'Italia nel girone B con Canada
-
Esa, rivisto a 22,3 miliardi il contributo degli Stati membri
-
Mondiali: Argentina pesca l'Austria, il Brasile con Marocco
-
Mediobanca, accordo con Nagel e Vinci, 5 milioni a testa
-
Europei nuoto 25 m, Ceccon d'oro nei 100 dorso
-
Mondiali: Trump 'da bambino vidi Pelè giocare, uno dei migliori'
-
Mondiali: Trump riceve il premio Fifa per la pace da Infantino
-
Premiato con 1 milione il progetto europeo su nuova astronomia
-
Mondiali:Infantino 'evento unico, come 104 Superbowl in un mese'
-
Borsa: Milano chiude fiacca, giù Mediobanca e Mps
-
Il prezzo del gas chiude in rialzo a 27,27 euro
-
Fotovoltaico al posto dell'amianto su 200 tetti industriali
-
Mondiali: Trump 'il calcio sport grandioso, arriva negli Usa'
-
F1: fratelli Leclerc in pista, Charles 'lo sognavamo da bambini'
-
Alessandro Siani debutta con il nuovo show Fake News
-
Mondiali: Trump arrivato al Kennedy Center per il sorteggio
-
Vanoli 'inizia un mese importante, sta a noi trascinare tifosi'
-
Molaro, velo da sposa con 1000 proiettili contro la guerra
-
Monitorare gli alimenti con sensori da smaltire nell'umido
-
Milano-Cortina, Ralph Lauren disegna le divise del team Usa
-
Borsa: l'Europa stabile dopo l'inflazione Usa
-
Weaver, 'in Avatar molte emergenze del nostro mondo'
-
I sindacati, 'massiccia adesione a sciopero nazionale Ikea'
-
Tarantino spara a zero su Paul Dano e Owen Wilson
-
Borsa: l'Europa positiva dopo Wall Street, Milano +0,2%
-
Un'IA al servizio della scienza, può aggregare dati da più fonti
-
Una Battaglia Dietro l'Altra e Marty Supreme nella top 10 di Afi
-
La Grazia di Sorrentino esce negli Usa, applausi dalla critica
-
Its Academy consacra 16 giovani artigiani del costume
-
Tornatore, 'il biopic su Cucinelli? Impossibile dirgli di no'
-
Afraa Al-Noaimi dal Qatar alla Prima della Scala
-
'Usa, l'Europa prenda il controllo della Nato entro 2027'
-
Fedriga, iniziati colloqui tra Fincantieri e Comune Monfalcone
-
Antartide, al via la missione scientifica della nave Laura Bassi
-
Maculopatia senile, positivi i primi dati sulla terapia genica
Il paradosso dei chatbot, più crescono più sbagliano
Dà risposte errate piuttosto che ammettere l'ignoranza
Più crescono e fanno esperienza, maggiore è il rischio che rispondano in modo errato piuttosto che ammettere di non saper rispondere: è uno dei grandi problemi dei grandi modelli linguistici che alimentano i chatbot, come ChatGpt e Llama. A dirlo è lo studio pubblicato sulla rivista Nature da José Hernández-Orallo, dell'Istituto di ricerca per l'Intelligenza Artificiale di Valencia in Spagna, che sottolinea inoltre come questi errori sfuggano facilmente agli umani. Una delle importanti caratteristiche dei grandi modelli linguistici, o Llm, è la capacità di evolvere nel tempo integrando al loro interno nuove informazioni derivanti dalle interazioni con gli utenti o con gli sviluppatori, così da diventare teoricamente sempre più affidabili. Ma analizzando questo percorso in tre degli Llm più polari, in particolare ChatGpt di OpenAi, Llama di Meta e il modello aperto Bloom, i ricercatori spagnoli hanno osservato un cambiamento del loro comportamento. Secondo gli autori della ricerca i tre modelli inizialmente erano più propensi di oggi nell'ammettere di non poter rispondere a domande su questioni su cui non si sentivano certi di dare risposte accurate. Una prudenza che è andata gradualmente svanendo: "i modelli 'ingranditi' e modellati tendono a dare una risposta apparentemente sensata, ma sbagliata, molto più spesso rispetto al passato", affermano i ricercatori nell'articolo. I chatbot "stanno diventando più bravi a fingere di essere informati", ha commentato Hernández-Orallo. Un problema che si aggiunge inoltre all'incapacità da parte degli umani di riuscire a notare questi errori, spesso perché ci si fida automaticamente della macchina. Un problema che potrebbe essere parzialmente risolto impostando negli Llm una sorta di soglia di affidabilità più alta, al di sotto della quale l'IA non rilascia una risposta. Scelta possibile per i chatbot ideati per lavorare in settori specifici, ad esempio in campo medico, ma più difficile immaginare, sottolineano i ricercatori, possa essere introdotta da quelle aziende che sviluppano chatbot 'generalisti' che puntano proprio sulla capacità di risposta in settori molto ampi.
Ferreira--PC