- Technogym sponsor di Milano- Cortina, 'è solo inizio'
- Casa Bianca,è la Russia che ha provocato l'escalation in Ucraina
- Vermiglio ammesso alla corsa all'Oscar
- Coppa Davis: Sinner travolge Baez, Italia-Argentina 1-1
- Il gas ritocca i massimi sopra i 48 euro al MWh ad Amsterdam
- Angelina Jolie al Torino Film Festival con Without Blood
- Trainer e 22 centri allenamento,Technogym partner Milano-Cortina
- Il presidente della Sec lascia in gennaio, con l'arrivo di Trump
- Crosetto, sentenza Cpi sbagliata, ma dovremmo applicarla
- I Quadri Parlanti di Spontini in scena a Jesi dopo due secoli
- Coppa Davis: Musetti battuto, Italia-Argentina 0-1
- La clinica del cane Palla sul grande schermo
- Nuovi scontri alla Sapienza tra collettivi-studenti destra
- 'Nel processo Eni usato solo ciò che giovava all'accusa'
- Parlamento convocato 28/11 per elezione 4 giudici Consulta
- Gaetz si ritira dalla corsa a ministro della Giustizia Usa
- Putin, lanciato un missile ipersonico balistico
- Le Corti d'Appello, 'trattenimenti fermeranno le altre cause'
- QrCode per i turisti, la Procura d Venezia indaga sugli abusivi
- Putin,non escludiamo di colpire chi ha dato missili a Kiev
- A rischio le pensioni in Vaticano, il Papa chiede sacrifici
- Putin, con i missili sulla Russia il conflitto è mondiale
- Borsa: Milano chiude in rialzo (+0,2%), balzo di Mfe e Leonardo
- Lega, mandati di arresto Cpi assurdi e filo-islamici
- Sempre più donne si rivolgono a centri antiviolenza, +14%
- Mattarella, valore scienza, messaggio importante in questi tempi
- Lo spread tra Btp e Bund ha chiuso in rialzo a 125,4 punti
- Mercedes verso un taglio dei costi per miliardi di euro
- Malagò, sui lavori olimpici a Milano dormo sogni tranquilli
- Luis Figo entra nella moda, il debutto a Pitti Uomo
- Borsa: Europa positiva in chiusura, Parigi +0,21%, Londra +0,79%
- Nuoto: Martinenghi, a breve decido se far i mondiali di Budapest
- Conte, dopo mandati Cpi sanzioni ed embargo armi a Israele
- PD, Italia rispetti CPI e si adegui alle sue decisioni
- Pugilato: dal 3/12 Tricolori Elite, torna Angela Carini
- Tajani, sulla manovra presto incontro con Meloni e Salvini
- Borsa: Europa positiva nel finale con Wall Street, Milano +0,15%
- Borsa: Milano chiude in rialzo, +0,2%
- A Firenze il Florence Queer Festival con 23 film, focus su Aids
- Di Pietro (Hisense Italia), nel 2024 prevediamo +32% ricavi
- Fonti Usa, 'Mosca ha lanciato un missile a medio raggio'
- Craig e Guadagnino puntano a DC Comics
- Luiss, Rita Carisano nominata direttore generale
- Stromae orgoglio nazionale del Belgio, decorato dal re Filippo
- Rugby: verso Italia-All Blacks, 6 cambi nel XV azzurro
- Maltempo: venti fino a burrasca forte al Centro-Sud
- 'L'Egitto è onorato della visita di Mattarella al museo egizio'
- Capodimonte 'Per Artemisia', concerto di Giulia Mazzoni
- Lady Gaga, Post Malone e Green Day star di Coachella '25
- Coppa Davis: 2-1 agli Stati Uniti, Australia in semifinale
Il paradosso dei chatbot, più crescono più sbagliano
Dà risposte errate piuttosto che ammettere l'ignoranza
Più crescono e fanno esperienza, maggiore è il rischio che rispondano in modo errato piuttosto che ammettere di non saper rispondere: è uno dei grandi problemi dei grandi modelli linguistici che alimentano i chatbot, come ChatGpt e Llama. A dirlo è lo studio pubblicato sulla rivista Nature da José Hernández-Orallo, dell'Istituto di ricerca per l'Intelligenza Artificiale di Valencia in Spagna, che sottolinea inoltre come questi errori sfuggano facilmente agli umani. Una delle importanti caratteristiche dei grandi modelli linguistici, o Llm, è la capacità di evolvere nel tempo integrando al loro interno nuove informazioni derivanti dalle interazioni con gli utenti o con gli sviluppatori, così da diventare teoricamente sempre più affidabili. Ma analizzando questo percorso in tre degli Llm più polari, in particolare ChatGpt di OpenAi, Llama di Meta e il modello aperto Bloom, i ricercatori spagnoli hanno osservato un cambiamento del loro comportamento. Secondo gli autori della ricerca i tre modelli inizialmente erano più propensi di oggi nell'ammettere di non poter rispondere a domande su questioni su cui non si sentivano certi di dare risposte accurate. Una prudenza che è andata gradualmente svanendo: "i modelli 'ingranditi' e modellati tendono a dare una risposta apparentemente sensata, ma sbagliata, molto più spesso rispetto al passato", affermano i ricercatori nell'articolo. I chatbot "stanno diventando più bravi a fingere di essere informati", ha commentato Hernández-Orallo. Un problema che si aggiunge inoltre all'incapacità da parte degli umani di riuscire a notare questi errori, spesso perché ci si fida automaticamente della macchina. Un problema che potrebbe essere parzialmente risolto impostando negli Llm una sorta di soglia di affidabilità più alta, al di sotto della quale l'IA non rilascia una risposta. Scelta possibile per i chatbot ideati per lavorare in settori specifici, ad esempio in campo medico, ma più difficile immaginare, sottolineano i ricercatori, possa essere introdotta da quelle aziende che sviluppano chatbot 'generalisti' che puntano proprio sulla capacità di risposta in settori molto ampi.
Ferreira--PC