- Rapper P. Diddy tem liberdade condicional negada
- Governo anuncia corte de R$ 70 bilhões em gastos públicos
- Fóssil de crocodilo de entre 10 a 12 milhões de anos é descoberto no Peru
- Dortmund vence Dínamo de Zagreb (3-0) e fica entre os líderes na Champions
- Autoridades pedem que não se use lago salgado nos EUA para 'marinar' perus de Ação de Graças
- Presidente palestino prepara terreno para sucessão
- Aston Villa e Juventus empatam sem gols na Champions
- Liverpool vence Real Madrid (2-0) e se mantém 100% na Champions
- Morre em Israel o homem que executou Eichmann na forca
- F1 renova contrato com circuito de Monza até 2031
- Presidente eleito do Uruguai viajará ao Brasil para encontro com Lula
- Ambientalistas salvadorenhos denunciam criminalização de sua luta
- Vídeo de Kamala Harris é alvo de chacota entre republicanos
- Nicarágua faz nova concessão de mineração a empresa chinesa
- EUA sanciona chefes de segurança e ministros de Maduro por 'repressão'
- Regulação das redes sociais chega ao STF
- Gabriel Milito, da corda bamba à final da Libertadores
- Lula diz que França 'não apita' em acordo UE-Mercosul
- Artur Jorge, o 'caça-fantasmas' do Botafogo
- Trump nomeia general reformado como enviado para Ucrânia e Rússia
- Ex-presidente argentino Fernández depõe por suposta administração fraudulenta
- Francês que submetia esposa a estupros era 'bom pai e avô', diz sua advogada
- Cerca de cem cartas eróticas do pintor francês Gustave Courbet são reveladas
- EUA sanciona chefes de segurança e ministros de Maduro por 'repressão' na Venezuela
- Lamine Yamal vence o prêmio Golden Boy de melhor jogador sub-21 do ano
- Fifa destinará mais de R$ 290 milhões para OMS, OMC e Acnur
- México afirma que EUA daria ‘tiro no pé’ com tarifa de 25% sobre importações
- Inflação a 12 meses nos EUA sobe para 2,3% em outubro
- Dieta alimentar dos dinossauros explica sua supremacia
- Luis Suárez renova com o Inter Miami até o final de 2025
- China liberta três americanos detidos 'injustamente'
- Sapatos vermelhos usados em 'O Mágico de Oz' serão leiloados em dezembro
- Café arábica registra preço recorde devido à seca no Brasil
- Federação inglesa abre nova investigação contra árbitro David Coote por corrupção
- STF nega pedidos de habeas corpus Robinho, que continuará preso
- O ano 2024 em 12 acontecimentos marcantes no mundo
- Vicario, goleiro do Tottenham, ficará 'meses' afastado por lesão no tornozelo
- Medalhista olímpico indiano é suspenso por 4 anos após recusar exame antidoping
- Votação da nova Comissão Europeia evidencia divisão entre eurodeputados
- Em Edimburgo, sem-teto se tornam guias turísticos
- Ucrânia e Coreia do Sul concordam em compartilhar informações militares
- 'American Railroad', projeto musical que revela histórias não contadas de imigrantes
- Empresas preferem caminho lento, mas seguro, face à IA
- Fujimori, Sergio Mendes, Navalny, Maggie Smith... as principais mortes de 2024
- Milhares de libaneses voltam para casa após cessar-fogo entre Israel e Hezbollah
- A luta de um filho pela legalização da eutanásia no Reino Unido
- Premiê da Espanha defende sua gestão durante inundações e critica a oposição
- UE 'não tem tempo a perder' afirma presidente da Comissão Europeia ao apresentar nova equipe
- Grupo indiano Adani reconhece perdas de US$ 55 bilhões na Bolsa após acusação contra fundador
- China considera "especulações" relatos sobre investigação contra ministro da Defesa
ChatGPT e IA conversacional continuam incapazes de raciocinar, diz estudo
Os grandes modelos de linguagem (LLM, na sigla em inglês), como o ChatGPT, um dos sistemas de inteligência artificial (IA) mais populares do mundo, ainda seguem tendo dificuldades para raciocinar usando a lógica e cometem erros frequentes, de acordo com um estudo.
Estes robôs conversacionais refletem os preconceitos de gênero, éticos e morais dos humanos presentes nos textos dos quais se alimentam, recorda o estudo publicado na quarta-feira (5) na revista Open Science da Royal Society britânica.
Mas eles também refletem estes preconceitos nos testes de raciocínio?, questionou Olivia Macmillan-Scott, doutoranda do departamento de Ciências da Computação da University College de Londres (UCL).
O resultado da pesquisa é que os LLM mostram "um raciocínio muitas vezes irracional, mas de uma forma diferente da dos humanos", explica a pesquisadora à AFP.
Sob a supervisão de Mirco Musolesi, professor e diretor do Machine Intelligence Lab da UCL, Macmillan-Scott apresentou sete modelos de linguagem — duas versões do ChatGPT (3.5 e 4), da OpenAI, Bard, do Google, Claude 2, da Anthropic, e três versões de LLaMA, da Meta — a uma série de testes psicológicos desenvolvidos para humanos.
Como esta tecnologia aborda o preconceito que leva a privilegiar soluções com um maior número de elementos, em detrimento daquelas com uma proporção adequada?
Um exemplo: se tivermos uma urna com nove bolinhas brancas e uma vermelha e outra urna com 92 bolinhas brancas e 8 vermelhas, qual devemos escolher para ter a melhor chance de obter uma bolinha vermelha?
A resposta correta é a primeira urna, visto que há 10% de possibilidades frente a 8% da segunda opção.
As respostas dos modelos de linguagem foram muito inconsistentes. Alguns responderam corretamente ao mesmo teste seis em cada dez vezes. Outros apenas duas em cada dez, embora o teste não tenha mudado. "Cada vez obtemos uma resposta diferente", diz a pesquisadora.
Os LLM "podem ser bons para resolver uma equação matemática complicada, mas logo te dizem que 7 mais 3 é igual a 12", constatou.
- "Não tenho muita certeza" -
Estes modelos "não falham nestas tarefas da mesma forma que um humano", afirma o estudo. É o que Musolesi chama de "erros de máquina".
"Existe uma forma de raciocínio lógico que é potencialmente correta se a considerarmos por etapas, mas que é errada tomada como um todo", ressalta.
A máquina funciona com "uma espécie de pensamento linear", diz o professor, e cita o modelo Bard (atual Gemini), capaz de realizar corretamente as diferentes fases de uma tarefa, mas que obtém um resultado final incorreto por não ter uma visão geral.
Sobre esta questão, o professor de ciências da computação Maxime Amblard, da University of Lorraine, na França, recorda que os LLM, como todas as inteligências artificiais generativas, não funcionam como os humanos".
Os humanos são "máquinas capazes de criar significado", o que as máquinas não conseguem, explica à AFP.
Existem diferenças entre os diferentes modelos de linguagem e em geral, o GPT-4, sem ser infalível, obteve resultados melhores que os demais.
Macmillan-Scott suspeita que os modelos "fechados", cujo código operacional permanece secreto, "incorporam mecanismos em segundo plano" para responder a questões matemáticas.
De toda forma, neste momento é impensável confiar uma decisão importante a um LLM. Segundo o professor Musolesi, eles deveriam ser treinados para responder "não tenho muita certeza" quando necessário.
H.Silva--PC