Portugal Colonial - Inteligência Artificial está longe de ser 'transparente', diz estudo

Inteligência Artificial está longe de ser 'transparente', diz estudo
Inteligência Artificial está longe de ser 'transparente', diz estudo / foto: MARCO BERTORELLO - AFP/Arquivos

Inteligência Artificial está longe de ser 'transparente', diz estudo

Os modelos de Inteligência Artificial (IA), que se multiplicaram desde o lançamento do ChatGPT, carecem de transparência e representam um risco para os aplicativos que os utilizam como base técnica, segundo um estudo da Universidade de Stanford publicado nesta quarta-feira (19).

Tamanho do texto:

Um novo índice projetado e calculado por pesquisadores desta universidade californiana aponta que o modelo mais transparente entre os dez avaliados é o Llama 2, um sistema de Inteligência Artificial lançado pela Meta em julho e reutilizável livremente.

Obteve, no entanto, uma pontuação de apenas 54%, ainda muito insuficiente, segundo os autores do estudo.

GPT-4, o modelo de linguagem criado pela Open AI – empresa financiada pela Microsoft por trás do famoso robô ChatGPT – obteve apenas 48% de transparência.

Os outros modelos conhecidos, como o Palm-2 do Google, ou o Claude 2, da empresa Anthropic (financiada pela Amazon), aparecem ainda mais abaixo no ranking.

Todos os modelos devem tentar alcançar entre 80% e 100% de transparência, estima o diretor de pesquisa de Stanford, Rishi Bommasani, sobre os chamados modelos "de fundação".

A falta de transparência torna mais difícil para as empresas "saberem se podem criar aplicativos seguros baseados nestes modelos de negócio" e "para os acadêmicos confiarem nestes modelos para sua pesquisa", explica o estudo.

Isso também complica a tarefa dos consumidores que querem "compreender os limites dos modelos, ou pedir uma indenização pelos danos sofridos", detalha.

Especificamente, "a maioria das empresas não divulga o alcance dos conteúdos protegidos por direitos autorais usados para treinar seu modelo. Também não divulga o uso de mão de obra humana para corrigir os dados de treinamento, o que pode ser muito problemático", enfatiza.

"Nenhuma empresa fornece informações sobre o número de usuários que dependem de seu modelo, nem fornece estatísticas sobre os países, ou mercados, que o utilizam", destaca Bommasani.

Segundo os autores, este índice de transparência pode ser usado no futuro por autoridades políticas e reguladoras.

União Europeia, Estados Unidos, China, Reino Unido e Canadá anunciaram seu desejo de uma IA mais transparente.

"A Inteligência Artificial é uma grande promessa de oportunidades incríveis, mas também apresenta riscos para a nossa sociedade, para a nossa economia e para a nossa segurança nacional", destacou o presidente dos Estados Unidos, Joe Biden, em julho, aos responsáveis pelas empresas do setor.

A questão esteve em destaque durante a reunião do G7 no Japão, em maio, e o Reino Unido se prepara para receber uma cúpula internacional sobre IA em novembro.

P.Mira--PC