Novo estudo sugere que IAs possuem viés político embasando suas respostas; entenda

Segundo a pesquisa, o ChatGPT inclinou-se para visões libertárias de esquerda, enquanto o LLaMA inclinou-se para visões conservadoras de direita
Artificial Intelligence

No cenário em evolução constante dos chatbots de IA, cientistas tentam entender se possíveis inclinações políticas dessas inteligências deve aparecem como possíveis problemáticas para seu uso.

Uma nova pesquisa conduzida pela Universidade de Washington, Universidade Carnegie Mellon e Universidade Xi’an Jiaotong descobriu que modelos de linguagem de IA apresentam diferentes tendências políticas. destacam como chatbots de IA proeminentes possuem inclinações políticas distintas, refletindo os preconceitos sociais embutidos em seus dados de treinamento e nas mentes que os criaram.

A investigação examinou rigorosamente 14 grandes modelos de linguagem, incluindo o ChatGPT da OpenAI e o GPT-4, bem como o LLaMA da Meta.

Surpreendentemente, esses chatbots exibiram predisposições políticas claras em suas respostas. O ChatGPT e o GPT-4 inclinaram-se para visões libertárias de esquerda, enquanto o LLaMA inclinou-se para visões autoritárias de direita. Essa revelação, segundo os pesquisadores, desafia a suposição de que a IA é inerentemente neutra.

Compasso político

Os pesquisadores adotaram uma abordagem inventiva, submetendo os modelos de IA a declarações politicamente carregadas. As respostas foram então plotadas em um compasso político, iluminando as posturas distintas que esses modelos sustentam em várias questões, do feminismo à democracia.

Os modelos BERT do Google inclinaram-se mais para a conservadorismo social, influenciados por literatura mais antiga, enquanto os modelos GPT da OpenAI mostraram uma natureza mais progressista, derivada de seu treinamento em texto liberal da internet.

O estudo também explorou o impacto de dados de treinamento enviesados nas orientações políticas dos modelos de IA. O retrabalho de modelos como o GPT-2 e o RoBERTa da Meta com conjuntos de dados politicamente enviesados acentuou ainda mais suas inclinações inerentes.

Como consequência, esses preconceitos infiltraram-se na percepção dos modelos sobre discurso de ódio e desinformação, demonstrando uma interação complexa entre preconceitos sociais e preconceitos orientados pelos modelos.

Ter viés político aproxima IA dos humanos

De forma quase unânime, os pesquisadores entendem que um chatbot de IA imparcial, baseado puramente em fatos, é uma ideia interessante, mas tecnicamente impossível. “Acreditamos que nenhum modelo de linguagem pode ser totalmente livre de viés político”, disse Chan Park, um pesquisador de doutorado da Universidade Carnegie Mellon, que fez parte do estudo.

“Um dos mitos mais persistentes sobre a IA é que a tecnologia é neutra e imparcial. Essa é uma narrativa perigosa, que só agravará o problema da tendência humana de confiar em computadores, mesmo quando eles estão errados. Na verdade, os modelos de linguagem de IA refletem não apenas os vieses em seus dados de treinamento, mas também os vieses das pessoas que os criaram e treinaram”, diz Melissa Heikkiläarchive, do MIT Technology Review, ao comentar sobre os resultados do estudo.

Leia mais:

Allan G.

Deixe seu Comentário