Numa pesquisa que poderia ser pioneira, a companhia especializada em inteligência artificial (IA), Anthropic, concebeu um modelo abrangente de linguagem (LLM) customizado para avaliações de mérito pela sua base de utilizadores. Esse avanço representa um marco notável na colaboração entre tecnologia e comunidade, alinhando as ambições da Anthropic com o feedback da sua audiência e promovendo uma abordagem inclusiva para o desenvolvimento de IA.
Diversos Modelos de Linguagem de Ampla Escala (MLAEs) voltados para o público passaram por aprimoramentos que incluem diretrizes de proteção – orientações codificadas destinadas a controlar comportamentos específicos – com o propósito de limitar resultados indesejáveis. Claude da Anthropic e o ChatGPT da OpenAI, por exemplo, geralmente oferecem aos seus usuários uma resposta de segurança predefinida para solicitações de conteúdo relacionadas a tópicos potencialmente violentos ou controversos. Essas adaptações representam medidas proativas para assegurar uma experiência mais segura e responsável na interação com esses sistemas de IA.
No entanto, como apontaram diversos peritos, as diretrizes e outras abordagens de intervenção podem cercear a independência dos utilizadores. O que é considerado aceitável nem sempre se traduz em utilidade, e o que é útil nem sempre é aceitável. Ademais, as noções de ética e valores podem variar de acordo com culturas, grupos e épocas. Uma possível solução para esse dilema é conceder aos utilizadores a capacidade de definir a orientação de valores para os modelos de IA. O experimento “Collective Constitutional AI” da Anthropic emerge como um esforço para abordar esse “desafio complexo” e promover a participação dos utilizadores na conformação das diretrizes morais da IA. Esta abordagem inovadora busca conciliar a autonomia dos utilizadores com as responsabilidades éticas associadas ao desenvolvimento de tecnologias avançadas.
Em parceria com a Polis e o Collective Intelligence Project, a Anthropic mobilizou uma amostra diversificada de 1.000 utilizadores, abrindo espaço para a participação ativa por meio de questionários. O objetivo central reside em conceder aos utilizadores a prerrogativa de definir parâmetros de adequação sem submetê-los a conteúdos impróprios. Isso implicou a coleta das perspectivas e valores dos utilizadores, posteriormente integrados em um modelo já submetido a treinamento. Esta abordagem coloca a voz dos utilizadores no centro do processo de desenvolvimento, assegurando um sistema de IA que reflita a diversidade de perspectivas e preocupações da comunidade de utilizadores.
A Anthropic adota um enfoque denominado “Constitutional AI” para guiar sua abordagem na afinação dos LLMs com foco em segurança e utilidade. Em essência, esse método implica fornecer ao modelo um conjunto de diretrizes a serem seguidas e, posteriormente, treiná-lo para aplicar essas diretrizes durante todo o seu processo, assim como uma constituição serve como o documento fundamental para a governança em muitas nações. No contexto do teste Coletivo de IA Constitucional, a Anthropic buscou integrar feedback proveniente de grupos na elaboração da carta do modelo. Segundo um artigo em seu blog, os resultados parecem representar um avanço científico, uma vez que identificaram novos obstáculos no caminho para permitir que os usuários de um LLM determinem seus valores em conjunto. Uma das complexidades enfrentadas pela equipe envolveu a formulação de uma metodologia inovadora para o processo de avaliação comparativa. Visto que este experimento parece ser inovador em sua categoria e se baseia na metodologia Constitucional de IA da Anthropic, não existe um padrão estabelecido para contrastar modelos tradicionais com ajustados com valores de origem coletiva.
Leia mais:
- IA do Google identifica 3 Criptomoedas promissoras
- Apoio à regulamentação da IA na Europa aumenta
- Museu de Arte Moderna adquire obra gerada com uso de IA
Assine nossas notícias para receber todas as novidades do mundo cripto!