Estudo revela IA mais transparentes e confiáveis para uso

Um estudo conduzido pela Universidade de Stanford apontou que as principais empresas de IA carecem de transparência em suas práticas.
Estudo revela IA mais transparentes e confiáveis para uso / Reprodução: Internet

Na presente semana, acadêmicos da Universidade de Stanford publicaram um documento de análise que avalia a transparência dos modelos de IA de destaque. Este estudo instou organizações renomadas como Google e OpenAI a disponibilizar um maior volume de detalhes acerca do processo de desenvolvimento de suas tecnologias, especificamente relacionados à configuração do hardware utilizado e à procedência dos dados de treinamento, entre outros aspectos essenciais. Isso se traduz em um esforço para promover uma compreensão mais aprofundada sobre as entranhas da IA e seus alicerces.

Conforme indicado no estudo divulgado pelo Instituto de IA Centrada no Ser Humano da Universidade de Stanford (HAI), um centro dedicado à pesquisa e avanço de tecnologias de IA, é notável que sistemas com opacidade mais elevada representam um conjunto de desafios significativos para pesquisas acadêmicas, formulação de políticas e percepção dos consumidores em relação aos produtos dessa natureza. Essa falta de clareza pode obstruir a análise acadêmica, a definição de políticas eficazes e a compreensão geral por parte do público acerca dessas inovações. Portanto, a promoção da transparência emerge como um elemento fundamental para abordar essas questões.

O método de análise efetuou uma avaliação abrangente de 10 dos principais modelos de linguagem da IA, e destacou que o LLaMA 2 da Meta conquistou a maior pontuação de transparência, atingindo um sólido 54%. Em sequência, o BLOOMBZ da BigScience demonstrou uma transparência notável com uma pontuação de 53%, seguido de perto pelo GPT-4 da OpenAI, que registrou uma pontuação respeitável de 47%.

Por outro lado, o Titan Text da Amazon apresentou a menor pontuação em termos de transparência, obtendo apenas 12%. Essa análise detalhada revela as variações significativas entre os principais modelos de IA e destaca a importância da transparência na evolução dessas tecnologias.

Leia mais:

Assine nossas notícias para receber todas as novidades do mundo cripto!

Notícias

Deixe seu Comentário