O Grupo dos Sete (G7), formado pelas principais economias internacionais, que incluem nações como Canadá, França, Alemanha, Itália, Japão, Reino Unido, Estados Unidos e a União Europeia, está programado para ratificar, nesta segunda-feira segunda-feira (30), um conjunto de diretrizes destinadas a orientar empresas envolvidas no desenvolvimento de sistemas avançados de IA. A revelação desta iniciativa, proveniente de um documento exclusivo do G7, obtido de forma privilegiada pela Reuters, representa um esforço conjunto para atenuar os potenciais riscos e abusos associados a essa tecnologia inovadora. Essa medida visa assegurar um uso responsável e ético da IA, à medida que ela continua a moldar o panorama tecnológico global.
O conjunto de diretrizes voluntárias, que está prestes a ser estabelecido, marca um ponto de viragem na maneira como as principais nações abordarão a regulamentação da inteligência artificial. Originado durante o fórum ministerial conhecido como “Iniciativa de Hiroshima para a IA” em maio, este empreendimento assume um papel de destaque em um momento em que as inquietações relacionadas à proteção da privacidade e aos potenciais riscos à segurança associados à IA estão em constante ascensão. Isso ressalta a urgente necessidade de diretrizes sólidas para orientar o setor de forma colaborativa, visando equilibrar o progresso tecnológico com a implementação de salvaguardas adequadas. Esta iniciativa busca harmonizar interesses globais e promover um desenvolvimento responsável da inteligência artificial.
O conjunto de princípios, composto por um total de 11 diretrizes, tem como objetivo central fomentar a utilização segura, confiável e responsável da inteligência artificial em âmbito global. Essas diretrizes oferecerão orientações de natureza voluntária para as ações das organizações que lideram o desenvolvimento de sistemas de IA avançados, abrangendo desde os modelos de base mais sofisticada até os sistemas gerativos de IA, conforme delineado no documento do G7. Entre os principais pontos do código, destaca-se a necessidade de que as empresas adotem medidas apropriadas para identificar, avaliar e mitigar os riscos ao longo de todo o ciclo de vida da inteligência artificial. Adicionalmente, o código incentiva as empresas a lidar com incidentes e casos de uso inadequado após a introdução dos produtos de IA no mercado, promovendo ainda a divulgação de relatórios públicos abrangentes sobre as capacidades, limitações, aplicabilidade e possíveis abusos associados aos sistemas de IA. Essas diretrizes têm como alvo a criação de um ambiente de inovação tecnológica que esteja alinhado com padrões éticos e de segurança robustos, buscando estabelecer um equilíbrio entre o avanço da tecnologia e a proteção dos interesses globais.
A Comissária Digital da Comissão Europeia, Vera Jourova, enfatizou a relevância do Código de Ética como uma base sólida para assegurar a segurança no contexto da inteligência artificial. Ela destacou que este código desempenhará um papel crucial como uma ligação até que as regulamentações mais abrangentes sejam plenamente implementadas. A declaração de Jourova ecoa a necessidade premente de ações concretas no campo da IA, que assegurem a proteção e a integridade em meio ao rápido avanço tecnológico. Esse enfoque busca garantir que a inovação tecnológica seja conduzida de maneira ética e segura, preservando os interesses e valores fundamentais da sociedade.
Leia mais:
- Parallel | Expansão Planetfall traz novas cartas e pacotes
- NFTs: OMA3 busca padronizar royalties para criadores
- Brasil obtém token para financiamento ambiental em zonas rurais
Assine nossas notícias para receber todas as novidades do mundo cripto!