EUA, Reino Unido e mais nações firmam normas para proteger IA

Estados Unidos, Reino Unido e aliados internacionais aprovam regras visando a defesa e o uso responsável da IA
EUA, Reino Unido e mais nações firmam normas para proteger IA

Os EUA, o Reino Unido, a Austrália e mais 15 nações revelaram normas internacionais para a salvaguarda dos sistemas de IA contra manipulações, incentivando as organizações a adotarem práticas de segurança intrínsecas desde a concepção. No dia 26 de novembro, estes 18 países publicaram um relatório com 20 páginas, propondo diretrizes sobre como as companhias especializadas em IA devem priorizar a segurança cibernética durante o desenvolvimento e utilização de sistemas de IA, enfatizando que a proteção frequentemente não é priorizada no ritmo acelerado do setor. Este documento destaca a importância de integrar a segurança cibernética em todas as fases de desenvolvimento da IA, desde o planejamento inicial até a implementação e manutenção, para garantir que as tecnologias de IA sejam robustas e confiáveis. Além disso, enfatiza a necessidade de colaboração internacional para estabelecer padrões elevados de segurança, visando um avanço seguro e ético no campo da IA.

As orientações divulgadas focaram primariamente em diretrizes gerais, como a implementação de uma supervisão rigorosa na estrutura dos sistemas de inteligência artificial, a vigilância contínua contra alterações nos sistemas antes e depois de sua ativação, e a capacitação de colaboradores sobre perigos relacionados à segurança digital. Aspectos controversos no universo da IA, como as regulamentações adequadas para o uso de tecnologias de geração de imagens e deepfakes ou as práticas de coleta e aplicação de dados na elaboração dos sistemas, não foram abordados. Esta lacuna resultou em diversos litígios contra corporações de IA devido a reivindicações de violação de direitos autorais. Este cenário evidencia a necessidade de uma abordagem mais aprofundada e específica nas diretrizes de IA, abordando questões éticas e legais complexas. A ênfase em segurança e transparência é vital, mas deve ser complementada com diretrizes claras sobre questões delicadas, como a privacidade dos dados e o uso ético de tecnologias avançadas, para promover uma evolução responsável e sustentável na área da IA.

“Vivemos um momento crítico na progressão da Inteligência Artificial, que é potencialmente a inovação mais marcante da nossa época”, destacou Alejandro Mayorkas, Secretário de Segurança Nacional dos Estados Unidos, em um comunicado. “A segurança cibernética é fundamental para a criação de sistemas de IA robustos, seguros e confiáveis”. Essas diretrizes estão alinhadas com outras medidas governamentais voltadas para a IA, incluindo reuniões entre governos e líderes da indústria de IA, como a Conferência sobre Segurança de Inteligência Artificial realizada em Londres no início de novembro, com o objetivo de estabelecer um consenso sobre o desenvolvimento da IA. Este avanço reflete a crescente conscientização sobre a importância da IA e a necessidade de uma abordagem coordenada e segura. Destaca-se a relevância da cooperação internacional para o desenvolvimento ético e seguro da IA, bem como a importância de diretrizes que abordem tanto aspectos técnicos quanto éticos, assegurando que a IA seja uma força positiva e inovadora na sociedade. Além disso, é fundamental promover a transparência e a responsabilidade no desenvolvimento e uso da IA, a fim de garantir seus benefícios e minimizar riscos potenciais.

Neste momento, a União Europeia está finalizando os detalhes de sua Legislação de IA, que irá regulamentar este setor, enquanto o presidente dos Estados Unidos, Joe Biden, assinou um decreto em outubro estabelecendo diretrizes para a segurança e defesa da IA. No entanto, ambas as iniciativas têm enfrentado resistência por parte da indústria de IA, sob a alegação de que poderiam restringir o progresso inovador. Além disso, nações como Canadá, França, Alemanha, Israel, Itália, Japão, Nova Zelândia, Nigéria, Noruega, Coreia do Sul e Singapura também adotaram as novas diretrizes de “segurança desde a concepção”. Grandes empresas atuantes no campo da IA, como OpenAI, Microsoft, Google, Anthropic e Scale AI, desempenharam um papel ativo na elaboração dessas orientações. Esse conjunto de ações demonstra um movimento global em direção ao equilíbrio entre inovação e segurança no campo da IA, destacando a necessidade de regulamentações que conciliem o avanço tecnológico com a ética e a segurança. A colaboração entre governos e empresas líderes do setor desempenha um papel crucial na criação de um terreno comum que promova a inovação responsável e sustentável na área de IA, assegurando um desenvolvimento que seja ético e seguro.

Leia mais:

Assine nossas notícias para receber todas as novidades do mundo cripto!

Notícias

Deixe seu Comentário