A OpenAI, a empresa iniciante por trás do ChatGPT, divulgou nesta data a formação de um coletivo novo com o objetivo de examinar, estudar e sondar sistemas de IA a fim de defender contra ameaças que qualifica como “perigos devastadores”. O grupo, focado em medidas preventivas, estará sob o comando de Aleksander Madry, responsável pelo Núcleo de Machine Learning Aplicado do MIT. O novo agrupamento visa não apenas identificar vulnerabilidades em modelos de IA, mas também desenvolver estratégias robustas para aprimorar a segurança e a confiabilidade desses sistemas.
Madry se juntou à OpenAI em maio na função de “gestor de medidas preventivas”, conforme informado no LinkedIn. As tarefas cruciais do coletivo incluem monitorar, antecipar e defender contra as ameaças impostas por futuros mecanismos de IA, que podem variar desde sua habilidade para manipular e ludibriar seres humanos (como em fraudes eletrônicas) até a geração de códigos danosos. Alguns dos perigos que o agrupamento está incumbido de avaliar parecem mais remotos que outros. Por exemplo, a OpenAI, em um artigo de blog, inclui riscos como “químicos, biológicos, radiativos e nucleares” como focos de atenção intensa em relação à IA. Sam Altman, o líder da OpenAI, é notório por manifestar inquietações acerca da IA, frequentemente apontando que a IA “pode culminar na eliminação da raça humana”, seja por motivos de relações públicas ou crença íntima. O agrupamento, portanto, tem uma missão crucial na identificação e mitigação desses riscos, visando tornar a IA um instrumento mais seguro e confiável.
A OpenAI declara que o grupo também tem a missão de elaborar uma “estratégia de evolução pautada em perigos”, que esclarecerá o método da OpenAI na realização de análises de sistemas de IA e dispositivos de vigilância, as iniciativas da companhia para a diminuição de riscos e seu quadro regulatório para orientação durante o ciclo de criação do modelo. Essa estratégia servirá não apenas como um roteiro para ações futuras, mas também como um referencial que outras organizações poderão seguir. O intuito é que essa abordagem centrada no risco auxilie na criação de um ambiente mais seguro e confiável no campo da inteligência artificial, beneficiando tanto desenvolvedores quanto usuários.
O objetivo é acrescentar valor ao esforço da OpenAI no campo da proteção em IA, concentrando-se nos estágios anteriores e posteriores ao lançamento do modelo. Tanto Altman quanto Ilya Sutskever, o principal pesquisador e co-idealizador da OpenAI, sustentam a ideia de que uma IA com capacidades que superem a inteligência humana poderia emergir nos próximos dez anos e que essa entidade não seria inerentemente benéfica. Por isso, se faz imperativo conduzir estudos focados em meios de restringi-la e gerenciá-la. Este panorama amplia a urgência de desenvolver métodos eficazes de supervisão e diretrizes éticas rigorosas para assegurar que a IA possa ser utilizada de forma segura e responsável, evitando consequências indesejadas.
Leia mais:
- Bitwave e Coinbase unem-se para pagamento cripto no setor institucional
- Câmara dos Deputados debate blockchain em cartórios
- Suspensão de negociação de NFTs BRC-20 gera preocupações
Assine nossas notícias para receber todas as novidades do mundo cripto!