O Grupo de Trabalho (Working Group) da NEA sobre Novas Tecnologias realizou um workshop em 25–26 de março, com foco em como a inteligência artificial pode ser aplicada à supervisão regulatória e às operações internas dentro de autoridades nucleares.
Resumo
As discussões se concentraram em implantação prática, e não em teoria, com os participantes analisando como ferramentas existentes podem se encaixar em fluxos de trabalho regulatórios.
O evento reuniu reguladores nucleares e especialistas em IA de 15 países membros da NEA, além de representantes de organizações internacionais. Os participantes compartilharam estudos de caso mostrando sistemas de IA já em uso ou em desenvolvimento em órgãos reguladores.
Os exemplos apresentados durante as sessões incluíram a geração de resumos e apresentações usando IA, a melhoria das capacidades de simulação e a extração de informações relevantes a partir de grandes volumes de documentos regulatórios.
Essas demonstrações levaram a trocas detalhadas sobre desafios de implementação, lições aprendidas e maneiras de identificar aplicações de alto valor.
Os participantes destacaram várias conclusões principais. Há uma necessidade clara de estabelecer estruturas de IA bem estruturadas dentro dos órgãos reguladores, apoiadas por procedimentos e orientações definidos.
Projetos com escopo bem delimitado foram vistos como mais eficazes, enquanto critérios claros de sucesso para ferramentas e iniciativas de IA foram considerados essenciais.
Modelos locais foram identificados como uma possível forma de abordar preocupações relacionadas a cibersegurança, soberania de dados e proteção de dados. Ao mesmo tempo, a experiência humana permanece central para a tomada de decisões e para interpretar outputs gerados por IA.
O workshop incentivou a comparação aberta de abordagens nacionais, com reguladores compartilhando experiências de implementação e identificando preocupações comuns. As trocas também apontaram áreas em que uma cooperação internacional mais próxima poderia ajudar a enfrentar desafios compartilhados.
O Sr. Eetu Ahonen, Vice-Presidente do WGNT, conduziu as discussões e enfatizou o valor da colaboração entre jurisdições.
“Este workshop demonstrou o valor da colaboração internacional. Cada regulador está explorando IA de um ângulo diferente, mas as experiências que temos com a implementação de ferramentas de IA, os desafios de segurança de dados e a garantia de supervisão humana são notavelmente semelhantes. Ao compartilhar de forma aberta e aprender uns com os outros, fortalecemos nossa capacidade de usar IA de maneira responsável e eficiente para melhorar a segurança nuclear.”
O WGNT, que organizou o evento, serve como um espaço para que reguladores e organizações de apoio técnico troquem percepções sobre a supervisão de tecnologias emergentes ao longo de todo o seu ciclo de vida. Seu trabalho apoia o desenvolvimento de uma compreensão compartilhada e ajuda a identificar caminhos para posições regulatórias alinhadas.
A NEA planeja publicar um folheto dedicado para resumir as conclusões do workshop, incluindo desafios-chave, lições aprendidas e práticas recomendadas para a integração de IA em processos regulatórios.
Related Articles
Google Planeja Investir Até $40 Bilhões na Anthropic, Promete 5+ Gigawatts de Poder de Computação
Regulador suíço FINMA alerta que a ferramenta de IA Mythos, da Anthropic, representa risco financeiro
DeepSeek V4 é lançado com janela de contexto de 1M; chips Huawei Ascend e Cambricon alcançam compatibilidade total
Fere AI Conclui Rodada de Financiamento de US$ 1,3 Milhão Liderada pela Ethereal Ventures
Anthropic reverte mudanças no Claude Code após queda de qualidade; todas as correções concluídas
Cofundador da NeoSoul Kaelan: a Indústria de IA deve permitir que brinquedos existam; a inovação muitas vezes começa como produtos experimentais