Uma história interessante aconteceu com a OpenAI e o Pentágono. Sam Altman, CEO da empresa, surpreendentemente admitiu que o negócio parecia bastante oportunista e descuidado. Honestamente, é raro ver um líder de uma grande corporação reconhecer abertamente as falhas em suas decisões.



No geral, o problema era que a tecnologia de IA da OpenAI poderia ser usada para vigilância interna ou por agências de inteligência como a NSA. Está claro que isso gerou uma onda de críticas e preocupações na comunidade. As falhas nas condições contratuais mostraram-se mais sérias do que pareciam à primeira vista.

O que fez a OpenAI? Introduziu novas cláusulas no acordo para proteger suas tecnologias de uso indevido potencial. Basicamente, uma tentativa de fechar as mesmas falhas que permitiriam às autoridades governamentais usar a IA para vigilância.

Este é um giro interessante na história da interação entre Big Tech e o Estado. A empresa enfrentou questões éticas e decidiu assumir a responsabilidade. Embora, claro, reste a dúvida: por que essas falhas não foram previstas desde o início? De qualquer forma, um passo na direção do uso responsável da IA em contratos governamentais é algo necessário.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar