A empresa de inteligência artificial de Elon Musk, xAI, apresentou uma ação judicial federal para impedir que o Colorado faça cumprir uma nova lei que regula sistemas de IA de alto risco. Em documentos judiciais apresentados na quinta-feira, a ação de Musk visa o Projeto de Lei do Senado do Colorado 24-205, previsto para entrar em vigor a 30 de junho, que exige que os programadores de sistemas de IA divulguem riscos e tomem medidas para impedir a discriminação algorítmica em áreas como emprego, habitação, saúde, educação e serviços financeiros. De acordo com a queixa, a empresa sustenta que a medida obrigaria os programadores a modificar a forma como os sistemas de IA operam e poderia restringir a forma como os modelos geram respostas.
“SB24-205 não é, de modo nenhum, uma lei contra a discriminação. É, antes, uma tentativa de integrar as preferências do Estado na própria estrutura dos sistemas de IA,” escreveram os advogados da xAI. “As suas disposições proíbem os programadores de sistemas de IA de produzirem discurso que o Estado do Colorado não goste, ao mesmo tempo que os obriga a conformar o seu discurso com uma ortodoxia imposta pelo Estado sobre tópicos controversos de grande preocupação pública.” O processo pede a um tribunal federal que declare a lei inconstitucional e bloqueie a sua aplicação, algo que a xAI afirma violar a Primeira Emenda ao forçar alterações nas saídas do Grok para se alinharem com as perspetivas do Estado sobre diversidade e equidade. A ação também argumenta que o SB24-205 regula indevidamente atividades para além do Colorado e é demasiado vaga para ser aplicada de forma justa, favorecendo sistemas de IA que promovem a “diversidade”, ao mesmo tempo que penaliza os que não o fazem. “Ao exigir que os ‘programadores’ e os ‘operadores’ distingam entre discriminação que o Colorado desaprova e discriminação que o Colorado aprova, o SB24-205 obriga a Plainte xAI — um ‘programador’ ao abrigo da lei — a alterar o Grok, fazendo com que a saída do Grok, em certos assuntos selecionados pelo Estado, se conforme com uma perspetiva controversa e altamente politizada”, afirmou o processo. “Mas o Estado ‘não pode obrigar [xAI] a falar as suas próprias mensagens preferidas’.”
O desafio legal surge num contexto de um conflito crescente entre empresas de tecnologia e responsáveis governamentais sobre como a inteligência artificial deve ser regulada. Vários estados, incluindo o Colorado, Nova Iorque e a Califórnia, introduziram regras que abordam os riscos colocados pelas ferramentas de IA generativa. Ao mesmo tempo, a administração de Donald Trump avançou para estabelecer uma estrutura regulatória nacional para a IA. A ação judicial também chega enquanto aumenta a fiscalização sobre o chatbot Grok da xAI. Vários processos judiciais apresentados em 2026 acusam a empresa de permitir que o Grok gere imagens deepfake sem consentimento. Em março, uma queixa coletiva apresentada por três menores no Tennessee alegou que o Grok produziu imagens explícitas que os retratavam sem consentimento. A cidade de Baltimore também processou, alegando que o Grok gerou até 3 milhões de imagens sexualizadas num espaço de dias, incluindo milhares que retratavam menores. A xAI não respondeu imediatamente a um pedido de comentário da Decrypt.
Related Articles
Musk testemunha que a xAI usou modelos da OpenAI para treinar o Grok
O CEO da Google, Sundar Pichai, revelou que utiliza a IA Gemini para compreender a natureza humana e estabelecer uma comunicação mais autêntica
A OpenAI Lança uma Segurança Avançada de Conta para o ChatGPT
A X (Twitter) chega à maior atualização de plataforma publicitária da sua história, com a entrada da xAI e a publicidade baseada em interpretação semântica por IA como elemento central
Apoiada pela OpenAI, a 1X abre uma fábrica de 58.000 pés quadrados na Califórnia, com o objetivo de ter 10.000 robôs no primeiro ano
A Casa Branca prepara um memorando de política de IA que orienta as agências dos EUA a utilizarem múltiplos fornecedores de IA a 30 de abril