A xAI de Elon Musk processa o Colorado por lei de IA, enquanto o confronto sobre a regulamentação estadual se intensifica

Em resumo

  • A empresa de IA de Elon Musk apresentou uma ação judicial federal para impedir que a lei de IA do Colorado entre em vigor em 30 de junho.
  • O caso reflete um conflito mais vasto sobre se os estados ou o governo federal devem regular a inteligência artificial.
  • A empresa enfrenta processos separados e investigações associados às ferramentas de geração de imagens do Grok.

A empresa de inteligência artificial de Elon Musk, xAI, apresentou uma ação judicial federal para impedir que o Colorado faça cumprir uma nova lei que regula sistemas de IA de alto risco. Em documentos judiciais apresentados na quinta-feira, a ação de Musk visa o Projeto de Lei do Senado do Colorado 24-205, previsto para entrar em vigor a 30 de junho, que exige que os programadores de sistemas de IA divulguem riscos e tomem medidas para impedir a discriminação algorítmica em áreas como emprego, habitação, saúde, educação e serviços financeiros. De acordo com a queixa, a empresa sustenta que a medida obrigaria os programadores a modificar a forma como os sistemas de IA operam e poderia restringir a forma como os modelos geram respostas.

“SB24-205 não é, de modo nenhum, uma lei contra a discriminação. É, antes, uma tentativa de integrar as preferências do Estado na própria estrutura dos sistemas de IA,” escreveram os advogados da xAI. “As suas disposições proíbem os programadores de sistemas de IA de produzirem discurso que o Estado do Colorado não goste, ao mesmo tempo que os obriga a conformar o seu discurso com uma ortodoxia imposta pelo Estado sobre tópicos controversos de grande preocupação pública.”  O processo pede a um tribunal federal que declare a lei inconstitucional e bloqueie a sua aplicação, algo que a xAI afirma violar a Primeira Emenda ao forçar alterações nas saídas do Grok para se alinharem com as perspetivas do Estado sobre diversidade e equidade. A ação também argumenta que o SB24-205 regula indevidamente atividades para além do Colorado e é demasiado vaga para ser aplicada de forma justa, favorecendo sistemas de IA que promovem a “diversidade”, ao mesmo tempo que penaliza os que não o fazem. “Ao exigir que os ‘programadores’ e os ‘operadores’ distingam entre discriminação que o Colorado desaprova e discriminação que o Colorado aprova, o SB24-205 obriga a Plainte xAI — um ‘programador’ ao abrigo da lei — a alterar o Grok, fazendo com que a saída do Grok, em certos assuntos selecionados pelo Estado, se conforme com uma perspetiva controversa e altamente politizada”, afirmou o processo. “Mas o Estado ‘não pode obrigar [xAI] a falar as suas próprias mensagens preferidas’.”

O desafio legal surge num contexto de um conflito crescente entre empresas de tecnologia e responsáveis governamentais sobre como a inteligência artificial deve ser regulada. Vários estados, incluindo o Colorado, Nova Iorque e a Califórnia, introduziram regras que abordam os riscos colocados pelas ferramentas de IA generativa. Ao mesmo tempo, a administração de Donald Trump avançou para estabelecer uma estrutura regulatória nacional para a IA. A ação judicial também chega enquanto aumenta a fiscalização sobre o chatbot Grok da xAI. Vários processos judiciais apresentados em 2026 acusam a empresa de permitir que o Grok gere imagens deepfake sem consentimento. Em março, uma queixa coletiva apresentada por três menores no Tennessee alegou que o Grok produziu imagens explícitas que os retratavam sem consentimento. A cidade de Baltimore também processou, alegando que o Grok gerou até 3 milhões de imagens sexualizadas num espaço de dias, incluindo milhares que retratavam menores. A xAI não respondeu imediatamente a um pedido de comentário da Decrypt.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Forefront Tech conclui o $100M IPO com preço, listagem na Nasdaq sob o código FTHAU

De acordo com a ChainCatcher, a empresa de aquisição de propósito específico Forefront Tech concluiu a precificação de uma IPO de US$ 100 milhões em 30 de abril e será listada na Nasdaq sob o ticker FTHAU. A empresa planeja usar os recursos para buscar oportunidades de fusões e aquisições em blockchain, fintech, inteligência artificial e

GateNews17m atrás

O código da Anthropic Claude cobrou demais um usuário em US$ 200,98 devido a um bug de cobrança, inicialmente negando o reembolso antes de compensar integralmente

De acordo com o monitoramento da Beating, um bug de faturamento no serviço Claude Code da Anthropic fez com que um assinante Max tivesse sido cobrado em excesso em US$ 200,98 por taxas de uso adicionais, apesar de usar apenas 13% do limite mensal. O bug foi acionado quando o histórico de commits de um repositório git de um usuário continha a letra maiúscula

GateNews46m atrás

DeepSeek Introduz o método de Primitivos Visuais para aprimorar o raciocínio multimodal em 30 de abril

De acordo com o relatório técnico da DeepSeek, em 30 de abril, a empresa apresentou o Visual Primitives, um método que incorpora unidades visuais básicas como pontos e caixas delimitadoras em cadeias de raciocínio para resolver o problema da Lacuna de Referência em tarefas multimodais. O método reduz o consumo de tokens de imagem

GateNews1h atrás

A NVIDIA lança os pesos do modelo flagship Cosmos-Reason2-32B e expande a janela de contexto para 256K tokens

Segundo Beating, a NVIDIA lançou os pesos do Cosmos-Reason2-32B, a versão principal da sua visão de raciocínio em IA física para linguagem visual (VLM, na sigla em inglês) — projetada para ajudar robôs e sistemas de condução autônoma a entenderem princípios espaciais, temporais e físicos. O modelo de 32 bilhões de parâmetros,

GateNews1h atrás

OpenAI revela por que o Codex não pode falar sobre “goblins”: a recompensa por personalidade “nerd” saiu do controle

A OpenAI, no blog oficial, explicou que o Codex não deve falar sobre goblins e outras criaturas, devido a uma preferência por sinais de recompensa em treinamento de personalidade de “nerds”, que usava metáforas com criaturas, causando contaminação entre personalidades e desorientação no RLHF. O episódio veio à tona depois que Barron Roth revelou uma instrução do sistema, e a OpenAI adotou duas estratégias: codificação rígida no curto prazo e eliminação de sinais de recompensa no longo prazo. O caso alerta sobre a fragilidade do design de recompensas, e que auditorias pós-treinamento precisam ser mais detalhadas.

ChainNewsAbmedia1h atrás

A Alibaba abre código do módulo de interpretabilidade Qwen-Scope do Qwen, cobrindo 7 modelos, em 30 de abril

De acordo com a PANews, em 30 de abril, a Qwen, da Alibaba, anunciou a disponibilização em open source do Qwen-Scope, um módulo de interpretabilidade treinado nos modelos das séries Qwen3 e Qwen3.5. O lançamento inclui 7 modelos de linguagem de grande porte em variantes densas e mixture-of-experts, com 14 conjuntos de sparse autoencoder

GateNews2h atrás
Comentário
0/400
Sem comentários