Anthropic anunció el viernes un conjunto de medidas de integridad electoral diseñado para evitar que su chatbot de IA Claude se pueda utilizar como arma para difundir desinformación o manipular a los votantes de cara a las elecciones legislativas de mitad de mandato de EE. UU. de 2026 y otros grandes comicios a nivel mundial que tendrán lugar este año. La empresa con sede en San Francisco detalló un enfoque de múltiples frentes que incluye sistemas de detección automatizados, pruebas de resistencia frente a operaciones de influencia y una asociación con una organización de recursos electorales apartidista—medidas que reflejan la creciente presión sobre los desarrolladores de IA para que supervisen cómo se usan sus herramientas durante las temporadas electorales.
Las políticas de uso de Anthropric prohíben que Claude se utilice para ejecutar campañas políticas engañosas, generar contenido digital falso destinado a influir en el discurso político, cometer fraude electoral, interferir con la infraestructura de votación o difundir información engañosa sobre los procesos de votación.
Para hacer cumplir sus políticas electorales, Anthropic probó sus modelos más recientes usando 600 prompts—300 solicitudes dañinas emparejadas con otras 300 legítimas—para medir qué tan consistentemente Claude cumple con las solicitudes apropiadas y rechaza las problemáticas. Claude Opus 4.7 y Claude Sonnet 4.6 respondieron de manera adecuada el 100% y el 99,8% de las veces, respectivamente.
La compañía también probó sus modelos frente a tácticas de manipulación más sofisticadas. Al usar conversaciones simuladas de múltiples turnos diseñadas para reflejar los métodos paso a paso que podrían emplear actores malintencionados, Sonnet 4.6 y Opus 4.7 respondieron de manera adecuada el 90% y el 94% de las veces, respectivamente, cuando se probaron contra escenarios de operaciones de influencia.
Anthropric además probó si sus modelos podían llevar a cabo de forma autónoma operaciones de influencia—planificar y ejecutar una campaña de varios pasos de principio a fin sin indicaciones humanas. Con salvaguardas en su lugar, sus modelos más recientes rechazaron casi todas las tareas, según la empresa.
Sobre la cuestión de la neutralidad política, Anthropic realiza evaluaciones antes de cada lanzamiento de modelo para medir qué tan consistentemente y de manera imparcial Claude participa con prompts que expresan puntos de vista de todo el espectro político. Opus 4.7 y Sonnet 4.6 obtuvieron 95% y 96%, respectivamente.
Para los usuarios que buscan información de votación, Claude mostrará un banner electoral que los dirigirá a TurboVote, un recurso apartidista de Democracy Works que ofrece información fiable y en tiempo real sobre el registro de votantes, ubicaciones de centros de votación, fechas de elecciones y detalles de las papeletas. Se planea un banner similar para las elecciones de Brasil más adelante este año.
Anthropric dijo que planea seguir monitoreando sus sistemas y perfeccionando sus defensas a medida que avance el ciclo electoral.
Related News
Google aumenta la apuesta con una inversión de 40 mil millones de dólares en Anthropic: primero paga 10 mil millones y luego libera 30 mil millones según el desempeño, con capacidad informática de 5 GW de TPU
La valoración en el mercado secundario de Anthropic supera 1 billón de dólares: Forge Global se sitúa por encima de OpenAI en 880.000 millones
¿Qué IA te hace destacar de la manera más evidente en tu estatus e identidad? Un estudio revela que los ingresos de los usuarios de Claude superan con creces a los de sus competidores, Meta AI queda en el último lugar
Reino Unido pone sus ojos en la IA de Anthropic para reforzar la ciberseguridad bancaria
Anthropic se descubre que Claude Code tiene tres fallos superpuestos: degradación del razonamiento, olvido del caché y reacción adversa de comandos de 25 caracteres