Google impulsa exámenes de contratación que permiten a los ingenieros usar herramientas de IA

Según The Chosun Daily, Google está pilotando exámenes de contratación que permiten a los candidatos a ingeniero de software en EE. UU. usar herramientas de IA en puestos seleccionados de nivel inicial y medio. La prueba incluye tareas de comprensión de código en las que los solicitantes revisan código existente, corrigen errores y mejoran el rendimiento. Los entrevistadores evaluarán cómo los candidatos redactan instrucciones para la IA, verifican su salida, editan los resultados y depuran el código, en lugar de evaluar solo su capacidad para escribir código desde cero.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

OpenAI descontinúa la API de ajuste fino con efecto inmediato; los usuarios existentes pueden acceder hasta el 6 de enero de 2027

Según el anuncio oficial de OpenAI monitoreado por Beating, la empresa está descontinuando su API de ajuste fino self-serve para desarrolladores con efecto inmediato. Los nuevos usuarios ya no pueden crear tareas de ajuste fino, mientras que los usuarios activos existentes pueden acceder al servicio hasta el 6 de enero de 2027. Los modelos ajustados finamente desplegados tendrán sus servicios de inferencia vinculados al ciclo de vida de sus modelos base, y se suspenderán cuando el modelo base se

GateNewshace1h

Sakana AI y Nvidia logran una inferencia 30% más rápida en H100 al omitir el 80% de los cálculos inválidos

Sakana AI y Nvidia han publicado TwELL como open-source, un formato de datos dispersos que permite a las GPU H100 omitir el 80% de los cálculos inválidos en modelos de lenguaje grandes sin perder precisión. La solución ofrece hasta un 30% más de velocidad en la inferencia y un 24% más rápida en el entrenamiento en H100, a la vez que reduce el uso máximo de memoria. En pruebas con un modelo de 1,5 mil millones de parámetros, el enfoque redujo las neuronas activas a menos del 2% mediante una regul

GateNewshace2h

Microsoft lanza código abierto el modelo Phi-Ground 4B y supera a OpenAI Operator y a Claude en precisión al hacer clic en pantalla

Beating informó que Microsoft recientemente publicó como código abierto la familia de modelos Phi-Ground, diseñada para resolver el problema de dónde debe hacer clic la IA en una pantalla de computadora. La versión de 4 mil millones de parámetros, combinada con modelos lingüísticos más grandes para la planificación de instrucciones, superó la precisión de clic de OpenAI Operator y Claude Computer Use en el benchmark Showdown y quedó en el primer lugar entre todos los modelos de menos de 100 mil

GateNewshace3h

Tilde Research descubre que el optimizador Muon mata el 25% de las neuronas; la alternativa Aurora logra una ganancia de eficiencia de datos 100x

Según Tilde Research, el optimizador Muon adoptado por modelos de IA líderes, incluido DeepSeek V4 y Kimi K2.5, tiene una falla oculta: hace que más del 25% de las neuronas de la capa MLP mueran de forma permanente durante el entrenamiento inicial. El equipo diseñó Aurora, un optimizador alternativo, y lo publicó como código abierto. Un modelo de 1,1B parámetros entrenado con solo 100B tokens igualó el rendimiento de Qwen3-1.7B entrenado con 36T tokens en benchmarks de comprensión del lenguaje c

GateNewshace3h

Nvidia se compromete con más de 40 mil millones de dólares en inversiones de IA a principios de 2026, incluyendo 30 mil millones de dólares para OpenAI

Según TechCrunch, Nvidia comprometió más de 40 mil millones de dólares en inversiones de capital en empresas de IA en los primeros meses de 2026, con una inversión de 30 mil millones de dólares en OpenAI como el mayor compromiso individual. El fabricante de chips también prometió hasta 3,2 mil millones de dólares a la fabricante de vidrio Corning y hasta 2,1 mil millones de dólares al operador de centros de datos IREN, lo que incluye una warrant de cinco años y un contrato separado de 3,4 mil mi

GateNewshace7h

NVIDIA abre su socio de IA a largo plazo Deepinfra obtiene una ronda B de 107 millones de dólares para crear una «fábrica de tokens»

La startup de IA DeepInfra anunció la finalización de una ronda B de 107 millones de dólares, liderada por 500 Global y por Georges Harik, un ingeniero de Google en etapa temprana, con la participación de inversores estratégicos como NVIDIA (NVIDIA), Samsung Next y Supermicro. Según el comunicado oficial, la inyección se utilizará para ampliar la capacidad de centros de datos globales, para abordar los costos computacionales y los cuellos de botella de eficiencia a los que se enfrenta la IA cuan

ChainNewsAbmediahace7h
Comentar
0/400
Sin comentarios