Zhipu Tangjie: Claude ya ha ejecutado entrenamiento autónomo, 2 millones de chips serán dedicados a la autoevolución

Según la monitorización de Beating, el fundador y científico jefe de Zhipu AI, Tang Jie, publicó en X una predicción de que la mayor innovación en modelos grandes este año será la resolución de tareas de largo plazo (Long-Horizon Tasks), es decir, la operación continua en entornos de agentes inteligentes para lograr objetivos complejos.

Él señaló que esta capacidad impulsará a la industria a evolucionar rápidamente de «empresa unipersonal» a «empresa sin empleados (NPC)», y que los sistemas de agentes inteligentes autónomos (AAS) se convertirán en la próxima frontera tecnológica. Tang Jie cree que para lograr esta visión se deben superar tres pilares tecnológicos principales: la capacidad de memoria resuelta mediante contexto ultra largo y RAG, el aprendizaje continuo logrado mediante la reducción del ciclo de actualización, y la capacidad de autoevaluación, actualmente la más difícil de superar pero que ya muestra un prototipo en Opus 4.7.

El fin último de los modelos grandes será la autoevolución. Tang Jie especula que Claude podría ya contar con una «línea base de autoentrenamiento» que pueda escribir código, limpiar datos y entrenar por sí mismo, y que la supuesta agrupación de 2 millones de chips del próximo año probablemente esté dedicada al entrenamiento autónomo. Predice que en el futuro los sistemas operativos serán reemplazados por sistemas operativos de modelos grandes (LLM OS), y que las aplicaciones se convertirán en «generación bajo demanda», revolucionando completamente la arquitectura de von Neumann tradicional.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado