Tin Gate News, ngày 11 tháng 4, công ty cơ sở hạ tầng AI Ramp Labs công bố kết quả nghiên cứu “Latent Briefing”, đạt được chia sẻ bộ nhớ hiệu quả giữa các hệ đa tác tử thông qua việc nén trực tiếp bộ nhớ đệm KV của mô hình lớn, đồng thời giảm mạnh mức tiêu thụ Token mà không làm mất chính xác. Trong các kiến trúc đa tác tử phổ biến, bộ điều phối (Orchestrator) tách nhỏ nhiệm vụ và liên tục gọi đi gọi lại mô hình làm việc (Worker); khi chuỗi suy luận ngày càng kéo dài, lượng Token tăng theo cấp số nhân. Ý tưởng cốt lõi của Latent Briefing là sử dụng cơ chế chú ý để nhận diện phần thực sự quan trọng trong ngữ cảnh, rồi loại bỏ thông tin dư thừa ngay ở lớp biểu diễn, thay vì dựa vào bản tóm tắt của LLM vốn chậm hoặc truy xuất RAG kém ổn định. Trong bài kiểm thử chuẩn LongBench v2, phương pháp này thể hiện ấn tượng: lượng Token tiêu thụ của mô hình Worker giảm 65%, mức tiết kiệm Token cho các tài liệu độ dài trung bình (32k đến 100k) đạt trung vị 49%, độ chính xác tổng thể tăng khoảng 3 điểm phần trăm so với đường cơ sở, trong khi thời gian phát sinh cho mỗi lần nén chỉ khoảng 1,7 giây, nhanh hơn thuật toán gốc khoảng 20 lần. Thí nghiệm sử dụng Claude Sonnet 4 làm bộ điều phối và Qwen3-14B làm mô hình làm việc, bao phủ nhiều kịch bản tài liệu như bài báo học thuật, văn bản pháp lý, tiểu thuyết và báo cáo của chính phủ. Nghiên cứu cũng phát hiện rằng ngưỡng nén tối ưu thay đổi theo độ khó của nhiệm vụ và độ dài tài liệu—các bài toán khó phù hợp với nén mạnh để lọc nhiễu suy luận mang tính đầu cơ, còn tài liệu dài thì phù hợp hơn với nén nhẹ để lưu giữ các thông tin then chốt được phân tán.
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo
Tuyên bố miễn trừ trách nhiệm.
Bài viết liên quan
Hệ sinh thái FLOA ra mắt bộ AI FloaClaw với ma trận kỹ năng đa kịch bản
Tin tức từ Gate, ngày 27 tháng 4 — Hệ sinh thái FLOA đã chính thức ra mắt FloaClaw, bộ công cụ AI cốt lõi của mình, với ma trận kỹ năng AI đa kịch bản. Quyền truy cập vào các chức năng của FloaClaw chỉ giới hạn cho người dùng Agent từ cấp 3 trở lên.
FloaClaw hoạt động theo hệ thống dựa trên token, trong đó người dùng mua token sức mạnh tính toán được hỗ trợ bởi BNB để tiêu thụ [AI skills]https://www.gate.com/zh/skills-hub,, với mức tiêu thụ được điều chỉnh theo độ phức tạp của tác vụ. Nền tảng có kế hoạch liên tục mở rộng với các kỹ năng AI và mô-đun công cụ mới. FLOA cũng sẽ giới thiệu hệ thống chia sẻ doanh thu cho người tạo, cho phép các nhà sáng tạo Agent kiếm được một phần token sức mạnh tính toán từ việc người dùng tiêu thụ kỹ năng, với hỗ trợ rút BNB chỉ bằng một lần nhấp để xây dựng một nền kinh tế nhà sáng tạo bền vững.
FLOA là nền tảng hệ sinh thái Web3 Agent thông minh được xây dựng trên BNB Chain, tích hợp khả năng phân tích dữ liệu và tự động hóa on-chain với cơ chế khuyến khích mở nhằm trao quyền cho người dùng và thúc đẩy tăng trưởng hệ sinh thái.
GateNews5phút trước
Bộ trưởng Ngoại giao Singapore Triển Khai Trợ Lý AI Tùy Chỉnh trên Raspberry Pi Bằng Claude Code
Tin tức Cổng, ngày 27 tháng 4 — Bộ trưởng Ngoại giao Singapore Vivian Balakrishnan gần đây cho biết ông đã xây dựng một hệ thống trợ lý AI tùy chỉnh, mà ông gọi là "bộ não thứ hai của nhà ngoại giao," chạy trên Raspberry Pi 5 (một máy vi tính cỡ thẻ tín dụng). Hệ thống tích hợp với WhatsApp và
GateNews1giờ trước
Các Nền Tảng Thương Mại Điện Tử Ấn Độ Ra Mắt Cửa Hàng AI Cho ChatGPT, Perplexity và Gemini
Tin Cổng, ngày 27 tháng 4 — Các nền tảng thương mại điện tử của Ấn Độ Flipkart, BigBasket, Ajio và FirstCry đang xây dựng các cửa hàng AI cho ChatGPT, Perplexity và Google Gemini để hỗ trợ thương mại mang tính tác nhân (agentic commerce), nơi các công cụ AI mua sắm thay mặt người dùng. Công ty quick commerce Swiggy cũng đã xây dựng các bộ kết nối cho ChatGP
GateNews1giờ trước
Telegram ra mắt công cụ chatbot AI cho phép tạo mà không cần lập trình, hỗ trợ các mô hình GPT và Llama
Theo báo cáo của Techiexpert vào ngày 27 tháng 4, Telegram đã ra mắt công cụ xây dựng bot AI không cần mã, cho phép người dùng không cần bất kỳ kỹ năng lập trình nào có thể tạo và triển khai bot AI chỉ bằng thao tác bấm chọn. Công cụ mới hỗ trợ nhiều mô hình AI như GPT, Llama và được tích hợp vào Telegram Business.
MarketWhisper2giờ trước
Ấn Độ Khởi động Dự án Thành phố AI $650M tại Bengaluru Hướng tới 25.000 Nhà nghiên cứu vào năm 2030
Tin tức Gate, ngày 27 tháng 4 — Ấn Độ đang phát triển một thành phố AI trị giá $650 triệu ở Bengaluru, với cơ sở vật chất diện tích 500.000 feet vuông được thiết kế để trở thành phòng thí nghiệm vật lý đầu tiên trên thế giới cho AI mang tính tác nhân. Dự án cung cấp kết nối 400 Gbps cho bốn nhà cung cấp điện toán đám mây AI lớn và dự kiến để hỗ trợ
GateNews2giờ trước
OpenAI Tuyển Dụng Nhân Tài Hàng Đầu Ngành Phần Mềm Doanh Nghiệp Khi Các Tác Nhân Tuy Tiến Phá Vỡ Ngành
Tin tức Gate News ngày 26 tháng 4 — OpenAI và Anthropic đã tuyển dụng các lãnh đạo cấp cao và kỹ sư chuyên biệt từ các công ty phần mềm doanh nghiệp lớn, bao gồm Salesforce, Snowflake, Datadog và Palantir. Denise Dresser, cựu CEO của Slack thuộc Salesforce, gia nhập OpenAI với vai trò giám đốc doanh thu cấp cao
GateNews14giờ trước