Zi biến Unveils WALL-B Embodied AI Model; Robots to Enter Real Homes in 35 Days

Tin tức Gate, ngày 21 tháng 4 — Zibianliang (tự biến), một công ty robot Trung Quốc, đã tổ chức họp báo vào ngày 21 tháng 4 để giới thiệu mô hình nền tảng AI nhập vai thể hệ tiếp theo, WALL-B. Công ty cho biết các robot được cung cấp bởi WALL-B sẽ bước vào các hộ gia đình thực sự trong 35 ngày.

Theo người đồng sáng lập và CTO của Zibianliang, Wang Hao, WALL-B được xây dựng dựa trên kiến trúc World Unified Model (WUM), được thiết kế để loại bỏ mất mát dữ liệu giữa các mô-đun riêng biệt. Không giống các mô hình tầm nhìn-ngôn ngữ-hành động truyền thống (VLA), nơi các mô-đun thị giác, ngôn ngữ và chuyển động vận hành độc lập — gây ra mất mát thông tin trong mỗi lần truyền dữ liệu — WALL-B tích hợp các năng lực thị giác, ngôn ngữ, hành động và dự đoán vật lý vào một mạng thống nhất duy nhất, được huấn luyện đồng thời từ đầu. Wang nhấn mạnh rằng mô hình thế giới không phải là các mô-đun cắm thêm riêng rẽ, mà là năng lực dự đoán cho các trạng thái tương lai của thế giới vật lý.

Nhận định trọng tâm của công ty xoay quanh chất lượng dữ liệu: Wang Hao phân biệt giữa “dữ liệu nước đường” (dữ liệu phòng thí nghiệm sạch, ổn định, có thể dự đoán) và “dữ liệu sữa” (dữ liệu đời thực ở hộ gia đình lộn xộn, không thể kiểm soát). Trong khi huấn luyện trên dữ liệu phòng thí nghiệm tạo ra các mô hình thiếu khả năng tổng quát hóa zero-shot, dữ liệu hộ gia đình thực — dù tốn kém và mất thời gian để thu thập — lại cho phép tổng quát hóa thực sự. Vì mục tiêu này, Zibianliang đã tham gia huấn luyện WALL-B trên hơn 100 hộ gia đình tình nguyện.

CEO Wang Qian cho biết robot có thể thực hiện mọi tác vụ khả thi về mặt vật lý khi được triển khai trong nhà, không cần cân nhắc trước về các giới hạn. Ông nhấn mạnh rằng lợi thế cạnh tranh không đến từ thuật toán hay phần cứng, mà từ hệ sinh thái kỹ thuật hoàn chỉnh — định nghĩa dữ liệu, thu thập, xử lý và đánh giá huấn luyện. Trong lĩnh vực robot, những “cửa sổ” dẫn dắt công nghệ như vậy có thể kéo dài ba năm hoặc hơn. Đáng chú ý, Zibianliang mới đây đã hoàn tất vòng gọi vốn Series B do nhánh đầu tư mạo hiểm của Xiaomi dẫn dắt, nâng số nhà đầu tư mà công ty công bố lên bốn công ty internet lớn tại Trung Quốc (ByteDance, Meituan, Alibaba, và Xiaomi).

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

xAI Grok Voice tiếp quản đường dây nóng chăm sóc khách hàng của Starlink, 70% cuộc gọi được tự động kết án

Theo thông báo chính thức của xAI được phát hành vào ngày 23 tháng 4, xAI đã giới thiệu tác nhân AI giọng nói Grok Voice Think Fast 1.0 và đã được triển khai trên đường dây nóng dịch vụ khách hàng Starlink +1 (888) GO STARLINK. Theo dữ liệu thử nghiệm được công bố trong thông báo, 70% các cuộc gọi được AI tự động xử lý chấm dứt, không cần sự can thiệp của con người.

MarketWhisper9phút trước

GPT-5.5 Trở Lại Tuyến Đầu Trong Lập Trình, Nhưng OpenAI Đổi Benchmark Sau Khi Thua Opus 4.7

Tin tức cổng, ngày 27 tháng 4 — SemiAnalysis, một công ty phân tích chất bán dẫn và AI, đã phát hành một bảng benchmark so sánh các trợ lý lập trình bao gồm GPT-5.5, Claude Opus 4.7 và DeepSeek V4. Phát hiện then chốt: GPT-5.5 đánh dấu lần đầu tiên OpenAI quay trở lại tuyến đầu trong các mô hình lập trình trong vòng sáu tháng, với các kỹ sư của SemiAnalysis hiện đang luân phiên giữa Codex và Claude Code sau trước đó gần như chỉ dựa vào Claude. GPT-5.5 dựa trên một cách tiếp cận huấn luyện trước mới được mã danh "Spud" và thể hiện lần mở rộng quy mô huấn luyện trước đầu tiên của OpenAI kể từ GPT-4.5. Trong thử nghiệm thực tế, một sự phân công rõ ràng đã xuất hiện. Claude đảm nhiệm lập kế hoạch dự án mới và thiết lập ban đầu, trong khi Codex tỏ ra xuất sắc trong việc sửa các lỗi đòi hỏi nhiều suy luận. Codex thể hiện khả năng hiểu cấu trúc dữ liệu tốt hơn và lý luận logic mạnh hơn nhưng gặp khó khăn trong việc suy ra ý định người dùng mơ hồ. Trong một tác vụ trên cùng một bảng điều khiển, Claude tự động tái tạo bố cục trang tham chiếu nhưng bịa ra một lượng lớn dữ liệu, trong khi Codex bỏ qua bố cục nhưng lại cung cấp lượng dữ liệu chính xác hơn đáng kể. Bài phân tích tiết lộ chi tiết thao túng benchmark: Bài đăng blog của OpenAI hồi tháng 2 đã kêu gọi ngành áp dụng SWE-bench Pro làm tiêu chuẩn mới cho các benchmark lập trình. Tuy nhiên, thông báo của GPT-5.5 đã chuyển sang một benchmark mới có tên "Expert-SWE." Lý do, được chôn trong các chi tiết nhỏ, là GPT-5.5 đã bị Opus 4.7 vượt qua trên SWE-bench Pro và thua kém đáng kể so với Mythos 77.8% chưa được phát hành của Anthropic. Về Opus 4.7, Anthropic đã công bố một bài phân tích hậu kiểm một tuần sau khi phát hành, thừa nhận ba lỗi trong Claude Code đã tồn tại trong nhiều tuần từ tháng 3 đến tháng 4, ảnh hưởng đến gần như tất cả người dùng. Trước đó, nhiều kỹ sư đã báo cáo sự suy giảm hiệu năng ở phiên bản 4.6 nhưng bị bác bỏ như những quan sát chủ quan. Ngoài ra, bộ mã thông báo (tokenizer) mới của Opus 4.7 làm tăng số lượng token lên đến 35%, điều mà Anthropic đã công khai thừa nhận—thực chất tương đương với một đợt tăng giá ẩn. DeepSeek V4 được đánh giá là "theo kịp với tuyến đầu nhưng không dẫn đầu," định vị mình là lựa chọn thay thế có chi phí thấp nhất trong số các mô hình nguồn đóng. Bài phân tích cũng ghi nhận rằng "Claude tiếp tục vượt trội DeepSeek V4 Pro trên các tác vụ viết tiếng Trung có độ khó cao," và bình luận rằng "Claude đã thắng mô hình Trung Quốc ngay trên chính ngôn ngữ của nó." Bài viết đưa ra một khái niệm quan trọng: nên đánh giá giá mô hình theo "chi phí cho mỗi tác vụ" thay vì "chi phí cho mỗi token." Giá của GPT-5.5 gấp đôi so với GPT-5.4 input $5, output per million tokens, nhưng nó hoàn thành các tác vụ tương tự bằng ít token hơn, vì vậy chi phí thực tế không nhất thiết cao hơn. Dữ liệu ban đầu của SemiAnalysis cho thấy tỉ lệ đầu vào/đầu ra của Codex là 80:1, thấp hơn tỉ lệ 100:1 của Claude Code.

GateNews13phút trước

Giám đốc điều hành Google DeepMind: Mọi công ty sản phẩm AI đều nên xây dựng các bộ chuẩn tùy chỉnh

Tin tức Gate ngày 27 tháng 4 — Logan Kilpatrick, quản lý sản phẩm cấp cao tại Google DeepMind và là người phụ trách sản phẩm của Google AI Studio, cho biết trên X rằng mọi công ty đang xây dựng các sản phẩm dựa trên AI đều nên thiết lập các bộ chuẩn tùy chỉnh của riêng mình để đo hiệu suất của mô hình AI. Ông mô tả đây là một cách để

GateNews1giờ trước

MediaTek giành được đơn hàng lớn TPU thế hệ thứ 8 của Google! ASIC thúc đẩy nhóm cổ phiếu liên quan trong 3 mã được hưởng lợi

MediaTek đã tham gia vào chuỗi cung ứng chip huấn luyện TPU thế hệ thứ 8 của Google, phụ trách thiết kế I/O Die, và sử dụng công nghệ N3P của TSMC cùng đóng gói CoWoS-S, cho thấy hãng đã nâng mình lên trình độ thiết kế AI ASIC cao cấp. Dự kiến doanh thu ASIC trong năm nay sẽ vượt 1 tỷ USD, số lượng TPU xuất xưởng đến năm 2027 có khả năng đạt hàng chục triệu chiếc; chuỗi cung ứng Đài Loan như King Yuan Electronics, iST, Hon Hai… cũng sẽ được hưởng lợi, thị trường dần chuyển sang hợp tác phân công và tương lai của chiplet, tích hợp dị chất.

ChainNewsAbmedia1giờ trước

RE:AI của Singtel hợp tác với Mistral AI để phát triển hạ tầng AI tại Singapore

Tin tức từ cổng, ngày 27 tháng 4 — Tập đoàn Singtel đã công bố rằng RE:AI, đơn vị hạ tầng kỹ thuật số tại Singapore của họ, đã hợp tác với Mistral AI để hỗ trợ năng lực AI cho các ngành tại Singapore. Quan hệ đối tác này sẽ tập trung vào việc đồng phát triển hạ tầng AI và giải pháp cho ngành dịch vụ tài chính

GateNews2giờ trước

He Yi's YZi Labs Đầu Tư vào Công Ty Mô Hình Ngôn Ngữ Lớn AI của Trung Quốc

Tin tức từ Gate, ngày 27 tháng 4 — He Yi, cùng với văn phòng gia đình của Changpeng Zhao là YZi Labs, đã đầu tư vào một công ty mô hình ngôn ngữ lớn trí tuệ nhân tạo của Trung Quốc, cô tiết lộ trong một buổi gặp riêng dành cho KOL tại Carnival Web3 Hồng Kông. Tên cụ thể của công ty được đầu tư không được tiết lộ.

GateNews2giờ trước
Bình luận
0/400
Không có bình luận