Elon Musk vào ngày 15 tháng 5 đã công bố trên X rằng thuật toán X phiên bản mới nhất đã được phát hành lên GitHub. Theo repository xai-org/x-algorithm mà xAI công khai trên GitHub, trọng tâm của lần phát hành này là hệ thống đề xuất cốt lõi điều khiển dòng “For You” trên nền tảng X. Hệ thống kết hợp nội dung trong nền tảng từ các tài khoản mà người dùng đã theo dõi, cùng với nội dung ngoài trang được khai thác từ kho nội dung toàn cầu bằng học máy; sau đó được sắp xếp bởi mô hình transformer dựa trên kiến trúc Grok.
Dự án sử dụng giấy phép Apache 2.0, chủ yếu được viết bằng Rust và Python; tính đến thời điểm tra cứu, GitHub hiển thị khoảng 21 nghìn stars và 3.800 forks.
Kiến trúc đề xuất For You: Thunder tìm nội dung đã theo dõi, Phoenix khai thác nội dung ngoài trang
Theo tài liệu mô tả trong repository, dòng For You của X chủ yếu gồm hai nguồn ứng viên nội dung.
Thứ nhất là nội dung trong nền tảng, do mô-đun Thunder phụ trách. Thunder là một vùng lưu trữ bài viết nội bộ trong bộ nhớ và đường ống thu thập dữ liệu theo thời gian thực: nó tiêu thụ bài viết từ Kafka để tạo và xóa sự kiện, theo dõi các bài viết gần đây của mọi người dùng, và cung cấp cho bên yêu cầu các ứng viên nội dung từ các tài khoản họ theo dõi. Tài liệu nhấn mạnh rằng Thunder có thể cung cấp các ứng viên nội dung trong nền tảng với truy vấn ở mức mili giây (sub-millisecond) mà không cần truy vấn cơ sở dữ liệu bên ngoài.
Thứ hai là nội dung ngoài trang, do Phoenix Retrieval chịu trách nhiệm. Phoenix sẽ tìm từ kho nội dung toàn cầu các bài viết mà người dùng có thể quan tâm nhưng không đến từ các tài khoản họ theo dõi. Giai đoạn truy hồi của nó sử dụng mô hình hai tháp (Two-Tower Model): User Tower mã hóa đặc trưng người dùng và lịch sử tương tác thành vector, Candidate Tower mã hóa ứng viên bài viết thành vector, sau đó tìm ra nội dung liên quan nhất thông qua độ tương đồng tích chập điểm (dot product).
Các ứng viên nội dung này sẽ đi vào Home Mixer, tức lớp điều phối của dòng For You. Home Mixer sẽ chịu trách nhiệm truy vấn ngữ cảnh người dùng, lấy ứng viên nội dung, bổ sung thông tin bài viết và tác giả, lọc nội dung không đạt chuẩn, gọi mô hình sắp xếp, áp dụng điều chỉnh điểm số, và cuối cùng chọn ra các bài viết sẽ hiển thị trên trang For You của người dùng. Tài liệu cũng cho biết Home Mixer cung cấp ra bên ngoài một endpoint gRPC có tên ScoredPostsService để trả về các bài viết đã được sắp xếp cho một người dùng cụ thể.
Kiến trúc Grok trở thành lõi của hệ thống đề xuất
Điểm được chú ý nhất lần này là hệ thống đề xuất của X đã đưa Grok vào một cách rõ ràng.
GitHub README chỉ ra rằng nội dung của For You feed sẽ được Phoenix sắp xếp; Phoenix là mô hình transformer dựa trên Grok, sẽ dự đoán xác suất xảy ra tương tác mà mỗi bài viết có thể tạo ra, rồi cuối cùng sẽ tổ hợp có trọng số các dự đoán này để tạo điểm số cuối cùng. Tài liệu cũng ghi rõ rằng phần hiện thực transformer trong repository này là bản di chuyển từ Grok-1 mã nguồn mở của xAI và được điều chỉnh cho bối cảnh sử dụng trong hệ thống đề xuất, ví dụ như thêm input embedding tùy chỉnh và attention mask dùng để cô lập ứng viên.
Nhưng điều này không có nghĩa là X công khai toàn bộ mô hình dùng trong môi trường sản xuất. Phoenix README viết rõ rằng lần phát hành này là mini version; môi trường production sử dụng một mô hình lớn hơn với nhiều lớp hơn và embeddings rộng hơn; đồng thời checkpoint công khai là một snapshot tại một thời điểm được đóng băng từ quy trình huấn luyện liên tục, trong khi Phoenix ở production sẽ tiếp tục được huấn luyện theo dữ liệu thời gian thực.
Cập nhật ngày 15 tháng 5: suy luận end-to-end có thể chạy, mô hình Phoenix mini, hệ thống trộn quảng cáo
Theo phần cập nhật trên GitHub, phiên bản ngày 15 tháng 5 bổ sung nhiều thành phần then chốt.
Đầu tiên là quy trình suy luận end-to-end. phoenix/run_pipeline.py mới thay thế run_ranker.py và run_retrieval.py trước đó vốn tách rời: nó có thể dùng một đầu vào duy nhất để nối chuỗi quy trình “truy hồi → sắp xếp”, và chạy bằng exported checkpoints, mô phỏng cách ghép hai giai đoạn trong môi trường sản xuất.
Thứ hai là artifact mô hình đã huấn luyện trước. Mini Phoenix model lần này được phát hành qua Git LFS; tài liệu cho biết mô hình này gồm 256 chiều embeddings, 4 attention heads, 2 lớp transformer, khoảng 3GB, cho phép nhà phát triển không cần tự huấn luyện mô hình vẫn có thể chạy out-of-the-box inference. Phoenix README cũng nói thêm rằng demo corpus công khai là một tập dữ liệu bài viết về chủ đề thể thao với khoảng 537 nghìn bài lấy từ một cửa sổ thời gian 6 giờ, dùng để minh họa giai đoạn retrieval.
Ngoài ra, repository cũng bổ sung Grox content-understanding pipeline cho các tác vụ hiểu nội dung như spam detection, post-category classification, PTOS policy enforcement. Đồng thời bổ sung hệ thống trộn quảng cáo của Home Mixer: chịu trách nhiệm chèn quảng cáo và sắp xếp vị trí trong dòng thông tin, đồng thời tích hợp theo dõi brand safety.
Mô hình sắp xếp dự đoán cùng lúc 15 loại hành vi tương tác, không chỉ là một điểm “liên quan” đơn lẻ
Mô hình sắp xếp của Phoenix không chỉ xuất ra một điểm trừu tượng về “liên quan” mà thay vào đó dự đoán đồng thời xác suất xảy ra nhiều hành vi tương tác khác nhau.
Theo tài liệu, mô hình sẽ dự đoán các hành vi gồm favorite, reply, repost, quote, click, profile click, video view, photo expand, share, dwell, follow author, cùng với 14 hành vi not interested, block author, mute author, report… tổng cộng 15 loại hành vi.
Tiếp đó, Weighted Scorer sẽ kết hợp các xác suất tương tác này theo trọng số để tạo điểm số cuối cùng: các hành vi tích cực như bấm thích, chuyển tiếp, chia sẻ nhận trọng số dương; các hành vi tiêu cực như chặn, tắt tiếng, báo cáo nhận trọng số âm, qua đó đẩy xuống nội dung người dùng có thể không thích.
Sau khi có điểm số mô hình, hệ thống còn áp dụng thêm các điều chỉnh khác. Ví dụ Author Diversity Scorer sẽ hạ điểm của các tác giả lặp lại để duy trì tính đa dạng của dòng thông tin; OON Scorer sẽ điều chỉnh điểm của nội dung out-of-network, tức là nội dung không đến từ các tài khoản được theo dõi.
Điều này cho thấy “For You” của X không đơn thuần đẩy lên các bài viết có khả năng được bấm thích cao nhất, mà là tách dự đoán nhiều hành vi tương tác ra, rồi thông qua thiết kế trọng số để hình thành thứ hạng cuối cùng. Điều này cũng có nghĩa là phán đoán giá trị thực sự của thuật toán không chỉ nằm trong bản thân mô hình, mà còn nằm ở các trọng số tương tác và các quy tắc hậu xử lý khác nhau.
Cô lập ứng viên: điểm bài viết không nên bị ảnh hưởng bởi các bài viết khác cùng batch
Điểm đáng chú ý đặc biệt trong tài liệu lần này là “Candidate Isolation” (cô lập ứng viên).
Phoenix README chỉ ra rằng trong giai đoạn ranking, các bài viết ứng viên không được phép attend lẫn nhau; chúng chỉ có thể chú ý tới người dùng và lịch sử của họ. Thiết kế này nhằm đảm bảo điểm của từng bài viết không bị thay đổi do việc nó được đưa vào batch cùng với những bài viết nào khác. Nói cách khác, điểm của một bài viết phải phụ thuộc vào mối quan hệ giữa bài viết đó với người dùng, chứ không phải vào việc trong cùng một batch có những bài viết “đối thủ” nào đang cạnh tranh.
Điều này cũng có ý nghĩa tiềm năng với người sáng tạo. Trước đây, nhiều thao tác trong cộng đồng thường suy đoán rằng thời điểm đăng bài có nên tránh các sự kiện hot hoặc các bài viết có tương tác cao hay không, để tránh bị nội dung mạnh ép xuống trong pool gợi ý. Nhưng nếu Candidate Isolation đúng như tài liệu mô tả, thì ít nhất ở lớp suy luận mô hình, điểm của một bài viết sẽ không bị thay đổi trực tiếp chỉ vì các bài viết mạnh khác xuất hiện cùng batch.
Tuy nhiên, điều này không đồng nghĩa với việc thời điểm đăng bài hoàn toàn không quan trọng. Vì ở phần truy hồi ứng viên trước đó, độ tươi mới của bài viết, khung giờ người dùng đang online, bộ lọc nội dung đã xem, sự cạnh tranh chú ý quanh các sự kiện nóng… vẫn có thể ảnh hưởng tới mức hiển thị cuối cùng.
Câu chuyện “không có đặc trưng thủ công” vẫn gây tranh cãi: ngoài việc sắp xếp bằng mô hình, vẫn tồn tại quy tắc thủ công
Trong tài liệu, xAI tuyên bố hệ thống đã loại bỏ tất cả các đặc trưng thiết kế thủ công và phần lớn quy tắc heuristic, chủ yếu dựa vào Grok-based transformer học mối liên quan từ chuỗi tương tác người dùng. Tài liệu cũng liệt kê năm hạng mục thiết kế cốt lõi, bao gồm không có đặc trưng thủ công, cô lập ứng viên trong giai đoạn sắp xếp, hashed embeddings, dự đoán đa hành vi, và kiến trúc pipeline có thể ghép nối.
Nhưng nhận định này cần được diễn giải chính xác hơn. Ngay trong cùng một tài liệu cũng cho thấy trước khi For You feed đi vào giai đoạn sắp xếp, nó sẽ trải qua nhiều pre-scoring filters, chẳng hạn như loại bỏ bài viết trùng lặp, bài viết quá cũ, bài viết của chính người dùng, tài khoản bị chặn hoặc bị tắt tiếng, từ khóa bị tắt tiếng, nội dung đã xem hoặc vừa xuất hiện gần đây, và nội dung đăng ký không đủ điều kiện. Sau khi sắp xếp xong, còn có các post-selection filters như xóa, spam, nội dung bạo lực đẫm máu, và các nhánh loại bỏ nội dung hội thoại trùng lặp.
Vì vậy, cách nói chính xác hơn nên là: X tuyên bố “candidate ranking” dựa trên mức độ liên quan nội dung chủ yếu được học từ Grok-based transformer, không còn phụ thuộc các đặc trưng nội dung thủ công truyền thống; nhưng toàn bộ hệ thống For You feed vẫn có rất nhiều quy tắc sản phẩm, bộ lọc, cơ chế trọng số và hậu xử lý. Các quy tắc này cũng định hình nội dung mà người dùng cuối cùng sẽ nhìn thấy.
Hướng dẫn thực chiến: Cách tận dụng thuật toán X để vận hành tài khoản
Trong thực tế, nếu người sáng tạo muốn “đi theo thuật toán” để vận hành tài khoản X, trọng tâm không còn chỉ là cố đạt lượt thích hay chia sẻ, mà là hiểu rằng hệ thống For You sẽ đánh giá đồng thời nhiều tín hiệu tương tác. Tín hiệu tích cực gồm thời gian dừng (dwell time), lượt bấm, lượt trả lời, chuyển tiếp, theo dõi tác giả, xem video và mở ảnh; tín hiệu tiêu cực gồm không quan tâm, tắt tiếng, chặn và báo cáo.
Điều này có nghĩa là nội dung không thể chỉ dựa vào tiêu đề giật gân để câu lượt click, vì nếu người dùng vừa bấm vào xong đã lướt nhanh, bấm “không quan tâm”, thậm chí chặn tác giả, thì ngược lại có thể kéo tụt hiệu quả đề xuất về sau.
Với người quản lý tài khoản, chiến lược hiệu quả hơn là nâng cao “chất lượng tương tác”: phần mở đầu cần thu hút sự chú ý trong vài giây đầu; phần nội dung phải đủ hấp dẫn để khiến người đọc ở lại và xem; phần kết có thể thiết kế để người đọc tự nhiên trả lời hoặc chia sẻ quan điểm, thay vì ép buộc tương tác. Đồng thời, do hệ thống có điều chỉnh đa dạng tác giả, việc đăng dày đặc trong thời gian ngắn chưa chắc tuyến tính làm tăng hiển thị; thậm chí có thể bị hạ quyền do cùng tác giả gây loãng. Cách hợp lý hơn là kiểm soát nhịp độ đăng bài, đảm bảo mỗi nội dung có chủ đề rõ ràng, mật độ thông tin đủ và quan điểm có thể được chuyển tiếp.
Cuối cùng, gợi ý nội dung ngoài trang đồng nghĩa với việc tài khoản không nhất thiết chỉ dựa vào lượng fan sẵn có: miễn là nội dung khiến người xem xa lạ dừng lại, bấm vào và có hành vi theo dõi, thì vẫn có cơ hội được đẩy vào pool lưu lượng For You lớn hơn; nhưng điều kiện là tránh nội dung dạng trang trại chất lượng thấp, nội dung trùng lặp và thao tác quá gây tranh cãi, vì một khi các hành vi này kích hoạt tắt tiếng, chặn hoặc báo cáo, mức “phạt” mà thuật toán áp thường nặng hơn nhiều so với lợi ích lưu lượng ngắn hạn.
Bài viết này X công khai mã nguồn gợi ý “For You” và hướng dẫn thực chiến cách vận hành tài khoản Twitter bằng cách tận dụng thuật toán; bài viết lần đầu xuất hiện trên 鏈新聞 ABMedia.
Related News
SpaceX có triển vọng được niêm yết vào ngày 12/6, nhằm được đưa vào chỉ số Nasdaq 100
Codex gia nhập ứng dụng di động ChatGPT, có thể điều khiển từ xa các tác vụ phát triển trên Mac
Pi Network PiScan quay trở lại, nâng cấp KYC AI rút ngắn hàng chờ thủ công 50%
Sam Altman công bố: OpenAI Codex tặng doanh nghiệp “miễn phí” sử dụng trong 2 tháng
Google dự kiến hợp tác với SpaceX, “Dự án bắt gặt sao” nhắm mục tiêu triển khai điện toán AI cho không gian