Blockify cải viết RAG cho doanh nghiệp: dùng IdeaBlock thay cho Chunking, nén 40 lần, giảm token 3 lần

Công cụ AI tối ưu dữ liệu doanh nghiệp Blockify do akshay_pachaar tổng hợp và quảng bá vào ngày 9/5, tuyên bố rằng trong quy trình RAG (Retrieval-Augmented Generation) có thể nén cơ sở dữ liệu doanh nghiệp gấp 40 lần, giảm 3 lần lượng token khi truy vấn, và tăng độ chính xác tìm kiếm vector lên 2,3 lần. Phần mô tả chính thức trên GitHub của Blockify cho biết: sản phẩm được Iternal Technologies phát triển, dùng cấu trúc các đơn vị kiến thức “IdeaBlock” để thay cho chunking truyền thống, đồng thời duy trì cơ sở kiến thức gọn gàng, liền mạch, dễ quản trị nhờ cơ chế loại trùng và hợp nhất chồng lấn.

Khái niệm cốt lõi: dùng IdeaBlock thay thế chunking truyền thống

Thiết kế kỹ thuật của Blockify:

Cách làm truyền thống: cắt tài liệu dài thành các chunk có kích thước cố định, nhúng vector, và khi truy xuất lấy top-k

Cách làm của Blockify: chuyển đổi nội dung gốc thành IdeaBlock — các đơn vị kiến thức được cấu trúc theo định dạng XML

Mỗi IdeaBlock chứa: câu hỏi kèm theo, câu trả lời đáng tin cậy, tag, thực thể, từ khóa

Các IdeaBlock tương tự sẽ tự động loại trùng và hợp nhất, khiến cơ sở kiến thức không phình to theo mức tăng nội dung

Vấn đề của chunking truyền thống là cùng một thông tin có thể xuất hiện lặp lại ở nhiều chunk, gây dư thừa khi truy xuất và lãng phí token; IdeaBlock nhờ loại trùng giúp tăng mật độ thông tin, đồng thời biểu đạt nội dung tương tự bằng dung lượng lưu trữ nhỏ hơn.

Lợi ích cụ thể: nén 40 lần, giảm token 3 lần, độ chính xác tăng 2,3 lần

Các chỉ số lợi ích cụ thể mà Blockify công bố:

Nén dữ liệu: cơ sở dữ liệu doanh nghiệp giảm xuống khoảng 2,5% kích thước ban đầu (nén 40 lần), giữ lại hơn 99% thông tin

Token mỗi lần truy vấn: từ khoảng 303 (chunk truyền thống) xuống khoảng 98 (IdeaBlock) — hiệu suất 3,09 lần

Độ chính xác truy xuất theo vector: tăng 2,29 lần

Cải thiện độ chính xác tổng thể: khoảng 78 lần (hiệu ứng tổng hợp của loại trùng và cải tiến truy xuất)

Dự tính tiết kiệm chi phí: 100 triệu lượt truy vấn/năm, tiết kiệm chi phí token khoảng 738 nghìn đô la Mỹ

Mức tăng độ chính xác tổng thể 78 lần là hiệu ứng tổng hợp — loại trùng giảm nhiễu, nội dung được cấu trúc theo IdeaBlock tương thích tốt hơn với truy xuất vector, đồng thời số token cho mỗi câu trả lời giảm cũng làm giảm khoảng trống để mô hình mắc lỗi.

Phạm vi tích hợp: LlamaIndex, LangChain, Milvus, Cloudflare và các khung phổ biến khác

Các công cụ cho nhà phát triển và hạ tầng mà Blockify đã tích hợp:

Khung RAG: LlamaIndex, LangChain

Quản lý tri thức: Obsidian

Cơ sở dữ liệu vector: Milvus, Elastic, Supabase

Tính toán biên: Cloudflare

Tích hợp low-code: n8n (thông qua các template workflow)

Chiến lược tích hợp của Blockify là “không thay thế các khung RAG sẵn có, mà đóng vai trò là lớp tối ưu dữ liệu phía trước”. Nhà phát triển có thể, trong luồng LlamaIndex hoặc LangChain hiện có, dùng Blockify thay cho bước chunking ban đầu, còn các bước khác giữ nguyên.

Các sự kiện cụ thể có thể theo dõi tiếp: số sao của Blockify trên GitHub tăng trưởng và mức độ chấp nhận từ cộng đồng, Iternal Technologies có đăng ký hoặc công bố chi tiết kỹ thuật liên quan đến IdeaBlock hay không (hiện mới nhấn mạnh “patented ingestion”), và liệu các khung RAG phổ biến có tích hợp sẵn logic loại trùng tương tự như một chức năng mặc định hay không.

Bài viết này Blockify viết lại RAG doanh nghiệp: dùng IdeaBlock thay chunking, nén 40 lần, giảm token 3 lần lần đầu xuất hiện trên 鏈新聞 ABMedia.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Xiaohu trình diễn quy trình làm việc đa mô hình: GPT tạo ảnh + Gemini 3.1 Pro chuyển thành nội dung 3D tương tác

Nhà quan sát AI người Trung Quốc xiaohu hôm 10/5 chia sẻ một ví dụ quy trình làm việc kết hợp GPT và Gemini 3.1 Pro: trước tiên dùng GPT để tạo hình ảnh, sau đó dùng Gemini 3.1 Pro để chuyển hình ảnh thành nội dung 3D tương tác, có thể biến bất kỳ chủ đề kiến thức nào thành các ứng dụng khoa học có thể xoay và thao tác. Các ví dụ được xiaohu đăng kèm tweet gồm trình chiếu 3D các hành tinh, mô hình khoa học tương tác,… là một thực hành cụ thể của “quy trình làm việc đa mô hình” (multi-model workf

ChainNewsAbmedia2giờ trước

Alibaba sẽ tích hợp Qwen AI với Taobao, ra mắt dịch vụ mua sắm AI với 4 tỷ sản phẩm

Theo các nguồn được Jinshi trích dẫn, Alibaba dự kiến tích hợp nền tảng AI Qwen của mình với dịch vụ thương mại điện tử Taobao để cho phép mua sắm thông qua trí tuệ nhân tạo đàm thoại thay vì tìm kiếm theo từ khóa. Việc tích hợp sẽ cho phép người tiêu dùng duyệt, so sánh và mua sản phẩm thông qua hội thoại với trợ lý AI trong ứng dụng Qwen, có quyền truy cập danh mục hơn 4 tỷ sản phẩm của Taobao và Tmall. Dịch vụ này sẽ cung cấp gợi ý mua sắm dựa trên lịch sử đơn hàng và sở thích của người dùng,

GateNews8giờ trước

DMG Blockchain thành lập công ty con DMG Infrastructure để vận hành AI và HPC

Theo BlockBeats, vào ngày 9/5, công ty khai thác Bitcoin DMG Blockchain đã thành lập công ty con DMG Infrastructure để vận hành mảng kinh doanh trí tuệ nhân tạo (AI) và điện toán hiệu năng cao (HPC). Công ty dự kiến chuyển đổi các trung tâm dữ liệu của mình sang các dịch vụ AI và HPC. DMG Blockchain đã sản xuất 21 BTC trong tháng 4, giảm so với 23 BTC trong tháng 3.

GateNews05-09 04:25

Spotify ra mắt tính năng podcast cá nhân tạo bằng AI vào hôm nay, cho phép lưu vào Thư viện

Theo MacRumors, Spotify đã ra mắt một tính năng mới hôm nay (8/5) cho phép người dùng tạo và lưu podcast cá nhân được hỗ trợ bởi AI trực tiếp vào thư viện Spotify của mình. Người dùng có thể cài đặt và đăng nhập vào “Save to Spotify CLI” trên máy tính để bàn, sau đó sử dụng các tác nhân mã hóa AI từ OpenAI, Anthropic và những đơn vị khác để t

GateNews05-08 14:46

Benzinga ra mắt công cụ dịch tiếng Hàn và bộ dữ liệu tài chính AI 400 triệu từ

Benzinga mới đây đã cho ra mắt một công cụ dịch tiếng Hàn và một bộ dữ liệu tài chính tiếng Hàn quy mô lớn nhằm phục vụ huấn luyện AI, theo công ty. Hệ thống này dịch tin tức thị trường Mỹ sang tiếng Hàn theo thời gian thực, đồng thời vẫn giữ nguyên thuật ngữ tài chính, các mã ticker và ngữ cảnh thị trường. The

GateNews05-08 11:32

FLock.io Tham gia Hội nghị Oxford Roundtable để thúc đẩy Biên bản ghi nhớ (MoU) về AI chủ quyền của Sarawak

Theo Foresight News, FLock.io đã tham gia một cuộc thảo luận bàn tròn tại Đại học Oxford nhằm thúc đẩy bản ghi nhớ ba bên về phát triển AI mang tính chủ quyền của Sarawak. Cuộc thảo luận tập trung vào chủ quyền dữ liệu, hợp tác AI, quản trị bảo mật dữ liệu và phần cứng

GateNews05-08 11:01
Bình luận
0/400
Không có bình luận