Anthropic Nhận Gần 120.000 Yêu Cầu Của Tác Giả Trong Khoản Dàn Xếp Bản Quyền 1,5 Tỷ USD

Tin nhắn Gate News, ngày 18 tháng 4 — Theo các hồ sơ tòa án tại California, gần 120.000 tác giả và chủ sở hữu bản quyền đã nộp đơn yêu cầu để chia sẻ khoản dàn xếp theo hình thức khởi kiện tập thể trị giá 1,5 tỷ USD của Anthropic, liên quan đến việc sử dụng sách trái phép để huấn luyện AI. Các yêu cầu bao phủ 91% trong hơn 480.000 tác phẩm đủ điều kiện. Anthropic dự kiến có phiên điều trần vào ngày 14 tháng 5, tại đó một thẩm phán sẽ quyết định việc có chấp thuận cuối cùng hay không đối với thỏa thuận vốn được mô tả là khoản dàn xếp lớn nhất trong một vụ kiện bản quyền tại Mỹ.

Vụ kiện bắt nguồn sau khi các tác giả cáo buộc rằng Anthropic đã sử dụng sách bị đánh cắp bản quyền để huấn luyện Claude. Trong một phán quyết vào tháng 6 năm 2025, Thẩm phán William Alsup xác định rằng việc huấn luyện dựa trên các cuốn sách có được một cách hợp pháp là “biến đổi một cách cốt lõi” và cấu thành sử dụng hợp pháp. Tuy nhiên, thẩm phán cho rằng việc tải xuống và lưu trữ hơn 7 triệu cuốn sách bị cướp từ các trang như Library Genesis (LibGen) và Pirate Library Mirror (PiLiMi) để xây dựng một thư viện trung tâm đã xâm phạm quyền của chủ sở hữu bản quyền, ngay cả khi những cuốn sách đó không nhất thiết được sử dụng cho huấn luyện AI.

Điều kiện nhận tiền dàn xếp yêu cầu các tựa sách phải xuất hiện trong “Danh sách Tác phẩm” đã được tòa án phê duyệt, tức là chúng nằm trong các tệp LibGen và PiLiMi mà Anthropic đã tải xuống và đã được đăng ký kịp thời với Văn phòng Bản quyền Hoa Kỳ. Điều này để lại khoảng 482.460 cuốn sách đủ điều kiện trong số hơn 7 triệu bản đã được tải xuống.

Khoản chi trả 1,5 tỷ USD tương đương chưa đến 1% định giá $183 billion của Anthropic. Một số người quan sát xem thỏa thuận này như một lợi thế cạnh tranh tiềm năng cho các công ty AI được tài trợ tốt, vì các công ty nhỏ hơn có thể gặp khó khăn trong việc quản lý các chi phí kiện tụng tương tự, và vụ việc có thể thúc đẩy ngành công nghiệp sớm áp dụng dữ liệu được cấp phép thay vì nguồn dữ liệu bị đánh cắp.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

DeepSeek V4 Pro trên Ollama Cloud: Claude Code kết nối một lần

Theo tweet của Ollama, DeepSeek V4 Pro được ra mắt vào 4/24, đã được tích hợp theo chế độ đám mây vào thư mục Ollama, chỉ với một lệnh duy nhất là có thể gọi các công cụ như Claude Code, Hermes, OpenClaw, OpenCode, Codex, v.v. V4 Pro có bộ tham số 1.6T, 1M context, Mixture-of-Experts; suy luận trên đám mây không tải trọng số về máy cục bộ. Nếu muốn chạy cục bộ thì cần tự tải trọng số và thực thi bằng INT4/GGUF với nhiều GPU. Tốc độ đo thử giai đoạn đầu bị ảnh hưởng bởi tải trọng của đám mây, thông thường khoảng 30 tok/s, đỉnh đạt 1.1 tok/s; khuyến nghị sử dụng nguyên mẫu trên đám mây, rồi khi sản xuất chính thức thì tự suy luận hoặc dùng API thương mại.

ChainNewsAbmedia18phút trước

DeepSeek Giảm 75% Giá V4-Pro, Cắt Chi Phí Cache API Xuống Một-Tenth

Tin tức từ Gate, 27 tháng 4 — DeepSeek công bố giảm giá 75% cho mô hình V4-Pro mới của mình dành cho nhà phát triển và hạ giá các mức “input cache hit” trên toàn bộ danh mục API của hãng xuống chỉ bằng một phần mười so với các mức trước đó. Mô hình V4, được phát hành vào ngày 25 tháng 4 ở hai phiên bản Pro và Flash, đã được tối ưu cho các bộ xử lý Ascend của Huawei. DeepSeek cho biết V4-Pro vượt trội hơn các mô hình mã nguồn mở khác trên các bài benchmark về kiến thức thế giới và xếp thứ hai, chỉ sau Gemini-Pro-3.1 dạng đóng của Google. Dòng V4 được thiết kế riêng cho các tác nhân AI xử lý các tác vụ phức tạp vượt xa khả năng của chatbot. Chi phí API V4-Pro hiện đã thấp hơn các đối thủ lớn của phương Tây, được định giá 3,48 USD cho mỗi một triệu token đầu ra, so với của GPT-4.5 từ OpenAI. Giá V4-Flash ở mức 0,14 USD cho mỗi một triệu token đầu vào và 0,28 USD cho mỗi một triệu token đầu ra, có thể giúp triển khai các ứng dụng tiết kiệm chi phí như rà soát toàn bộ cơ sở mã hoặc tài liệu quy định chỉ trong một lần yêu cầu.

GateNews20phút trước

Coachella chuyển sang AI của DeepMind thuộc Google để hình dung lại các buổi hòa nhạc vượt ra ngoài sân khấu

Coachella đã hợp tác với Google DeepMind để thử nghiệm các công cụ AI mới nhằm định hình lại cách các buổi biểu diễn âm nhạc trực tiếp được tạo ra và được trải nghiệm. Tóm tắt Coachella đã thử nghiệm các công cụ AI với Google DeepMind để biến các buổi biểu diễn trực tiếp thành các môi trường kỹ thuật số tương tác. Ba nguyên mẫu đã được xây dựng,

Cryptonews27phút trước

郭明錤: OpenAI muốn làm AI Agent trên điện thoại, MediaTek, Qualcomm, Luxshare Precision trở thành chuỗi cung ứng then chốt

郭明錤 tuyên bố OpenAI đang hợp tác với MediaTek, Qualcomm và Luxshare Precision để phát triển điện thoại di động AI Agent, dự kiến sản xuất hàng loạt vào năm 2028. Điện thoại mới sẽ lấy việc hoàn thành tác vụ làm trung tâm; AI agent sẽ hiểu và thực thi các yêu cầu, kết hợp tính toán trên đám mây và tại thiết bị, trọng điểm là cảm biến và hiểu biết ngữ cảnh. Danh sách thông số kỹ thuật và chuỗi cung ứng dự kiến sẽ được chốt vào giai đoạn 2026–2027; nếu thành hình, hoặc sẽ mang lại một chu kỳ nâng cấp điện thoại mới cho phân khúc cao cấp, thì Luxshare có khả năng trở thành bên được hưởng lợi chính.

ChainNewsAbmedia36phút trước

IEA: Chi tiêu cơ sở hạ tầng AI đã vượt đầu tư sản xuất dầu khí, dự kiến sẽ tăng thêm 75% vào năm 2026

Theo phân tích và dữ liệu thị trường do Cơ quan Năng lượng Quốc tế (IEA) công bố vào ngày 26 tháng 4, tổng chi tiêu vốn của năm công ty công nghệ hàng đầu trong năm 2025 vượt 400 tỷ USD, chủ yếu được đầu tư cho việc xây dựng hạ tầng AI, với quy mô đã vượt qua mức đầu tư hàng năm của sản xuất dầu và khí đốt toàn cầu. IEA ước tính rằng, chi tiêu vốn liên quan vào năm 2026 có thể tiếp tục tăng thêm 75%.

MarketWhisper1giờ trước

Thượng nghị sĩ Bernie Sanders đưa ra cảnh báo về mối đe dọa sinh tồn từ AI

Sanders nhấn mạnh rằng ngay cả khi hầu hết các nhà khoa học AI đều thừa nhận khả năng AI thoát khỏi sự kiểm soát và trở thành mối nguy đối với sự tồn tại của chúng ta, vẫn chưa có biện pháp lớn nào được thực hiện để ngăn chặn điều đó. “Chúng ta phải đảm bảo rằng AI mang lại lợi ích cho nhân loại, chứ không gây hại cho chúng ta,” ông nói. Các ý chính rút ra: Bernie Sanders

Coinpedia1giờ trước
Bình luận
0/400
Không có bình luận