Anthropic bị cáo buộc trích dẫn AI 'Ảo giác' trong vụ kiện lời bài hát

avatar
Decrypt
05-14
Bài viết này được dịch máy
Xem bản gốc

Một chuyên gia AI tại công ty được hỗ trợ bởi Amazon là Anthropic đã bị cáo buộc trích dẫn một bài báo học thuật được tạo ra một cách giả tạo trong một tài liệu tòa án nhằm bảo vệ công ty chống lại các cáo buộc về việc đào tạo mô hình AI của mình bằng lời bài hát được bảo vệ bản quyền mà không có sự cho phép.

Tài liệu do nhà khoa học dữ liệu Olivia Chen của Anthropic nộp là một phần trong phản hồi pháp lý của công ty đối với vụ kiện 75 triệu đô la do Universal Music Group, Concord, ABKCO và các nhà xuất bản chính khác đệ trình.

Các nhà xuất bản đã cáo buộc trong vụ kiện năm 2023 rằng Anthropic đã sử dụng trái phép lời bài hát từ hàng trăm bài hát, bao gồm các bài hát của Beyoncé, The Rolling Stones và The Beach Boys, để đào tạo mô hình ngôn ngữ Claude của mình.

Tuyên bố của Chen bao gồm trích dẫn một bài báo từ Nhà thống kê Hoa Kỳ, nhằm hỗ trợ lập luận của Anthropic rằng Claude chỉ sao chép lời bài hát được bảo vệ bản quyền trong các điều kiện hiếm hoi và cụ thể, theo báo cáo của Reuters.

Trong phiên tòa vào thứ Ba tại San Jose, luật sư của các nguyên đơn Matt Oppenheim gọi việc trích dẫn này là "hoàn toàn là sự bịa đặt", nhưng ông cho rằng ông không tin Chen cố ý tạo ra nó, mà có lẽ cô đã sử dụng chính Claude để tạo ra nguồn này.

Luật sư của Anthropic, Sy Damle, cho tòa biết lỗi của Chen dường như là một trích dẫn sai, không phải là sự bịa đặt, đồng thời chỉ trích các nguyên đơn vì đưa ra vấn đề này quá muệm trong quá trình tố tụng.

Theo Reuters, Thẩm phán Tòa án Quận Susan van Keulen cho rằng vấn đề này đặt ra "mối lo ngại rất nghiêm trọng và nghiêm trọng", lưu ý rằng "có sự khác biệt hoàn toàn giữa một trích dẫn bị bỏ sót và một ảo giác được tạo ra bởi AI".

Bà từ chối yêu cầu thẩm vấn Chen ngay lập tức, nhưng yêu cầu Anthropic chính thức phản hồi cáo buộc này vào thứ Năm.

Anthropic chưa phản hồi ngay lập tức yêu cầu bình luận của Decrypt.

Vụ kiện chống lại Anthropic được đệ trình vào tháng 10 năm 2023, với các nguyên đơn cáo buộc mô hình Claude của Anthropic được đào tạo trên một khối lượng lớn lời bài hát được bảo vệ bản quyền và sao chép chúng theo yêu cầu.

Họ yêu cầu bồi thường thiệt hại, tiết lộ tập huấn và hủy bỏ nội dung vi phạm.

Anthropic đã phản hồi vào tháng 1 năm 2024, phủ nhận rằng các hệ thống của mình được thiết kế để xuất ra lời bài hát được bảo vệ bản quyền.

Công ty gọi bất kỳ sự sao chép nào như vậy là một "lỗi hiếm" và cáo buộc các nhà xuất bản không cung cấp bằng chứng rằng người dùng thông thường đã gặp phải nội dung vi phạm.

Vào tháng 8 năm 2024, công ty đã phải đối mặt với một vụ kiện khác, lần này là từ các tác giả Andrea Bartz, Charles Graeber và Kirk Wallace Johnson, những người cáo buộc Anthropic đã đào tạo Claude trên các phiên bản bị đánh cắp của sách của họ.

Vụ việc này là một phần của sự phản ứng ngày càng tăng chống lại các công ty AI sinh thành bị cáo buộc đưa tài liệu được bảo vệ bản quyền vào các tập dữ liệu đào tạo mà không có sự đồng ý.

OpenAI đang phải đối mặt với nhiều vụ kiện từ diễn viên hài Sarah Silverman, Hiệp hội các Tác giả và Nhà báo New York, cáo buộc công ty sử dụng sách và bài báo được bảo vệ bản quyền để đào tạo các mô hình GPT của mình mà không có sự cho phép hoặc giấy phép.

Meta cũng bị đưa vào các vụ kiện tương tự, với các nguyên đơn cho rằng các mô hình LLaMA của công ty được đào tạo trên các tác phẩm văn học không được cấp phép từ các tập dữ liệu bị đánh cắp.

Trong khi đó, vào tháng 3, OpenAI và Google đã kêu gọi chính quyền Trump nới lỏng các hạn chế bản quyền xung quanh việc đào tạo AI, gọi chúng là rào cản đối với sự đổi mới trong các đề xuất chính thức của họ cho Kế hoạch Hành động AI sắp tới của Hoa Kỳ.

Tại Vương quốc Anh, một dự luật của chính phủ sẽ cho phép các công ty trí tuệ nhân tạo sử dụng các tác phẩm được bảo vệ bản quyền mà không cần sự cho phép đã gặp phải trở ngại tuần này, sau khi Thượng viện ủng hộ một sửa đổi yêu cầu các công ty AI phải tiết lộ những tài liệu được bảo vệ bản quyền mà họ đã sử dụng trong các mô hình của mình.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận