Các tài liệu bị rò rỉ cho thấy mô hình mới của Anthropic tiềm ẩn những rủi ro an ninh mạng chưa từng có.

Bài viết này được dịch máy
Xem bản gốc

Theo các báo cáo liên quan đến Fortune, các tài liệu nội bộ bị rò rỉ từ Anthropic đã tiết lộ sự tồn tại của một thế hệ mô hình AI mới có tên mã là “Claude Mythos”.

Tuy nhiên, điểm đáng chú ý hơn cả là các mẫu máy mới này được cho là đã bước vào giai đoạn thử nghiệm mặc dù được cho là tiềm ẩn "những rủi ro an ninh mạng chưa từng có".

Vụ rò rỉ dữ liệu của Anthropic

Tạp chí Fortune gần đây đã công bố một báo cáo chứa các tài liệu bị rò rỉ từ công ty trí tuệ nhân tạo Anthropic. Các tài liệu này tiết lộ chi tiết về một thế hệ mô hình AI mới đang được phát triển, được cho là có tên “Claude Mythos”.

Vụ rò rỉ xảy ra do lỗi của con người trong quá trình cấu hình hệ thống quản lý nội dung (CMS) của Anthropic. Roy Paz từ LayerX Security và Alexandre Pauwels từ Đại học Cambridge giải thích rằng Anthropic đã để lại gần 3.000 tài liệu chưa được công bố, bao gồm hình ảnh, PDF, tệp âm thanh và bản nháp bài đăng blog, trong một kho dữ liệu công khai và có thể tìm kiếm được.

Tài liệu này đã được tìm thấy trực tuyến trước khi Fortune thông báo cho Anthropic, sau đó công ty đã gỡ bỏ quyền truy cập công khai.

Các tài liệu mà Fortune xem xét cho thấy Claude Mythos hiện đang trong giai đoạn thử nghiệm. Quan trọng hơn, chúng nêu rõ rằng Anthropic tin rằng mô hình mới này “tiềm ẩn những rủi ro an ninh mạng chưa từng có”.

Anthropic tuyên bố trong một bản nháp bài đăng trên blog rằng hệ thống này “hiện đang vượt xa bất kỳ mô hình AI nào khác về khả năng an ninh mạng” và cảnh báo rằng “nó báo trước một làn sóng các mô hình sắp tới có thể khai thác các lỗ hổng theo những cách vượt xa nỗ lực của các chuyên gia phòng thủ.”

Do những rủi ro tiềm tàng, Anthropic đã lên kế hoạch cho một chiến lược triển khai thận trọng, ưu tiên quyền truy cập sớm cho các tổ chức phòng thủ an ninh mạng, giúp các nhà bảo vệ có lợi thế trong việc tăng cường mã nguồn chống lại các cuộc tấn công khai thác bằng trí tuệ nhân tạo.

Trước đây, Anthropic đã đưa tin rằng một nhóm do nhà nước Trung Quốc tài trợ đã sử dụng mã Claude để xâm nhập khoảng 30 tổ chức, bao gồm các công ty công nghệ, tổ chức tài chính và cơ quan chính phủ, vì vậy mối lo ngại này không phải là không có cơ sở.

Các tài liệu bị rò rỉ cũng tiết lộ chi tiết về một hội nghị thượng đỉnh chỉ dành cho khách mời, được lên kế hoạch tổ chức tại một trang viên thế kỷ 18 ở vùng nông thôn nước Anh, nơi CEO của Anthropic, Dario Amodei, dự kiến ​​sẽ tiếp đón các nhà lãnh đạo doanh nghiệp châu Âu để thảo luận về việc ứng dụng AI và giới thiệu các khả năng chưa được công bố của mô hình Claude.

Cuộc chiến không ngừng nghỉ của Elon Musk với Anthropic

Ngay khi tin tức về X được công bố và thu hút sự chú ý đáng kể, Elon Musk, chủ sở hữu của X và người đứng đầu xAI, một đối thủ cạnh tranh trực tiếp của Anthropic, đã không bỏ lỡ cơ hội bình luận về tin tức này.

Musk bình luận , "Thật sự đáng lo ngại," và nhanh chóng thu hút hàng chục nghìn lượt xem và hàng nghìn lượt thích.

Musk có thói quen bình luận về những tin tức tiêu cực liên quan đến các đối thủ cạnh tranh mà ông không đồng ý. Anthropic được thành lập bởi các cựu nhân viên của OpenAI, và Musk đã công khai chỉ trích cả OpenAI lẫn cách tiếp cận của ngành công nghiệp AI nói chung đối với vấn đề an toàn và thương mại hóa.

Trong khi đó, công ty AI của chính Musk, xAI, gần đây đã ra mắt gói đăng ký trả phí mới có tên “SuperGrok Lite”. Gói đăng ký này có giá 10 đô la, và có những giới hạn được đặt ra đối với người dùng miễn phí của Grok để khuyến khích họ mua gói này hoặc bất kỳ gói đăng ký nào khác trong ba gói mà Grok cung cấp.

Chúng bao gồm SuperGrok, có giá 30 đô la một tháng, SuperGrok Heavy, có giá 300 đô la một tháng, và Grok Business, cũng có giá 30 đô la một tháng.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
75
Thêm vào Yêu thích
15
Bình luận