Tổ chức Anthropic đã quyên góp 20 triệu đô la cho Nhóm Hành động Ưu tiên Công cộng để thúc đẩy việc phòng thủ chống lại trí tuệ nhân tạo.

Bài viết này được dịch máy
Xem bản gốc

Tổ chức Anthropic đã thông báo quyên góp 20 triệu đô la cho Public First Action (PFA) để hỗ trợ các sáng kiến ​​liên quan đến quản trị trí tuệ nhân tạo. Anthropic cho biết số tiền này sẽ được sử dụng để thúc đẩy giáo dục cộng đồng về trí tuệ nhân tạo và thiết lập một khuôn khổ pháp lý, đặc biệt là để phát triển các biện pháp quản lý nhằm giải quyết rủi ro tiềm tàng, bao gồm ngăn chặn các cuộc tấn công mạng tự động và giải quyết rủi ro AI như việc sử dụng công nghệ AI trong sản xuất vũ khí.

Quan điểm nhân sinh: Sự phát triển của trí tuệ nhân tạo mang lại rủi ro; các quốc gia cần thúc đẩy các chính sách để bảo vệ an ninh.

Anthropic chỉ ra rằng trí tuệ nhân tạo (AI) hứa hẹn mang lại lợi ích rộng rãi trong nghiên cứu khoa học, đổi mới công nghệ, phát triển y tế và tăng trưởng kinh tế, nhưng rủi ro tiềm tàng của nó không thể bị bỏ qua. Rủi ro này xuất phát từ việc lạm dụng công nghệ, chẳng hạn như sử dụng nó trong các cuộc tấn công mạng tự động hoặc sản xuất vũ khí nguy hiểm trong tương lai. Ngoài ra, còn có khả năng khi các mô hình trở nên có khả năng hơn, chúng có thể đi chệch khỏi ý định của người dùng và thể hiện hành vi không thể kiểm soát. Khi các mô hình AI tiếp tục phát triển, việc quản lý rủi ro tiềm tàng đồng thời thúc đẩy đổi mới sẽ là một vấn đề then chốt trong sự phát triển của AI.

Các mô hình trí tuệ nhân tạo đang phát triển nhanh chóng, từ chatbot đến AI Agent có khả năng thực hiện nhiệm vụ phức tạp, nhiều bước. Anthropic cho biết để đáp ứng những thách thức của các mô hình AI mới liên tục phát triển, công ty liên tục nâng cao tiêu chuẩn tuyển dụng kỹ sư phần mềm, tiến hành các bài kiểm tra nghiêm ngặt đối với các kỹ sư mới để theo kịp tốc độ phát triển nhanh chóng của AI.

Trước thực trạng này, Anthropic cho rằng trong khi trí tuệ nhân tạo (AI) đang nhanh chóng phát triển và vượt qua so với hầu hết các công nghệ trước đây, thì việc phát triển chính sách về AI lại đang tụt hậu. Hiện tại, chưa có cơ chế quản lý chính thức toàn diện cũng như khung pháp lý liên bang thống nhất, dẫn đến các cuộc thảo luận chính sách rời rạc. Anthropic cho rằng các chính sách về AI trong những năm tới sẽ tác động đến các vấn đề như thị trường lao động, bảo vệ trẻ em, an ninh quốc gia và quyền lực quốc tế; do đó, cần thiết phải thiết lập một hệ thống quản lý linh hoạt và nhạy bén, cân bằng giữa đổi mới và rủi ro.

Khoản quyên góp 20 triệu đô la cho "Tổ chức Hành động vì Ưu tiên Công cộng" được thực hiện mà không kèm theo bất kỳ lập trường chính trị cụ thể nào.

Anthropic tuyên bố rằng khoản quyên góp 20 triệu đô la của họ cho Public Priorities không dựa trên lập trường chính trị hay chỉ vì lợi ích riêng của công ty, nhấn mạnh rằng các nhà phát triển AI có trách nhiệm đảm bảo công nghệ phù hợp với lợi ích công cộng, và khoản quyên góp này phản ánh quan điểm đó.

Public Priorities không phải là một tổ chức vận động hành lang truyền thống, mà là một nhóm vận động chính trị. Trọng tâm của tổ chức này bao gồm bảo vệ quyền của trẻ em, người lao động và công chúng; tăng cường kiểm soát xuất khẩu của Hoa Kỳ đối với chất bán dẫn tiên tiến; tăng cường tính minh bạch trong các phòng thí nghiệm trí tuệ nhân tạo; và giảm thiểu rủi ro đáng kể liên quan đến trí tuệ nhân tạo. Public Priorities mạnh mẽ ủng hộ công việc của các cơ quan lập pháp tiểu bang và địa phương trong việc giải quyết các thách thức mới nổi về trí tuệ nhân tạo và phản đối các nỗ lực của chính phủ liên bang nhằm cản trở sự tiến bộ của các tiểu bang trong lĩnh vực trí tuệ nhân tạo nếu không có các biện pháp bảo vệ liên bang đầy đủ. Được cấu thành từ các chính trị gia lưỡng đảng, Public Priorities đáng chú ý vì sự ủng hộ của họ đối với chiến dịch tranh cử chức Thống đốc của Thượng nghị sĩ đảng Cộng hòa Tennessee Martha Black, bất chấp cam kết đã nêu của Anthropic về việc hỗ trợ phi đảng phái.

Bài viết này, bàn về khoản quyên góp 20 triệu đô la của Anthropic cho Nhóm Hành động Ưu tiên Công cộng nhằm thúc đẩy phòng thủ AI, lần đầu tiên xuất hiện trên ABMedia ABMedia .

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận