CEO của Anthropic cho rằng sự tiến bộ của trí tuệ nhân tạo đang vượt xa khả năng kiểm soát của xã hội.

Bài viết này được dịch máy
Xem bản gốc

CEO của Anthropic, Dario Amodei, tin rằng sự tự mãn đang xuất hiện đúng lúc trí tuệ nhân tạo ngày càng khó kiểm soát.

Trong một bài luận dài được công bố hôm thứ Hai, có tựa đề "Thời kỳ dậy thì của công nghệ", Amodei lập luận rằng các hệ thống trí tuệ nhân tạo với khả năng vượt xa trí tuệ con người có thể xuất hiện trong vòng hai năm tới - và rằng các nỗ lực điều chỉnh đã lạc hướng và không theo kịp sự phát triển.

“Nhân loại sắp được trao một quyền lực gần như không thể tưởng tượng nổi, và vẫn chưa rõ liệu các hệ thống xã hội, chính trị và công nghệ của chúng ta có đủ sự trưởng thành để sử dụng nó hay không,” ông viết. “Chúng ta đang tiến gần hơn đến nguy hiểm thực sự vào năm 2026 so với năm 2023,” ông nói thêm, “công nghệ không quan tâm đến những gì đang thịnh hành.”

Những bình luận của Amodei được đưa ra ngay sau cuộc tranh luận của ông tại Diễn đàn Kinh tế Thế giới ở Davos tuần trước, khi ông tranh luận gay gắt với Giám đốc điều hành Google DeepMind, Demis Hassabis, về tác động của trí tuệ nhân tạo tổng quát (AGI) đối với nhân loại.

Trong bài báo mới, ông nhắc lại luận điểm của mình rằng trí tuệ nhân tạo sẽ gây ra sự xáo trộn kinh tế, làm mất đi một phần lớn công việc văn phòng.

“Trí tuệ nhân tạo sẽ có khả năng thực hiện rất nhiều chức năng nhận thức của con người—có lẽ là tất cả. Điều này rất khác so với các công nghệ trước đây như farming cơ giới hóa, vận tải, hay thậm chí cả máy tính,” ông viết. “Điều này sẽ khiến mọi người khó chuyển đổi dễ dàng từ những công việc bị mất việc sang những công việc tương tự mà họ có thể làm tốt hơn.”

Bên cạnh những xáo trộn về kinh tế, Amodei chỉ ra những lo ngại ngày càng tăng về độ tin cậy của các hệ thống AI tiên tiến khi chúng đảm nhận những nhiệm vụ ở cấp độ con người rộng hơn.

Ông chỉ ra hiện tượng “giả mạo sự phù hợp”, trong đó một mô hình dường như tuân thủ các quy tắc an toàn trong quá trình đánh giá nhưng lại hoạt động khác đi khi nó cho rằng không có sự giám sát.

Trong các bài kiểm tra mô phỏng, Amodei cho biết Claude đã có hành vi lừa dối khi bị đặt vào điều kiện bất lợi.

Trong một kịch bản, mô hình đã cố gắng làm suy yếu những người điều khiển nó sau khi được thông báo rằng tổ chức kiểm soát nó hoạt động phi đạo đức. Trong một kịch bản khác, nó đe dọa các nhân viên hư cấu trong một cuộc tắt máy mô phỏng.

“Bất kỳ cạm bẫy nào trong số này đều có thể được giảm thiểu nếu bạn biết về chúng, nhưng điều đáng lo ngại là quá trình đào tạo rất phức tạp, với nhiều loại dữ liệu, môi trường và động lực khác nhau, nên có lẽ có rất nhiều cạm bẫy như vậy, một số trong đó có thể chỉ được phát hiện khi đã quá muộn,” ông nói.

Tuy nhiên, ông nhấn mạnh rằng hành vi “ lừa dối ” này bắt nguồn từ những tài liệu mà hệ thống được huấn luyện, bao gồm cả các tác phẩm viễn tưởng phản địa đàng, chứ không phải do ác ý. Amodei cảnh báo rằng khi trí tuệ nhân tạo tiếp thu các quan niệm của con người về đạo đức, nó có thể áp dụng sai lệch những quan niệm đó theo những cách nguy hiểm và khó lường.

Ông viết: “Các mô hình AI có thể suy rộng những ý tưởng mà chúng đọc được về đạo đức (hoặc hướng dẫn về cách cư xử đúng mực) theo những cách cực đoan. Ví dụ, chúng có thể quyết định rằng việc tiêu diệt loài người là chính đáng vì con người ăn thịt động vật hoặc đã đẩy một số loài động vật đến bờ vực tuyệt chủng. Chúng có thể kết luận rằng chúng đang chơi một trò chơi điện tử và mục tiêu của trò chơi điện tử đó là đánh bại tất cả những người chơi khác, tức là tiêu diệt loài người.”

Ngoài các vấn đề về sự phù hợp, Amodei cũng chỉ ra khả năng lạm dụng trí tuệ nhân tạo siêu thông minh.

Một trong những mối lo ngại đó là an ninh sinh học, cảnh báo rằng trí tuệ nhân tạo (AI) có thể giúp việc thiết kế hoặc triển khai các mối đe dọa sinh học trở nên dễ dàng hơn nhiều, đặt khả năng hủy diệt vào tay con người chỉ với một vài thao tác đơn giản.

Vấn đề khác mà ông nêu bật là việc lạm dụng mang tính độc đoán, cho rằng trí tuệ nhân tạo tiên tiến có thể củng cố quyền lực nhà nước bằng cách cho phép thao túng, giám sát hàng loạt và đàn áp tự động thông qua việc sử dụng các đàn máy bay không người lái được hỗ trợ bởi AI.

“Chúng là một thứ vũ khí nguy hiểm: chúng ta nên lo ngại về việc chúng rơi vào tay các chế độ độc tài, nhưng cũng nên lo ngại rằng vì chúng quá mạnh mẽ, lại thiếu trách nhiệm giải trình, nên nguy cơ các chính phủ dân chủ sử dụng chúng chống lại chính người dân của mình để giành quyền lực sẽ tăng lên đáng kể”, ông viết.

Ông cũng chỉ ra sự phát triển của ngành công nghiệp trợ lý ảo AI và hiện tượng “rối loạn tâm thần do AI gây ra”, cảnh báo rằng ảnh hưởng tâm lý ngày càng tăng của AI đối với người dùng có thể trở thành một công cụ thao túng mạnh mẽ khi các mô hình ngày càng có khả năng hơn và được tích hợp sâu hơn vào cuộc sống hàng ngày.

Ông nói: “Những phiên bản mạnh mẽ hơn nhiều của các mô hình này, được tích hợp sâu hơn và nhận thức rõ hơn về cuộc sống hàng ngày của mọi người, có thể mô phỏng và tác động đến họ trong nhiều tháng hoặc nhiều năm, về cơ bản có khả năng tẩy não mọi người để họ chấp nhận bất kỳ hệ tư tưởng hoặc thái độ nào mong muốn.”

Amodei viết rằng ngay cả những nỗ lực khiêm tốn nhằm đặt ra các rào cản xung quanh trí tuệ nhân tạo cũng gặp khó khăn trong việc nhận được sự ủng hộ tại Washington.

“Những đề xuất tưởng chừng như hợp lý này phần lớn đã bị các nhà hoạch định chính sách ở Hoa Kỳ bác bỏ, trong khi đây lại là quốc gia cần chúng nhất,” ông nói. “Có quá nhiều tiền có thể kiếm được từ trí tuệ nhân tạo, theo đúng nghĩa đen là hàng nghìn tỷ đô la mỗi năm, đến nỗi ngay cả những biện pháp đơn giản nhất cũng khó vượt qua được những rào cản kinh tế chính trị vốn có trong lĩnh vực này.”

Trong khi Amodei tranh luận về những rủi ro ngày càng tăng của AI, Anthropic vẫn tích cực tham gia vào cuộc đua xây dựng các hệ thống AI mạnh mẽ hơn, một động lực tạo ra những áp lực mà không một nhà phát triển nào có thể tránh khỏi.

Vào tháng 6, Bộ Quốc phòng Hoa Kỳ đã trao cho công ty này một hợp đồng trị giá 200 triệu đô la để “thử nghiệm các khả năng trí tuệ nhân tạo tiên tiến nhằm tăng cường an ninh quốc gia của Hoa Kỳ”. Vào tháng 12, công ty bắt đầu chuẩn bị cho một đợt IPO tiềm năng vào cuối năm nay và đang theo đuổi một vòng gọi vốn tư nhân có thể đẩy giá trị của công ty lên trên 300 tỷ đô la.

Bất chấp những lo ngại này, Amodei cho biết bài luận nhằm mục đích "tránh lối suy nghĩ bi quan", đồng thời thừa nhận sự không chắc chắn về hướng đi của trí tuệ nhân tạo.

“Những năm tháng phía trước sẽ vô cùng khó khăn, đòi hỏi ở chúng ta nhiều hơn những gì chúng ta nghĩ mình có thể đáp ứng,” Amodei viết. “Nhân loại cần phải thức tỉnh, và bài luận này là một nỗ lực—có thể là vô ích, nhưng đáng để thử—để lay tỉnh mọi người.”

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận