Nhà sử học Yuval Noah Harari cảnh báo trí tuệ nhân tạo (AI) đang chuẩn bị thống trị ngôn ngữ, luật pháp và tôn giáo.

Bài viết này được dịch máy
Xem bản gốc

Nhà sử học và tác giả Yuval Noah Harari đã cảnh báo tại Diễn đàn Kinh tế Thế giới hôm thứ Ba rằng nhân loại đang có nguy cơ mất kiểm soát ngôn ngữ, điều mà ông gọi là "siêu năng lực" đặc trưng của mình, khi trí tuệ nhân tạo ngày càng hoạt động thông qua các tác nhân tự chủ thay vì các công cụ thụ động.

Tác giả của cuốn sách “Sapiens”, Harari, đã trở thành một tiếng nói thường xuyên trong các cuộc tranh luận toàn cầu về những tác động xã hội của trí tuệ nhân tạo. Ông lập luận rằng các bộ luật, thị trường tài chính và tôn giáo có tổ chức hầu như đều dựa hoàn toàn vào ngôn ngữ, khiến chúng đặc biệt dễ bị tổn thương trước các máy móc có khả năng tạo ra và thao túng văn bản trên quy mô lớn.

“Loài người thống trị thế giới không phải vì chúng ta mạnh nhất về thể chất, mà vì chúng ta đã khám phá ra cách sử dụng ngôn từ để khiến hàng nghìn, hàng triệu, thậm chí hàng tỷ người xa lạ hợp tác với nhau,” ông nói . “Đây chính là siêu năng lực của chúng ta.”

Harari đã chỉ ra các tôn giáo dựa trên kinh sách thiêng liêng, bao gồm Do Thái giáo, Kitô giáo và Hồi giáo, lập luận rằng khả năng đọc, ghi nhớ và tổng hợp khối lượng lớn văn bản của trí tuệ nhân tạo có thể biến máy móc trở thành những người giải thích kinh sách đáng tin cậy nhất.

“Nếu luật pháp được tạo nên từ ngôn từ, thì trí tuệ nhân tạo sẽ thống trị hệ thống pháp luật,” ông nói. “Nếu sách chỉ là sự kết hợp của các từ ngữ, thì trí tuệ nhân tạo sẽ thống trị sách. Nếu tôn giáo được xây dựng từ ngôn từ, thì trí tuệ nhân tạo sẽ thống trị tôn giáo.”

Tại Davos, Harari cũng so sánh sự lan rộng của các hệ thống trí tuệ nhân tạo với một hình thức nhập cư mới, và cho rằng cuộc tranh luận xung quanh công nghệ này sẽ sớm tập trung vào việc liệu chính phủ có nên trao cho các hệ thống trí tuệ nhân tạo tư cách pháp nhân hay không. Một số tiểu bang, bao gồm Utah, Idaho và North Dakota, đã thông qua luật nêu rõ rằng trí tuệ nhân tạo không thể được coi là một cá nhân theo luật.

Ông Harari kết thúc bài phát biểu của mình bằng cách cảnh báo các nhà lãnh đạo toàn cầu cần hành động nhanh chóng về luật liên quan đến trí tuệ nhân tạo và không nên cho rằng công nghệ này sẽ mãi là một công cụ trung lập. Ông so sánh việc thúc đẩy áp dụng công nghệ này hiện nay với các trường hợp trong lịch sử, khi lính đánh thuê sau đó nắm quyền.

“Mười năm nữa, sẽ quá muộn để bạn quyết định liệu trí tuệ nhân tạo có nên hoạt động như con người trong thị trường tài chính, trong tòa án, trong nhà thờ hay không,” ông nói. “Người khác sẽ đã quyết định điều đó thay bạn rồi. Nếu bạn muốn ảnh hưởng đến hướng đi của nhân loại, bạn cần phải đưa ra quyết định ngay bây giờ.”

Những bình luận của Harari có thể gây khó chịu cho những người lo ngại về sự lan rộng ngày càng tăng của trí tuệ nhân tạo, nhưng không phải ai cũng đồng ý với cách diễn đạt của ông. Giáo sư Emily M. Bender , một nhà ngôn ngữ học tại Đại học Washington, cho rằng việc đặt rủi ro như Harari đã làm chỉ làm chuyển hướng sự chú ý khỏi các cá nhân và tổ chức chịu trách nhiệm xây dựng và triển khai các hệ thống trí tuệ nhân tạo.

“Theo tôi, dường như đây thực sự là một nỗ lực nhằm che giấu hành động của những người và tập đoàn đang xây dựng các hệ thống này,” Bender nói với Decrypt trong một cuộc phỏng vấn . “Và cũng là một yêu cầu rằng mọi người nên từ bỏ quyền con người của chính mình trong nhiều lĩnh vực, bao gồm cả quyền sử dụng ngôn ngữ, cho những công ty này dưới vỏ bọc của các hệ thống trí tuệ nhân tạo được gọi là như vậy.”

Bender bác bỏ quan điểm cho rằng "trí tuệ nhân tạo" mô tả một phạm trù công nghệ rõ ràng hoặc trung lập.

“Thuật ngữ trí tuệ nhân tạo không đề cập đến một tập hợp các công nghệ nhất quán,” bà nói. “Về bản chất, và luôn luôn là như vậy, nó là một thuật ngữ tiếp thị,” bà nói thêm rằng các hệ thống được thiết kế để bắt chước các chuyên gia như bác sĩ, luật sư hoặc giáo sĩ thiếu các trường hợp sử dụng thực tế.

“Mục đích của việc giả danh bác sĩ, luật sư, giáo sĩ, v.v… là gì?” Bender nói. “Mục đích ở đây là lừa đảo. Chấm hết.”

Trong khi Harari chỉ ra việc sử dụng ngày càng nhiều các tác nhân AI để quản lý tài khoản ngân hàng và các giao dịch kinh doanh, Bender cho rằng rủi ro nằm ở chỗ mọi người dễ dàng tin tưởng vào các kết quả do máy móc tạo ra, vốn có vẻ đáng tin cậy nhưng lại thiếu sự giám sát của con người.

“Nếu bạn có một hệ thống mà bạn có thể dùng câu hỏi để tương tác và nhận được kết quả trông giống như câu trả lời—nhưng lại bị tước bỏ ngữ cảnh và không chịu trách nhiệm về câu trả lời đó, mà lại được trình bày như đến từ một nguồn thông thái toàn năng—thì bạn có thể hiểu tại sao mọi người lại muốn điều đó tồn tại,” Bender nói. “Tôi nghĩ rằng có rất nhiều rủi ro ở đó là mọi người sẽ bắt đầu hướng về nó và sử dụng kết quả đầu ra đó để định hình ý tưởng, niềm tin và hành động của riêng họ.”

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận