AI tập trung rất nguy hiểm: làm sao chúng ta có thể ngăn chặn nó?

avatar
AI News
11-08
Bài viết này được dịch máy
Xem bản gốc

Sự thông minh được thể hiện bởi các trò chuyện AI tạo ra như ChatGPT của OpenAI đã thu hút sự tưởng tượng của cá nhân và doanh nghiệp, và trí tuệ nhân tạo đã trở thành lĩnh vực công nghệ đầy hứng khởi nhất.

AI đã được công nhận là một yếu tố thay đổi trò chơi, với tiềm năng để biến đổi nhiều khía cạnh của cuộc sống của chúng ta. Từ y học cá nhân hóa đến phương tiện tự hành, đầu tư tự động đến tài sản kỹ thuật số, những khả năng được tạo ra bởi AI dường như là vô tận.

Nhưng cùng với sự biến đổi mà AI sẽ mang lại, cũng có nhiều rủi ro do công nghệ mới này gây ra. Trong khi những lo ngại về một hệ thống AI độc ác, kiểu Skynet, trở nên vô kiểm soát là không đúng chỗ, thì những mối nguy hiểm của sự tập trung quyền lực AI lại không phải vậy. Khi các công ty như Microsoft, Google và Nvidia tiến lên trong việc theo đuổi AI, những lo ngại về sự tập trung quyền lực vào tay chỉ một vài nhà chơi trung tâm trở nên rõ ràng hơn.

Tại sao chúng ta nên lo lắng về AI phi tập trung?

Quyền lực độc quyền

Vấn đề cấp bách nhất phát sinh từ AI tập trung là triển vọng một số ít công ty công nghệ khổng lồ đạt được quyền kiểm soát độc quyền trong ngành công nghiệp này. Các ông lớn công nghệ đã tích lũy một phần lớn thị phần AI, cho phép họ sở hữu lượng dữ liệu khổng lồ. Họ cũng kiểm soát cơ sở hạ tầng mà các hệ thống AI hoạt động, cho phép họ dìm chết đối thủ cạnh tranh, cản trở đổi mới và kéo dài bất bình đẳng kinh tế.

Bằng cách đạt được độc quyền trong phát triển AI, những công ty này có nhiều khả năng có ảnh hưởng không công bằng đến các khuôn khổ pháp lý, mà họ có thể thao túng để có lợi cho mình. Điều này có nghĩa là những công ty khởi nghiệp nhỏ, thiếu nguồn lực khổng lồ của các ông lớn công nghệ, sẽ khó theo kịp tốc độ đổi mới. Những công ty sống sót và có vẻ như sẽ phát triển sẽ gần như chắc chắn bị mua lại, tiếp tục tập trung quyền lực vào tay số ít. Kết quả sẽ là ít đa dạng hơn trong phát triển AI, ít lựa chọn hơn cho người tiêu dùng và điều khoản ít có lợi hơn, hạn chế các trường hợp sử dụng và cơ hội kinh tế mà AI hứa hẹn.

Định kiến và Phân biệt đối xử

Ngoài việc kiểm soát độc quyền, còn có những lo ngại chính đáng về định kiến của các hệ thống AI, và những mối quan ngại này sẽ trở nên quan trọng hơn khi xã hội ngày càng phụ thuộc vào AI.

Rủi ro này phát sinh từ việc các tổ chức ngày càng phụ thuộc vào các hệ thống tự động để ra quyết định trong nhiều lĩnh vực. Không phải hiếm khi một công ty sử dụng các thuật toán AI để lọc ứng viên việc làm, và rủi ro là một hệ thống thiên vị có thể loại trừ một nhóm ứng viên không công bằng dựa trên chủng tộc, tuổi tác hoặc vị trí của họ. AI cũng được sử dụng bởi các công ty bảo hiểm để thiết lập mức phí bảo hiểm, bởi các công ty dịch vụ tài chính để xác định xem ai đủ điều kiện vay vốn và mức lãi suất họ sẽ phải trả, và bởi cơ quan thực thi pháp luật để xác định những khu vực có khả năng xảy ra tội phạm cao hơn. Trong tất cả các trường hợp sử dụng này, hậu quả tiềm ẩn của các hệ thống AI thiên vị là rất đáng lo ngại.

Dù là cơ quan thực thi pháp luật nhắm vào các cộng đồng thiểu số, các thực hành cho vay phân biệt đối xử hay bất kỳ điều gì khác, AI tập trung có thể làm trầm trọng thêm bất bình đẳng xã hội và cho phép phân biệt đối xử mang tính hệ thống.

Quyền riêng tư và giám sát

Một rủi ro khác do các hệ thống AI tập trung là thiếu bảo vệ quyền riêng tư. Khi chỉ một vài công ty lớn kiểm soát phần lớn dữ liệu được tạo ra bởi AI, họ có khả năng thực hiện giám sát chưa từng có trên người dùng của mình. Dữ liệu tích lũy bởi các nền tảng AI thống trị nhất có thể được sử dụng để theo dõi, phân tích và dự đoán hành vi của cá nhân với độ chính xác đáng kinh ngạc, xói mòn quyền riêng tư và tăng khả năng thông tin bị lạm dụng.

Điều này đặc biệt đáng lo ngại ở các quốc gia có chính phủ độc tài, nơi dữ liệu có thể được sử dụng như một vũ khí để tạo ra các công cụ giám sát tinh vi hơn đối với công dân. Nhưng ngay cả trong các xã hội dân chủ, cũng có mối đe dọa do gia tăng giám sát, như được thể hiện trong các tiết lộ của Edward Snowden về chương trình Prism của Cơ quan An ninh Quốc gia Hoa Kỳ.

Các công ty cũng có thể lạm dụng dữ liệu của người tiêu dùng để tăng lợi nhuận của họ. Ngoài ra, khi các thực thể tập trung tích lũy lượng lớn dữ liệu nhạy cảm, điều này khiến họ trở thành mục tiêu hấp dẫn hơn đối với tin tặc, tăng nguy cơ rò rỉ dữ liệu.

Rủi ro về an ninh

Các vấn đề về an ninh quốc gia cũng có thể phát sinh do AI tập trung. Ví dụ, có những lo ngại chính đáng rằng các hệ thống AI có thể bị vũ khí hóa bởi các quốc gia, được sử dụng để tiến hành chiến tranh mạng, gián điệp và phát triển các hệ thống vũ khí mới. AI có thể trở thành một công cụ then chốt trong các cuộc chiến tranh trong tương lai, làm tăng mức độ căng thẳng trong các xung đột địa chính trị.

Bản thân các hệ thống AI cũng có thể bị nhắm mục tiêu. Khi các quốc gia gia tăng sự phụ thuộc vào AI, những hệ thống này sẽ trở thành những mục tiêu hấp dẫn, vì chúng là những điểm yếu duy nhất. Loại bỏ một hệ thống AI có thể gây gián đoạn toàn bộ luồng giao thông của các thành phố, làm sụp đổ lưới điện và nhiều hơn thế nữa.

Đạo đức

Mối quan ngại lớn khác của AI tập trung là về đạo đức. Điều này là bởi vì nhóm ít công ty kiểm soát các hệ thống AI sẽ có ảnh hưởng đáng kể đến các chuẩn mực văn hóa và giá trị của một xã hội, và có thể thường xuyên ưu tiên lợi nhuận, tạo ra thêm những lo ngại về đạo đức.

Ví dụ, các thuật toán AI đang được sử dụng rộng rãi bởi các nền tảng truyền thông xã hội để kiểm duyệt nội dung, trong nỗ lực xác định và lọc ra những bài đăng gây phản cảm. Mối lo ngại là các thuật toán, hoặc do sự cố hoặc thiết kế, có thể cuối cùng sẽ đàn áp quyền tự do ngôn luận.

Đã có nhiều tranh cãi về hiệu quả của các hệ thống kiểm duyệt dựa trên AI, với nhiều bài đăng dường như vô hại bị chặn hoặc xóa bởi các thuật toán tự động. Điều này dẫn đến suy đoán rằng những hệ thống như vậy không bị hỏng mà đang bị thao túng ở hậu trường dựa trên chính trị mà nền tảng đang cố gắng thúc đẩy.

Phương án thay thế? AI phi tập trung

Biện pháp cân bằng duy nhất với AI tập trung là phát triển các hệ thống AI phi tập trung để đảm bảo rằng quyền kiểm soát công nghệ này vẫn nằm trong tay đa số, chứ không phải ít người. Bằng cách này, chúng ta có thể đảm bảo rằng không có một công ty hoặc thực thể nào có ảnh hưởng đáng kể đến hướng phát triển của AI.

Khi phát triển và quản trị AI được chia sẻ bởi hàng nghìn hoặc hàng triệu thực thể, tiến trình của nó sẽ công bằng hơn, với sự phù hợp lớn hơn với nhu cầu của cá nhân. Kết quả sẽ là các ứng dụng AI đa dạng hơn, với một loạt các mô hình gần như vô tận được sử dụng bởi các hệ thống khác nhau, thay vì chỉ một vài mô hình thống trị ngành công nghiệp.

Các hệ thống AI phi tập trung cũng sẽ có nghĩa là có sự kiểm soát và cân bằng trước rủi ro giám sát và thao túng dữ liệu quy mô lớn. Trong khi AI tập trung có thể bị vũ khí hóa và sử dụng theo cách trái với lợi ích của đa số, AI phi tập trung sẽ ngăn chặn sự áp bức này.

Lợi ích chính của AI phi tập trung là mọi người đều kiểm soát được sự tiến hóa của công nghệ, ngăn chặn bất kỳ thực thể nào có ảnh hưởng quá lớn đến sự phát triển của nó.

Làm thế nào để phi tập trung hóa AI

AI phi tập trung liên quan đến việc rethink các lớp tạo nên chồng công nghệ AI, bao gồm các yếu tố như cơ sở hạ tầng (tài nguyên tính toán và mạng), dữ liệu, mô hình, quá trình huấn luyện, suy lu

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
3
Thêm vào Yêu thích
1
Bình luận