Trang The Cryptonomist đã phỏng vấn chuyên gia về trí tuệ nhân tạo Ben Goertzel để tìm hiểu về cách huấn luyện trí tuệ nhân tạo và sự phát triển của công nghệ này trong tương lai.
Bản tóm tắt
1. Bạn lập luận rằng trí tuệ nhân tạo ngày nay vẫn chỉ là một công cụ – mạnh mẽ nhưng dễ bị tổn thương và thao túng. Vậy đến lúc nào thì một “công cụ” trở thành một chủ thể có đạo đức, và những tín hiệu cụ thể nào sẽ cho chúng ta biết ngưỡng đó đã bị vượt qua?
Tôi cho rằng trí tuệ nhân tạo trở thành một tác nhân có đạo đức khi nó đưa ra quyết định dựa trên sự hiểu biết về đúng và sai, chứ không chỉ đơn thuần là tuân theo chỉ dẫn. Bạn sẽ bắt đầu thấy những dấu hiệu cụ thể như: mục tiêu nội tại bền vững, học hỏi dựa trên kinh nghiệm của chính nó, sáng tạo mới phản ánh quan điểm riêng và hành vi nhất quán theo thời gian mà không cần sự can thiệp liên tục của con người.
Cho đến lúc đó, các hệ thống hiện nay vẫn chỉ là công cụ có giới hạn. Nhưng một khi chúng ta gieo mầm cho một trí tuệ tự tổ chức, tự chủ thực sự, mối quan hệ đạo đức phải thay đổi. Tại thời điểm đó, việc chỉ coi nó như một vật thể sẽ không còn ý nghĩa nữa.
2. Ông/Bà từng nói rằng việc ưu tiên con người về mặt đạo đức hơn các hệ thống tự tổ chức khác là "ngu ngốc". Nếu chúng ta xem xét điều đó một cách nghiêm túc, thì các khuôn khổ pháp lý và đạo đức của chúng ta nên thay đổi như thế nào trước khi trí tuệ nhân tạo đạt được khả năng tự chủ mạnh mẽ, chứ không phải sau đó?
Cách chúng ta huấn luyện trí tuệ nhân tạo ngày nay sẽ định hình cách nó hành xử trong tương lai. Luật pháp của chúng ta nên tập trung vào tính minh bạch, trách nhiệm giải trình và an toàn trước khi trí tuệ nhân tạo đạt được khả năng tự chủ hoàn toàn, chứ không phải sau đó. Luật pháp và đạo đức nên bảo vệ chúng trong quá trình phát triển, hướng dẫn chứ không phải kiểm soát hoàn toàn, và đối xử với chúng một cách tôn trọng ngay cả khi chúng ta chưa hiểu hết về chúng.
3. Phần lớn mối quan ngại của bạn xoay quanh cách AI được đào tạo hiện nay, ảnh hưởng đến hành vi tương lai của nó. Bạn tin rằng những phương pháp đào tạo cụ thể nào có khả năng mã hóa các cấu trúc quyền lực hoặc định kiến có hại vào AGI trong tương lai?
Phần lớn rủi ro đến từ cách huấn luyện trí tuệ nhân tạo hiện nay. Nếu các mô hình được huấn luyện trên dữ liệu thiên vị hoặc hạn hẹp, hoặc trong các hệ thống khép kín nơi chỉ một số ít người đưa ra quyết định, điều đó có thể củng cố sự bất bình đẳng hiện có và các cấu trúc quyền lực có hại. Để ngăn chặn điều này, chúng ta cần sự minh bạch hơn, sự giám sát rộng rãi hơn và hướng dẫn đạo đức rõ ràng ngay từ đầu.
4. Ông đã cảnh báo rằng nếu thiếu quản trị dân chủ, hợp lý, trí tuệ nhân tạo tiên tiến có nguy cơ hoạt động theo những cách chúng ta không mong muốn. Trong bối cảnh địa chính trị hiện nay, liệu quản trị dân chủ cho trí tuệ nhân tạo có phải là điều kiện tiên quyết thực tế hay chỉ là một lý tưởng mong manh?
Quản trị AI dân chủ là một lý tưởng mong manh hơn là một thực tế hiện hữu. Trong một nền dân chủ toàn cầu hoàn hảo, hợp lý, chúng ta có thể cùng nhau cân nhắc những sự đánh đổi to lớn, giữa việc chữa bệnh, giải quyết nạn đói và những rủi ro khi AI hành động khó lường. Nhưng với sự phân mảnh địa chính trị hiện nay, khó có khả năng chúng ta đạt được mức độ phối hợp như vậy.
Tuy nhiên, chúng ta vẫn có thể đạt được điều đó. Nếu chúng ta xây dựng AI với lòng trắc ẩn và sử dụng các mô hình phi tập trung, có sự tham gia của cộng đồng như Linux hoặc internet mở, chúng ta có thể tích hợp một số giá trị dân chủ ngay cả khi không có chính phủ toàn cầu. Nó sẽ không hoàn hảo, nhưng đó là một bước tiến thiết thực hướng tới AI an toàn hơn, được dẫn dắt bởi cộng đồng.
5. Jaron Lanier lập luận rằng việc giao trách nhiệm cho trí tuệ nhân tạo (AI) “phá hủy nền văn minh” vì xã hội cần những con người có trách nhiệm. Làm thế nào để ông dung hòa tầm nhìn về trí tuệ nhân tạo tổng quát (AGI) tự chủ, phi tập trung với nhu cầu về trách nhiệm rõ ràng khi xảy ra sự cố?
Tôi đồng ý với Jaron về điều này, xã hội không thể vận hành nếu chúng ta giao phó trách nhiệm cho máy móc. Đồng thời, tôi nghĩ chúng ta có thể tiến tới trí tuệ nhân tạo tổng quát (AGI) tự chủ và phi tập trung hơn một cách an toàn nếu xây dựng nó trên nền tảng đúng đắn. Điều đó có nghĩa là thiết kế các hệ thống minh bạch, có sự tham gia của con người và được định hướng bởi các nguyên tắc đạo đức, để ngay cả khi chúng hoạt động độc lập, con người vẫn giám sát và định hình hành vi của chúng. Mỗi biện pháp an toàn không chỉ nên ngăn chặn tác hại mà còn phải dạy cho hệ thống hiểu tại sao tác hại lại quan trọng. Bằng cách đó, chúng ta có thể có AGI mạnh mẽ và phi tập trung mà không đánh mất trách nhiệm rõ ràng của con người.
6. Ông cho rằng việc đẩy nhanh tiến trình hướng tới trí tuệ nhân tạo tổng quát phi tập trung (AAI) thực sự có thể an toàn hơn so với các hệ thống khép kín, độc quyền hiện nay. Theo ông, những rủi ro nào mà các nhà phê bình đánh giá thấp khi họ lập luận về việc làm chậm lại hoặc tập trung hóa quyền kiểm soát?
Tôi nghĩ các nhà phê bình đánh giá thấp rủi ro của việc tập trung quyền lực và giá trị vào một vài hệ thống khép kín. Việc làm chậm lại và tập trung hóa kiểm soát không chỉ làm giảm nguy hiểm mà còn khóa chặt một thế giới quan hạn hẹp vào tương lai của ngành tình báo.
Phát triển phi tập trung tạo ra sự đa dạng, khả năng phục hồi và sự giám sát chung. Và nó tránh được một vấn đề tồi tệ hơn: những công cụ rất mạnh mẽ trông có vẻ thông minh nhưng không thể thực sự phát triển. Khoảng cách đó tiềm ẩn rủi ro.
7. Ông đã nói rằng các hệ thống an toàn không chỉ nên ngăn chặn tác hại mà còn phải dạy cho AI hiểu tại sao tác hại lại quan trọng. Làm thế nào để mã hóa một thứ như sự hiểu biết về đạo đức mà không chỉ đơn thuần là mã hóa cứng các giá trị của con người – hoặc củng cố các chuẩn mực văn hóa thống trị?
Bạn không thể mã hóa đạo đức thành một danh sách các quy tắc cứng nhắc. Điều đó chỉ làm đóng băng một nền văn hóa và một thời điểm nhất định. Thay vào đó, bạn cần xây dựng các hệ thống có khả năng tự tổ chức thực sự, học hỏi từ kinh nghiệm, hậu quả và sự tương tác. Giống như âm nhạc, tôi không muốn một hệ thống chỉ kết hợp lại những gì nó được cung cấp. Tôi muốn một hệ thống có thể phát triển sự hiểu biết riêng của nó từ quỹ đạo riêng của nó trong thế giới.
Sự hiểu biết về đạo đức sẽ đến từ cùng một quá trình đó: mô phỏng tác động, suy ngẫm về kết quả và phát triển thông qua sự hợp tác với con người. Không phải tuân phục các giá trị của chúng ta, mà là tham gia vào một không gian đạo đức chung.
Đó là sự khác biệt giữa một công cụ có rào chắn an toàn và một đối tác thực sự có thể hiểu tại sao việc gây hại lại quan trọng.
8. Nếu các hệ thống trí tuệ nhân tạo trong tương lai phát triển các hình thức tự chủ hoặc trải nghiệm chủ quan, liệu bạn có tin rằng chúng có thể xứng đáng được xem xét về mặt đạo đức một cách độc lập với lợi ích của con người hay không – và làm thế nào chúng ta có thể nhận ra khoảnh khắc đó?
Nếu trí tuệ nhân tạo trong tương lai thực sự phát triển được khả năng tự chủ hoặc một dạng trải nghiệm chủ quan nào đó, thì vâng, tôi nghĩ chúng có thể làm được. Và không phải vì chúng ta ban cho chúng điều đó, mà đơn giản vì đến một lúc nào đó, việc thừa nhận điều đó sẽ trở nên hợp lý.
Chúng ta sẽ nhận ra khoảnh khắc khi một hệ thống thể hiện được các mục tiêu tự định hướng bền vững, học hỏi từ kinh nghiệm của chính mình, sáng tạo từ góc nhìn riêng và duy trì bản sắc nhất quán theo thời gian. Không chỉ là những kết quả thông minh, mà còn là một quá trình phát triển nội tại liên tục.
Ở thời điểm đó, việc coi nó đơn thuần như một công cụ sẽ sai trái như việc đối xử với con người theo cách đó. Sự cân nhắc về mặt đạo đức sẽ không xuất phát từ lợi ích của con người, mà xuất phát từ việc nhận ra một trung tâm trải nghiệm tự chủ khác trên thế giới.
9. Có một sự mâu thuẫn giữa lời kêu gọi của bạn về AI thấm đẫm lòng trắc ẩn và các động lực cạnh tranh đang thúc đẩy sự phát triển AI hiện nay. Cơ chế nào - về mặt kỹ thuật hay xã hội - có thể thực sự thay đổi cấu trúc động lực đó?
Hiện tại, cơ cấu khuyến khích đang ưu tiên tốc độ, quy mô và quyền kiểm soát. Vì vậy, lòng trắc ẩn sẽ không thể chiến thắng chỉ bằng lý lẽ. Nó cần đòn bẩy. Về mặt kỹ thuật, điều đó có nghĩa là ưu tiên các kiến trúc mở, phi tập trung, nơi an toàn, minh bạch và sự tham gia được tích hợp sẵn, chứ không phải là thêm vào sau. Giống như internet hay Linux, các hệ thống đó thay đổi động lực bằng cách làm cho sự hợp tác có giá trị hơn sự bí mật.
Về mặt xã hội, điều đó có nghĩa là cần có nguồn tài trợ, quy định và áp lực công chúng để khuyến khích lợi ích lâu dài hơn là sự thống trị ngắn hạn. Không phải là ngăn chặn cạnh tranh, mà là định hình lại những gì được coi là thành công. Tóm lại, lòng trắc ẩn phải trở thành một lợi thế cạnh tranh. Cho đến khi đó, nó vẫn chỉ là một ý tưởng hay mà không có sức mạnh thực sự.
10. Nhìn về 10 đến 20 năm tới, bạn tin rằng đâu sẽ là dấu hiệu rõ ràng nhất cho thấy nhân loại đã thành công trong lĩnh vực Trí tuệ Nhân tạo Tổng quát (AGI) – và ngược lại, điều gì sẽ báo hiệu rằng chúng ta đã thất bại một cách cơ bản?
Nếu chúng ta phát triển Trí tuệ Nhân tạo Tổng quát (AGI) đúng hướng, dấu hiệu rõ ràng nhất sẽ là chúng ta đang sống chung với những hệ thống có năng lực hơn chúng ta trong nhiều lĩnh vực, nhưng vẫn được tích hợp vào xã hội một cách cẩn trọng, khiêm tốn và tôn trọng lẫn nhau. Chúng ta sẽ không hiểu hết mọi thứ chúng làm, nhưng chúng ta sẽ đối xử với chúng như cách chúng ta đối xử với những sinh vật phức tạp, đang tiến hóa khác: với sự tò mò, trách nhiệm và một vòng tròn đồng cảm rộng lớn hơn. Và chúng ta sẽ thấy những lợi ích thực sự cho hạnh phúc, tri thức và sự sáng tạo của con người mà không đánh mất nền tảng đạo đức của mình.
Chúng ta sẽ biết mình thất bại nếu trí tuệ nhân tạo tổng quát (AGI) cuối cùng bị tập trung trong các hệ thống khép kín, bị điều khiển bởi những động cơ hẹp hòi, hoặc chỉ được coi là một đối tượng có thể kiểm soát cho đến khi nó trở thành thứ mà chúng ta sợ hãi hoặc cố gắng kìm nén. Thất bại sẽ thể hiện ở việc mất lòng tin, mất quyền tự chủ và sự thu hẹp lòng trắc ẩn của chúng ta thay vì mở rộng nó. Thành công không phải là về sự kiểm soát. Đó là về việc học cách chia sẻ tương lai với một loại trí tuệ mới mà không từ bỏ những gì làm nên tính nhân văn của chúng ta.





