Khi các hệ thống trí tuệ nhân tạo ngày càng thâm nhập vào các quy trình ra quyết định quan trọng trong cuộc sống hàng ngày của chúng ta, việc tích hợp các khuôn khổ đạo đức vào quá trình phát triển AI đang trở thành ưu tiên nghiên cứu. Tại Đại học Maryland (UMD), các nhóm liên ngành giải quyết sự tương tác phức tạp giữa lý luận chuẩn mực, thuật toán học máy và hệ thống xã hội-kỹ thuật.
Trong một cuộc phỏng vấn gần đây với Artificial Intelligence News , các nhà nghiên cứu sau tiến sĩ Ilaria Canavotto và Vaishnav Kameswaran kết hợp chuyên môn về triết học, khoa học máy tính và tương tác giữa người và máy tính để giải quyết những thách thức cấp bách trong đạo đức AI. Công trình của họ bao gồm các nền tảng lý thuyết về việc nhúng các nguyên tắc đạo đức vào kiến trúc AI và các tác động thực tế của việc triển khai AI trong các lĩnh vực có rủi ro cao như việc làm.
Hiểu biết chuẩn mực về hệ thống AI
Ilaria Canavotto, một nhà nghiên cứu tại sáng kiến Trí tuệ nhân tạo lấy giá trị làm trung tâm (VCAI) của UMD, có liên kết với Viện nghiên cứu máy tính tiên tiến và Khoa triết học. Cô đang giải quyết một câu hỏi cơ bản: Làm thế nào chúng ta có thể truyền cho các hệ thống AI sự hiểu biết chuẩn mực? Khi AI ngày càng ảnh hưởng đến các quyết định tác động đến quyền con người và phúc lợi, các hệ thống phải hiểu các chuẩn mực đạo đức và pháp lý.
Canavotto cho biết: “Câu hỏi mà tôi muốn tìm hiểu là làm thế nào chúng ta có thể đưa loại thông tin này, sự hiểu biết chuẩn mực về thế giới, vào một cỗ máy có thể là robot, chatbot, hay bất cứ thứ gì tương tự như vậy?”
Nghiên cứu của bà kết hợp hai cách tiếp cận:
Phương pháp tiếp cận từ trên xuống : Phương pháp truyền thống này liên quan đến việc lập trình rõ ràng các quy tắc và chuẩn mực vào hệ thống. Tuy nhiên, Canavotto chỉ ra rằng, “Không thể dễ dàng viết chúng ra. Luôn có những tình huống mới phát sinh.”
Phương pháp tiếp cận từ dưới lên : Một phương pháp mới hơn sử dụng máy học để trích xuất các quy tắc từ dữ liệu. Mặc dù linh hoạt hơn, nhưng nó thiếu tính minh bạch: “Vấn đề với phương pháp tiếp cận này là chúng ta không thực sự biết hệ thống học được những gì và rất khó để giải thích quyết định của nó”, Canavotto lưu ý.
Canavotto và các đồng nghiệp của cô, Jeff Horty và Eric Pacuit, đang phát triển một phương pháp tiếp cận kết hợp để kết hợp những điểm tốt nhất của cả hai phương pháp tiếp cận. Họ hướng đến mục tiêu tạo ra các hệ thống AI có thể học các quy tắc từ dữ liệu trong khi vẫn duy trì các quy trình ra quyết định có thể giải thích được dựa trên lý luận pháp lý và chuẩn mực.
“[Cách tiếp cận] của chúng tôi […] dựa trên một lĩnh vực được gọi là trí tuệ nhân tạo và luật pháp. Vì vậy, trong lĩnh vực này, họ đã phát triển các thuật toán để trích xuất thông tin từ dữ liệu. Vì vậy, chúng tôi muốn khái quát hóa một số thuật toán này và sau đó có một hệ thống có thể trích xuất thông tin tổng quát hơn dựa trên lý luận pháp lý và lý luận chuẩn mực”, cô giải thích.
Tác động của AI đến hoạt động tuyển dụng và sự hòa nhập của người khuyết tật
Trong khi Canavotto tập trung vào nền tảng lý thuyết, Vaishnav Kameswaran, chuyên gia của Viện AI và Luật và Xã hội đáng tin cậy NSF thuộc UMD, lại xem xét những tác động thực tế của AI, đặc biệt là tác động của nó đối với người khuyết tật.
Nghiên cứu của Kameswaran xem xét việc sử dụng AI trong quy trình tuyển dụng, khám phá cách các hệ thống có thể vô tình phân biệt đối xử với các ứng viên khuyết tật. Ông giải thích, "Chúng tôi đã làm việc để... mở hộp đen một chút, cố gắng hiểu những thuật toán này làm gì ở phía sau và cách chúng bắt đầu đánh giá các ứng viên."
Phát hiện của ông cho thấy nhiều nền tảng tuyển dụng do AI điều khiển dựa rất nhiều vào các tín hiệu hành vi chuẩn mực, chẳng hạn như giao tiếp bằng mắt và biểu cảm khuôn mặt, để đánh giá ứng viên. Cách tiếp cận này có thể gây bất lợi đáng kể cho những người có khuyết tật cụ thể. Ví dụ, ứng viên khiếm thị có thể gặp khó khăn trong việc duy trì giao tiếp bằng mắt, một tín hiệu mà các hệ thống AI thường hiểu là thiếu sự tương tác.
"Bằng cách tập trung vào một số phẩm chất đó và đánh giá ứng viên dựa trên những phẩm chất đó, các nền tảng này có xu hướng làm trầm trọng thêm bất bình đẳng xã hội hiện có", Kameswaran cảnh báo. Ông lập luận rằng xu hướng này có thể khiến những người khuyết tật bị thiệt thòi hơn trong lực lượng lao động, một nhóm vốn đã phải đối mặt với những thách thức đáng kể về việc làm.
Bối cảnh đạo đức rộng lớn hơn
Cả hai nhà nghiên cứu đều nhấn mạnh rằng những lo ngại về đạo đức xung quanh AI vượt xa các lĩnh vực nghiên cứu cụ thể của họ. Họ đề cập đến một số vấn đề chính:
- Quyền riêng tư và sự đồng ý về dữ liệu: Các nhà nghiên cứu nhấn mạnh sự không đầy đủ của các cơ chế đồng ý hiện tại, đặc biệt là liên quan đến việc thu thập dữ liệu để đào tạo AI. Kameswaran trích dẫn các ví dụ từ công việc của mình ở Ấn Độ, nơi những nhóm dân số dễ bị tổn thương vô tình giao nộp dữ liệu cá nhân rộng lớn cho các nền tảng cho vay do AI điều khiển trong đại dịch COVID-19.
- Tính minh bạch và khả năng giải thích: Cả hai nhà nghiên cứu đều nhấn mạnh tầm quan trọng của việc hiểu cách các hệ thống AI đưa ra quyết định, đặc biệt là khi những quyết định này ảnh hưởng đáng kể đến cuộc sống của con người.
- Thái độ và thành kiến xã hội: Kameswaran chỉ ra rằng các giải pháp kỹ thuật không thể giải quyết được các vấn đề phân biệt đối xử. Cần có những thay đổi rộng rãi hơn trong thái độ của xã hội đối với các nhóm thiểu số, bao gồm cả người khuyết tật.
- Hợp tác liên ngành : Công trình nghiên cứu của các nhà nghiên cứu tại UMD minh họa tầm quan trọng của sự hợp tác giữa triết học, khoa học máy tính và các ngành khác trong việc giải quyết vấn đề đạo đức AI.
Nhìn về phía trước: giải pháp và thách thức
Mặc dù những thách thức này rất đáng kể, cả hai nhà nghiên cứu đều đang nỗ lực tìm ra giải pháp:
- Cách tiếp cận kết hợp của Canavotto đối với AI chuẩn mực có thể dẫn đến các hệ thống AI có nhận thức đạo đức và dễ giải thích hơn.
- Kameswaran đề xuất phát triển các công cụ kiểm toán cho các nhóm vận động để đánh giá các nền tảng tuyển dụng AI nhằm phát hiện khả năng phân biệt đối xử.
- Cả hai đều nhấn mạnh đến nhu cầu thay đổi chính sách, chẳng hạn như cập nhật Đạo luật Người khuyết tật Hoa Kỳ để giải quyết tình trạng phân biệt đối xử liên quan đến AI.
Tuy nhiên, họ cũng thừa nhận tính phức tạp của các vấn đề. Như Kameswaran lưu ý, “Thật không may, tôi không nghĩ rằng một giải pháp kỹ thuật để đào tạo AI bằng một số loại dữ liệu và công cụ kiểm toán nhất định sẽ tự nó giải quyết được vấn đề. Vì vậy, nó đòi hỏi một cách tiếp cận đa hướng.”
Một điểm chính rút ra từ công trình của các nhà nghiên cứu là nhu cầu nâng cao nhận thức của công chúng về tác động của AI đối với cuộc sống của chúng ta. Mọi người cần biết họ chia sẻ bao nhiêu dữ liệu hoặc dữ liệu đó được sử dụng như thế nào. Như Canavotto chỉ ra, các công ty thường có động cơ che giấu thông tin này, định nghĩa chúng là "Các công ty cố gắng nói với bạn rằng dịch vụ của tôi sẽ tốt hơn cho bạn nếu bạn cung cấp cho tôi dữ liệu".
Các nhà nghiên cứu cho rằng cần phải làm nhiều hơn nữa để giáo dục công chúng và buộc các công ty phải chịu trách nhiệm. Cuối cùng, cách tiếp cận liên ngành của Canavotto và Kameswaran, kết hợp nghiên cứu triết học với ứng dụng thực tế, là con đường tiến về phía trước theo đúng hướng, đảm bảo rằng các hệ thống AI mạnh mẽ nhưng cũng có đạo đức và công bằng.
Xem thêm: Quy định giúp ích hay cản trở: Quan điểm của Cloudflare
Bạn muốn tìm hiểu thêm về AI và dữ liệu lớn từ những người dẫn đầu ngành? Hãy xem Triển lãm AI & Big Data diễn ra tại Amsterdam, California và London. Sự kiện toàn diện này được tổ chức cùng với các sự kiện hàng đầu khác bao gồm Hội nghị tự động hóa thông minh , BlockX , Tuần lễ chuyển đổi số và Triển lãm an ninh mạng & đám mây .
Khám phá các sự kiện công nghệ doanh nghiệp sắp tới và hội thảo trực tuyến do TechForge hỗ trợ tại đây .
Bài đăng Kết nối quy tắc và lương tâm: Nhiệm vụ của UMD hướng tới AI có đạo đức và toàn diện xuất hiện đầu tiên trên AI News .