Khi trí tuệ nhân tạo tiếp tục phát triển nhanh chóng, những mối lo ngại về đạo đức xung quanh việc phát triển và triển khai những đổi mới mang tính thay đổi thế giới này đang được chú trọng hơn.

Trong một cuộc phỏng vấn trước Triển lãm AI & Dữ liệu lớn Bắc Mỹ , Igor Jablokov, Giám đốc điều hành và người sáng lập công ty AI Pryon , đã giải quyết trực tiếp những vấn đề cấp bách này.
Những thách thức đạo đức quan trọng trong AI
“Không có một, có lẽ có hơn 20 người trong số họ,” Jablokov nói khi được hỏi về những thách thức đạo đức quan trọng nhất. Ông đã vạch ra một loạt cạm bẫy tiềm ẩn cần được điều hướng cẩn thận — từ ảo giác AI và phát tán thông tin sai sự thật, đến vi phạm quyền riêng tư dữ liệu và rò rỉ Sở hữu trí tuệ (IP) từ quá trình đào tạo về thông tin độc quyền.
Theo Jablokov, nội dung thiên vị và đối nghịch xâm nhập vào dữ liệu đào tạo là một mối lo ngại lớn khác. Các lỗ hổng bảo mật như tác nhân nhúng và các cuộc tấn công tiêm nhắc nhanh chóng cũng được xếp hạng cao trong danh sách mối quan tâm của ông, cũng như mức tiêu thụ năng lượng cực cao và tác động đến khí hậu của các mô hình ngôn ngữ lớn.
Nguồn gốc của Pryon có thể bắt nguồn từ những bước khởi đầu sớm nhất của AI hiện đại hơn hai thập kỷ trước. Jablokov trước đây đã lãnh đạo một nhóm AI tiên tiến tại IBM, nơi họ thiết kế phiên bản nguyên thủy của cái mà sau này trở thành Watson. “Họ không bật đèn xanh cho nó. Và thế là, trong cơn thất vọng, tôi ra đi, thành lập công ty cuối cùng của mình,” anh kể lại. Công ty đó, vào thời điểm đó còn được gọi là Pryon, đã trở thành thương vụ mua lại liên quan đến AI đầu tiên của Amazon, khai sinh ra Alexa ngày nay.
Phiên bản hiện tại của Pryon nhằm mục đích đối đầu với những vấn đề khó khăn về mặt đạo đức của AI thông qua thiết kế có trách nhiệm, tập trung vào cơ sở hạ tầng quan trọng và các trường hợp sử dụng có tính rủi ro cao. Jablokov giải thích: “[Chúng tôi muốn] tạo ra thứ gì đó được tăng cường có mục đích cho cơ sở hạ tầng quan trọng hơn, những người lao động thiết yếu và những mục tiêu nghiêm túc hơn”.
Một yếu tố quan trọng là mang lại cho doanh nghiệp sự linh hoạt và khả năng kiểm soát môi trường dữ liệu của họ. Jablokov cho biết: “Chúng tôi cung cấp cho họ các lựa chọn về cách họ sử dụng nền tảng của mình…từ đám mây công cộng nhiều người thuê, đến đám mây riêng, đến tại chỗ”. Điều này cho phép các tổ chức khoanh vùng dữ liệu có độ nhạy cảm cao phía sau tường lửa của chính họ khi cần.
Pryon cũng nhấn mạnh đến AI có thể giải thích được và sự phân bổ có thể kiểm chứng được của các nguồn kiến thức. Jablokov mô tả: “Khi nền tảng của chúng tôi hiển thị một câu trả lời, bạn có thể nhấn vào nó và nó luôn đi đến trang cơ bản và đánh dấu chính xác nơi nó đã học được một phần thông tin”. Điều này cho phép con người xác nhận nguồn gốc kiến thức.
Trong một số lĩnh vực như năng lượng, sản xuất và chăm sóc sức khỏe, Pryon đã triển khai hoạt động giám sát con người trong vòng lặp trước khi hướng dẫn do AI tạo ra đến các nhân viên tuyến đầu. Jablokov đã chỉ ra một ví dụ trong đó “người giám sát có thể kiểm tra kỹ kết quả và về cơ bản cấp cho nó huy hiệu phê duyệt” trước khi thông tin đến tay kỹ thuật viên.
Đảm bảo phát triển AI có trách nhiệm
Jablokov ủng hộ mạnh mẽ các khung pháp lý mới để đảm bảo phát triển và triển khai AI có trách nhiệm. Trong khi hoan nghênh lệnh điều hành gần đây của Nhà Trắng như một sự khởi đầu, ông bày tỏ lo ngại về những rủi ro xung quanh AI tạo ra như ảo giác, dữ liệu đào tạo tĩnh, lỗ hổng rò rỉ dữ liệu, thiếu kiểm soát truy cập, vấn đề bản quyền, v.v.
Pryon đã tích cực tham gia vào các cuộc thảo luận về quy định này. Jablokov nói: “Chúng tôi đang chuyển hướng ngược lại cho một loạt các cơ quan chính phủ. “Chúng tôi đang tích cực đóng góp quan điểm của mình về môi trường pháp lý khi nó được triển khai…Chúng tôi đang thể hiện bằng cách thể hiện một số rủi ro liên quan đến việc sử dụng AI tổng quát.”
Về khả năng tồn tại, không kiểm soát được “rủi ro AI” – như đã được một số nhà lãnh đạo AI cảnh báo – Jablokov đã đưa ra một giọng điệu tương đối lạc quan về cách tiếp cận do Pryon quản lý: “Chúng tôi luôn nỗ lực hướng tới sự phân bổ có thể kiểm chứng…rút ra khỏi chính doanh nghiệp nội dung để họ hiểu các giải pháp đến từ đâu và sau đó họ quyết định xem họ có đưa ra quyết định hay không.”
Giám đốc điều hành chắc chắn đã tách sứ mệnh của Pryon khỏi nhóm trợ lý AI đàm thoại mở mới nổi, một số trong số đó đã gây tranh cãi xung quanh ảo giác và thiếu các ràng buộc về đạo đức.
“Chúng tôi không phải là một trường đại học hề. Công cụ của chúng tôi được thiết kế để đi vào một số môi trường nghiêm trọng hơn trên hành tinh Trái đất,” Jablokov nói thẳng thừng. “Tôi nghĩ không ai trong số các bạn cảm thấy thoải mái khi phải vào phòng cấp cứu và yêu cầu các bác sĩ ở đó nhập truy vấn vào ChatGPT, Bing, Bard…”
Ông nhấn mạnh tầm quan trọng của kiến thức chuyên môn về chủ đề và trí tuệ cảm xúc khi đưa ra quyết định mang tính rủi ro cao trong thế giới thực. “Bạn muốn ai đó có nhiều năm kinh nghiệm điều trị những bệnh tương tự như căn bệnh mà bạn hiện đang trải qua. Và đoán xem? Bạn thích thực tế là họ cũng quan tâm đến việc giúp bạn trở nên tốt hơn.”
Tại Triển lãm AI & Big Data sắp tới, Pryon sẽ tiết lộ các trường hợp sử dụng mới dành cho doanh nghiệp giới thiệu nền tảng của mình trong các ngành như năng lượng, chất bán dẫn, dược phẩm và chính phủ. Jablokov trêu chọc rằng họ cũng sẽ tiết lộ “các cách khác nhau để sử dụng nền tảng Pryon” ngoài việc cung cấp cho doanh nghiệp đầu cuối, bao gồm cả khả năng truy cập cấp thấp hơn cho các nhà phát triển.
Khi lĩnh vực AI nhanh chóng mở rộng từ các ứng dụng hẹp sang các khả năng tổng quát hơn, việc giải quyết các rủi ro đạo đức sẽ ngày càng trở nên quan trọng hơn. Sự tập trung liên tục của Pryon vào quản trị, nguồn kiến thức có thể kiểm chứng, sự giám sát của con người và sự hợp tác với các cơ quan quản lý có thể đưa ra một khuôn mẫu để phát triển AI có trách nhiệm hơn trong các ngành.
Bạn có thể xem toàn bộ cuộc phỏng vấn của chúng tôi với Igor Jablokov bên dưới:

Bạn muốn tìm hiểu thêm về AI và dữ liệu lớn từ các nhà lãnh đạo ngành? Hãy xem AI & Big Data Expo diễn ra ở Amsterdam, California và London. Sự kiện toàn diện này được tổ chức cùng với các sự kiện hàng đầu khác bao gồm BlockX , Tuần lễ chuyển đổi kỹ thuật số và An ninh mạng & Triển lãm đám mây .
Khám phá các sự kiện và hội thảo trực tuyến về công nghệ doanh nghiệp sắp tới khác do TechForge cung cấp tại đây .
Bài đăng Igor Jablokov, Pryon: Xây dựng tương lai AI có trách nhiệm xuất hiện đầu tiên trên Tin tức AI .





