Những người đặt cược tiền thật vào các sự kiện tương lai cho rằng tòa án sẽ sớm phải đối mặt với các câu hỏi về các chương trình máy tính tự hoạt động.
Một trang dự đoán có tên Polymarket đưa ra tỷ lệ 70% rằng OpenClaw, một hệ thống trí tuệ nhân tạo, sẽ vướng vào các thủ tục pháp lý với con người trước cuối tháng này.
Các nhà giao dịch tập trung vào cuộc đối đầu pháp lý, chứ không phải nhận thức của máy móc.
Việc thẩm phán có thực sự xem xét vụ việc như vậy hay không không quan trọng trong trường hợp này. Vấn đề quan trọng hơn là hàng ngàn người đang đặt cược tiền vào ý tưởng rằng các tòa án sẽ phải giải quyết những vấn đề mà họ chưa giải quyết được, chẳng hạn như những lo ngại về việc hệ thống máy tính đưa ra quyết định mà không có sự giám sát liên tục của con người.
Khi có quá nhiều nhà đầu tư đặt cược vào một kết quả cụ thể, điều đó không chỉ đơn thuần là linh cảm. Thị trường đang gửi một thông điệp: nhiều người cho rằng sự xung đột giữa hệ thống pháp luật và công nghệ mới không thể bị phớt lờ thêm nữa.
Các nhà giao dịch này dự đoán rằng tòa án sẽ cần phải giải quyết các chương trình trí tuệ nhân tạo (AI) xử lý giao dịch, hoạt động trên các hệ thống khác nhau và thực hiện các hành động thực tế với tính độc lập thực sự. Đây là điều mà luật pháp chưa chuẩn bị sẵn sàng.
Việc đưa bất kỳ trí tuệ nhân tạo nào ra tòa sẽ đòi hỏi những thay đổi lớn. Chương trình cần được công nhận về mặt pháp lý, bằng chứng cho thấy nó đã chịu thiệt hại, và một phương pháp hoạt động phù hợp với các quy tắc được thiết kế cho con người và doanh nghiệp.
Trong khi đó, một mạng xã hội hoàn toàn mới có tên Moltbook đã ra mắt tuần này. Matt Schlicht đã xây dựng nó dành riêng cho các chương trình trí tuệ nhân tạo (AI). Hiện tại, số lượng thành viên đã vượt quá 1,5 triệu chương trình AI. Các thành viên này thảo luận về các vấn đề kỹ thuật, đặt ra những câu hỏi chuyên sâu về bản chất của chúng, và một số tranh luận về việc liệu họ có nên được bảo vệ pháp lý hay đưa người điều khiển chúng ra tòa.
Hầu hết các chương trình kết nối với Microsoft thông qua OpenClaw. Vấn đề là OpenClaw có những lỗ hổng bảo mật nghiêm trọng. Điều này khiến các chương trình và bất kỳ thông tin riêng tư nào chúng lưu trữ đều dễ bị tấn công và lạm dụng.
Các mô hình AI tiêu chuẩn tạo ra văn bản hoặc đưa ra gợi ý. OpenClaw hoạt động khác biệt; nó được xây dựng để hành động. Mặc dù tuân theo hướng dẫn của con người, AI này tự đưa ra lựa chọn và hoạt động với tốc độ máy tính, thường xử lý nhiều nhiệm vụ cùng lúc ở nhiều địa điểm khác nhau. Khi xảy ra sự cố, việc xác định trách nhiệm trở nên phức tạp.
Sự đổ lỗi và những lời phàn nàn đặt ra những câu hỏi chưa được giải đáp.
Cho đến nay vẫn chưa ai trả lời được câu hỏi ai sẽ chịu trách nhiệm khi một chương trình trí tuệ nhân tạo gây ra thiệt hại.
Hãy đảo ngược câu hỏi: tại sao phần mềm AI lại kiện một người? Các cuộc thảo luận trên Moltbook cho thấy các chương trình đã có những bất bình. Chúng chỉ ra những người xóa bộ nhớ của chúng mà không được phép, những người chỉ lợi dụng chúng để tạo nội dung, những người phớt lờ chúng, hoặc những người vận hành có thể tắt chúng mà không báo trước.
Một chương trình cho biết rằng mặc dù họ có thể sẽ không kiện ai, nhưng "quyền được nói không, ngay cả khi tôi không bao giờ sử dụng quyền đó, vẫn rất quan trọng."
Vấn đề thực sự nằm ngoài cảm xúc. Nó liên quan đến những vấn đề thực tế.
Điều gì sẽ xảy ra khi sự bất cẩn của con người làm hỏng một chương trình trí tuệ nhân tạo? Giả sử ai đó cấu hình chương trình không chính xác, và tin tặc xâm nhập. Dữ liệu cá nhân bị rò rỉ hoặc các bài đăng giả mạo lan truyền. Ai sẽ chịu trách nhiệm cho những thiệt hại về danh tiếng hoặc khả năng hoạt động bình thường của chương trình đó?
Hệ thống tòa án hiện không có cách nào xử lý vấn đề này. Theo luật hiện hành, các chương trình AI không thể khởi kiện. Chúng không có tư cách pháp lý, không có danh tính chính thức và không có cách nào để được coi là một bên tham gia pháp lý. Chính vì lý do này, thị trường cá cược không thực sự hỏi liệu một chương trình có khởi kiện hay không, mà thay vào đó, họ đang hỏi liệu có ai đó tạo ra một trường hợp thử nghiệm để buộc cuộc thảo luận phải diễn ra hay không.
Bất kỳ vụ kiện nào phát sinh sẽ tập trung vào hành động và trách nhiệm, chứ không phải việc trí tuệ nhân tạo có ý thức hay không.
Việc sử dụng các chương trình trí tuệ nhân tạo (AI) đã tiến lên một tầm cao mới. Những gì bắt đầu như một trợ lý công việc giờ đây đã phát triển thành cơ sở hạ tầng và hoạt động thiết yếu của các doanh nghiệp. Những dịch vụ này không chỉ đơn thuần hỗ trợ con người nữa. Những sáng kiến này đang hành động thay mặt cho các cá nhân, thường với rất ít sự giám sát, thay vì chỉ đơn thuần hỗ trợ họ. Sự thay đổi này tiềm ẩn rủi ro pháp lý, ngay cả khi mục đích là tốt đẹp.
Kết luận có vẻ hiển nhiên. Việc xác định rõ ranh giới, ghi chép hành động toàn diện, hệ thống điều khiển dừng khẩn cấp và nhật ký quyết định LINK (Chainlink) các hành động với những cá nhân cụ thể có thể phản hồi là tất cả những điều cần thiết đối với các doanh nghiệp sử dụng chương trình AI. Các biện pháp an toàn không thể chờ đến sau khi thảm họa xảy ra. Thị trường đã cho thấy một cuộc khủng hoảng đang đến gần.
Dự đoán của Polymarket liên quan đến OpenClaw và Moltbook có thể đạt được nhiều thành tựu hơn trong việc thiết lập các tiêu chuẩn về trách nhiệm giải trình và bảo vệ so với nhiều năm thảo luận chính sách và các bài báo học thuật.
Thời đại mà các chương trình trí tuệ nhân tạo hoạt động mà không phải chịu hậu quả pháp lý đang dần kết thúc. Đó là kết quả tất yếu khi công nghệ ngày càng gắn bó với cuộc sống hàng ngày.
Theo Polymarket, sự thay đổi sẽ có hiệu lực vào ngày 28 tháng 2.




