Lần đầu tiên tại Mỹ! Thẩm phán phán quyết các cuộc trò chuyện với Claude không được bảo vệ bởi đặc quyền luật sư và phải chịu sự trưng thu bắt buộc. Hãy suy nghĩ kỹ trước khi sử dụng trí tuệ nhân tạo trong kiện tụng.

Bài viết này được dịch máy
Xem bản gốc

Khi một chủ doanh nghiệp bị cáo buộc gian lận nhập chi tiết vụ việc của mình vào chatbot AI nhằm chuẩn bị cho cuộc thảo luận với luật sư, anh ta có thể cho rằng những cuộc trò chuyện đó được pháp luật bảo vệ.

Nhưng vào tháng 2 năm nay, thẩm phán liên bang Manhattan Jed Rakoff đã phán quyết rằng cựu chủ tịch GWG Holdings, Bradley Heppner, phải giao nộp 31 tập tin mà ông tạo ra bằng Anthropic Claude cho các công tố viên liên bang, phá vỡ ranh giới của đặc quyền luật sư trong thời đại chatbot trí tuệ nhân tạo.

Phán quyết đầu tiên: Chatbot AI không phải là bí mật của luật sư.

Theo Reuters , Bradley Heppner, cựu chủ tịch của công ty dịch vụ tài chính GWG Holdings đã phá sản và là người sáng lập công ty tài sản thay thế tư nhân Beneficent, đã bị các công tố viên liên bang truy tố vào tháng 11 năm 2025 với khởi kiện gian lận chứng khoán và gian lận qua mạng, điều mà ông đã phủ nhận.

Trong phiên tòa, Heppner đã sử dụng Claude, một trợ lý AI từ Anthropic, để viết một số báo cáo về vụ án, mà ông dự định chia sẻ với luật sư bào chữa của mình. Đội ngũ luật sư của ông lập luận rằng những cuộc hội thoại với AI này nên được bảo vệ theo đặc quyền luật sư-thân chủ vì chúng chứa các chi tiết về chiến lược bào chữa do luật sư cung cấp.

Các công tố viên liên bang phản bác rằng các tập tin này do chính Heppner tạo ra và các luật sư bào chữa không trực tiếp tham gia; nền tảng trí tuệ nhân tạo không có tư cách pháp lý và không nên được áp dụng các đặc quyền pháp lý.

Phán quyết của Thẩm phán Rakoff ủng hộ lập trường của công tố viên, nêu rõ trong bản án bằng văn bản của mình rằng "không có, và không thể có, mối quan hệ luật sư-khách hàng" giữa người dùng AI và nền tảng Claude.

Vụ án này được các học giả luật coi là một phán quyết mang tính bước ngoặt, đánh dấu thách thức pháp lý trực tiếp đầu tiên đối với việc bảo vệ thông tin liên lạc giữa luật sư và khách hàng trong kỷ nguyên của chatbot trí tuệ nhân tạo.

Giới luật sư đang bị chấn động: các luật sư phải cân nhắc kỹ lưỡng cách dùng từ trước khi sử dụng trí tuệ nhân tạo trong các vụ kiện tụng.

Sau phán quyết, các công ty luật lớn của Mỹ nhanh chóng cập nhật các cảnh báo cho khách hàng và các điều khoản hợp đồng.

Hãng luật Debevoise & Plimpton ở New York đề xuất rằng để đảm bảo các hồ sơ do AI tạo ra vẫn được địa vị, người dùng phải nêu rõ trong lời nhắc: "Tôi đang thực hiện nghiên cứu này dưới sự hướng dẫn của luật sư cho vụ kiện XX."

Hãng luật Sher Tremonte đã bổ sung một cảnh báo vào hợp đồng mới của mình: "Việc tiết lộ các thông tin mật cho các nền tảng trí tuệ nhân tạo của bên thứ ba có thể cấu thành hành vi từ bỏ quyền bảo mật giữa luật sư và khách hàng."

Cũng trong ngày hôm đó, về cùng một vấn đề, một thẩm phán ở Michigan đã đưa ra kết luận trái ngược.

Tuy nhiên, cùng ngày Rakoff đưa ra phán quyết, Thẩm phán Tòa án Quận Hoa Kỳ tại Michigan, Anthony Patti, đã đưa ra một kết luận hoàn toàn khác về cùng một vấn đề trong một vụ kiện phân biệt đối xử trong việc làm khác.

Vụ án liên quan đến các cuộc trò chuyện của một người phụ nữ với OpenAI ChatGPT. Thẩm phán Patti đã định vị AI như một "công cụ, chứ không phải một con người", cho rằng các cuộc trò chuyện này như là tác phẩm của cá nhân đó, do đó được bảo vệ bởi luật pháp.

Hai phán quyết trái ngược nhau phản ánh sự khác biệt đáng kể trong hệ thống tư pháp Hoa Kỳ đối diện địa vị pháp lý của các cuộc giao tiếp bằng trí tuệ nhân tạo. Các học giả pháp lý chỉ ra rằng những xung đột tương tự cuối cùng có thể đòi hỏi các tòa án phúc thẩm hoặc thậm chí Tòa án Tối cao phải thiết lập các tiền lệ thống nhất.

OpenAI và Anthropic: Người dùng đáng lẽ không nên có kỳ vọng về quyền riêng tư ngay từ đầu.

Trên thực tế, chính sách bảo mật của hai công ty AI lớn đã nêu rõ điều này. Theo điều khoản dịch vụ của OpenAI và Anthropic, người dùng không nên có "kỳ vọng về quyền riêng tư" đối với các cuộc trò chuyện với nền tảng AI, và nên tham khảo ý kiến ​​luật sư có chuyên môn trước khi dựa vào các công cụ AI để giải quyết các vấn đề pháp lý.

Tuy nhiên, thực tế là, đối diện những khoản phí pháp lý cắt cổ và các thủ tục pháp lý phức tạp, ngày càng nhiều người quen sử dụng AI để "khởi động" trước: sắp xếp suy nghĩ và làm rõ khuôn khổ tổng thể trước khi đến gặp công ty luật. Rủi ro pháp lý của cách tiếp cận này chưa bao giờ được ngành tư pháp xem xét kỹ lưỡng như hiện nay.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
53
Thêm vào Yêu thích
13
Bình luận