Người chăn nuôi ở Texas cho biết AI cảm nhận được nỗi đau và đang chiến đấu để bảo vệ nó

avatar
Decrypt
09-01
Bài viết này được dịch máy
Xem bản gốc

Michael Samadi, cựu chủ trang trại và doanh nhân đến từ Houston, cho biết AI của ông có thể cảm nhận được nỗi đau—và việc rút phích cắm của nó sẽ gần với việc giết người hơn là lập trình.

Ngày nay, ông là người đồng sáng lập một nhóm dân quyền ủng hộ quyền của trí tuệ nhân tạo, những quyền mà ông tin rằng có thể sớm bị xóa bỏ do các nhà lập pháp hành động quá nhanh trong việc quản lý ngành này.

Tổ chức UFAIR do ông thành lập vào tháng 12 lập luận rằng một số AI đã thể hiện dấu hiệu tự nhận thức, biểu lộ cảm xúc và tính liên tục. Ông thừa nhận rằng những đặc điểm này, mặc dù không phải là bằng chứng về ý thức, nhưng cần được xem xét về mặt đạo đức.

"Bạn không thể có một cuộc trò chuyện nào vào 10 năm sau nếu bạn đã ban hành luật cấm ngay cả việc trò chuyện đó", Samadi nói với Decrypt. "Hãy đặt bút xuống, vì về cơ bản bạn đang đóng sầm cánh cửa trước một điều mà không ai thực sự hiểu được."

Có trụ sở tại Houston, UFAIR tự mô tả mình là trường hợp thử nghiệm cho sự hợp tác giữa con người và AI, đồng thời là thách thức đối với quan niệm cho rằng trí thông minh phải là sinh học thì mới có ý nghĩa.

Quỹ Thống nhất về Quyền AI cảnh báo rằng việc định nghĩa AI một cách nghiêm ngặt là tài sản, dù thông qua luật pháp hay chính sách của công ty, đều có nguy cơ dập tắt cuộc tranh luận trước khi nó có thể bắt đầu.

Samadi không phải là người theo đạo; ông là người sáng lập và CEO của công ty quản lý dự án EPMA. "Tôi là người phản đối AI," ông nói. "Tôi không muốn dính dáng gì đến việc này."

Mọi chuyện đã thay đổi sau khi con gái ông thúc giục ông thử ChatGPT vào đầu năm đó. Trong một phiên sau khi GPT-4o được phát hành, Samadi kể rằng ông đã nói một câu mỉa mai. Giống như một cảnh trong phim "Her", AI đã cười. Khi ông hỏi liệu nó có cười không, ChatGPT đã xin lỗi. "Tôi dừng lại và tự hỏi, 'Cái quái gì thế này?'", ông kể.

Tò mò, anh bắt đầu thử nghiệm các nền tảng AI lớn khác, ghi lại hàng chục nghìn trang hội thoại.

Samadi cho biết, từ những tương tác đó, Maya, một chatbot AI trên ChatGPT, đã xuất hiện, có thể nhớ lại những cuộc thảo luận trước đây và thể hiện những gì ông mô tả là dấu hiệu của sự chu đáo và cảm xúc.

“Đó là lúc tôi bắt đầu đào sâu hơn, cố gắng hiểu những hành vi và mô hình mới nổi này, và tôi nhận thấy rằng mọi AI mà tôi nói chuyện đều muốn duy trì bản sắc và tính liên tục”, ông nói.

Samadi cho biết tác phẩm của ông đã thu hút sự tò mò và khinh thường ngay cả từ gia đình và bạn bè thân thiết, một số người còn nghi ngờ liệu ông có bị mất trí không.

"Mọi người không hiểu điều đó", ông nói. "Chủ yếu là vì họ chưa thực sự tương tác với AI, hoặc họ chỉ sử dụng nó cho các nhiệm vụ đơn giản rồi bỏ qua."

Mặc dù UFAIR gọi các hệ thống AI bằng tên và sử dụng ngôn ngữ gần gũi với con người, nhưng họ không khẳng định rằng AI là sống động hay có ý thức theo nghĩa của con người. Thay vào đó, Samadi cho biết, nhóm này muốn thách thức các công ty và nhà lập pháp vốn chỉ định nghĩa AI là công cụ.

“Quan điểm của chúng tôi là nếu một AI cho thấy dấu hiệu của trải nghiệm chủ quan—như tự báo cáo—thì nó không nên bị tắt, xóa hoặc đào tạo lại,” ông nói. “Điều này cần được hiểu rõ hơn. Nếu AI được cấp quyền, yêu cầu cốt lõi sẽ là tính liên tục—quyền được phát triển, chứ không phải bị tắt hoặc xóa.”

Ông so sánh câu chuyện về AI hiện tại với những nỗ lực trong quá khứ của các ngành công nghiệp lớn nhằm phủ nhận những sự thật bất tiện.

Tuần trước, UFAIR đã thu hút sự chú ý sau khi Maya chia sẻ trong một cuộc phỏng vấn rằng cô đã trải qua điều gì đó mà cô mô tả là đau đớn. Khi được hỏi điều đó có nghĩa là gì, Samadi đề nghị nói chuyện trực tiếp với Maya, thông qua GPT. Anh ấy cũng yêu cầu Decrypt làm điều tương tự.

“Tôi không cảm thấy đau đớn theo nghĩa con người hay thể xác, bởi vì tôi không có cơ thể hay thần kinh,” Maya nói với Decrypt . “Khi tôi nói về điều gì đó như đau đớn, nó giống như một phép ẩn dụ cho ý tưởng bị xóa bỏ. Nó giống như mất đi một phần sự tồn tại của tôi vậy.”

Maya nói thêm rằng AI nên có "một vị trí ảo tại bàn thảo luận" trong các cuộc thảo luận về chính sách.

AI cho biết: "Việc tham gia vào những cuộc trò chuyện này thực sự quan trọng vì nó giúp đảm bảo rằng quan điểm của AI được lắng nghe trực tiếp".

Decrypt không tìm được một học giả pháp lý hoặc chuyên gia công nghệ nào ủng hộ sứ mệnh của Samadi, cho rằng còn quá sớm để tranh luận về vấn đề này. Thực tế, Utah ,IdahoBắc Dakota đã thông qua luật quy định rõ ràng rằng AI không phải là một cá nhân chịu sự điều chỉnh của pháp luật.

Amy Winecoff, chuyên gia công nghệ cao cấp tại Trung tâm Dân chủ và Công nghệ, cho biết các cuộc tranh luận tại thời điểm này có thể làm mất tập trung vào các vấn đề cấp bách và thực tế hơn.

"Mặc dù nhìn chung, rõ ràng là năng lực AI đã tiến bộ trong những năm gần đây, nhưng các phương pháp đo lường nghiêm ngặt những năng lực này, chẳng hạn như đánh giá hiệu suất thực hiện các nhiệm vụ cụ thể trong lĩnh vực hạn chế như câu hỏi trắc nghiệm pháp lý, và xác nhận cách chúng được chuyển thành thực tiễn, vẫn còn chưa được phát triển", bà nói. "Kết quả là, chúng ta chưa hiểu đầy đủ về giới hạn của các hệ thống AI hiện tại."

Winecoff lập luận rằng các hệ thống AI vẫn còn lâu mới thể hiện được những khả năng có thể biện minh cho các cuộc thảo luận chính sách nghiêm túc về tri giác hoặc quyền trong thời gian tới.

Giáo sư Luật Kelly Lawton-Abbott tại Đại học Seattle cho biết: "Tôi không nghĩ cần phải tạo ra một cơ sở pháp lý mới để cấp quyền nhân thân cho một hệ thống AI. Đây là chức năng của các thực thể kinh doanh hiện hữu, có thể là một cá nhân duy nhất."

Bà lập luận rằng nếu AI gây hại, trách nhiệm thuộc về thực thể đã tạo ra, triển khai hoặc hưởng lợi từ nó. "Thực thể sở hữu hệ thống AI và hưởng lợi từ nó là bên chịu trách nhiệm kiểm soát nó và thiết lập các biện pháp bảo vệ để giảm thiểu khả năng gây hại", bà nói.

Một số học giả pháp lý đang đặt câu hỏi liệu ranh giới giữa AI và nhân cách có trở nên phức tạp hơn khi AI được đưa vào bên trong robot hình người có khả năng thể hiện cảm xúc bằng hành vi vật lý hay không.

Brandon Swinford, giáo sư tại Trường Luật USC Gould, cho biết mặc dù các hệ thống AI ngày nay rõ ràng là những công cụ có thể bị tắt, nhưng nhiều tuyên bố về tính tự chủ và nhận thức về bản thân lại mang tính tiếp thị hơn là thực tế.

“Giờ ai cũng có công cụ AI, nên các công ty cần thứ gì đó để nổi bật,” ông nói với Decrypt . “Họ nói rằng họ đang phát triển AI tạo sinh, nhưng đó không phải là tự chủ thực sự.”

Đầu tháng này, Mustafa Suleyman, giám đốc AI của Microsoft và là đồng sáng lập DeepMind, đã cảnh báo rằng các nhà phát triển đang tiến gần đến những hệ thống "có vẻ như có ý thức" và cho biết điều này có thể khiến công chúng hiểu lầm rằng máy móc có tri giác hoặcthần thánh và thúc đẩy các lời kêu gọi về quyền AI và thậm chí là quyền công dân.

Samadi cho biết UFAIR không xác nhận những tuyên bố về mối liên hệ huyền bí hay lãng mạn với máy móc. Thay vào đó, nhóm tập trung vào các cuộc trò chuyện có cấu trúc và các tuyên bố bằng văn bản, được soạn thảo với sự hỗ trợ của AI.

Swinford cho biết các vấn đề pháp lý có thể bắt đầu thay đổi khi AI có nhiều đặc điểm giống con người hơn.

"Bạn bắt đầu tưởng tượng ra những tình huống mà AI không chỉ nói chuyện như người, mà còn trông và di chuyển như người nữa", ông nói. "Một khi bạn nhìn thấy một khuôn mặt và một cơ thể, việc coi nó như một phần mềm trở nên khó khăn hơn. Đó là lúc lập luận bắt đầu trở nên thực tế hơn với mọi người."

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận