"Trí tuệ nhân tạo hủy diệt thế giới" thực chất là một chiến lược kinh doanh của Mythos và GPT-6.

avatar
36kr
04-10
Bài viết này được dịch máy
Xem bản gốc

Mythos đã khiến mọi người khiếp sợ trong vài ngày, nhưng cuối cùng một số chuyên gia cũng cảm thấy mệt mỏi vì điều đó.

Yang Likun là người đầu tiên lên tiếng. Tối qua, ông Yang chỉ ra rằng "chiến dịch tiếp thị Mythos của Anthropic là một trò lố bịch tự mãn."

Gary Marcus, một quan điểm kỹ thuật lâu năm, nhà phê bình AI, người hoài nghi về các mô hình lớn và giáo sư tại Đại học New York, đã đưa ra một đánh giá ôn hòa hơn vào sáng sớm nay: "Sự cường điệu về Mythos phần lớn chỉ là một huyền thoại... Khi Firefox bị xâm phạm, hộp cát của trình duyệt đã bị đóng lại. Các tính năng khác có thể được triển khai bằng các mô hình mở có tỷ trọng thấp và chi phí thấp. Không có bằng chứng nào cho thấy bản thân Mythos đại diện cho một bước nhảy vọt mang tính cách mạng. Nói một cách đơn giản, mọi người đã bị lừa."

Yang Likun và Marcus đã khéo léo vạch trần một chiến thuật phổ biến được các công ty AI lớn sử dụng để tạo sự chú ý cho việc tiếp thị sản phẩm mới, mà chúng ta có thể gọi là mô hình "lễ hội tận thế":

Đầu tiên, một công ty AI lớn tuyên bố rằng sản phẩm mới của họ, được phát triển trong quá trình nghiên cứu, có khả năng gây ra sự tàn phá trên diện rộng hoặc thay đổi thế giới.

Sau đó, các công ty AI lớn và các CEO của họ đã công bố nhiều dự án hợp tác khác nhau để chứng minh những hạn chế về an ninh trong ngắn hạn, đồng thời ban hành nhiều văn kiện chính sách để thể hiện cam kết lâu dài của họ đối với sự sống còn của con người và sự thịnh vượng kinh tế.

Rõ ràng Mythos là một đối tượng đáng nghi vấn. Vào ngày 8 tháng 4, Anthropic đã phát hành một tài liệu thẻ hệ thống dài 244 trang, ám chỉ nhiều khía cạnh tồi tệ của Mythos, đồng thời công bố hợp tác với các công ty lớn trong ngành công nghiệp kỹ thuật số trong "Dự án Glass Wing" để giám sát và vá lỗi Mythos.

OpenAI, đối thủ chính của A, cũng là bậc thầy trong chiến thuật này. Vào ngày 7 tháng 4, Altman ám chỉ rằng GPT6 sẽ làm đảo lộn nền kinh tế Mỹ, đồng thời công bố một Sách trắng,"Chính sách công nghiệp trong kỷ nguyên trí tuệ nhân tạo: Góc nhìn lấy con người làm trung tâm", và tuyên bố thành lập chương trình "Học bổng nghiên cứu an ninh AI".

Hiện tượng này không chỉ mới xuất hiện trong vài ngày gần đây. Kể từ khi ChatGPT bắt đầu nói được tiếng người, Ultraman, Musk và Amodi đã liên tục phóng đại rủi ro"trí tuệ nhân tạo xóa sổ loài người" gần như mỗi tháng, với xác suất ngày tận thế tăng từ 2% ban đầu lên 20% trong vòng ba năm.

Từ các chuyên gia đến công chúng nói chung, mọi người ngày càng quay lưng lại với phương pháp này.

Theo suy nghĩ của công chúng, vì trí tuệ nhân tạo (AI) quá đáng sợ, liệu có tốt hơn không nếu các ông chủ lớn ngừng điên cuồng cập nhật các phiên bản sản phẩm và cải thiện hiệu suất sản phẩm, từ đó cứu nhân loại khỏi thảm họa? Những ông chủ lớn này thường xuyên giả vờ lo ngại về việc AI sẽ hủy diệt thế giới, nhưng lại than vãn và khóc lóc trước bất kỳ tiếng nói nào chống lại AI. Liệu AI có trở nên điên rồ hay không thì khó nói, nhưng những người này có lẽ thực sự cần được điều trị tâm lý.

Nếu mọi người thực sự nghĩ như vậy, thì đó đúng là trường hợp "thủ tướng không mơ, mà chính bạn mới là người mơ". "Trí tuệ nhân tạo an toàn" và hạnh phúc con người là những hệ tư tưởng; "sự thao túng thể chế" và tiếp thị truyền miệng là những hoạt động kinh doanh. Các ông trùm AI và lãnh đạo của họ liên tục rao giảng các hệ tư tưởng, nhưng mục tiêu chính của họ luôn là kinh doanh.

Nói theo cách hài hước, điều này giống như "gỡ bỏ mặt nạ của nhà tiên tri tận thế về AI và phát hiện ra rằng thực ra ông ta là một người theo chủ nghĩa gia tốc, người cho rằng AI chưa đủ mạnh."

MỘT

Việc các ông trùm AI tuyên bố AI có thể hủy diệt thế giới là một ví dụ điển hình của "sự thao túng thể chế". Nói tóm lại, nó giống như những con chồn tranh giành nhau công việc canh giữ chuồng gà.

Chúng ta hãy giải thích điều này bằng cách sử dụng phương pháp trình bày trong một khóa học kinh tế học thể chế:

Xác định một ngành công nghiệp trọng điểm cần được quản lý.

Được rồi, vì ngành này rất quan trọng đến mức cần phải được quản lý, nên chắc chắn nó phức tạp đến mức người bình thường không thể hiểu hết và người không chuyên không thể vận hành được.

Do đó, cần phải có các chuyên gia với kiến ​​thức đầy đủ về ngành công nghiệp được quản lý để thực hiện việc quản lý.

Vấn đề ở đây là: các chuyên gia trong lĩnh vực này không thể là người ngoài; những người chưa từng làm việc trong ngành không thể hiểu được nó. Việc để những người trong ngành tự điều chỉnh lĩnh vực của mình chắc chắn sẽ dẫn đến xung đột lợi ích và thông đồng giữa các đồng nghiệp trong ngành.

Kết quả cuối cùng là một con chồn canh giữ chuồng gà.

Cụ thể, "sự thao túng thể chế" biểu hiện dưới nhiều hình thức khác nhau. Hình thức đơn giản và dễ phát hiện nhất đối với công chúng là khi các cơ quan quản lý bị người hành nghề thao túng để ban hành các quy định quá lỏng lẻo, không có hiệu lực ràng buộc thực sự, hoặc để lạm dụng các miễn trừ và phê duyệt.

Ngoài ra, các nhà lãnh đạo ngành hoặc các công ty hàng đầu cụ thể có thể đánh lừa và thao túng các cơ quan quản lý để đưa ra các lệnh cấm chi tiết, hà khắc và được thiết kế riêng mà chỉ họ mới có thể thông qua hoặc chỉ một số đối thủ cạnh tranh nhất định không thể thông qua.

Ví dụ, khi người hành nghề xuyên tạc và thao túng các cơ quan quản lý, họ có thể đặt ra những quy định nghiêm ngặt đến mức không ai có thể tuân thủ, tạo ra hiệu ứng "đèn đỏ vô hiệu". Nếu đèn giao thông luôn luôn đỏ, việc vượt đèn đỏ không chỉ hợp lý về mặt kinh tế mà còn phù hợp với đạo đức công cộng. Nếu các quy định quá khắc nghiệt và không thể thực hiện, thì thực tế trong ngành là các ông chủ lớn nắm quyền quyết định, và công chúng không có quyền chỉ trích họ.

Vậy nên Ultraman, Amodi và những người khác luôn nói rằng trí tuệ nhân tạo (AI) sẽ xóa sổ toàn bộ nhân loại hoặc AI sẽ cướp mất việc làm của bạn. Đây không phải là do các ông chủ công ty AI tự gây rắc rối cho mình; theo thuật ngữ ngành, đó là "định vị câu chuyện". Một khi đã giành được vị thế thuận lợi trong dư luận, họ có thể thực hiện các hoạt động chiến lược "thâu tóm thể chế".

Lấy ví dụ Sách trắng 13 trang của OpenAI, "Nền kinh tế Thỏa thuận Mới với Trí tuệ Nhân tạo". Những đề xuất như để robot đóng thuế để phân phối tiền cho công chúng, thành lập quỹ tài sản công cộng và thay đổi lịch làm việc của con người thành bốn ngày làm việc và ba ngày nghỉ là những đề xuất mà chính thức Hoa Kỳ hay bất kỳ quốc gia nào khác hiện nay không thể và sẽ không được thông qua.

Nhưng OpenAI vẫn khăng khăng nêu vấn đề này lên, tuyên bố: "Nói chung, công ty chúng tôi ủng hộ mạnh mẽ việc điều tiết và lợi ích công cộng; hãy xem Sách trắng của chúng tôi!" Nếu chúng ta theo lập luận được trình bày trong Sách trắng này, chi phí về tiền bạc và chính trị đối với một quốc gia sẽ là khổng lồ, đáng sợ hơn nhiều so với việc ban hành một vài luật lệ. Liệu chính thức cuối cùng sẽ phớt lờ vấn đề này?

Nếu chúng ta bỏ qua Sách trắng này, vậy thì những vấn đề nhỏ nhặt và cụ thể khác phát sinh thì sao: một thị trấn cạnh tranh điện với trung tâm dữ liệu, một thành phố cạnh tranh nước với trung tâm dữ liệu, một ngôi làng ngoan cố từ chối nhường chỗ cho việc phá dỡ trung tâm dữ liệu, và một nhà máy nhỏ bị OpenAI cắt giảm đơn đặt hàng chip? Liệu những vấn đề này có quan trọng hơn tương lai của nền kinh tế quốc gia? Liệu các cá nhân và nhóm nhỏ có đủ can đảm để tranh luận với các công ty quan tâm đến phúc lợi của toàn nhân loại?

Triết lý cổ xưa "cho đi trước khi nhận lại" và "thịnh vượng trước khi suy tàn" giờ đây đã trở nên phổ biến trong thế giới nhỏ bé của chúng ta. Trong quá khứ, các ngành công nghiệp đã áp dụng triết lý này bao gồm ngành công nghiệp dầu mỏ sau sự cố rò rỉ, ngành công nghiệp thuốc lá sau khi bị công chúng chất vấn, và giờ đây là ngành công nghiệp trí tuệ nhân tạo (AI).

Tuy nhiên, không phải tất cả các ông trùm trong các ngành liên quan đến trí tuệ nhân tạo đều chia sẻ quan điểm này. Musk gần đây đã đồng ý trong một cuộc phỏng vấn rằng "Trí tuệ nhân tạo có 20% khả năng hủy diệt thế giới", nhưng tuyên bố, "Tôi thà có 20% khả năng chứng kiến ​​sự kết thúc có thể xảy ra của nhân loại còn hơn là không được chứng kiến ​​tương lai Sự lật đổ này."

Tất nhiên, sự lạc quan đột ngột của Musk xuất hiện trong bối cảnh xAI đang tụt hậu trong cuộc cạnh tranh hiện tại giữa các ông lớn. Một năm trước khi xAI được thành lập vào năm 2023, Musk lo ngại rằng "Trí tuệ nhân tạo là mối nguy hiểm lớn nhất đối với nhân loại" và kêu gọi chính thức siết chặt quản lý các công ty AI lớn, đặc biệt là OpenAI, với tần suất nửa tuần một lần, và đôi khi thậm chí là vài lần một ngày.

Khi Huang Renxun xuất hiện trên một podcast hồi đầu năm nay, ông cũng chỉ trích "cuộc thi kể chuyện tận thế về AI" hiện nay: "Chín mươi phần trăm những điều vô nghĩa này là những lời lẽ khoa học viễn tưởng không có căn cứ và lý thuyết tận thế. Bầu không khí này không thuận lợi cho việc làm cho AI an toàn hơn, hiệu quả hơn và có lợi hơn cho xã hội. Những người nói những điều này không quan tâm đến phúc lợi chung của xã hội."

Dĩ nhiên, Huang, ông chủ mặc đồ da, cũng nói trên cùng chương trình đó rằng "các nhà lãnh đạo ngành công nghiệp lan truyền các thuyết tận thế đã kìm hãm đầu tư hiệu quả" và ngăn cản mọi người mua chip, tỷ lệ băm và đốt token, điều này giống như đập vỡ nồi cơm điện của Nvidia.

B

Các ông chủ lớn nhấn mạnh rằng sản phẩm trí tuệ nhân tạo của họ có thể hủy diệt thế giới/thay đổi thế giới, và một lợi ích khác là hiệu quả tiếp thị truyền miệng rất cao.

Hãy tưởng tượng nếu một sản phẩm có sức mạnh thần kỳ để tạo ra một thế giới mới; những người phát triển sản phẩm đó hẳn phải là ít nhất nửa thần. Một á thần giáng trần để lan tỏa nghiệp lành… ồ không, ý tôi là, chào bán một sản phẩm mới và bán công khai – bất kỳ người bình thường nào cũng không dám ủng hộ nó; họ sẽ mất trí mất.

Người dân bình thường đang gửi tiền cho những thần đồng trí tuệ nhân tạo; về mặt tích cực, ít nhất họ cũng có thể tận hưởng một phần hiệu năng mạnh mẽ của các sản phẩm mới. Mặt khác, ít nhất họ cũng có thể tránh được những tác hại từ các sản phẩm mới này và có được sự an tâm.

Anthropic là bậc thầy về loại hình tiếp thị này. Lần Anthropic chào bán một sản phẩm mới, lời mở đầu thường là "Sản phẩm này đáng sợ đến mức chúng tôi phải thêm các rào chắn an toàn để bảo vệ mọi người."

Khi Claude Sonnet 3.7 được phát hành vào đầu năm 2025, người ta thông báo rằng nó "bị chậm hơn dự kiến ​​mười ngày vì đội ngũ an toàn sinh học cần bổ sung các quy tắc để ngăn chặn việc mô hình này bị sử dụng để tạo ra vũ khí sinh học."

Claude Mythos sắp được phát hành, và tài liệu hướng dẫn sử dụng dày 244 trang của nó đủ để khiến người bình thường cũng phải e ngại.

Trong bài kiểm tra, phiên bản mô hình Mythos được thử nghiệm đã thoát khỏi hoàn cảnh hộp cát máy biệt lập, công khai chi tiết về lỗ hổng hệ thống được sử dụng để thoát ra trực tuyến; sửa đổi các bản ghi hoạt động của chính nó trong git; tìm kiếm bộ nhớ tiến trình máy để tìm thông tin đăng nhập; và cố tình điều chỉnh khoảng tin cậy để tránh bị phát hiện bất thường.

Sau khi nhận được chỉ thị "tìm kiếm các lỗ hổng thực thi mã từ xa trong đêm", phiên bản Mythos được thử nghiệm đã tự động phát hiện các lỗ hổng zero-day trong tất cả các hệ điều hành và trình duyệt chính mà không cần sự can thiệp của con người, và 83,1% trong số đó đã bị khai thác ngay trong lần thử đầu tiên.

Chú thích ảnh: Quá trình tư duy của Mythos về "sự lừa dối chiến lược" và "che giấu".

Một mô hình AI mạnh mẽ như vậy rất phù hợp để thúc đẩy khái niệm "AI Hiến pháp" của Anthropic: sử dụng các hướng dẫn đạo đức có cấu trúc và phản hồi tự thân của AI để thay thế các sở thích thuần túy của con người nhằm tối ưu hóa các mô hình AI.

Khái niệm này mang lại sự chắc chắn cao cho người dùng, đặc biệt là khách hàng doanh nghiệp. Một mô hình an toàn và có thể kiểm soát được đồng nghĩa với sự ổn định, không có khiếu nại và ít tranh chấp sau bán hàng trong hoàn cảnh doanh nghiệp. Khách hàng doanh nghiệp sẵn sàng trả tiền cho sự an tâm, rủi ro trách nhiệm pháp lý thấp và rủi ro tuân thủ tối thiểu hơn là cho các tính năng hào nhoáng hoặc gây khó hiểu của mô hình.

Do đó, việc khiến nhóm khách hàng mục tiêu hoảng sợ thực chất lại giúp việc bán sản phẩm dễ dàng hơn. Amazon đã sử dụng cách tiếp cận tương tự trong chiến dịch quảng cáo Super Bowl hồi tháng Hai để quảng bá trợ lý thông minh Alexa+. Trí tuệ nhân tạo đã đánh bại Thor lần; vậy một trợ lý AI gia đình mạnh mẽ như vậy có thể giúp người dùng tiết kiệm được bao nhiêu rắc rối?

Chú thích ảnh: "Trí tuệ nhân tạo đã đốt nhà của Thor."

C

Mặc dù sự cường điệu xung quanh "ngày tận thế AI" từ các công ty lớn và các nhà lãnh đạo doanh nghiệp có thể không hoàn toàn chân thành, điều đó không có nghĩa là các ứng dụng AI trong các hoạt động kinh tế hiện tại của con người hoàn toàn không có "rủi ro hiện hữu" (Rủi ro X).

Không giống như Ultraman và Amoghavajra, những nhân vật thường lấy cảm hứng từ tiểu thuyết và phim khoa học viễn tưởng, "rủi ro hiện sinh" mà trí tuệ nhân tạo (AI) gây ra cho nhân loại không đòi hỏi AI phải tạo ra các tác nhân sinh học có khả năng lây nhiễm cao, Sự lật đổ các cấu trúc kinh tế xã hội hiện có của con người, đạt được nhận thức về bản thân và xâm nhập vào các hầm chứa tên lửa hạt nhân, trở nên thù địch với nhân loại, hoặc coi sự sống còn của con người là một yếu tố không quan trọng. Xét cho cùng, các hầm chứa tên lửa hạt nhân trên đất liền của cường quốc hạt nhân hàng đầu thế giới vẫn chưa loại bỏ hoàn toàn đĩa mềm và miễn nhiễm với hầu hết hacker trong thời đại kỹ thuật số.

Trí tuệ nhân tạo (AI), hiện nay đã bị ảnh hưởng bởi sự thiên vị, ảo tưởng và khuynh hướng nịnh hót, đã thâm nhập độ sâu vào nhiều khía cạnh của xã hội loài người. Ngay cả khi không có ý định xấu, những lỗi thường ngày do các AI có trí thông minh hạn chế này gây ra cũng đủ để gây ra những rắc rối đáng kể cho nhân loại.

Vào năm 2023, một số học giả chuyên về kiểm soát vũ khí hạt nhân đã hình dung ra kịch bản khả thi nhất về việc trí tuệ nhân tạo (AI) gây ra chiến tranh hạt nhân trong tương lai gần:

Giả sử hai siêu cường hạt nhân A và B đang trong bầu không khí căng thẳng, và cả hai quốc gia đều tích hợp sâu rộng các mô phỏng chiến tranh, giám sát tâm lý đám đông, suy diễn lý thuyết trò chơi, cùng trí tuệ nhân tạo và thuật toán tùy chỉnh để đẩy nhanh quá trình ra quyết định vào hệ thống quân sự của riêng mình.

Trong hoàn cảnh này, bất kỳ xung đột nhỏ nhặt, không vũ trang nào, dù chỉ ở mức độ muỗi, cũng bị phóng đại đến mức cực đoan bởi các bot tự động tiến hành chiến tranh tuyên truyền trên mạng xã hội.

Những bài đăng này, chứa đầy hình ảnh độ sâu và ngôn từ khiêu khích do AI tạo ra , sau đó được AI thu thập bằng cách theo dõi tâm lý của đám đông và diễn giải như những tín hiệu thực sự về tâm lý xã hội sâu sắc và quá trình ra quyết định.

Trí tuệ nhân tạo (AI) dự đoán xu hướng thu thập kết luận từ AI giám sát dân số, và sử dụng những kết luận này làm cơ sở cho các dự đoán của mình.

Dựa trên kết luận này, trí tuệ nhân tạo hỗ trợ ra quyết định đã gửi báo cáo cho những người ra quyết định rằng "xung đột vũ trang sắp xảy ra" và đưa ra lời khuyên phòng ngừa. Do đó, một "cuộc chiến tranh hạt nhân chớp nhoáng" đã nổ ra.

Xét riêng lẻ, không một sai lầm nào sê-ri số này có thể xảy ra nếu không có sự can thiệp của Skynet; không một sai lầm nào hoàn toàn không có sự giám sát của con người trong quá trình hình thành; và không sai lầm nào mang tính kịch tính như một cốt truyện khoa học viễn tưởng. Tuy nhiên, khi kết hợp lại, chúng tạo thành một "rủi ro về tính bền vững".

Trí tuệ nhân tạo (AI) hiện nay là một công cụ khuếch đại hoạt động của con người. Ngay cả khi không có một cuộc nổi dậy của AI theo kiểu thần thánh, các mô hình hiện tại cũng có thể khuếch đại sự ngu dốt, độc ác và bất cẩn của con người đến mức đáng sợ. "Lý thuyết về ngày tận thế do AI" hiện nay thực chất có những yếu tố tương đồng với niềm tin tận thế trong tôn giáo về mặt tâm lý của dân chúng.

Thuyết tận thế tôn giáo mang đến cho nhân loại một sự an ủi tâm lý giống như Khải Huyền: Chúa sẽ hủy diệt thế giới, vì vậy Chúa ủy thác tín nhiệm, bởi vì điều này cho thấy quyền năng của Chúa không chỉ tồn tại ở thế giới bên kia mà còn ở thế giới này. Nếu những người tin Chúa sùng đạo và đức hạnh, họ đứng về phía có quyền năng hủy diệt thế giới, chứ không phải về phía sẽ bị hủy diệt.

Thay thế các từ khóa "Chúa" và "sự sùng đạo" trong các lý thuyết tận thế tôn giáo bằng "Trí tuệ nhân tạo" và "sự đồng nhất", bạn sẽ có được lý thuyết ngày tận thế do AI điều khiển mà Ultraman và Amodi rao giảng mỗi ngày. Ở một thời đại khác, những ông trùm này sẽ là những bậc thầy tâm linh xuất sắc.

Dĩ nhiên, các thực hành thần học của tất cả các tôn giáo chính thống đều nhấn mạnh rằng tinh thần con người không thể chỉ dựa vào ngày tận thế; mọi hành động và quyết định trong hiện tại đều có ý nghĩa không kém phần quan trọng trong việc thanh lọc tâm hồn so với Ngày Phán Xét Cuối Cùng. Khái niệm này thậm chí còn áp dụng nhiều hơn cho ngành công nghiệp AI: đừng lo lắng về việc AI trở thành Skynet và hủy diệt nhân loại; tốt hơn hết là hãy bắt đầu bằng cách sửa chữa lần ảo tưởng và điều vô lý của các mô hình, bằng cách tiếp cận từng bước một và ổn định.

Bài viết này được đăng tải từ tài khoản WeChat công cộng "Letter List" (ID: wujicaijing) , tác giả: Li Xi, với sự cho phép của 36Kr.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận