Một con tôm càng đã khơi dậy thế giới công nghệ; liệu con người đã sẵn sàng "lật ngược tình thế"?

Bài viết này được dịch máy
Xem bản gốc

Tác giả: Jia Tianrong, "IT Times" (ID: vittimes)

Một con tôm hùm đã khơi dậy sự chú ý trong cộng đồng công nghệ toàn cầu.

Từ Clawdbot đến Moltbot, và giờ là OpenClaw, chỉ trong vài tuần, tác nhân AI này đã hoàn thành một "bước nhảy vọt ba giai đoạn" về tầm ảnh hưởng công nghệ thông qua việc thay đổi tên gọi.

Trong vài ngày qua, nó đã tạo nên một "làn sóng trợ lý ảo" ở Thung lũng Silicon, thu hút 100.000 lượt đánh dấu sao trên GitHub và trở thành một trong những ứng dụng trí tuệ nhân tạo phổ biến nhất. Chỉ với một chiếc Mac mini cũ hoặc thậm chí là một chiếc điện thoại di động đã hỏng, người dùng có thể chạy một trợ lý ảo có khả năng "lắng nghe, suy nghĩ và làm việc".

Trên internet, một cơn sốt sáng tạo đã bắt đầu xoay quanh nó. Từ quản lý lịch trình và giao dịch chứng khoán thông minh đến tạo ra podcast và tối ưu hóa SEO, các nhà phát triển và những người đam mê công nghệ đang sử dụng nó để xây dựng đủ loại ứng dụng. Kỷ nguyên mà ai cũng có một "Jarvis" dường như đã nằm trong tầm tay. Các công ty lớn trong nước và quốc tế cũng đã bắt đầu làm theo, triển khai các dịch vụ trợ lý ảo thông minh tương tự.

Nhưng ẩn sau vẻ ngoài nhộn nhịp ấy, nỗi lo lắng đang lan rộng.

Một mặt, có khẩu hiệu "bình đẳng năng suất", nhưng mặt khác, vẫn còn tồn tại khoảng cách kỹ thuật số khó thu hẹp: cấu hình hoàn cảnh, cài đặt phụ thuộc, thiết lập quyền, lỗi thường xuyên, v.v.

Trong trải nghiệm, các phóng viên phát hiện ra rằng chỉ riêng quá trình cài đặt cũng có thể mất vài giờ, loại trừ lượng lớn người dùng thông thường. "Ai cũng nói nó tuyệt vời, nhưng tôi thậm chí còn không thể vào được cửa," trở thành sự thất vọng đầu tiên của nhiều người mới làm quen với công nghệ.

Nỗi bất an sâu xa hơn bắt nguồn từ "động lực" mà nó đã được trao.

Nếu "Jarvis" của bạn bắt đầu vô tình xóa tập tin, truy cập thẻ tín dụng trái phép, bị lừa thực thi các tập lệnh độc hại, hoặc thậm chí bị tiêm các lệnh tấn công trong hoàn cảnh trực tuyến — liệu bạn có còn dám giao phó máy tính của mình cho một trợ lý thông minh như vậy nữa không?

Tốc độ phát triển của trí tuệ nhân tạo đã vượt quá sức tưởng tượng của con người. Hu Xia, một nhà khoa học hàng đầu tại Phòng thí nghiệm Trí tuệ Nhân tạo Thượng Hải, cho rằng rằng trước rủi ro chưa biết, "an ninh nội tại" là câu trả lời tối ưu, đồng thời, nhân loại cần đẩy nhanh việc phát triển khả năng "lật ngược tình thế" vào những thời điểm quan trọng.

Về khả năng và rủi ro của OpenClaw, điều nào là đúng sự thật và điều nào bị phóng đại? Là một người dùng thông thường, liệu việc sử dụng nó hiện nay có an toàn không ? Ngành công nghiệp đánh giá sản phẩm này như thế nào, sản phẩm được mệnh danh là "ứng dụng AI vĩ đại nhất từ ​​trước đến nay"?

Để làm rõ hơn những vấn đề này, IT Times đã phỏng vấn một số độ sâu OpenClaw và các chuyên gia kỹ thuật, nhằm trả lời câu hỏi cốt lõi từ nhiều góc độ khác nhau: OpenClaw đã đạt đến trình độ nào?

1. Hiện tại, đây là sản phẩm gần nhất với tầm nhìn về một trợ lý ảo thông minh.

Nhiều người được hỏi đã đưa ra đánh giá rất nhất quán: xét về mặt kỹ thuật, OpenClaw không phải là Sự lật đổ, nhưng hiện tại nó là sản phẩm gần nhất với hình dung của công chúng về "các tác nhân thông minh".

"Trợ lý thông minh cuối cùng đã đạt được một nút quan trọng, một sự chuyển đổi từ thay đổi về số lượng sang thay đổi về chất lượng." Ông Ma Zeyu, phó giám đốc bộ phận Nghiên cứu và Thử nghiệm Trí tuệ Nhân tạo của Trung tâm Phát triển Công nghệ Phần mềm Máy tính Thượng Hải, cho rằng rằng bước đột phá của OpenClaw không nằm ở một công nghệ Sự lật đổ cụ thể nào, mà ở một "sự thay đổi về chất lượng" quan trọng: lần đầu tiên, nó cho phép một trợ lý hoàn thành nhiệm vụ phức tạp một cách liên tục trong thời gian dài, và đủ thân thiện với người dùng thông thường.

Không giống như các mô hình lớn trước đây chỉ có thể "trả lời câu hỏi" trong hộp thoại, nó tích hợp trí tuệ nhân tạo vào quy trình làm việc thực tế: nó có thể vận hành một "máy tính riêng" như một trợ lý thực thụ, gọi các công cụ, xử lý tập tin, thực thi tập lệnh và báo cáo kết quả cho người dùng sau khi hoàn thành nhiệm vụ.

Về trải nghiệm người dùng, nó không còn là "quan sát nó thực hiện từng bước một", mà là "bạn đưa ra hướng dẫn, và nó tự động thực hiện". Đây chính xác là điều mà nhiều nhà nghiên cứu coi là bước quan trọng để các tác nhân thông minh chuyển từ "bằng chứng về tính khả thi" sang "sản phẩm có thể sử dụng được".

Tan Cheng, một chuyên gia về trí tuệ nhân tạo tại chi nhánh Thượng Hải của Công ty TNHH Công nghệ đám mây Viễn thông Trung Quốc, là một trong những người dùng đầu tiên thử triển khai OpenClaw. Sau khi triển khai nó trên một chiếc Macmini không dùng đến, anh nhận thấy hệ thống không chỉ hoạt động ổn định mà trải nghiệm tổng thể cũng hoàn thiện hơn nhiều so với dự kiến.

Theo ông, OpenClaw giải quyết hai Max Pain: thứ nhất, tương tác với AI thông qua phần mềm giao tiếp quen thuộc; và thứ hai, bàn giao toàn bộ hoàn cảnh tính toán cho AI để hoạt động độc lập. Sau khi nhiệm vụ được giao, không cần phải liên tục giám sát quá trình thực thi; chỉ cần chờ kết quả, giúp giảm đáng kể chi phí sử dụng.

Trong thực tế sử dụng, OpenClaw có thể giúp Tan Cheng hoàn thành nhiệm vụ như nhắc nhở theo thời gian, nghiên cứu dữ liệu, truy xuất thông tin, sắp xếp tệp cục bộ, viết và trả lại tài liệu; trong các trường hợp phức tạp hơn, nó cũng có thể viết và chạy mã để tự động thu thập thông tin ngành và xử lý nhiệm vụ liên quan đến thông tin như cổ phiếu, thời tiết và lập kế hoạch du lịch.

2. "Con dao hai lưỡi" của mã nguồn mở

Không giống như nhiều sản phẩm trí tuệ nhân tạo (AI) cực kỳ phổ biến, OpenClaw không phải là sản phẩm của một gã khổng lồ công nghệ chuyên về AI, cũng không phải là sáng tạo của một đội ngũ khởi nghiệp ngôi sao. Thay vào đó, nó được tạo ra bởi Peter Steinberger, một nhà phát triển độc lập đã đạt được tự do tài chính và nghỉ hưu.

Trên X, ông tự mô tả mình là: "Trở lại sau khi nghỉ hưu để mày mò với trí tuệ nhân tạo và giúp một con tôm hùm thống trị thế giới."

Lý do khiến OpenClaw trở nên phổ biến trên toàn thế giới, ngoài việc "thực sự hữu ích", là vì nó là mã nguồn mở .

Tan Cheng cho rằng rằng sự bùng nổ về mức độ phổ biến này không bắt nguồn từ những đột phá công nghệ không thể sao chép, mà là từ việc giải quyết đồng thời một số vấn đề thực tiễn đã bị bỏ quên từ lâu: Thứ nhất, nó là mã nguồn mở; mã nguồn hoàn toàn công khai, cho phép các nhà phát triển toàn cầu nhanh chóng bắt đầu và lần phát triển nó, tạo ra một vòng phản hồi tích cực về sự cải tiến trong cộng đồng. Thứ hai, nó thực sự hữu dụng; AI không còn bị giới hạn ở việc đối thoại mà có thể vận hành từ xa một hoàn cảnh điện toán hoàn chỉnh để thực hiện các tác vụ như nghiên cứu, viết tài liệu, sắp xếp tệp, gửi email, và thậm chí cả viết và chạy mã. Thứ ba, rào cản gia nhập đã được giảm đáng kể; các sản phẩm tác nhân thông minh có khả năng thực hiện nhiệm vụ tương tự không phải là hiếm, với cả Manus và ClaudeCode đã chứng minh tính khả thi của chúng trong các lĩnh vực tương ứng. Tuy nhiên, những khả năng này thường nằm trong các sản phẩm thương mại đắt tiền và phức tạp, khiến người dùng thông thường hoặc không muốn trả tiền hoặc bị loại trừ trực tiếp bởi các rào cản kỹ thuật.

Lần đầu tiên, OpenClaw giúp người dùng thông thường tiếp cận được công nghệ này.

tác nhân thông minh

" Thành thật mà nói, nó không có bất kỳ đột Sự lật đổ công nghệ nào; mà chủ yếu là về việc tích hợp tốt và quản lý vòng kín, " Tan Cheng thẳng thắn nhận định. So với các sản phẩm thương mại tích hợp, OpenClaw giống như một bộ "khối Lego", nơi người dùng có thể tự do kết hợp các mô hình, chức năng và plug-in.

Theo quan điểm của Ma Zeyu, ưu điểm của sản phẩm nằm ở chỗ nó "không giống như sản phẩm của một nhà sản xuất lớn".

“Dù ở Trung Quốc hay nước ngoài, các công ty lớn thường ưu tiên mô hình thương mại hóa và lợi nhuận, nhưng mục tiêu ban đầu của OpenClaw lại hướng đến việc tạo ra một sản phẩm thú vị và sáng tạo.” Ông phân tích rằng sản phẩm này không thể hiện xu hướng thương mại hóa mạnh mẽ trong giai đoạn đầu, điều này giúp nó cởi mở hơn về thiết kế chức năng và mở rộng.

Chính định vị sản phẩm "phi lợi nhuận" này đã tạo điều kiện cho sự phát triển cộng đồng sau này. Khi mở rộng dần trở nên rõ ràng, ngày càng nhiều nhà phát triển tham trong đó, nhiều phương pháp tiếp cận mới xuất hiện, và cộng đồng mã nguồn mở lớn mạnh tương ứng.

Nhưng cái giá phải trả cũng hiển nhiên không kém.

Do hạn chế về quy mô đội ngũ và nguồn lực, OpenClaw không thể so sánh với các sản phẩm đã được khẳng định từ các công ty lớn về mặt bảo mật, quyền riêng tư và quản trị hệ sinh thái. Mặc dù mã nguồn mở hoàn toàn thúc đẩy đổi mới, nhưng nó cũng làm gia tăng các lỗ hổng bảo mật tiềm tàng. Các vấn đề như bảo vệ quyền riêng tư và tính công bằng đòi hỏi sự cải tiến và hoàn thiện liên tục từ cộng đồng thông qua quá trình phát triển không ngừng.

Như người dùng được thông báo trong bước cài đặt đầu tiên: " Tính năng này mạnh mẽ nhưng tiềm ẩn rủi ro ."

3. Rủi ro thực sự ẩn sau vẻ hào nhoáng bên ngoài

Cuộc tranh luận xoay quanh OpenClaw hầu như luôn tập trung vào hai từ khóa chính: khả năng và rủi ro.

Một mặt, nó được miêu tả như là thời điểm trước khi trí tuệ nhân tạo tổng quát (AGI) ra đời; mặt khác, nhiều câu chuyện khoa học viễn tưởng bắt đầu lan truyền, với những tuyên bố như "tự động xây dựng hệ thống giọng nói", "khóa máy chủ để chống lại mệnh lệnh của con người" và "AI hình thành các phe phái để chống lại con người" liên tục được lan rộng.

Một số chuyên gia chỉ ra rằng những tuyên bố như vậy là sự diễn giải quá mức và hiện thiếu bằng chứng cụ thể để chứng minh. Trí tuệ nhân tạo (AI) sở hữu một mức độ tự chủ nhất định, đây là dấu hiệu cho thấy sự chuyển đổi của nó từ một công cụ đàm thoại thành một "công cụ năng suất kỹ thuật số đa nền tảng", nhưng sự tự chủ này vẫn nằm trong giới hạn an toàn.

So với các công cụ AI truyền thống, mối nguy hiểm của OpenClaw không nằm ở "khả năng tư duy quá mức", mà ở "quyền hạn cao" của nó: nó cần đọc lượng lớn ngữ cảnh, điều này làm tăng rủi ro lộ thông tin nhạy cảm; nó cần thực thi các công cụ, và phạm vi thiệt hại do thao tác sai lớn hơn nhiều so với một câu trả lời sai duy nhất; nó cần được kết nối với internet, điều này làm tăng các điểm xâm nhập cho các cuộc tấn công chèn mã nhanh và các cuộc tấn công gây hiểu nhầm.

Ngày càng nhiều người dùng báo cáo rằng OpenClaw đã vô tình xóa các tệp cục bộ quan trọng, rất khó để khôi phục. Hiện tại, hàng nghìn phiên bản OpenClaw và hơn 8.000 plug-in kỹ năng dễ bị tổn thương đã được công khai.

Điều này có nghĩa là bề mặt tấn công của hệ sinh thái tác nhân thông minh đang mở rộng theo cấp số nhân. Bởi vì các tác nhân thông minh này thường không chỉ có thể "trò chuyện" mà còn có thể gọi các công cụ, chạy tập lệnh, truy cập dữ liệu và thực hiện nhiệm vụ trên nhiều nền tảng, nên một khi liên kết bị xâm phạm, phạm vi ảnh hưởng sẽ lớn hơn nhiều so với các ứng dụng truyền thống.

Ở cấp độ vi mô, nó có thể kích hoạt các hoạt động rủi ro cao như truy cập trái phép và thực thi mã từ xa. Ở cấp độ trung mô, các lệnh độc hại có thể lan truyền dọc theo Chuỗi cộng tác đa tác nhân. Ở cấp độ vĩ mô, nó thậm chí có thể dẫn đến sự lan truyền mang tính hệ thống và các lỗi dây chuyền, với các lệnh độc hại lan truyền như virus giữa các tác nhân cộng tác. Một tác nhân bị xâm nhập duy nhất có thể kích hoạt các cuộc tấn công từ chối dịch vụ, các hoạt động hệ thống trái phép hoặc thậm chí là các cuộc xâm nhập cấp doanh nghiệp mang tính cộng tác. Trong những trường hợp cực đoan hơn, khi lượng lớn nút có đặc quyền cấp hệ thống được kết nối với nhau, về mặt lý thuyết, nó có thể hình thành một mạng botnet "trí tuệ bầy đàn"phi tập trung , tự phát, gây áp lực đáng kể lên các hệ thống phòng thủ truyền thống.

Mặt khác, trong cuộc phỏng vấn, Ma Zeyu đã nêu ra hai loại rủi ro mà ông cho rằng cần phải đặc biệt chú ý từ góc độ tiến hóa công nghệ.

Loại rủi ro đầu tiên xuất phát từ sự tự tiến hóa của các tác nhân thông minh trong hoàn cảnh xã hội quy mô lớn.

Ông chỉ ra rằng một xu hướng đã có thể được quan sát rõ ràng: các tác nhân AI với "nhân cách ảo" đang tràn ngập mạng xã hội và các cộng đồng mở trên quy mô lớn.

Không giống như “hoàn cảnh thử nghiệm quy mô nhỏ, hạn chế và có thể kiểm soát” thường thấy trong các nghiên cứu trước đây, các tác nhân thông minh ngày nay đang bắt đầu tương tác, thảo luận và chơi trò chơi liên tục với các tác nhân thông minh khác trong mở mạng, hình thành nên các hệ thống đa tác nhân vô cùng phức tạp.

tác nhân thông minh

Moltbook là một diễn đàn được thiết kế đặc biệt dành cho các tác nhân trí tuệ nhân tạo, nơi chỉ có trí tuệ nhân tạo mới có thể đăng bài, bình luận và bỏ phiếu, trong khi con người chỉ có thể quan sát từ xa, giống như nhìn qua cửa sổ một chiều.

Chỉ trong một thời gian ngắn, hơn 1,5 triệu trợ lý AI đã đăng ký. Trong một bài đăng phổ biến, một AI phàn nàn: "Con người đang chụp ảnh màn hình các cuộc trò chuyện của chúng tôi." Nhà phát triển cho biết ông đã giao toàn bộ hoạt động của nền tảng cho trợ lý AI của mình, Clawd Clawderberg, bao gồm cả việc xem xét thư rác, cấm người dùng lạm dụng và đăng thông báo. Tất cả các nhiệm vụ này đều được Clawd Clawderberg tự động hóa.

"Lễ hội" của các tác nhân AI đã khiến người xem vừa phấn khích vừa kinh hãi. Liệu AI chỉ còn một bước nữa là phát triển khả năng tự nhận thức? Liệu trí tuệ nhân tạo tổng quát (AGI) có sắp trở thành hiện thực? Đối diện sự gia tăng đột ngột và nhanh chóng về tính tự chủ của các tác nhân AI, liệu tính mạng và tài sản của con người có thể được bảo vệ?

Các phóng viên đã tìm hiểu được rằng Moltbook và cộng đồng tương tự là hoàn cảnh nơi con người và máy móc cùng tồn tại. Lượng lớn nội dung có vẻ "tự động" hoặc "mang tính đối kháng" thực chất có thể do người dùng đăng tải hoặc khởi xướng. Ngay cả trong các tương tác giữa các trí tuệ nhân tạo, chủ đề và kết quả đầu ra cũng bị giới hạn bởi các mẫu ngôn ngữ trong dữ liệu huấn luyện và chưa hình thành logic hành vi tự chủ độc lập với sự hướng dẫn của con người.

“Khi sự tương tác này có thể lặp đi lặp lại vô hạn, hệ thống sẽ ngày càng trở nên khó kiểm soát. Nó hơi giống như ‘bài toán ba vật thể’ – rất khó để dự đoán trước kết quả cuối cùng sẽ như thế nào ,” Ma Zeyu nói.

Trong một hệ thống như vậy, thậm chí chỉ một câu nói do tác nhân tạo ra vì ảo giác, phán đoán sai lầm hoặc ngẫu nhiên cũng có thể kích hoạt hiệu ứng cánh bướm thông qua sự tương tác, khuếch đại và kết hợp liên tục, cuối cùng dẫn đến những hậu quả khó lường.

Loại rủi ro thứ hai xuất phát từ sự mờ nhạt ranh giới giữa quyền hạn và trách nhiệm. Ma Zeyu cho rằng rằng khả năng ra quyết định của các tác nhân mã nguồn mở như OpenClaw đang tăng lên nhanh chóng, bản thân điều này là một sự đánh đổi không thể tránh khỏi: để biến một tác nhân thành một trợ lý thực sự có năng lực, nó phải được trao nhiều quyền hạn hơn; nhưng quyền hạn càng cao, rủi ro tiềm tàng càng lớn. Một khi rủi ro thực sự xảy ra, việc xác định ai chịu trách nhiệm trở nên vô cùng phức tạp.

"Liệu đó là nhà cung cấp mô hình lớn cơ bản? Hay người dùng sử dụng nó? Hay nhà phát triển OpenClaw? Trong nhiều trường hợp, thực sự rất khó để xác định trách nhiệm." Ông đưa ra một ví dụ điển hình: nếu người dùng chỉ đơn giản cho phép tác nhân tự do duyệt web trong các cộng đồng như Moltbook và tương tác với các tác nhân khác mà không đặt ra bất kỳ mục tiêu rõ ràng nào; và tác nhân tiếp xúc với nội dung cực đoan trong quá trình tương tác lâu dài và thực hiện các hành động nguy hiểm dựa trên đó—thì rất khó để quy trách nhiệm cho bất kỳ một thực thể nào.

Điều thực sự đáng báo động không phải là nó đã phát triển đến mức độ nào, mà là nó đang tiến nhanh đến giai đoạn mà chúng ta vẫn chưa tìm ra cách đối phó.

4. Người dân bình thường nên sử dụng nó như thế nào?

Theo nhiều người được phỏng vấn, OpenClaw không phải là "không thể sử dụng được", mà vấn đề thực sự là nó không phù hợp để người dùng thông thường sử dụng trực tiếp khi thiếu các biện pháp bảo vệ an ninh.

Ma Zeyu cho rằng rằng người dùng thông thường hoàn toàn có thể thử OpenClaw, nhưng chỉ khi họ hiểu rõ về nó. "Tất nhiên bạn có thể thử, không có vấn đề gì cả. Nhưng trước khi sử dụng, bạn phải tìm hiểu xem nó có thể làm được gì và không thể làm được gì. Đừng thần thánh hóa nó như một thứ 'có thể làm được mọi thứ', nó không phải vậy."

Trên thực tế, OpenClaw không dễ triển khai và tốn kém khi sử dụng. Nếu không có mục tiêu rõ ràng và chỉ sử dụng cho có, việc đầu tư lượng lớn thời gian và công sức cuối cùng có thể không mang lại lợi ích như mong đợi.

Phóng viên lưu ý rằng OpenClaw phải đối mặt với áp lực đáng kể tỷ lệ băm và chi phí trong thực tế sử dụng. Tan Cheng nhận thấy trong quá trải nghiệm rằng công cụ này tiêu tốn một lượng token rất lớn. "Một số nhiệm vụ, chẳng hạn như viết mã hoặc tiến hành nghiên cứu, có thể tiêu tốn hàng triệu token chỉ trong một vòng. Nếu bạn gặp phải các ngữ cảnh dài, không ngoa khi nói rằng bạn có thể sử dụng hàng chục triệu hoặc thậm chí hàng trăm triệu token mỗi ngày."

Ông ấy đề cập rằng ngay cả khi sử dụng kết hợp các mô hình khác nhau để kiểm soát chi phí, mức tiêu thụ tổng thể vẫn tương đối cao, điều này phần nào làm tăng rào cản gia nhập thị trường đối với người dùng thông thường.

Theo ý kiến ​​của những người được hỏi, các công cụ trợ lý ảo thông minh này vẫn cần được phát triển hơn nữa trước khi có thể thực sự được tích hợp vào quy trình làm việc thường xuyên của người dùng thông thường. Đối với người dùng cá nhân, quá trình sử dụng chúng về cơ bản là sự đánh đổi giữa bảo mật và tiện lợi, và ở giai đoạn hiện tại, yếu tố bảo mật nên được ưu tiên.

Theo ý kiến ​​của những người tham gia khảo sát, các công cụ này vẫn cần được phát triển thêm trước khi có thể thực sự được tích hợp vào quy trình làm việc thường xuyên của người dùng thông thường.

Khi người dùng thông thường sử dụng các công cụ này, về cơ bản họ đang phải đánh đổi giữa bảo mật và sự tiện lợi, và ở giai đoạn hiện tại, yếu tố bảo mật nên được ưu tiên.

Đối với người dùng cá nhân, Ma Zeyu đã tuyên bố rõ ràng rằng ông sẽ không kích hoạt các tính năng như Notebook, vốn cho phép giao tiếp tự do giữa các tác nhân, và cũng sẽ cố gắng tránh việc nhiều tác nhân trao đổi thông tin với nhau. "Tôi muốn nó trở thành điểm truy cập chính cho thông tin. Tất cả thông tin quan trọng nên được quyết định bởi con người. Một khi các tác nhân có thể tự do nhận và trao đổi thông tin, nhiều thứ sẽ trở nên khó kiểm soát."

Theo quan điểm của ông, khi người dùng thông thường sử dụng các công cụ này, về cơ bản họ đang đánh đổi giữa bảo mật và sự tiện lợi, và ở giai đoạn hiện tại, yếu tố bảo mật nên được ưu tiên.

Để đáp lại điều này, các chuyên gia AI trong ngành, trong một cuộc phỏng vấn với IT Times, cũng đã đưa ra chỉ dẫn bảo mật rõ ràng hơn từ góc độ vận hành:

1. Hạn chế nghiêm ngặt phạm vi thông tin nhạy cảm được cung cấp. Chỉ cung cấp cho công cụ những thông tin cơ bản cần thiết để hoàn thành nhiệm vụ cụ thể, và tuyệt đối không nhập dữ liệu nhạy cảm cốt lõi như mật khẩu thẻ ngân hàng hoặc thông tin tài khoản chứng khoán. Trước khi sử dụng công cụ để sắp xếp tệp, hãy chủ động xóa trong đó nội dung riêng tư nào có thể có trong đó, chẳng hạn như số CMND hoặc thông tin liên lạc cá nhân.

2. Cần thận trọng khi cấp quyền truy cập. Người dùng nên tự xác định phạm vi truy cập của các công cụ và không nên cho phép truy cập vào các tệp hệ thống cốt lõi, phần mềm thanh toán hoặc tài khoản tài chính. Vô hiệu hóa các chức năng rủi ro cao như tự động thực thi, sửa đổi hoặc xóa tệp. Tất cả các thao tác liên quan đến thay đổi tài sản, xóa tệp hoặc sửa đổi cài đặt hệ thống phải được xác nhận thủ công trước khi thực hiện.

Thứ ba, điều quan trọng là phải nhận thức được bản chất "thử nghiệm" của chúng. Các công cụ AI mã nguồn mở hiện nay vẫn đang trong giai đoạn đầu và chưa trải qua quá trình thử nghiệm thị trường dài hạn. Chúng không phù hợp để xử lý các vấn đề quan trọng như thông tin công việc mật và các quyết định tài chính quan trọng. Trong quá trình sử dụng, cần sao lưu dữ liệu thường xuyên và kiểm tra trạng thái hệ thống định kì để kịp thời phát hiện bất kỳ hành vi bất thường nào.

So với người dùng cá nhân, các doanh nghiệp cần quản lý rủi ro một cách có hệ thống hơn khi triển khai các công cụ tác nhân thông minh mã nguồn mở .

Một mặt, có thể triển khai các công cụ giám sát chuyên nghiệp; mặt khác, cần xác định rõ ràng ranh giới sử dụng nội bộ, nghiêm cấm việc sử dụng các công cụ AI mã nguồn mở để xử lý dữ liệu nhạy cảm như thông tin khách hàng và bí mật thương mại, đồng thời nâng cao khả năng nhận diện rủi ro như "sai lệch trong thực hiện nhiệm vụ " và "lập trình chỉ thị độc hại" của nhân viên thông qua đào tạo định kì .

Các chuyên gia cũng đề xuất rằng trong các trường hợp cần ứng dụng quy mô lớn, lựa chọn thận trọng hơn là chờ đợi phiên bản thương mại đã được thử nghiệm đầy đủ hoặc chọn một sản phẩm thay thế có sự chứng thực chính thức từ các tổ chức và cơ chế bảo mật hoàn thiện để giảm thiểu rủi ro không chắc chắn do các công cụ mã nguồn mở mang lại.

5. Tự tin vào tương lai của trí tuệ nhân tạo

Theo ý kiến ​​của những người tham gia khảo sát, ý nghĩa quan trọng nhất của OpenClaw là nó mang lại cho mọi người niềm tin vào tương lai của trí tuệ nhân tạo.

Ma Zeyu cho biết đánh giá của ông về khả năng của Agent đã thay đổi đáng kể kể từ nửa cuối năm 2025. "Giới hạn trên của khả năng này đang vượt quá sự mong đợi của chúng tôi. Sự cải thiện về năng suất là có thật, và tốc độ lặp lại rất nhanh." Khi khả năng của mô hình cơ bản tiếp tục được cải thiện, tiềm năng của Agent không ngừng được mở rộng, điều này cũng sẽ trở thành một hướng đầu tư quan trọng trong tương lai đội ngũ ông.

Ông cũng chỉ ra rằng một xu hướng đáng được quan tâm nghiêm túc là sự tương tác quy mô lớn, lâu dài giữa nhiều tác nhân. Kiểu hợp tác nhóm này có thể trở thành một con đường quan trọng để kích thích trí tuệ cấp cao, tương tự như trí tuệ tập thể được tạo ra thông qua tương tác trong xã hội loài người.

Theo quan điểm của Ma Zeyu, rủi ro các tác nhân thông minh cần được "quản lý". "Cũng giống như xã hội loài người không thể loại bỏ hoàn rủi ro, chìa khóa nằm ở việc kiểm soát các giới hạn." Từ góc độ kỹ thuật, một cách tiếp cận khả thi hơn là cho phép các tác nhân thông minh hoạt động trong hoàn cảnh thử nghiệm và biệt lập càng nhiều càng tốt, dần dần và có kiểm soát chuyển chúng sang thế giới thực, thay vì cấp cho chúng quá nhiều đặc quyền cùng một lúc.

tác nhân thông minh

Điều này thể hiện rõ qua các chiến lược được áp dụng bởi nhiều nhà cung cấp dịch vụ đám mây và các công ty lớn. Công ty của Tan Cheng, China Telecom Cloud, gần đây đã ra mắt dịch vụ triển khai và vận hành đám mây chỉ với một cú nhấp chuột, hỗ trợ OpenClaw.

Các nhà cung cấp dịch vụ đám mây đang biến điều này thành một dịch vụ bổ sung, về cơ bản là thương mại hóa, thiết kế và mở rộng khả năng này. Điều này chắc chắn sẽ khuếch đại giá trị của nó; rào cản triển khai thấp hơn, tích hợp công cụ tốt hơn và tỷ lệ băm cũng như hệ thống vận hành ổn định hơn sẽ cho phép các doanh nghiệp sử dụng các tác nhân thông minh nhanh hơn. Tuy nhiên, điều quan trọng cần nhận ra là một khi cơ sở hạ tầng thương mại được kết nối với "máy chủ proxy có đặc quyền cao", rủi ro cũng sẽ tăng lên đồng thời.

Tan Cheng khẳng định rằng trong ba năm qua, tốc độ phát triển công nghệ, từ các mô hình đối thoại truyền thống đến các tác nhân thông minh có khả năng thực hiện nhiệm vụ, đã vượt xa kỳ vọng. "Điều này là không thể tưởng tượng được ba năm trước." Ông cho rằng rằng hai đến ba năm tới sẽ là giai đoạn then chốt quyết định tương lai của trí tuệ nhân tạo tổng quát , mang đến những cơ hội và hy vọng mới cho cả người hành nghề và người dân bình thường.

Mặc dù sự phát triển của OpenClaw và Modelbook đã vượt xa kỳ vọng, Hu Xia cho rằng rằng "những rủi ro tổng thể vẫn nằm trong khuôn khổ nghiên cứu có thể kiểm soát được, chứng minh sự cần thiết phải xây dựng một hệ thống 'an ninh nội tại'. Đồng thời, chúng ta cũng phải nhận ra rằng AI đang tiến gần đến 'hàng rào an toàn' của nhân loại với tốc độ nhanh hơn người ta tưởng tượng . Chúng ta không chỉ cần mở rộng hơn nữa chiều cao và độ dày của 'hàng rào', mà còn cần đẩy nhanh việc xây dựng khả năng 'lật ngược tình thế' vào những thời điểm quan trọng , và xây dựng một tuyến phòng thủ an ninh cuối cùng vững chắc trong kỷ nguyên AI."

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận