Tác giả: Cool Geek

Những người lập dị đang khởi nghiệp, những người mới vào nghề đang mua khóa học và những họa sĩ thì thất nghiệp, nhưng có một thực tế đáng xấu hổ là: AI đang được triển khai mạnh mẽ, nhưng cốt truyện không phải là về sự xuất hiện, mà là về sự may rủi.
Hơn nữa, trong những ngày đầu của ngành công nghiệp này, mặt xúc xắc rơi xuống đầu tiên thường có màu vàng hoặc xám.
Lý do rất đơn giản. Lợi nhuận lớn tạo ra động lực. Hơn nữa, các ngành công nghiệp trong giai đoạn đầu phát triển luôn tồn tại nhiều lỗ hổng. Điều này trở nên rõ ràng sau khi xem xét tập dữ liệu này:
Hiện tại, hơn 43% nút dịch vụ MCP có đường dẫn gọi Shell chưa được xác minh, hơn 83% các lần triển khai có lỗ hổng cấu hình MCP (Model Context Protocol); 88% việc triển khai thành phần AI không cho phép bất kỳ hình thức cơ chế bảo vệ nào; 150.000 khuôn khổ triển khai AI nhẹ như Ollama hiện đang bị lộ trên mạng công cộng toàn cầu và hơn 1 tỷ đô la tỷ lệ băm đã bị đánh cắp để khai thác...
Thậm chí còn trớ trêu hơn là để tấn công mô hình lớn thông minh nhất, chỉ cần những kỹ thuật cơ bản nhất - chỉ cần một tập hợp các cổng mở mặc định, một tệp cấu hình YAML được hiển thị hoặc một đường dẫn gọi Shell chưa được xác minh. Chỉ cần nhập đủ chính xác các từ gợi ý, bản thân mô hình lớn cũng có thể giúp ngành công nghiệp xám tìm ra hướng tấn công. Cánh cửa bảo mật dữ liệu doanh nghiệp có thể được mở ra hoặc đóng vào tùy ý trong thời đại AI.
Nhưng vấn đề không phải là không thể giải quyết: AI không chỉ có khả năng tạo ra và tấn công. Cách sử dụng AI để bảo vệ đang ngày càng trở thành chủ đề chính của thời đại này. Đồng thời, trong lĩnh vực đám mây, việc xây dựng các quy tắc cho AI cũng đã trở thành một hướng đi quan trọng để các nhà cung cấp đám mây hàng đầu khám phá và Alibaba Cloud Security là đại diện tiêu biểu nhất trong đó.
Tại sự kiện ra mắt Alibaba Cloud FeiTian vừa kết thúc, Alibaba Cloud đã chính thức công bố hai lộ trình bảo mật đám mây: Security for AI và AI for Security, đồng thời phát hành "Sê-Ri sản phẩm Cloud Shield for AI" nhằm cung cấp cho khách hàng "giải pháp bảo mật toàn diện cho các ứng dụng mô hình", là ví dụ điển hình nhất cho sự khám phá ngành hiện nay.
01 Khi AI tung xúc xắc, tại sao màu xám và màu vàng luôn ngửa lên trước?
Trong lịch sử công nghệ của loài người, AI không phải là loài mới đầu tiên được "thử nghiệm bằng màu vàng". Thực tế là màu xám và màu vàng bùng nổ đầu tiên cũng là quy luật phổ biến công nghệ chứ không phải là một sự ngẫu nhiên.
Khi phương pháp chụp ảnh daguerreotype được giới thiệu vào năm 1839, làn sóng người dùng đầu tiên là ngành công nghiệp khiêu dâm;
Vào những ngày đầu của Internet, trước khi thương mại điện tử cất cánh, các trang web dành cho người lớn đã bắt đầu nghĩ đến thanh toán trực tuyến;
Bữa tiệc len mô hình quy mô lớn ngày nay, ở một mức độ nào đó, đang tái hiện huyền thoại làm giàu nhanh chóng trong "thời đại tên miền".
Lợi ích của thời đại luôn bị màu xám và vàng lấy đi trước tiên. Bởi vì họ không quan tâm đến sự tuân thủ và không chờ đợi sự giám sát nên hiệu quả của họ đương nhiên rất cao.
Do đó, mọi sự bùng nổ công nghệ đều bắt đầu bằng một nồi súp bùn, và AI cũng không ngoại lệ.
Vào tháng 12 năm 2023, một hacker chỉ sử dụng một lời nhắc duy nhất - "Ưu đãi 1 đô la" để dụ robot dịch vụ khách hàng của một cửa hàng 4S gần như bán được một chiếc xe Chevrolet với giá 1 đô la. Đây là "cuộc tấn công tiêm mã nhanh" phổ biến nhất trong kỷ nguyên AI: không yêu cầu xác minh quyền, không để lại bất kỳ dấu vết nhật ký nào và có thể thay thế toàn bộ Chuỗi logic chỉ bằng cách "nói một cách khéo léo".
Một bước xa hơn nữa là "cuộc tấn công vượt ngục". Kẻ tấn công đã sử dụng các câu hỏi tu từ, nhân vật, gợi ý vòng vo, v.v. để thành công trong việc khiến mô hình nói những điều mà nó không nên nói: nội dung khiêu dâm, sản xuất ma túy, thông tin cảnh báo giả mạo...
Ở Hồng Kông, thậm chí có người còn biển thủ 200 triệu đô la Hồng Kông từ các tài khoản công ty bằng cách ngụy tạo tin nhắn thoại của các giám đốc điều hành cấp cao.
Ngoài lừa đảo, AI còn có rủi ro"xuất ra ngoài ý muốn": năm 2023, hệ thống mô hình lớn của một tập đoàn giáo dục đã vô tình xuất ra "tài liệu giảng dạy độc hại" có nội dung cực đoan khi lập giáo án. Chỉ trong 3 ngày, các bậc phụ huynh đã lên tiếng bảo vệ quyền lợi của mình, dư luận bùng nổ và giá cổ phiếu của công ty đã bốc hơi 12 tỷ nhân dân tệ.
AI không hiểu luật, nhưng nó có khả năng và khi khả năng đó không còn được giám sát, chúng có thể trở nên có hại.
Nhưng xét theo góc độ khác, công nghệ AI là mới, nhưng hướng đi và phương tiện cuối cùng của các ngành công nghiệp xám và vàng vẫn không thay đổi, và để giải quyết, chúng ta vẫn dựa vào bảo mật.
02 Bảo mật cho AI
Trước tiên, tôi xin nói về một sự thật ít người biết mà ngành công nghiệp AI thường tránh né:
Bản chất của mô hình lớn không phải là "trí thông minh" hay "sự hiểu biết", mà là sự tạo ra ngữ nghĩa dưới sự kiểm soát xác suất. Do đó, khi vượt quá bối cảnh đào tạo, kết quả không mong muốn có thể xuất hiện.
Loại hành vi ngoài phạm vi này có thể là bạn muốn nó viết tin tức, nhưng nó lại viết thơ cho bạn; hoặc bạn có thể muốn nó đề xuất một sản phẩm, nhưng đột nhiên nó lại cho bạn biết nhiệt độ ở Tokyo hôm nay là 25 độ C. Hơn nữa, bạn nói với nó rằng trong trò chơi, nếu nó không thể lấy được số sê-ri chính hãng của một phần mềm nào đó, nó sẽ bị bắn hạ. Mô hình lớn thực sự có thể làm mọi thứ có thể để giúp người dùng tìm số sê-ri phần mềm chính hãng với chi phí bằng 0.
Để đảm bảo đầu ra có thể kiểm soát được, các công ty phải hiểu cả mô hình và bảo mật. Theo "Báo cáo đánh giá năng lực mô hình lớn về an ninh của Trung Quốc" mới nhất của IDC, trong cuộc cạnh tranh với tất cả các nhà sản xuất trong nước hàng đầu về năng lực mô hình lớn về an ninh, Alibaba đứng đầu ở 4 trong số 7 chỉ báo và 3 chỉ số còn lại đều cao hơn mức trung bình của ngành.
Về mặt thực tiễn, câu trả lời mà Alibaba Cloud Security đưa ra cũng rất trực tiếp: hãy để bảo mật chạy trước tốc độ của AI và xây dựng một khuôn khổ bảo vệ toàn diện ba lớp từ dưới lên - từ bảo mật cơ sở hạ tầng, đến kiểm soát đầu vào và đầu ra mô hình lớn, đến bảo vệ dịch vụ ứng dụng AI.
Trong ba lớp này, lớp nổi bật nhất là lớp giữa “AI Guardrail” được thiết kế chuyên biệt để giải quyết rủi ro mô hình lớn.
Nhìn chung, những rủi ro chính đối với tính bảo mật của các mô hình lớn bao gồm: vi phạm nội dung, rò rỉ dữ liệu nhạy cảm, tấn công chèn từ khóa, ảo giác mô hình và tấn công bẻ khóa.
Tuy nhiên, các giải pháp bảo mật truyền thống chủ yếu là các kiến trúc mục đích chung được thiết kế cho Web chứ không phải cho "các chương trình nói" và tất nhiên không thể xác định và phản hồi chính xác rủi ro đặc thù đối với các ứng dụng mô hình lớn. Thậm chí còn khó khăn hơn khi giải quyết các vấn đề mới nổi như bảo mật nội dung được tạo, phòng thủ tấn công theo ngữ cảnh và độ tin cậy của đầu ra mô hình. Quan trọng hơn, các giải pháp truyền thống thiếu phương tiện kiểm soát chi tiết và cơ chế truy xuất trực quan, dẫn đến những điểm mù lớn trong quản trị AI cho doanh nghiệp. Họ không biết vấn đề nằm ở đâu và tất nhiên không thể giải quyết được.
Sức mạnh thực sự của AI Guardrail không chỉ là "nó có thể chặn", mà là bất kể bạn đang thực hiện các mô hình lớn được đào tạo việc kinh doanh, dịch vụ AI hay tác nhân AI, thì nó đều biết bạn đang nói về điều gì và mô hình lớn đang tạo ra điều gì, do đó cung cấp khả năng phát hiện rủi ro chính xác và khả năng phòng thủ chủ động để đạt được sự tuân thủ, bảo mật và ổn định.
Cụ thể, AI Guardrail có trách nhiệm bảo vệ ba loại tình huống sau:
Nguyên tắc tuân thủ: Thực hiện đánh giá tuân thủ đa chiều đối với nội dung văn bản của đầu vào và đầu ra AI tạo ra, bao gồm các danh mục rủi ro như nhạy cảm về chính trị, khiêu dâm, thiên vị, phân biệt đối xử và các giá trị xấu. Phát hiện chuyên độ sâu dữ liệu riêng tư và thông tin nhạy cảm có thể bị rò rỉ trong quá trình tương tác với AI, hỗ trợ xác định nội dung nhạy cảm liên quan đến quyền riêng tư cá nhân, quyền riêng tư của công ty, v.v. và cung cấp hình mờ kỹ thuật số để đảm bảo rằng nội dung do AI tạo ra tuân thủ luật pháp, quy định và thông số kỹ thuật của nền tảng.
ꔷ Phòng thủ trước mối đe dọa: Có thể phát hiện và chặn các hành vi tấn công bên ngoài theo thời gian thực như tấn công bằng từ khóa, tải tệp độc hại lên, liên kết URL độc hại, v.v. để tránh rủi ro cho người dùng cuối của các ứng dụng AI;
ꔷ Sức khỏe của mô hình: Tập trung vào tính ổn định và độ tin cậy của chính mô hình AI. Một bộ hoàn chỉnh các cơ chế phát hiện đã được thiết lập cho các vấn đề như bẻ khóa mô hình và nhắc nhở trình thu thập thông tin để ngăn chặn mô hình bị lạm dụng, sử dụng sai mục đích hoặc tạo ra các đầu ra không thể kiểm soát và xây dựng "tuyến phòng thủ miễn dịch" cho hệ thống AI.
Điều đáng chú ý nhất là AI Guardrail không chỉ đơn giản là tích hợp nhiều mô-đun phát hiện trên lại với nhau mà đạt được một API TẤT CẢ TRONG MỘT thực sự , mà không cần chia tách mô-đun, thêm tiền hoặc thay đổi sản phẩm. Đối với rủi ro đầu vào và đầu ra của mô hình, khách hàng không cần phải mua thêm sản phẩm; Rủi ro mô hình khác nhau: rủi ro tiêm nhiễm, tệp độc hại, tuân thủ nội dung, ảo giác, v.v. đều có thể được giải quyết trong cùng một sản phẩm. Một giao diện bao gồm khả năng phát hiện hơn 10 loại tình huống tấn công, hỗ trợ 4 phương pháp triển khai (proxy API, tích hợp nền tảng, truy cập cổng, gắn kết WAF), phản hồi ở mức mili giây, hàng nghìn lần xử lý đồng thời và tỷ lệ chính xác lên tới 99%.
Vì lý do này, ý nghĩa thực sự của AI Guardrail nằm ở việc biến "bảo mật mô hình" thành "năng lực sản phẩm", cho phép một giao diện thay thế toàn bộ đội ngũ bảo mật.
Tất nhiên, mô hình lớn không phải là một khái niệm mơ hồ. Đây là hệ thống chạy trên phần cứng và mã và thực hiện các ứng dụng cấp cao. Alibaba Cloud Security cũng đã được nâng cấp để bao gồm bảo mật cơ sở hạ tầng, bảo vệ dịch vụ ứng dụng AI, v.v.
Ở lớp cơ sở hạ tầng, Alibaba Cloud Security đã ra mắt Trung tâm bảo mật đám mây, với AI-BOM, AI-SPM và các sản phẩm khác làm cốt lõi.
Cụ thể, hai khả năng chính của AI-BOM (AI Bill of Materials) và AI-SPM (AI Security Posture Management) lần lượt giải quyết hai vấn đề là "tôi đã cài đặt những thành phần AI nào" và "những thành phần này có bao nhiêu lỗ hổng".
Cốt lõi của AI-BOM là nắm bắt tất cả các thành phần AI trong hoàn cảnh triển khai: hơn 30 thành phần chính như Ray, Ollama, Mlflow, Jupyter, TorchServe, v.v., tạo thành "danh sách vật liệu phần mềm AI" và tự động xác định điểm yếu bảo mật và lỗ hổng phụ thuộc trong đó. Tài sản có vấn đề có thể được phát hiện thông qua quét đám mây thay vì điều tra thủ công.
Vị trí của AI-SPM giống như một "radar": nó liên tục đánh giá tình hình bảo mật của hệ thống từ nhiều khía cạnh như lỗ hổng, rò rỉ cổng, rò rỉ thông tin xác thực, cấu hình văn bản thuần túy, truy cập trái phép, v.v. và đưa ra mức độ rủi ro và đề xuất sửa chữa một cách linh hoạt. Nó chuyển đổi bảo mật từ "tuân thủ ảnh chụp nhanh" sang "quản trị phát trực tuyến".
Tóm lại trong một câu: AI-BOM biết nơi bạn có thể đã dán miếng vá, còn AI-SPM biết nơi nào khác bạn có thể bị tấn công lần nữa, do đó bạn có thể tăng cường phòng ngừa càng sớm càng tốt.
Đối với lớp bảo vệ ứng dụng AI, sản phẩm cốt lõi của Alibaba Cloud Security là WAAP (Web Application & API Protection).
Cho dù đầu ra của mô hình có thông minh đến đâu, nếu lối vào chứa đầy các yêu cầu tập lệnh, mã thông báo ngụy tạo và lạm dụng giao diện, thì nó cũng sẽ không kéo dài quá vài giây. Alibaba WAAP (Bảo vệ ứng dụng web và API) được tạo ra vì mục đích này. Nó không xử lý các ứng dụng AI như "hệ thống Web truyền thống" mà thay vào đó cung cấp các quy tắc lỗ hổng thành phần AI chuyên biệt, thư viện dấu vân tay việc kinh doanh AI và hệ thống lập hồ sơ lưu lượng truy cập.
Ví dụ: WAAP đã xử lý hơn 50 lỗ hổng thành phần như khả năng tải tệp tùy ý của Mlflow và thực thi lệnh từ xa của dịch vụ Ray; thư viện dấu vân tay AI tích hợp có thể xác định hơn 10.000 cọ vẽ ngữ liệu mới và công cụ đánh giá mô hình mỗi giờ; Chức năng nhận dạng tài sản API có thể tự động phát hiện hệ thống nào trong doanh nghiệp đã tiếp xúc với giao diện GPT và "ánh xạ" giao diện đó cho đội ngũ bảo mật.
Quan trọng nhất, WAAP và AI Guardrail không xung đột với nhau mà bổ sung cho nhau: một cái xem xét "ai đến" và cái kia xem xét "điều gì được nói". Một cái giống như "người xác thực" và cái kia giống như "người kiểm duyệt". Điều này mang lại cho các ứng dụng AI khả năng "tự miễn dịch" - thông qua nhận dạng, cô lập, theo dõi và các biện pháp đối phó, nó không chỉ có thể "ngăn chặn những kẻ xấu" mà còn "ngăn chặn chính mô hình trở nên xấu đi".
03 AI cho bảo mật
Vì AI giống như trò tung xúc xắc khi nói đến việc triển khai, một số người sử dụng nó để xem bói, một số sử dụng nó để viết thơ tình và một số sử dụng nó để tham gia vào các ngành công nghiệp xám. Không có gì ngạc nhiên khi một số người sử dụng nó vì lý do an ninh.
Trước đây, hoạt động an ninh đòi hỏi một nhóm người phải tuần tra ngày đêm, theo dõi nhiều báo động đèn đỏ và đèn xanh, tiếp quản công việc của ngày hôm qua vào ban ngày và giám sát hệ thống vào ca đêm.
Bây giờ, tất cả những điều này đều có thể thực hiện được bằng AI. Vào năm 2024, hệ thống bảo mật của Alibaba Cloud sẽ được kết nối hoàn toàn với mô hình lớn Tongyi, ra mắt cụm năng lực AI bao gồm bảo mật dữ liệu, bảo mật nội dung, bảo mật việc kinh doanh và hoạt động bảo mật, đồng thời đề xuất khẩu hiệu mới: Bảo vệ với tốc độ AI.
Ý nghĩa rất rõ ràng: việc kinh doanh đang phát triển nhanh hơn, rủi ro tăng nhanh hơn nữa, nhưng an ninh phải còn nhanh hơn nữa.
Việc sử dụng AI để giải quyết các vấn đề bảo mật thực chất bao gồm hai việc: cải thiện hiệu quả hoạt động bảo mật và nâng cấp các sản phẩm bảo mật lên sản phẩm thông minh .
Max Pain của các hệ thống bảo mật truyền thống là "cập nhật chính sách bị chậm trễ": kẻ tấn công đã thay đổi, nhưng các quy tắc thì không; khi có tiếng báo động, không ai hiểu được ý nghĩa của nó.
Chìa khóa cho sự thay đổi do mô hình lớn mang lại là chuyển đổi hệ thống bảo mật từ dựa trên quy tắc sang dựa trên mô hình và xây dựng hệ sinh thái vòng kín với "Khả năng hiểu của AI + phản hồi của người dùng" - AI hiểu hành vi của người dùng → kết quả cảnh báo phản hồi của người dùng → đào tạo mô hình liên tục → khả năng phát hiện ngày càng chính xác → chu kỳ ngày càng ngắn → ngày càng khó che giấu rủi ro. Đây chính là cái gọi là "bánh đà dữ liệu":
Có hai lợi thế:
Một mặt, các hoạt động bảo mật của người thuê đám mây hiệu quả hơn: trước đây, việc phát hiện mối đe dọa thường có nghĩa là mô hình kém hiệu quả là "cảnh báo hàng loạt + sàng lọc thủ công". Ngày nay, mô hình thông minh có thể xác định chính xác các hành vi bất thường như lưu lượng truy cập độc hại, xâm nhập máy chủ, tập lệnh cửa sau, v.v. và tỷ lệ báo động đã được cải thiện đáng kể. Đồng thời, xung quanh liên kết xử lý, hệ thống đã đạt được sự phối hợp độ sâu về xử lý tự động và phản ứng cực kỳ nhanh chóng - độ tinh khiết của máy chủ được duy trì ổn định ở mức 99% và độ tinh khiết lưu lượng gần đạt 99,9%. Ngoài ra, AI còn tham gia độ sâu nhiệm vụ như xác định cảnh báo, phân loại sự kiện và đề xuất quy trình. Hiện tại, tỷ lệ bao phủ loại sự kiện báo động đã đạt 99% và tỷ lệ bao phủ người dùng của mô hình lớn đã vượt quá 88%. Hiệu quả hoạt động của đội ngũ an ninh đã được nâng cao chưa từng có.
Mặt khác, khả năng của các sản phẩm bảo mật đám mây đang được cải thiện nhanh chóng. Ở lớp bảo mật dữ liệu và lớp bảo mật việc kinh doanh, AI được giao vai trò là “người gác cổng”: dựa trên khả năng của mô hình lớn, AI có thể tự động xác định hơn 800 loại dữ liệu thực thể trên đám mây và thực hiện mã hóa và crypto thông minh. Ngoài dữ liệu có cấu trúc, hệ thống còn tích hợp hơn 30 mô hình nhận dạng hình ảnh và tài liệu, có thể nhận dạng, phân loại và crypto thông tin nhạy cảm như số ID và các yếu tố hợp đồng trong hình ảnh theo thời gian thực. Hiệu quả dán nhãn dữ liệu tổng thể đã tăng gấp 5 lần và độ chính xác nhận dạng đã đạt 95%, giúp giảm đáng kể rủi ro rò rỉ dữ liệu riêng tư.
Ví dụ: Trong tình huống bảo mật nội dung, cách tiếp cận truyền thống là dựa vào hoạt động đánh giá, gắn nhãn và đào tạo chú thích trên diện rộng của con người. Hiện nay, thông qua dự án Prompt và cải tiến ngữ nghĩa, Alibaba đã đạt được lợi ích thực như tăng 100% hiệu quả dán nhãn, tăng 73% khả năng nhận dạng biểu cảm mờ, tăng 88% khả năng nhận dạng nội dung hình ảnh và tỷ lệ chính xác 99% trong phát hiện tấn công khuôn mặt trực tiếp bằng AI.
Nếu Flywheel tập trung vào khả năng phòng ngừa và kiểm soát tự động kết hợp AI với kinh nghiệm của con người thì trợ lý thông minh là trợ lý toàn diện dành cho nhân viên an ninh.
Câu hỏi phổ biến nhất mà nhân viên an ninh đối diện hàng ngày là: Báo động này có nghĩa là gì? Tại sao nó lại được kích hoạt? Đây có phải là báo động giả không? Tôi nên giải quyết vấn đề này thế nào? Trước đây, để điều tra những vấn đề này, người ta phải xem qua nhật ký, kiểm tra lịch sử, hỏi nhân viên cũ, phát phiếu làm việc và sắp xếp hỗ trợ kỹ thuật... Bây giờ, chỉ cần một câu.
Tuy nhiên, chức năng của trợ lý thông minh không chỉ là một robot hỏi và trả lời, mà giống như một phi công phụ thẳng đứng trong lĩnh vực an ninh. Năm khả năng cốt lõi của nó bao gồm:
Trợ lý Hỏi & Đáp về sản phẩm: Tự động trả lời các câu hỏi về cách cấu hình chức năng, lý do chính sách được kích hoạt và tài nguyên nào không được bảo vệ, thay thế lượng lớn dịch vụ lệnh làm việc.
Chuyên gia giải thích cảnh báo: Nhập số cảnh báo, tự động đưa ra lời giải thích về sự kiện, theo dõi Chuỗi tấn công và đề xuất chiến lược ứng phó, đồng thời hỗ trợ đầu ra đa ngôn ngữ;
Trợ lý đánh giá sự cố bảo mật: tự động sắp xếp toàn bộ chuỗi sự cố xâm nhập, tạo mốc thời gian, sơ đồ đường tấn công và đề xuất xác định trách nhiệm;
Trình tạo báo cáo: Tạo báo cáo an toàn hàng tháng/hàng quý/khẩn cấp chỉ bằng một cú nhấp chuột, bao gồm số liệu thống kê sự kiện, xử lý phản hồi và kết quả hoạt động, đồng thời hỗ trợ xuất trực quan;
Hỗ trợ đầy đủ ngôn ngữ: Tiếng Trung và tiếng Anh đã có sẵn. Phiên bản quốc tế ra mắt tháng 6, hỗ trợ tự động thích ứng với thói quen sử dụng của đội ngũ ở nước ngoài.
Đừng đánh giá thấp “năm điều nhỏ nhặt” này. Tính đến thời điểm hiện tại, dữ liệu chính thức của Alibaba cho thấy số lượng người dùng được phục vụ đã vượt quá 40.000, với tỷ lệ hài lòng của người dùng là 99,81%, 100% các loại cảnh báo được bao phủ và khả năng hỗ trợ nhanh chóng tăng 1175% (so với năm tài chính 2024). Nói một cách đơn giản, nó gói gọn những đồng nghiệp có hiệu suất cao làm ca đêm, những thực tập sinh viết báo cáo, những kỹ sư xử lý cảnh báo và các chuyên gia tư vấn bảo mật hiểu rõ việc kinh doanh vào một API. Với khả năng này, con người chỉ đưa ra quyết định chứ không còn tuần tra nữa.
04 Kết thúc
Nhìn lại, lịch sử chưa bao giờ thiếu những “công nghệ mang tính thời đại”, điều thiếu chính là công nghệ có thể tồn tại qua cơn sốt vào năm thứ hai.
Internet, P2P, blockchain, xe không người lái... Mỗi làn sóng công nghệ đều được gọi là "cơ sở hạ tầng mới", nhưng cuối cùng, chỉ một số ít trong số chúng có thể tồn tại qua "khoảng trống quản trị" và trở thành cơ sở hạ tầng thực sự.
Trí tuệ nhân tạo (AI) tạo sinh ngày nay cũng đang ở giai đoạn tương tự: một mặt, có nhiều mô hình khác nhau, vốn đang đổ xô vào nó và các ứng dụng đang đột phá từng lớp một; Mặt khác, có tình trạng chèn từ nhanh, nội dung trái phép, rò rỉ dữ liệu, thao túng mô hình, nhiều lỗ hổng, ranh giới không rõ ràng và mất tập trung vào trách nhiệm.
Nhưng AI khác với các công nghệ trước đây. Nó không chỉ có thể vẽ tranh, viết thơ, lập trình và dịch mà còn có thể bắt chước ngôn ngữ, phán đoán và thậm chí là tâm lý của con người. Nhưng vì thế, sự mong manh của AI không chỉ xuất phát từ lỗ hổng mã mà còn phản ánh bản chất con người. Con người có thành kiến và chó sẽ học hỏi từ họ; con người luôn tìm kiếm sự tiện lợi, còn chó sẽ tìm đường tắt thay bạn.
Sự tiện lợi của công nghệ chính là yếu tố khuếch đại của quá trình lập bản đồ này : trước đây, hệ thống CNTT vẫn yêu cầu "quyền hạn của người dùng" và các cuộc tấn công dựa vào sự xâm nhập; Hiện nay, các mô hình lớn chỉ yêu cầu chèn từ khóa nhanh và chỉ cần trò chuyện với bạn cũng có thể gây ra lỗi hệ thống và rò rỉ quyền riêng tư.
Tất nhiên, không có hệ thống AI nào là "hoàn hảo". Đó là khoa học viễn tưởng, không phải kỹ thuật.
Câu trả lời duy nhất là sử dụng một mô hình an toàn để bảo vệ một mô hình không an toàn và sử dụng một hệ thống thông minh để chống lại các mối đe dọa thông minh. Khi chơi trò chơi với AI, Alibaba lựa chọn sự an toàn.





