OpenAI đột ngột chặn GPT-5.4 mạnh nhất, và 3.000 lỗi nghiêm trọng đã biến mất ngay lập tức.

avatar
36kr
04-15
Bài viết này được dịch máy
Xem bản gốc

[Giới thiệu] OpenAI đang rất gấp rút! Một tuần sau vụ rò rỉ Claude Mythos, OpenAI chính thức phát hành GPT-5.4- Cyber. Mô hình mạnh mẽ này, được tinh chỉnh đặc biệt cho phòng thủ an ninh, không chỉ có thể phân tích phần mềm độc hại mà không cần mã nguồn, mà còn tự động vá 3.000 lỗ hổng bảo mật có rủi ro cao.

OpenAI đang đi theo bước chân của Anthropic và bắt đầu sử dụng chiêu bài "bí ẩn"!

Mới đây, OpenAI đã chính thức phát hành mô hình GPT-5.4- Cyber ​​mới, chỉ dành riêng cho các chuyên gia an ninh mạng.

Như tên gọi cho thấy, đây là một mô hình mạnh mẽ được thiết kế đặc biệt để tinh chỉnh các biện pháp phòng thủ an ninh.

Cùng lúc đó, OpenAI nâng cấp chương trình Trusted Access for Cyber ​​(TAC) dành cho an ninh mạng vào ngày hôm nay.

Đầu tiên là Claude Mythos, sau đó là GPT-5.4- Cyber.

GPT-5.4 - Cyber đã được phát hành

Với sự tăng trưởng bậc thang về khả năng của mô hình, GPT-5.4 được đánh giá là có khả năng an ninh mạng ở mức "cao".

Để phát huy tối đa tiềm năng trong lĩnh vực phòng thủ, OpenAI đã quyết định ra mắtGPT-5.4- Cyber ​​với mục tiêu cụ thể hơn.

Mô hình này được thiết kế đặc biệt để giảm tỷ lệ từ chối trong các nghiên cứu bảo mật hợp pháp, từ đó giảm bớt trở ngại cho các chuyên gia bảo mật khi tiến hành phân tích lỗ hổng và kiểm toán mã nguồn.

Hơn nữa, người hành nghề bảo mật giờ đây có thể sử dụng nó để phân tích phần mềm đã biên dịch.

Ngay cả khi không có mã nguồn, nó vẫn có thể xác định hiệu quả các xu hướng phần mềm độc hại và đánh giá độ ổn định của phần mềm.

Dự án TAC: Xây dựng bức tường niềm tin trong kỷ nguyên AI

Chiến lược cốt lõi của OpenAI nằm ở việc trao quyền cho những người bảo vệ hệ thống.

Thông qua chương trình TAC, chính thức cung cấp xác thực tự động để giảm thiểu những hạn chế và trở ngại về mặt kỹ thuật trong nhiệm vụ bảo mật.

Chiến lược an ninh mạng của nó được định hướng bởi ba nguyên tắc:

  • Quyền truy cập dân chủ hóa

Các công cụ phòng thủ không nên chỉ thuộc quyền sở hữu riêng của các tập đoàn lớn.

Với quy trình xác minh KYC (Know Your Customer - Biết khách hàng của bạn), dù bạn là cá nhân lãnh đạo hay một đội ngũ nhỏ, miễn là danh tính của bạn hợp lệ, bạn có thể sử dụng trí tuệ nhân tạo tiên tiến nhất để bảo vệ các hệ thống quan trọng.

  • Triển khai lặp đi lặp lại

Khả năng đảm bảo an toàn không thể được phát triển trong phòng thí nghiệm nếu không có sự can thiệp của con người.

OpenAI sẽ làm cho mô hình trở nên mạnh mẽ hơn trong các tình huống thực tế bằng cách triển khai nó trên quy mô nhỏ và liên tục kiểm tra khả năng chống lại việc bẻ khóa và các cuộc tấn công.

  • Đầu tư vào khả năng phục hồi của hệ sinh thái

Khả năng phục hồi của cộng đồng được tăng cường thông qua chương trình tài trợ an ninh lên tới 10 triệu đô la, các khoản đóng góp cho các dự án an ninh mã nguồn mở(như Codex for Open Source) và công cụ Codex Security để tự động phát hiện và vá các lỗ hổng.

Đừng nghĩ đây chỉ là ý tưởng; Codex Security đã chứng minh được hiệu quả thực tế:

Nó có thể tự động giám sát mã nguồn, báo cáo các lỗ hổng và thậm chí tự động viết ra các bản vá lỗi. Kể từ khi ra mắt, nó đã khắc phục hơn 3.000 lỗ hổng bảo mật nghiêm trọng và có rủi ro cao.

Mô hình "bảo mật được thực hiện ngay khi mã được viết" là xu hướng của tương lai.

Giao phó nhiệm vụ kiềm chế trí tuệ nhân tạo mạnh nhất cho "người gác cổng".

Vài ngày trước, Axios đã công bố một báo cáo độc quyền đầu tiên đề cập đến mô hình bảo mật này dựa trên việc tinh chỉnh GPT-5.4.

Trên thực tế, sau khi GPT-5.3-Codex ra mắt, OpenAI đã triển khai một chương trình thí điểm nội bộ cho TAC.

Hơn nữa, chương trình này chỉ dành cho một nhóm người được chọn lọc, với mục tiêu cốt lõi là đẩy nhanh nghiên cứu quốc phòng bằng cách sử dụng các mô hình có năng lực cao.

Thật bất ngờ, Anthropic một lần nữa lại nắm thế chủ động trong việc quảng bá và tiếp thị.

Tuần trước, Claude Mythos (phiên bản xem trước) đã phát hành một bài kiểm tra hiệu năng toàn diện. Đồng thời, Anhtropic đã hợp tác với 40 ông lớn trong ngành để khởi động "Dự án Glasswing".

Ban đầu, họ đã đầu tư 100 triệu đô la để cung cấp cho các gã khổng lồ công nghệ hàng đầu như Apple, Google và Nvidia quyền truy cập sớm vào Claude Mythos.

OpenAI đã đợi một tuần trước khi nhận được giấy phép, muộn nhưng không quá muộn, vì lúc đó chưa phải ai cũng có thể sử dụng được.

Nói một cách đơn giản, Anthropic và OpenAI hướng đến việc chuyển giao chính xác những khả năng trí tuệ nhân tạo mạnh mẽ nhất cho "người giữ gôn".

Bất chấp những biện pháp phòng thủ chặt chẽ của các ông lớn Thung lũng Silicon, một báo cáo gần đây từ AISLE tuần trước đã dội gáo nước lạnh vào thực tế—

Hiện tại, một số mô hình nhỏ hơn, bao gồm GPT và DeepSeek, đã có khả năng giúp Mythos phát hiện một số lỗ hổng.

Điều này có nghĩa là các ông lớn trong lĩnh vực trí tuệ nhân tạo đang tham gia vào một cuộc chơi đầy khó khăn: họ phải ngăn chặn những lợi thế cạnh tranh gay gắt của chính mình gây hại cho người khác, đồng thời xây dựng một hệ thống phòng thủ trí tuệ nhân tạo đủ mạnh trước khi các mô hình nguy hiểm và khó kiểm soát hơn xuất hiện.

Cuộc cạnh tranh giữa "sức mạnh tấn công" và "khả năng kiểm soát" của trí tuệ nhân tạo chỉ mới bắt đầu.

Tham khảo:

cyber

cyber

Bài viết này được lấy từ tài khoản chính thức WeChat "New Zhiyuan" , do Taozi biên tập và được đăng tải với sự cho phép của 36Kr.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận