Vào ngày 20 tháng 1 năm 2026, OpenAI chính thức ra mắt chức năng "Dự đoán tuổi" trong phiên bản dành cho người dùng của ChatGPT. Thay vì dựa vào người dùng tự khai báo tuổi, chức năng này tự động nhận diện người dùng dưới 18 tuổi và kích hoạt tính năng bảo vệ an toàn độc quyền thông qua các tín hiệu hành vi đa chiều như thời gian sử dụng tài khoản, thời gian hoạt động và mô hình tương tác. Ứng dụng cũng được trang bị cơ chế kiểm soát của phụ huynh và xác minh của bên thứ ba, đánh dấu một giai đoạn mới trong việc bảo vệ trẻ vị thành niên trên các nền tảng AI, từ "tự nguyện khai báo" sang "nhận diện hành vi".
Nguyên lý kỹ thuật đằng sau tính năng dự đoán tuổi của ChatGPT
Từ lâu, việc bảo vệ trẻ vị thành niên trên các nền tảng trí tuệ nhân tạo (AI) dựa vào mô hình thụ động "người dùng tự khai báo tuổi + xếp hạng nội dung" - người dùng có thể mở khóa tất cả các chức năng bằng cách chọn "Tôi trên 18 tuổi" khi đăng ký. Phương pháp này không chỉ dễ bị vượt qua mà còn không thể xử lý các trường hợp trẻ vị thành niên giả mạo người lớn.
Tính năng "dự đoán tuổi"lần ra mắt của OpenAI hoàn toàn phá vỡ logic truyền thống này. Cốt lõi của nó là một mô hình dự đoán đa chiều dựa trên tín hiệu tài khoản và hành vi , với các chiều phân tích cụ thể bao gồm:
Các chỉ số cấp tài khoản: Thông tin cơ bản như thời gian đăng ký, mức độ hoạt động của tài khoản và trạng thái thanh toán;
Các khía cạnh hành vi: thời gian hoạt động hàng ngày (ví dụ: có thường xuyên sử dụng vào đêm khuya hay không), tần suất tương tác, nội dung câu hỏi ưa thích, độ dài và phong cách hội thoại, v.v.
Lưu ý bổ sung: Thông tin về độ tuổi do người dùng điền vào trong quá trình đăng ký chỉ được sử dụng làm tham khảo bổ sung chứ không phải là cơ sở duy nhất để đánh giá.
Ưu điểm cốt lõi của mô hình này nằm ở "nhận dạng động": không giống như việc khai báo tuổi một lần, nó có thể liên tục phân tích hành vi người dùng và liên tục điều chỉnh kết quả xác định tuổi. Ngay cả khi người dùng trưởng thành sử dụng hệ thống theo cách giống với trẻ vị thành niên trong thời gian dài (chẳng hạn như thường xuyên đặt câu hỏi về nội dung dành cho trẻ nhỏ hoặc tương tác thường xuyên vào đêm khuya), họ vẫn có thể bị đánh dấu là "nghi ngờ là trẻ vị thành niên" và kích hoạt chế độ bảo vệ. Ngược lại, nếu trẻ vị thành niên bắt chước thói quen sử dụng của người dùng trưởng thành, rất khó để tránh hoàn toàn việc bị nhận dạng.
Một cách tiếp cận "mềm và cứng" để bảo vệ trẻ vị thành niên
Đối với các tài khoản được xác định là thuộc về trẻ vị thành niên, ChatGPT sẽ áp dụng năm lớp bảo mật để chặn chính xác nội dung có rủi ro cao, bao gồm:
1. Trực tiếp thể hiện các cảnh bạo lực và đẫm máu;
2. Những thử thách lan truyền nguy hiểm có thể khiến trẻ vị thành niên bắt chước (chẳng hạn như những trò đùa quá trớn và các thí nghiệm nguy hiểm);
3. Nội dung nhập nhân vật liên quan đến tình dục hoặc bạo lực;
4. Mô tả và hướng dẫn liên quan đến hành vi tự gây thương tích và tự tử;
5. Nội dung cổ vũ vẻ đẹp cực đoan, chế độ ăn kiêng không lành mạnh hoặc miệt thị ngoại hình.
Trong khi đó, để tránh những sai sót trong việc đánh giá mô hình ảnh hưởng đến trải nghiệm người dùng trưởng thành, OpenAI đã giới thiệu dịch vụ xác minh danh tính bên thứ ba Persona : người dùng bị phân loại nhầm là trẻ vị thành niên có thể hoàn tất quá trình xác minh khuôn mặt nhanh chóng bằng cách tải ảnh tự chụp lên. Sau khi được xác minh, các chức năng tài khoản của họ có thể được khôi phục, cân bằng giữa bảo mật và trải nghiệm người dùng.
Ngoài ra, hệ thống còn đi kèm với các chức năng tùy chỉnh kiểm soát của phụ huynh , cho phép cha mẹ có quyền kiểm soát linh hoạt hơn: họ có thể thiết lập "thời gian im lặng" (khoảng thời gian bị cấm sử dụng, chẳng hạn như trong giờ học hoặc giờ ngủ), kiểm soát quyền truy cập chức năng bộ nhớ tài khoản (để ngăn trẻ em xem đi xem lại nội dung nhạy cảm), và thậm chí nhận được thông báo kịp thời và can thiệp để hướng dẫn khi hệ thống phát hiện các dấu hiệu căng thẳng tâm lý cấp tính ở người dùng (chẳng hạn như thường xuyên hỏi các câu hỏi liên quan đến tự hại).
Tại sao OpenAI lại ra mắt tính năng dự đoán tuổi tác vào thời điểm này?
Ra mắt tính năng lần không phải là kết quả của "sự đổi mới chủ động" của OpenAI, mà là kết quả của áp lực pháp lý và xu hướng ngành .
Một mặt, OpenAI đang phải đối mặt với cuộc điều tra của Ủy ban Thương mại Liên bang Hoa Kỳ (FTC), với mối quan ngại chính là "tác động tiêu cực của chatbot AI đối với thanh thiếu niên". Công ty này cũng đang vướng vào một số vụ kiện liên quan – trước đây, phụ huynh đã phàn nàn rằng ChatGPT không chặn hiệu quả các nội dung độc hại, dẫn đến việc trẻ vị thành niên tiếp xúc với bạo lực, khiêu dâm và thậm chí gặp các vấn đề tâm lý. Việc giới thiệu chức năng dự đoán độ tuổi là một biện pháp quan trọng để OpenAI đối phó với sự giám sát của cơ quan quản lý và giảm thiểu rủi ro pháp lý.
Mặt khác, bảo vệ trẻ vị thành niên đã trở thành một vấn đề cấp thiết đối với ngành công nghiệp AI toàn cầu. Với việc sử dụng rộng rãi các công cụ AI, ngày càng nhiều thanh thiếu niên sử dụng ChatGPT như một công cụ quan trọng để học tập và giải trí, nhưng tâm trí của họ chưa trưởng thành và dễ bị ảnh hưởng bởi những thông tin độc hại. Trước đây, các đối thủ cạnh tranh như Google Bard và Anthropic Claude đã triển khai các tính năng bảo vệ trẻ vị thành niên ở các mức độ khác nhau, nhưng chúng chủ yếu dựa vào xếp hạng nội dung và báo cáo tự nguyện. Mô hình "nhận diện hành vi + bảo vệ động" của OpenAI chắc chắn là một hướng nghiên cứu tiên tiến hơn trong ngành.
Từ góc độ xu hướng ngành, việc bảo vệ an ninh cho các nền tảng AI đang nâng cấp từ "lọc nội dung" lên mô hình kép "nhận dạng người dùng + phân loại nội dung" - không chỉ để xác định "nội dung đó có độc hại hay không", mà còn "người dùng có phù hợp để truy cập nội dung đó hay không". Đây cũng là hướng đi cốt lõi cho sự phát triển của an ninh AI trong tương lai.
Liệu dự đoán tuổi tác có thực sự bảo vệ được trẻ vị thành niên?
Mặc dù có thiết kế chức năng dường như hoàn thiện, "dự đoán tuổi tác" vẫn phải đối mặt với nhiều tranh cãi và thách thức, chủ yếu tập trung vào ba khía cạnh:
1. Liệu các tín hiệu hành vi có thể phản ánh đầy đủ tuổi tác?
Cốt lõi của các mô hình dự đoán độ tuổi là "mối tương quan giữa hành vi và độ tuổi", nhưng mối tương quan này không tuyệt đối. Ví dụ, một số người dùng trưởng thành có thể thường xuyên sử dụng ChatGPT vào đêm khuya do nhu cầu công việc hoặc học tập, hoặc thích đặt câu hỏi về nội dung phổ biến phổ cập dành cho người học nhỏ tuổi hơn, khiến họ dễ bị nhận diện nhầm là trẻ vị thành niên. Ngược lại, một số trẻ vị thành niên thông minh vượt trội có thể tránh bị nhận diện bằng cách bắt chước các kiểu tương tác của người dùng trưởng thành. Mặc dù OpenAI tuyên bố sẽ tiếp tục tối ưu hóa độ chính xác của mô hình, nhưng việc đạt được độ chính xác 100% trong ngắn hạn vẫn còn khó khăn.
2. Phân tích hành vi có xâm phạm quyền riêng tư của người dùng không?
Dự đoán tuổi tác đòi hỏi việc thu thập và phân tích lượng lớn dữ liệu hành vi người dùng, bao gồm thời gian hoạt động, nội dung tương tác và thói quen sử dụng. Điều này đã làm dấy lên lo ngại về việc rò rỉ thông tin cá nhân trong cộng đồng người dùng. OpenAI sẽ đảm bảo như thế nào rằng dữ liệu này không bị lạm dụng? Liệu nó có được chia sẻ với bên thứ ba? Mặc dù OpenAI chưa nêu rõ các quy tắc sử dụng dữ liệu , nhưng trong bối cảnh tuân thủ dữ liệu toàn cầu ngày càng nghiêm ngặt, việc cân bằng giữa "nhận diện hành vi" và "bảo vệ quyền riêng tư" sẽ là một vấn đề mà họ phải giải quyết.
3. Liệu biện pháp bảo vệ có thể bao quát tất cả các kịch bản rủi ro ?
Năm loại nội dung rủi ro cao bị ChatGPT chặn lần chủ yếu tập trung vào "thông tin gây hại rõ ràng", nhưng mô hình dự đoán độ tuổi vẫn chưa bao gồm " rủi ro ngầm" (như xúi giục trẻ vị thành niên thực hiện gian lận trực tuyến, truyền bá tư tưởng cực đoan và rò rỉ thông tin cá nhân). Hơn nữa, chức năng kiểm soát của phụ huynh phụ thuộc vào sự chủ động của cha mẹ; nếu cha mẹ thiếu nhận thức giám sát hoặc kỹ năng kỹ thuật, hiệu quả thực tế của chức năng này sẽ bị giảm đáng kể.
ra mắt chức năng "dự đoán độ tuổi" là một bước đột phá đáng kể trong ngành công nghiệp AI về bảo vệ trẻ vị thành niên. Điều này cho thấy các nền tảng AI cuối cùng đã học được cách "điều chỉnh phương pháp tiếp cận cho phù hợp với từng cá nhân", chuyển từ việc lọc nội dung thụ động sang nhận diện người dùng chủ động và bảo vệ chính xác hơn.
Tuy nhiên, chúng ta cũng cần nhận thức rằng công nghệ không phải là thuốc chữa bách bệnh, và dự đoán độ tuổi chỉ là "bước đầu tiên" trong việc bảo vệ trẻ vị thành niên. Trong tương lai, chỉ thông qua sự hợp tác giữa các nền tảng, phụ huynh và các cơ quan quản lý để liên tục tối ưu hóa công nghệ, hoàn thiện quy tắc và tăng cường hướng dẫn, chúng ta mới thực sự có thể tạo ra một hoàn cảnh AI an toàn và lành mạnh cho thanh thiếu niên, cho phép công nghệ AI thực sự thúc đẩy sự phát triển của các em thay vì mang lại rủi ro.
Đối với OpenAI, ra mắt tính năng dự đoán tuổi tác là một bước quan trọng trong việc đáp ứng các quy định và xây dựng lại danh tiếng của mình. Đối với toàn bộ ngành công nghiệp AI, điều này báo hiệu một "nâng cấp an toàn" — chỉ khi đổi mới công nghệ và các biện pháp bảo vệ an toàn song hành cùng nhau, AI mới thực sự trưởng thành và tuân thủ các quy định.
Bài viết này được đăng tải từ tài khoản WeChat công cộng "Shanzi" , tác giả: Rayking629, và được xuất bản với sự cho phép của 36Kr.





