Với deepfakes, thông tin sai lệch và gian lận được hỗ trợ bởi AI lan rộng trực tuyến và trong các lớp học, Google DeepMind đã giới thiệu Trình phát hiện SynthID vào thứ Ba. Công cụ mới này quét hình ảnh, âm thanh, video và văn bản để tìm hình mờ vô hình được nhúng bởi bộ công cụ AI ngày càng phát triển của Google.
Được thiết kế để hoạt động trên nhiều định dạng tại một nơi, Trình phát hiện SynthID nhằm mang lại tính minh bạch lớn hơn bằng cách xác định nội dung được tạo bởi AI của Google, bao gồm các AI âm thanh NotebookLM, Lyria, và trình tạo hình ảnh Imagen, đồng thời làm nổi bật các phần có khả năng được đánh dấu nước cao nhất.
"Đối với văn bản, SynthID sẽ xem xét những từ nào sẽ được tạo tiếp theo, và thay đổi xác suất cho các lựa chọn từ phù hợp mà không ảnh hưởng đến chất lượng và tiện ích tổng thể của văn bản," Google cho biết trong một bản trình diễn demo.
"Nếu một đoạn văn chứa nhiều trường hợp lựa chọn từ ưa thích, SynthID sẽ phát hiện ra rằng nó đã được đánh dấu nước," nó thêm.
SynthID điều chỉnh các điểm số xác suất của các lựa chọn từ trong quá trình tạo văn bản, nhúng một hình mờ vô hình không ảnh hưởng đến ý nghĩa hoặc khả năng đọc của kết quả. Hình mờ này sau này có thể được sử dụng để xác định nội dung được tạo bởi ứng dụng hoặc công cụ web Gemini của Google.
Google đã giới thiệu việc đánh dấu nước SynthID lần đầu tiên vào tháng 8 năm 2023 như một công cụ để phát hiện hình ảnh được tạo bởi AI. Với việc ra mắt Trình phát hiện SynthID, Google đã mở rộng chức năng này để bao gồm âm thanh, video và văn bản.
Hiện tại, Trình phát hiện SynthID có sẵn trong bản phát hành hạn chế và có danh sách chờ cho các nhà báo, giáo viên, nhà thiết kế và nhà nghiên cứu để thử nghiệm chương trình.
Khi các công cụ AI sinh sản trở nên phổ biến hơn, các nhà giáo dục đang thấy việc xác định liệu công việc của học sinh có phải là nguyên bản hay không ngày càng khó khăn, thậm chí trong các bài tập được cho là phản ánh trải nghiệm cá nhân.
Sử dụng AI để gian lận
Một báo cáo gần đây của New York Magazine đã nêu bật vấn đề ngày càng gia tăng này.
Một giáo sư về đạo đức công nghệ tại Đại học Santa Clara đã giao một bài luận phản ánh cá nhân, chỉ để phát hiện ra rằng một sinh viên đã sử dụng ChatGPT để hoàn thành nó.
Tại Đại học Arkansas tại Little Rock, một giáo sư khác đã phát hiện sinh viên dựa vào AI để viết các bài luận giới thiệu khóa học và mục tiêu lớp học.
Mặc dù có sự gia tăng số sinh viên sử dụng mô hình AI của mình để gian lận trong lớp học, OpenAI đã đóng cửa phần mềm phát hiện AI của mình vào năm 2023, với lý do tỷ lệ chính xác thấp.
"Chúng tôi nhận thức được rằng việc xác định văn bản được viết bằng AI đã là một điểm thảo luận quan trọng trong giới giáo dục, và không kém phần quan trọng là nhận ra các giới hạn và tác động của các trình phân loại văn bản được tạo bởi AI trong lớp học," OpenAI cho biết tại thời điểm đó.
Làm phức tạp thêm vấn đề gian lận AI là các công cụ mới như Cluely, một ứng dụng được thiết kế để vượt qua phần mềm phát hiện AI. Được phát triển bởi cựu sinh viên Đại học Columbia Roy Lee, Cluely vượt qua việc phát hiện AI ở cấp độ máy tính để bàn.
Được quảng bá như một cách để gian lận trong các kỳ thi và cuộc phỏng vấn, Lee đã gây quỹ 5,3 triệu đô la để xây dựng ứng dụng.
"Nó bùng nổ sau khi tôi đăng một video về việc sử dụng nó trong một cuộc phỏng vấn của Amazon," Lee trước đây đã nói với Decrypt. "Trong khi sử dụng nó, tôi nhận ra trải nghiệm người dùng rất thú vị - không ai từng khám phá ý tưởng về một lớp phủ trong suốt có thể nhìn thấy màn hình của bạn, nghe âm thanh của bạn, và hoạt động như một người chơi thứ hai cho máy tính của bạn."
Mặc dù có sự hứa hẹn của các công cụ như SynthID, nhiều phương pháp phát hiện AI hiện tại vẫn còn không đáng tin cậy.
Vào tháng 10, một bài kiểm tra các trình phát hiện AI hàng đầu của Decrypt phát hiện ra rằng chỉ có hai trong số bốn trình phát hiện AI hàng đầu, Grammarly, Quillbot, GPTZero và ZeroGPT, có thể xác định liệu Tuyên ngôn Độc lập của Hoa Kỳ được viết bởi con người hay AI.
Được biên tập bởi Sebastian Sinclair






