Các cuộc gọi lừa đảo và giả mạo danh tính do AI tạo ra đã gây ra làn sóng lừa đảo danh tính trong năm 2025.

Bài viết này được dịch máy
Xem bản gốc
Các cuộc gọi lừa đảo và giả mạo danh tính do AI tạo ra đã gây ra làn sóng lừa đảo danh tính trong năm 2025.

Với sự xuất hiện của deepfake vào năm 2025, khái niệm về nội dung kỹ thuật số trực tuyến và độ tin cậy của nó đối với cá nhân đã hoàn toàn thay đổi. Trí tuệ nhân tạo tinh vi hơn giờ đây có thể được sử dụng để tạo ra nội dung âm thanh, video và đa phương tiện cực kỳ chân thực với nỗ lực tối thiểu, và đôi khi rất khó để phân biệt chúng với phương tiện truyền thông thực.

Đã có những lo ngại về việc các công cụ truyền thông tổng hợp ngày càng được sử dụng rộng rãi trong các vụ lừa đảo, gian lận và các chiến dịch tung tin sai lệch, gây lo ngại cho người dân, doanh nghiệp cũng như chính phủ.

Đến năm 2025, số lượng nội dung deepfake trên Internet sẽ tăng cao hơn bao giờ hết. Và cùng với đó, công nghệ này trở nên dễ tiếp cận và thân thiện với người dùng đến mức bất cứ ai cũng có thể trở thành nguồn cung cấp phương tiện truyền thông giả mạo đáng tin cậy.

Những tiến bộ này đã gây ra những vấn đề nghiêm trọng trong việc xác nhận tính xác thực của nội dung kỹ thuật số, làm xói mòn niềm tin vào lĩnh vực truyền thông, báo chí và kinh doanh.

Những tiến bộ trong công nghệ Deepfake

Các mô hình tạo video đã có những bước tiến đáng kể vào năm 2025 và hiện tạo ra nội dung với chuyển động ổn định và nhận dạng nhất quán. Các hệ thống này tách biệt danh tính của một người khỏi dữ liệu chuyển động, cho phép tái tạo chính xác trong nhiều tình huống khác nhau.

Sự tiến bộ này đã giảm thiểu hiện tượng nhấp nháy, biến dạng và méo mó khuôn mặt, những vấn đề từng giúp dễ dàng phát hiện deepfake. Chất lượng video giờ đây vẫn rõ nét ngay cả trong các cuộc gọi video độ phân giải thấp hoặc khi tải lên mạng xã hội dưới dạng video đã được nén. Các nhà nghiên cứu an ninh mạng báo cáo rằng mức độ chân thực này thường đánh lừa người xem không có kiến ​​thức chuyên môn.

Công nghệ sao chép giọng nói cũng đã phát triển nhanh chóng trong năm nay. Chỉ cần vài giây âm thanh giờ đây có thể tái tạo giọng nói của một người với độ chính xác đáng kinh ngạc. Các mô hình nắm bắt được ngữ điệu, nhịp điệu, khoảng lặng và biểu cảm cảm xúc tự nhiên.

Nhiều doanh nghiệp báo cáo nhận được hàng nghìn cuộc gọi lừa đảo do trí tuệ nhân tạo tạo ra mỗi ngày bằng cách sử dụng giọng nói sao chép. Ủy ban Thương mại Liên bang Hoa Kỳ đã cảnh báo về sự gia tăng mạnh các cuộc gọi này, đặc biệt là những cuộc gọi giả mạo người thân. Công nghệ tổng hợp giọng nói hiện đang đặt ra thách thức cho cả các chuyên gia được đào tạo và các hệ thống xác minh danh tính cũ.

Các công cụ AI hướng đến người tiêu dùng cũng đã giảm bớt kỹ năng kỹ thuật cần thiết để tạo ra deepfake. Các nền tảng như OpenAI Sora 2 và Google Veo 3 cho phép viết Script và tạo nội dung đa phương tiện nhanh chóng.

Các tác nhân AI có thể tự động hóa toàn bộ quá trình sản xuất video kể chuyện ở quy mô lớn. Sự kết hợp ngày càng tăng giữa khối lượng giao dịch lớn và tính chân thực đã khiến việc phát hiện trở nên chậm hơn và phức tạp hơn. Các chuyên gia an ninh cảnh báo rằng phương tiện truyền thông tổng hợp thường lan truyền rộng rãi trước khi quá trình xác minh diễn ra.

Các vụ lừa đảo và gian lận do AI điều khiển

Thế hệ lừa đảo mới nhắm vào cá nhân và tổ chức đã trở nên khả thi nhờ công nghệ trí tuệ nhân tạo (AI). Những kẻ lừa đảo hiện đang sử dụng video deepfake, sao chép giọng nói và văn bản do AI tạo ra để thực hiện các vụ lừa đảo rất chân thực. Theo báo cáo của Europol và các cơ quan an ninh mạng, các cuộc tấn công này nhắm vào lòng tin, sự khẩn cấp và uy tín. Nạn nhân của các vụ lừa đảo AI thường phải chịu thiệt hại về tiền bạc hoặc bị tổn hại danh tiếng.

Một trong những mối đe dọa phổ biến nhất là giả mạo danh tính. Kẻ trộm bắt chước giọng nói của người thân hoặc quản lý để ép buộc nạn nhân giao tiền. Một người bà có thể nhận được cuộc gọi báo rằng cháu mình đang bị giam giữ ở nước ngoài. Nhân viên có thể bị điều khiển bởi giọng nói giả mạo của CEO, và bị yêu cầu chuyển khoản ngay lập tức. Theo các chuyên gia, việc thao túng cảm xúc chứ không phải kỹ năng công nghệ mới là động lực chính đằng sau những vụ lừa đảo này.

Hiện nay có nhiều video giả mạo (deepfake) và quảng cáo sai sự thật. Có những video về người nổi tiếng hoặc những người có vị trí quan trọng trong việc tiếp thị đầu tư hoặc sản phẩm đang lan truyền rộng rãi. Những video như vậy thường được người xem tin tưởng do thiên kiến ​​về uy tín, dẫn đến thiệt hại về tài chính. Trí tuệ nhân tạo (AI) cũng có thể giúp những kẻ lừa đảo tái sử dụng video sang nhiều ngôn ngữ khác nhau để tiếp cận nhiều người hơn.

Những tin nhắn lừa đảo siêu thực hiện nay có thể được tạo ra chỉ trong vài giây bằng trí tuệ nhân tạo (AI). Kẻ lừa đảo tạo ra các email và trang web mô phỏng các công ty thật, thường bao gồm cả các thông tin cá nhân hóa. Nạn nhân có thể nhập thông tin nhạy cảm vào các cổng thông tin giả mạo, tạo điều kiện cho kẻ tấn công truy cập vào tài khoản. AI cho phép các chiến dịch này mở rộng nhanh chóng và tiếp cận hàng trăm nghìn mục tiêu.

Gian lận thương mại điện tử cũng gia tăng thông qua các cửa hàng trực tuyến giả mạo và quảng cáo mua sắm sai sự thật. Tội phạm tạo ra các trang web trông rất giống thật với các đánh giá và nội dung khuyến mãi sai lệch. Người mua hàng có thể phải trả tiền cho các sản phẩm mà không bao giờ nhận được, đồng thời thông tin cá nhân của họ cũng bị lộ. Các công ty an ninh mạng báo cáo rằng các cuộc tấn công như vậy đạt đỉnh điểm trong các mùa lễ hội hoặc mùa mua sắm.

Các vụ tống tiền bằng hình ảnh khiêu dâm sử dụng hình ảnh tình dục được tạo ra bởi trí tuệ nhân tạo. Bọn tội phạm đe dọa bằng cách công bố các tài liệu giả mạo trừ khi nạn nhân trả tiền. Đây là những vụ lừa đảo gây ảnh hưởng mạnh đến tâm lý và rất khó bỏ qua, ngay cả khi đó là hình ảnh giả mạo. Các cơ quan quản lý như Ofcom ở Anh đã báo cáo về số lượng ngày càng tăng các video giả mạo nguy hiểm (deepfake) dùng để tống tiền.

Tác động đến doanh nghiệp và thị trường

Các doanh nghiệp đang phải đối mặt với áp lực ngày càng tăng trong việc áp dụng các biện pháp bảo mật AI. Các vụ lừa đảo mạo danh giám đốc điều hành và tấn công chiếm đoạt email doanh nghiệp ngày càng tinh vi hơn so với các cuộc tấn công truyền thống. Nhân viên thường bị thao túng để bỏ qua các quy trình nội bộ. Các công ty cần các công cụ xác thực đa yếu tố và giám sát để ngăn ngừa tổn thất tài chính.

Việc hợp nhất các giải pháp nhận dạng kỹ thuật số và sinh trắc học được thực hiện như một giải pháp cho vấn đề gian lận. Năm 2025, số lượng các vụ sáp nhập và mua lại tăng lên do nhu cầu cao về các hệ thống nhận dạng an toàn. Các công ty đang mua lại các công nghệ phòng chống và xác minh gian lận để nâng cao dịch vụ của mình. Các nhà phân tích thị trường lưu ý hoạt động tiếp tục diễn ra trong năm 2026, với việc các tổ chức đang tìm kiếm các giải pháp tích hợp.

Chiến lược an ninh mạng của doanh nghiệp cũng bị ảnh hưởng bởi trí tuệ nhân tạo (AI). Các tín hiệu xác suất, hành vi và thiết bị đã được bổ sung vào hệ thống phát hiện gian lận. Các phương pháp tiêu chuẩn được sử dụng trong xác minh danh tính truyền thống, về mặt tài liệu hoặc xác minh một yếu tố, không còn đủ hiệu quả.

Do các mối đe dọa ngày càng thay đổi, các tổ chức đang tích hợp nhiều cấp độ bảo mật. Trí tuệ nhân tạo (AI) cũng làm tăng tốc độ và quy mô các cuộc tấn công, đòi hỏi phải có biện pháp bảo vệ linh hoạt.

Những thách thức trong phát hiện và xác minh

Việc phát hiện deepfake chất lượng cao không phải là nhiệm vụ dễ dàng. Ngay cả những người xem dày dạn kinh nghiệm cũng khó có thể phân biệt được đâu là nội dung đã bị chỉnh sửa. Các công nghệ phát hiện hiện có kiểm tra các biểu cảm nhỏ, kiểu nháy mắt, sự bất thường về âm thanh và các tín hiệu ít rõ ràng khác. Các nền tảng đang thử nghiệm các hình mờ mã hóa, chữ ký số và quy trình pháp y để xác định tính xác thực.

Tuy nhiên, việc chỉ phát hiện thôi là chưa đủ. Công nghệ Deepfake ngày càng dễ tiếp cận, nhanh chóng và rẻ hơn so với các cơ chế phát hiện hiệu quả. Các chuyên gia an ninh mạng nhấn mạnh tầm quan trọng của các biện pháp an ninh cấp cơ sở hạ tầng, chẳng hạn như nguồn gốc đáng tin cậy, siêu dữ liệu được xác minh và chấm điểm rủi ro dựa trên xác suất.

Deepfake-o-Meter là một trong những công cụ có thể đánh giá xác suất, mặc dù khó có thể đảm bảo độ chính xác. Để hạn chế rủi ro, các tổ chức cần triển khai các chiến lược đa tầng, bao gồm sự kết hợp giữa kiểm soát kỹ thuật, quy trình và con người.

Trong kỷ nguyên kỹ thuật số, uy tín đã thay đổi ý nghĩa. Việc chỉ nhìn thấy hoặc nghe thấy bất cứ điều gì không còn đủ để tạo dựng lòng tin. Những quyết định quan trọng không nên chỉ dựa trên một loại bằng chứng duy nhất.

Các chuyên gia nhận định rằng việc xác định sự lừa dối không nên là gánh nặng của con người. Thay vào đó, các tiêu chuẩn về tính xác thực nên được thiết lập bởi công nghệ, các hoạt động của tổ chức cũng như các hệ thống xã hội.

Các biện pháp phòng ngừa cho cá nhân

Mọi người được khuyên nên thận trọng hơn nữa khi giao tiếp trực tuyến và giao tiếp với người lạ. Khi gặp phải những yêu cầu khẩn cấp hoặc mang tính cảm xúc, cần xác nhận thông tin qua một kênh đáng tin cậy khác.

Các kênh liên lạc an toàn, mật mã gia đình và cụm từ bảo mật được xác định trước có thể được sử dụng để xác định danh tính trước khi hành động. Thông tin cá nhân và tài chính tuyệt đối không được tiết lộ cho các nguồn không xác định, không được yêu cầu hoặc đáng ngờ.

Các tin nhắn, cuộc gọi hoặc email đáng ngờ cần được xác minh bằng cách sử dụng các trang web chính thức và liên hệ trực tiếp với tổ chức đó hoặc gọi điện qua các kênh đã được xác nhận là đáng tin cậy. Các tin nhắn không được yêu cầu có chứa liên kết, mã QR và tệp đính kèm cần được xử lý cẩn thận, và nên gõ URL thay vì nhấp vào các trang web có khả năng gây hại.

Xác thực đa yếu tố (MFA) sẽ đảm bảo thêm một lớp bảo mật, giảm thiểu rủi ro ngay cả khi mất thông tin đăng nhập. Tài khoản cũng có thể được giám sát thường xuyên, hoạt động đáng ngờ được báo cáo kịp thời và mật khẩu được chủ động duy trì để giảm thiểu thiệt hại.

Việc nắm vững kiến ​​thức về các chiêu trò lừa đảo dựa trên trí tuệ nhân tạo cũng rất cần thiết vì những vụ lừa đảo này ngày càng trở nên tinh vi hơn. Kẻ gian có thể sử dụng uy tín, tính cấp bách và quyền lực giả tạo để tác động đến nạn nhân, khiến họ đưa ra quyết định nhanh chóng.

Mọi người nên dành thời gian, nghi ngờ về việc đặt hàng và tìm hiểu thêm thông tin từ các nguồn đáng tin cậy trước khi chuyển tiền hoặc cung cấp thông tin cá nhân. Các hành vi lừa đảo nên được báo cáo cho cơ quan thực thi pháp luật và các nền tảng kỹ thuật số, cũng như để triệt phá các mạng lưới tội phạm.

Con đường phía trước của Deepfakes

Công nghệ Deepfake đang tiến gần đến việc tổng hợp và tương tác theo thời gian thực. Các hệ thống trí tuệ nhân tạo đang được xây dựng để có thể phát triển các hình đại diện tương tác, thích ứng với giọng nói, ngoại hình và hành vi trong thời gian thực. Theo các chuyên gia an ninh mạng, người tham gia cuộc gọi video có thể được tạo ra chỉ trong vài giây.

Mô hình nhận dạng hình thành các hệ thống hội tụ dựa trên ngoại hình, giọng nói và các mẫu hành vi. Sự phát triển này cho phép deepfake bắt chước tương tác của con người một cách thuyết phục hơn. Các công ty internet và người dân nên áp dụng các cơ chế và quy trình đảm bảo niềm tin trong giao tiếp trực tuyến.

Xác minh dựa trên nguồn gốc đang phát triển như một công cụ phòng thủ. Sự đảm bảo về tính xác thực của nội dung đạt được bằng cách sử dụng chữ ký mã hóa, siêu dữ liệu bảo mật và nhật ký kiểm toán có thể kiểm chứng. Nội dung xác thực cho phép người ra quyết định xác định tài liệu xác thực thay vì nội dung đa phương tiện có thể bị thao túng. Các tổ chức đang hiện đại hóa quy trình làm việc bằng cách giảm thiểu việc sử dụng tính xác thực mang tính chủ quan.

Tỷ lệ gian lận dựa trên trí tuệ nhân tạo (AI) cao cho thấy tầm quan trọng của kiến ​​thức kỹ thuật số. Cần có các khóa đào tạo về cách nhận biết hành vi thao túng, kiểm tra thông tin và cách báo cáo hành vi đáng ngờ. Sự hợp tác giữa người dân, các tổ chức và nhà cung cấp công nghệ là cần thiết để duy trì niềm tin trực tuyến. Vai trò tập thể của tất cả các bên liên quan sẽ tăng cường khả năng chống lại các hành vi lừa đảo tổng hợp.

Công nghệ deepfake năm 2025 đang thu hút sự chú ý do sự phát triển vượt bậc về công nghệ và sự gia tăng các mối đe dọa an ninh. Với sự cải thiện của video, âm thanh và tổng hợp đa phương thức, ngày càng nhiều vụ lừa đảo, tấn công giả mạo danh tính và đánh cắp thông tin trở nên chân thực hơn. Các doanh nghiệp và người dùng cá nhân đặc biệt gặp khó khăn hơn trong việc kiểm tra tính xác thực của nội dung kỹ thuật số.

Để giảm thiểu nguy cơ bị lừa đảo bởi trí tuệ nhân tạo, cần có các hệ thống xác minh đa tầng, hệ thống chứng minh nguồn gốc nội dung và nâng cao kiến ​​thức kỹ thuật số. Với sự thay đổi không ngừng của các công nghệ này, sự phối hợp giữa các tổ chức, nền tảng và cá nhân sẽ đóng vai trò then chốt trong việc duy trì niềm tin vào truyền thông và giao tiếp.

Mặc dù trí tuệ nhân tạo đang mở ra những cơ hội sáng tạo và công nghệ, nhưng việc lạm dụng công nghệ này, đặc biệt là dưới hình thức lừa đảo, đang gây ra những lo ngại và nhấn mạnh sự cần thiết phải giáo dục mọi người cũng như thiết lập các biện pháp phòng vệ vững chắc để bảo vệ cá nhân, doanh nghiệp và cộng đồng nói chung.

Bài đăng "Các cuộc gọi lừa đảo và giả mạo danh tính do AI tạo ra đã gây ra làn sóng lừa đảo danh tính vào năm 2025" xuất hiện lần đầu trên Metaverse Post .

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận