7 dấu hiệu cho thấy video làm từ AI
Internet hiện nay tràn ngập các video do AI tạo ra, khiến việc phân biệt thật giả trở nên khó khăn. Trong bài viết này, chúng ta hãy cùng tìm hiểu cách để phân biệt các video AI hiện nay.
Nhờ khả năng tiếp cận dễ dàng với các mô hình tạo video AI mạnh mẽ, như Sora 2 của ChatGPT và Veo 3 của Google Gemini, việc tạo ra các video chân thực (có cả âm thanh) và đăng chúng lên mạng chỉ mất vài giây. Do đó, bạn có thể gặp khó khăn trong việc xác định liệu những gì mình đang xem có phải là giả hay không. Một cách chắc chắn để nhận diện video AI mọi lúc thực sự không tồn tại, nhưng bảy dấu hiệu cảnh báo (red flags) mà mình xác định dưới đây sẽ giúp bạn phát hiện chúng thường xuyên hơn.
Có Watermark hay không?
Nghe có vẻ hiển nhiên, nhưng đây là dấu hiệu tốt nhất hiện có. Ví dụ, video do Sora tạo ra thường có watermark dễ nhận thấy, thường ở góc dưới bên trái. Trừ khi ai đó thực sự cố gắng đánh lừa bạn bằng cách ghép watermark vào một video thật, thì rất có thể bất kỳ video nào có watermark Sora đều không phải thật. Tuy nhiên, không phải tất cả video do AI tạo ra, bao gồm cả những video từ Veo 3, đều có watermark. Hơn nữa, bạn có thể xóa watermark khỏi các clip Sora bằng nhiều cách khác nhau.
Ngoài watermark cơ bản, Google còn sử dụng công nghệ SynthID. Về cơ bản, SynthID là một loại watermark kỹ thuật số mà Google nhúng vào nội dung AI bạn tạo bằng Gemini. Con người không thể nhìn thấy watermark này, nhưng máy móc có thể phát hiện ra nó. Mặc dù đây có vẻ là một giải pháp tuyệt vời và không làm phân tâm khỏi nội dung, nhưng bạn vẫn có thể tìm thấy nhiều ứng dụng xóa các dấu hiệu này và các chiến lược để vượt qua chúng. Ngay cả khi một công cụ cụ thể chưa thể xóa SynthID vào lúc này, người dùng internet chắc chắn sẽ tìm ra cách để làm được điều đó.
Có thể xác định nguồn không?
Không có gì tồn tại một cách riêng lẻ trên internet. Do đó, bạn có thể chụp một khung hình từ video và tìm kiếm nó, chẳng hạn như bằng Google Lens. Nếu bạn dễ dàng xác định được nguồn gốc của video, thì bạn biết rằng nó là thật. Tuy nhiên, nếu bạn không thể, thì có khả năng video đó do AI tạo ra. Điều này đặc biệt đáng tin cậy đối với video hoạt hình và video gameplay. Tạo hoạt hình và làm game là công việc tốn kém, đòi hỏi nhiều nhân lực, vì vậy bạn sẽ không tìm thấy nhiều video không rõ nguồn gốc của loại phương tiện này trừ khi chúng được tạo bởi AI.
Ví dụ: nếu mình tìm kiếm một khung hình của video củ hành từ Veo 3 (đã được liên kết ở trên), kết quả đầu tiên là video gốc. Nếu mình tìm kiếm trên Google một khung hình của video hoạt hình do AI tạo ra này, mình sẽ tìm thấy vô số bài báo về nó và cách nó được tạo ra. Xét việc các video AI thường trở nên viral, bạn thậm chí có thể không cần dựa vào nguồn gốc, vì bạn chỉ cần tìm thấy video đó trong một bài báo hoặc trên một trang web thể hiện rõ ràng nó được tạo bởi AI là đủ. Tuy nhiên, không phải tất cả video AI đều viral, vì vậy đôi khi, việc không có nguồn gốc rõ ràng tự nó đã là một dấu hiệu đáng chú ý.
Âm thanh không đồng bộ với hình ảnh?
Việc tích hợp âm thanh vào video do AI tạo ra là một bước tiến lớn hướng tới sự chân thực, nhưng nó vẫn chưa hoàn hảo. Hãy nghe kỹ âm thanh của video, và đặc biệt chú ý đến âm sắc (timbre) – chất âm đặc trưng của một âm thanh, độc lập với cao độ hoặc âm lượng. Giọng nói do AI tạo ra thường có âm sắc mơ hồ giống robot. Và ngay cả khi bạn không thể diễn tả chính xác tại sao chúng nghe "lệch", thông thường bạn vẫn dễ dàng nhận ra có điều gì đó không ổn. Tuy nhiên, mẹo này kém tin cậy hơn đối với tiếng ồn xung quanh (ambient noises) hoặc hiệu ứng âm thanh.
Ngoài âm sắc, các vấn đề về đồng bộ cũng là một "tai họa" của video do AI tạo ra. Thường thì bạn có thể nghe thấy tiếng bước chân ngay trước khi ai đó bắt đầu bước đi, hoặc tiếng vòi nước chảy lâu hơn một chút so với thời gian người đó thực sự sử dụng nó trong video. Nếu bạn nhận thấy bất kỳ điều gì tương tự như những ví dụ này, nơi âm thanh của video không khớp hoàn hảo với những gì bạn thấy, đó là một dấu hiệu khác cho thấy nó được tạo bởi AI. Tất nhiên, đây không phải là bằng chứng chắc chắn vì video thông thường cũng có thể gặp vấn đề về đồng bộ. Nhưng kết hợp với các dấu hiệu cảnh báo khác, như âm sắc kỳ lạ, sự không đồng bộ âm thanh trở nên rất nổi bật.
Chữ viết trong video có thể bị méo bất thường?
Văn bản vẫn là một điểm yếu của các mô hình tạo video AI. Chữ trên trang sách hoặc trên bảng trắng hầu như không bao giờ hoàn hảo trong video do AI tạo ra, đặc biệt là qua các cảnh khác nhau. Nếu một video có chứa văn bản, hãy đặc biệt chú ý đến nó, vì thông thường nó sẽ biến thành những ký tự vô nghĩa hoặc bắt đầu xuất hiện một cách kỳ lạ nếu một nhân vật đang viết nó ra. Việc một video thiếu văn bản một cách đáng ngờ cũng có thể là một dấu hiệu: Nếu bạn gặp một video về nội dung mà lẽ ra thường có chứa một số văn bản, nhưng video đó lại không có, thì có thể ai đó đang cố che giấu nhược điểm này của video AI.
Video có độ dài nhất định
Hầu hết các mô hình tạo video AI đều tạo ra video có độ dài nhất định. Ví dụ, với Sora, bạn có thể tạo video dài 10 hoặc 15 giây, trong khi người dùng ChatGPT Pro có thể tạo video dài 25 giây. Vì vậy, nếu một đoạn clip đáng ngờ đang được lan truyền có độ dài chính xác 10, 15 hoặc 25 giây, đó có thể là một dấu hiệu tốt cho thấy nó không có thật. Hơn nữa, với các công cụ hiện tại, việc ghép nhiều clip do AI tạo ra lại với nhau mà không để lộ dấu hiệu là do AI tạo ra là rất khó. Do đó, một video dài 20 phút rất có thể không phải do AI tạo ra.
Video có độ phân giải cao hay thấp?
Vào năm 2025, ngay cả một chiếc điện thoại thông minh giá rẻ cũng có thể quay video 4K. Và nếu bạn đang xem một buổi phát trực tiếp của streamer hoặc video gameplay, thì độ phân giải của nó khó có thể thấp hơn 1080p. Độ phân giải thay đổi tùy theo các mô hình tạo video, và tính năng nâng cấp độ phân giải (upscaling) cho video AI cũng có tồn tại, nhưng nếu bạn tìm thấy một video đáng ngờ ở độ phân giải, chẳng hạn như 720p, đó có thể là một dấu hiệu mạnh mẽ cho thấy nó không có thật. Mặt khác, nếu bạn đang xem một video 4K/60p chất lượng nguyên sơ với HDR, rất có thể video đó là thật, vì các mô hình video AI hiện tại thường chưa thể tạo ra các clip ở mức chất lượng đó.
Công cụ phát hiện AI
Sự phát triển của các mô hình tạo video AI diễn ra song song với sự phát triển của các công cụ phát hiện video do AI tạo ra, chẳng hạn như ứng dụng Deepfake Analyser của CloudSEK. Ứng dụng này sẽ xem xét một video bạn cung cấp liên kết và ước tính xác suất video đó là thật hay không. Nếu một video không vượt qua được bài kiểm tra như thế này, đó là một dấu hiệu mạnh mẽ cho thấy nó có thể được tạo bởi AI. Tuy nhiên, các bài kiểm tra này có thể lúc đúng lúc sai, vì vậy việc vượt qua bài kiểm tra cũng không thể hoàn toàn minh oan cho một video. Ví dụ, mình đã đưa cho Deepfake Analyser một trong những video trình diễn Veo 3 của Google, và nó cho mình biết đó là một video thật.