Chuyên gia bảo mật nói gì về thủ đoạn giả mạo video?

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam
(PLO)- Deepfake là công nghệ sử dụng trí tuệ nhân tạo (AI) để thay thế chân dung của người này bằng người khác, giả mạo khuôn mặt trong video và các phương tiện kỹ thuật số khác.

Máy tính ngày càng mạnh mẽ và tốt hơn trong việc mô phỏng thực tế. Ví dụ, điện ảnh hiện đại phụ thuộc rất nhiều vào bối cảnh, khung cảnh và nhân vật do máy tính tạo ra thay cho các địa điểm và đạo cụ thực tế.

Deepfake đã trở thành vấn đề được bàn tán nhiều trong những ngày qua, khi tội phạm mạng lạm dụng công nghệ này để tạo giả mạo người khác.

Deepfake là gì và nó hoạt động như thế nào?

Thuật ngữ "Deepfake" xuất phát từ công nghệ cơ bản "deep learning", một dạng của AI. Các thuật toán học sâu, tự dạy cách giải quyết vấn đề khi được cung cấp tệp dữ liệu lớn, được sử dụng để hoán đổi khuôn mặt trong video.

Hiện tại trên thị trường có rất nhiều ứng dụng hỗ trợ ghép mặt vào video, đơn cử như Zao, DeepFace Lab, FaceApp, Face Swap và DeepNude (một ứng dụng đặc biệt nguy hiểm khi tạo ảnh khỏa thân giả của phụ nữ).

Có thể tìm thấy một lượng lớn phần mềm Deepfake trên GitHub, một cộng đồng mã nguồn mở phát triển phần mềm. Một số ứng dụng được sử dụng cho mục đích giải trí thuần túy, trong khi một số khác lại được sử dụng cho mục đích xấu hơn.

Nhiều chuyên gia tin rằng trong tương lai Deepfake sẽ trở nên tinh vi hơn nhiều khi công nghệ phát triển, và có thể gây ra các mối đe dọa nghiêm trọng liên quan đến bầu cử, căng thẳng chính trị và hoạt động tội phạm.

video deepfake ceo mark zuckerberg
Một video so sánh Deepfake của CEO Facebook Mark Zuckerberg. Elyse Samuels/The Washington Post

Deepfake được sử dụng như thế nào?

Mặc dù khả năng tự động hoán đổi khuôn mặt trong video trông đáng tin cậy và chân thực, nhưng đây rõ ràng là một công nghệ nguy hiểm. Trên thực tế, một trong những ứng dụng Deepfake đầu tiên trong thế giới thực được dùng để tạo ra nội dung khiêu dâm tổng hợp.

Vào năm 2017, một người dùng reddit có tên "deepfakes" đã tạo một diễn đàn dành cho phim khiêu dâm có các diễn viên hoán đổi khuôn mặt. Kể từ thời điểm đó, phim khiêu dâm (đặc biệt là phim khiêu dâm trả thù) đã nhiều lần xuất hiện trên các mặt báo, gây tổn hại nghiêm trọng đến danh tiếng của những người nổi tiếng và nhân vật nổi bật.

Theo theo báo cáo của Deeptrace, nội dung khiêu dâm chiếm 96% video deepfake được tìm thấy trực tuyến vào năm 2019.

Video Deepfake cũng đã được sử dụng trong chính trị. Ví dụ, vào năm 2018, một đảng chính trị của Bỉ đã phát hành một đoạn video Donald Trump có bài phát biểu kêu gọi Bỉ rút khỏi thỏa thuận khí hậu Paris. Tuy nhiên, ông Trump chưa bao giờ có bài phát biểu đó.

Deepfake không chỉ giới hạn ở video mà còn mở rộng sang âm thanh với số lượng ứng dụng hỗ trợ khổng lồ. Tội phạm mạng có thể tạo ra các bản ghi sao chép âm thanh của nạn nhân và sử dụng để lừa đảo.

video deepfake giả mạo

Cách phát hiện Deepfake

Khi Deepfake trở nên phổ biến, chúng ta cần phải thích nghi với việc phát hiện các video giả mạo, tương tự như các loại tin tức giả mạo.

Một số cách để nhận biết video giả mạo:

- Nhân vật trong video thường không bao giờ chớp mắt (hoặc chớp liên tục), không tự nhiên.

- Tóc, da và khuôn mặt có vẻ mờ hơn so với môi trường xung quanh, nhân vật trông mềm mại một cách bất thường.

- Thông thường, các thuật toán Deepfake sẽ giữ lại ánh sáng của các clip được sử dụng làm mẫu cho video giả, và ánh sáng này thường không phù hợp.

- Âm thanh có thể không khớp, đặc biệt nếu video bị làm giả nhưng âm thanh gốc không được chỉnh sửa cẩn thận.

Chống lại Deepfake bằng công nghệ

Hiện tại có không ít trường hợp người dùng đã bị lừa mất tiền vì tin tưởng vào các video giả mạo. Một số công ty hiện đang phát triển các phương pháp phát hiện Deepfake, đơn cử như Sensity, nền tảng tự động cảnh báo người dùng qua email khi họ đang xem nội dung nào đó có thể do AI tạo ra. Sensity sử dụng cùng một quy trình học sâu được sử dụng để tạo video giả.

Operation Minerva có một cách tiếp cận đơn giản hơn để phát hiện Deepfake, thuật toán của công ty sẽ so sánh video giả với các video đã được biết.

Năm ngoái, Facebook đã tổ chức Thử thách phát hiện Deepfake, một sáng kiến hợp tác, cởi mở nhằm khuyến khích tạo ra các công nghệ mới để phát hiện Deepfake cùng giải thưởng lên đến 500.000 USD.

Chuyên gia bảo mật nói gì về thủ đoạn giả mạo video?

Các chuyên gia đang gióng lên hồi chuông cảnh báo về một số diễn biến mới nhất liên quan đến các vụ lừa đảo giả mạo video. Tội phạm mạng hiện đang sử dụng công nghệ và mạng xã hội để lừa tiền người dùng, làm tăng nguy cơ rủi ro khi trực tuyến.

Đầu tiên, kẻ gian sẽ hack Facebook của nạn nhân và dùng nó để gửi tin nhắn mượn tiền. Để tạo thêm lòng tin, tội phạm mạng sẽ tạo video giả mạo khuôn mặt và giọng nói của nạn nhân, sau đó thực hiện cuộc gọi trong vài giây và tắt với lý do mạng lag, tín hiệu Internet kém.

Không nên tin tưởng vào các cuộc gọi video có dấu hiệu mờ nhòe, đứng hình. Ảnh minh họa

Không nên tin tưởng vào các cuộc gọi video có dấu hiệu mờ nhòe, đứng hình. Ảnh minh họa

Anh Ngô Minh Hiếu (Hiếu PC), kỹ sư tại trung tâm Giám sát An toàn Không gian mạng Quốc gia (NCSC - Bộ TT&TT) cho biết để tránh bị lừa tiền, bạn đọc nên gọi video hoặc FaceTime ít nhất một phút, hoặc gọi qua số điện thoại cá nhân của người mượn. Đồng thời Kiểm tra bằng cách hỏi một số câu hỏi để nghe giọng nói đó là của người thật hay do AI tạo ra.

Andy Taylor, Giám đốc điều hành của TechTalk Radio cho biết: “Có một mối đe dọa mới đang diễn ra đó là lừa đảo bằng giọng nói. Những gì những kẻ lừa đảo đang làm hiện nay là sử dụng công nghệ giọng nói deepfake AI để giả mạo giọng nói của một ai đó”.

Khi công nghệ tiến bộ, nhiều trò gian lận sẽ xuất hiện. Taylor cho biết ngày càng khó phân biệt đâu là thật đâu là giả, đặc biệt là với công nghệ Deepfake. Công nghệ này có thể sử dụng hình ảnh hoặc video từ phương tiện truyền thông xã hội và thậm chí tái tạo giọng nói của bạn từ một thứ nhỏ như tin nhắn thư thoại của bạn.

Đọc thêm