Sự phát triển của công nghệ kéo theo vô vàn hệ lụy và nguy hiểm nhất nhì trong số đó, chính là Deepfake - công nghệ ứng dụng trí thông minh nhân tạo (AI) để làm giả danh tính, cụ thể ở đây là giả mạo khuôn mặt.Theo đó, công nghệ này sử dụng dữ liệu về đặc điểm khuôn mặt, hình thể vốn đã được thu thập, sau đó hợp nhất lại bởi trí tuệ nhân tạo (AI). Từ đó, Deepfake có thể gán khuôn mặt của người này sang người khác, với độ chân thực vượt ra khỏi trí tưởng tượng, khiến người xem không thể phân biệt đâu là video thật, đâu là ghép.
Đáng nói, phần mềm này được xây dựng để phô diễn sức mạnh của trí tuệ nhân tạo, nhưng đang bị lợi dụng để tấn công người khác, và nạn nhân có thể là bất cứ ai: Từ người nổi tiếng, chính trị gia, quan chức cấp cao...cho đến cả những người bình thường.
96% video deepfake trên mạng có nội dung khiêu dâm, nạn nhân đều là nghệ sĩ nữ
Theo Forbes, việc tạo video bằng công nghệ Deepfake đang trở nên dễ dàng hơn bao giờ hết, khi phần mềm dùng để tạo ra những video giả mạo này đang được phổ biến rộng rãi trên những trang web chia sẻ mã nguồn như Github, hay các diễn đàn trực tuyến nổi tiếng như 4chan. Bất kỳ người dùng có một chút kiến thức công nghệ và máy móc đủ mạnh giờ đây đều có thể tải những bộ công cụ và tự mình tạo ra các video deepfake.
Vào năm 2017, các video deepfake đầu tiên đã xuất hiện trên một chuyên mục phụ của nền tảng mạng xã hội Reddit, với nội dung là người nổi tiếng hoán đổi gương mặt vào các ngôi sao phim cấp ba. Tuy nhiên, sau 2 năm, số lượng những video có nội dung tương tự đang tăng lên chóng mặt. Thực tế, người dùng có thể dễ dàng tìm thấy một loạt video deepfake có nội dung nhạy cảm được đăng tải trên các nền tảng mạng xã hội.
Việc kiểm duyệt những video dạng này là rất khó khăn, khi chúng có thể dễ dàng xuất hiện trở lại ngay sau khi bị xóa bởi đội ngũ quản trị mạng xã hội. Các trang web bao gồm Pornhub, Twitter và Reddit đã cấm nội dung khiêu dâm do AI tạo ra, nhưng những video có nội dung 18+ vẫn có thể dễ dàng tìm thấy chỉ bằng việc tìm kiếm trên Google.
Theo thống kê của Deeptrace, một công ty có trụ sở tại Amsterdam chuyên phát hiện những nội dung được tạo ra bởi trí tuệ nhân tạo, có tới 96% video deepfake có nội dung đồi truỵ. Hầu hết nạn nhân đều là các ca sĩ, diễn viên nữ nổi tiếng bị ghép mặt vào các bộ phim khiêu dâm.
Công ty này cũng cho biết, hiện có khoảng 14.678 video deepfake trên Internet, tăng tới 84% so với con số 7.964 video tính đến tháng 12/2018. Để có thể thống kê, Deeptrace sử dụng một công cụ tự động nhằm theo dõi các diễn đàn trực tuyến và các mạng xã hội, nơi người dùng thường trao đổi và bàn luận về các nội dung liên quan.
"Chúng tôi phát hiện ra bốn trang web khiêu dâm hàng đầu chuyên đăng tải các video deepfake có tổng lượt xem lên tới 134 triệu. Có tới hàng trăm nữ diễn viên, ca sĩ hay người nổi tiếng trên toàn thế giới là nạn nhân (bị ghép mặt)" CEO Deeptrace, ông Giorgio Patrini cho biết trong một báo cáo . "Lượng người xem quá lớn này cho thấy sự tồn tại của một thị trường nơi các trang web tạo và lưu trữ các video có nội dung khiêu dâm bằng công nghệ deepfake. Xu hướng này sẽ tiếp tục phát triển trừ khi các biện pháp ngăn chặn được đưa ra."
Đáng chú ý, Deeptrace cũng ghi nhận sự gia tăng của các dịch vụ tạo video Deepfake, khi những người có nhu cầu chỉ cần bỏ ra một khoản tiền để ‘đặt hàng" các video dạng này.
Báo cáo từ Deeptrace cũng nhấn mạnh, công nghệ AI đã bị lạm dụng để nhắm mục tiêu vào phụ nữ bằng cách tạo ra các video khiêu dâm không đồng thuận. "Tác động của Deepfake đã có thể cảm nhận được trên phạm vi toàn cầu", công ty cho biết. "Chúng tôi hy vọng báo cáo này sẽ thúc đẩy thêm các buổi thảo luận về chủ đề này và nhấn mạnh tầm quan trọng của việc phát triển một loạt các biện pháp đối phó để bảo vệ các cá nhân và tổ chức khỏi các ứng dụng có hại của Deepfake."
Tuy nhiên, nguy cơ từ Deepfake không dừng lại ở các con số thống kê đơn thuần. Trong một cuộc phỏng vấn với đài CNBC, phó giáo sư ngành khoa học máy tính tại Đại học Nam California, Hao Li cảnh báo mọi người sẽ được chứng kiến những đoạn video sử dụng công nghệ Deepfake "chân thực đến hoàn hảo" trong vòng từ 6 đến 12 tháng tới.
"Hiện nay bạn vẫn rất dễ để nhận biết bằng mắt hầu hết các video deepfake, ông Hao Li khẳng định. "Nhưng cũng có những ví dụ thực sự, thực sự thuyết phục. Sớm thôi, sẽ đến lúc không còn cách nào để chúng ta có thể thực sự phát hiện ra deepfake nữa, do đó chúng ta sẽ phải tìm các giải pháp khác"".
Theo Anh Việt (Trí Thức Trẻ)