Ngày 3/1, Báo Lao Động dẫn thông tin từ Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam cho hay nhận được phản ánh của ông Hồ Huy - Chủ tịch Tập đoàn Mai Linh về việc bị các đối tượng sử dụng công nghệ Deepfake để cắt ghép, phát tán các hình ảnh nhạy cảm của ông trên mạng xã hội.
Việc này nhằm bôi nhọ danh dự, nhân phẩm và uy tín cá nhân của ông Huy, gây ảnh hưởng lớn đến hoạt động kinh doanh của Tập đoàn Mai Linh.
Theo Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam, phản ánh của ông Hồ Huy đã được cơ quan này chuyển đến các cơ quan chức năng xem xét, xử lý theo quy định của pháp luật.
Cùng ngày, trao đổi với Tuổi Trẻ, đại diện Công Ty Cổ Phần Tập Đoàn Mai Linh cho biết trước đó, công ty đã nhận được thông tin một lãnh đạo của công ty bị cắt ghép hình ảnh với mục đích bôi nhọ uy tín. Hiện nay, công ty khẳng định những thông tin đang đồn thổi là tin giả, để câu view, bôi nhọ hình ảnh của công ty.
Phía Công ty có nhận được những cuộc gọi tống tiền, thông báo nếu không gửi tiền sẽ tạo những trend tiktok để tiếp tục bôi nhọ. Công ty Cổ phần Tập đoàn Mai Linh đã gửi đơn tới phòng An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao (PA05) để xử lý.
Công nghệ Deepfake là một công nghệ cho phép tạo ra các video, hình ảnh hoặc âm thanh giả mạo với độ chân thực cao.
Công nghệ này được phát triển dựa trên trí tuệ nhân tạo (AI), sử dụng các thuật toán học máy để phân tích và tái tạo các đặc điểm của khuôn mặt, giọng nói, cử chỉ của một người.
Deepfake có thể được sử dụng cho nhiều mục đích khác nhau, bao gồm giải trí, giáo dục, truyền thông. Tuy nhiên, công nghệ này cũng có thể bị lợi dụng cho mục đích xấu, như lừa đảo, bôi nhọ, phá hoại…
Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam cho hay, các đối tượng lừa đảo thường sử dụng Deepfake để tạo ra các video, hình ảnh hoặc âm thanh giả mạo nhằm chiếm đoạt tài sản, xúc phạm danh dự hoặc phá hoại uy tín của người khác…
Để nhận biết video, hình ảnh hoặc âm thanh Deepfake, người dùng có thể dựa vào một số dấu hiệu như các chi tiết trên khuôn mặt hoặc giọng nói không tự nhiên: Các chi tiết trên khuôn mặt như mắt, mũi, miệng, lông mày, tóc,... hoặc giọng nói của người trong video, hình ảnh hoặc âm thanh có thể không tự nhiên, không phù hợp với ngữ cảnh.
Có các điểm bất thường trong video, hình ảnh hoặc âm thanh như: Video, hình ảnh hoặc âm thanh có thể có các điểm bất thường như ánh sáng, bóng đổ, màu sắc không tự nhiên,...
Nội dung video, hình ảnh hoặc âm thanh không phù hợp với thực tế: Nội dung video, hình ảnh hoặc âm thanh có thể không phù hợp với thực tế, không phù hợp với tính cách, hành vi của người trong video, hình ảnh hoặc âm thanh.
Tuy vậy với sự phát triển của công nghệ hiện nay, các hình ảnh do AI tạo ra gần như đã không có sự khác biệt và rất khó để phân biệt nếu không sử dụng các công cụ phân tích.
Để phòng tránh lừa đảo bằng Deepfake, Trung tâm xử lý tin giả, thông tin xấu độc Việt nam khuyến cáo người dùng mạng internet cần lưu ý: Cẩn trọng với các thông tin được chia sẻ trên mạng xã hội: Không nên tin tưởng ngay vào các thông tin được chia sẻ trên mạng xã hội, đặc biệt là các thông tin liên quan đến tài chính, danh dự hoặc uy tín của người khác.
Kiểm tra kỹ thông tin trước khi thực hiện các giao dịch tài chính: Khi nhận được yêu cầu chuyển tiền từ người khác, người dùng cần kiểm tra kỹ thông tin của người yêu cầu chuyển tiền, xác minh nguồn gốc của yêu cầu và chỉ chuyển tiền khi chắc chắn rằng người yêu cầu chuyển tiền là người đáng tin cậy.
Thường xuyên cập nhật các kiến thức về công nghệ: Người dùng cần thường xuyên cập nhật các kiến thức về công nghệ, đặc biệt là các kiến thức về Deepfake để có thể nhận biết và phòng tránh các thủ đoạn lừa đảo bằng công nghệ này.
PN (SHTT)