Theo đó, gã khổng lồ công nghệ sẽ đánh dấu các nội dung này ở cửa sổ thông tin về bức ảnh (About this image) trong mục Tìm kiếm (Search), Kính Google (Google Lens) và tính năng Vẽ vòng tìm kiếm (Circle to Search) trên Android.
Hiện tại Google đang dán nhãn cảnh báo đối với dịch vụ quảng cáo, cũng như xem xét áp dụng đối với các video YouTube. Bài đăng trên blog cho hay quyết định cuối cùng sẽ được công bố vào cuối năm nay.
Google cho biết họ sử dụng công nghệ siêu dữ liệu C2PA để xác định hình ảnh do AI tạo ra. Siêu dữ liệu C2PA là một tiêu chuẩn chung của một nhóm công ty trong ngành thành lập vào đầu năm nay. Công nghệ này được sử dụng để theo dõi nguồn gốc hình ảnh, xác định thời điểm và địa điểm tạo ra hình ảnh, cũng như thiết bị và phần mềm sử dụng để tạo ra hình ảnh đó.
Amazon, Microsoft, OpenAI và Adobe đều là thành viên của liên minh C2PA. Tuy vậy, tiêu chuẩn này không nhận được sự chú ý từ các nhà sản xuất phần cứng. Đến nay chỉ có Sony và Leica áp dụng C2PA. Một số công ty phát triển công cụ tạo AI nổi tiếng, chẳng hạn như Black Forrest Labs, đã từ chối áp dụng tiêu chuẩn này.
Số lượng các vụ lừa đảo trực tuyến sử dụng deepfake do AI tạo ra đã tăng vọt trong hai năm qua. Vào tháng 2, một nhà đầu tư tại Hồng Kông đã bị lừa chuyển 25 triệu USD cho những kẻ lừa đảo đóng giả làm giám đốc tài chính của công ty trong cuộc họp video call.
Sumsub, nhà cung cấp dịch vụ xác minh công bố báo cáo cho thấy số vụ lừa đảo deepfake đã tăng 245% trên toàn cầu trong khoảng thời gian từ năm 2023 đến năm 2024, riêng ở Mỹ tăng 303%.
"Việc các dịch vụ được triển khai công khai đã tạo điều kiện cho tội phạm mạng", David Fairman, Giám đốc thông tin và Giám đốc an ninh của APAC tại Netskope nói với CNBC vào tháng 5. "Chúng không còn cần phải có bộ kỹ năng công nghệ đặc biệt nữa".
Theo Thế Vinh (VietNamNet)