Theo Cơ quan Cảnh sát Quốc gia Hàn Quốc, trẻ vị thành niên chiếm gần 60% số nạn nhân của loại hình tội phạm sử dụng công nghệ deepfake thực hiện video giả mạo có nội dung khiêu dâm và phát tán trên mạng xã hội.
Deepfake là thuật ngữ chỉ việc sử dụng công nghệ kỹ thuật số, đặc biệt là Trí tuệ Nhân tạo (AI), để tạo ra các bức ảnh, video hoặc tệp âm thanh đã bị chỉnh sửa.
Tội phạm thường dùng công nghệ deepfake để tạo ra nội dung lừa đảo và khiêu dâm sau đó phát tán trên mạng xã hội mà không có sự đồng ý của những cá nhân liên quan.
Số liệu được cơ quan trên công bố ngày 30/8 cho thấy trong số 527 vụ tội phạm deepfake được báo cáo với cảnh sát từ năm 2021 đến năm 2023, có 315 nạn nhân (chiếm 59,8%) được xác định là thanh thiếu niên.
Tỷ lệ này vượt xa các nhóm tuổi khác, với những người ở độ tuổi 20 là 32,1%, tiếp theo là những người ở độ tuổi 30 là 5,3%, trong khi những người ở độ tuổi 40 là 1,1%.
Số lượng nạn nhân vị thành niên tăng vọt từ 53 trường hợp vào năm 2021 lên 81 trường hợp vào năm 2022 và 181 nạn nhân vào năm 2023, đánh dấu mức tăng gấp 3,4 lần chỉ trong vòng hai năm.
Nhiều thủ phạm cũng chưa đủ tuổi và số lượng cũng đang tăng lên do công nghệ deepfake ngày càng dễ tiếp cận.
Trong số các nghi phạm bị buộc tội tạo video giả, thanh thiếu niên chiếm 65,4% vào năm 2021, 61,2% vào năm 2022 và 75,8% vào năm 2023. Tỷ lệ này tiếp tục ở mức cao là 73,6% trong bảy tháng đầu năm nay.
Theo một nghị sỹ Hàn Quốc, hầu hết nạn nhân deepfake là thanh thiếu niên và số vụ việc trên thực tế còn cao hơn so với con số bị bắt giữ mà cơ quan cảnh sát công bố.
Do đó, nghị sỹ này cho rằng Hàn Quốc cần xây dựng các chính sách hiệu quả, cần có luật và hình phạt nghiêm khắc hơn để hỗ trợ mạnh mẽ công tác điều tra./.
Hàn Quốc bắt các đối tượng phát tán hàng nghìn video deepfake khiêu dâm
Trong các nghi phạm vừa bị cảnh sát Hàn Quốc bắt giữ, có đối tượng bị nghi phát tán hơn 20.000 video khiêu dâm trên không gian mạng trong thời gian từ cuối năm 2020 đến nay.