16/08/2024 13:19
Trên trang tingia.gov.vn, Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam thuộc Cục Phát thanh, truyền hình và thông tin điện tử (Bộ Thông tin và Truyền thông) vừa phát cảnh báo về thủ đoạn sử dụng công nghệ deepfake để cắt ghép, tạo video hay hình ảnh nhạy cảm giả mạo với mục đích lừa đảo, tống tiền người dùng.
Cụ thể, gần đây, Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam - VAFC đã nhận được phản ánh từ ông Q.T.L về việc ông bị một số đối tượng phát tán trên mạng xã hội những hình ảnh giả mạo được cắt ghép, xử lý qua công nghệ deepfake, với mục đích bôi nhọ danh dự, nhân phẩm và uy tín cá nhân.
Không những thế, các đối tượng này sau đó còn tiếp tục sử dụng những hình ảnh giả mạo để thực hiện hành vi tống tiền, yêu cầu ông Q.T.L chuyển tiền vào ví điện tử của chúng và liên hệ qua email để xác nhận.
Nhận định về vụ việc cụ thể nêu trên, Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam xác nhận đây là một hình thức lừa đảo sử dụng công nghệ deepfake để thực hiện hành vi sai phạm.
Deepfake là công nghệ được sử dụng để tạo ra nội dung giả mạo, đặc biệt là video, trong đó khuôn mặt hoặc âm thanh của một người sẽ được ghép vào các video, âm thanh của người khác.
Thời gian qua, nhiều người dân Việt Nam đã trở thành nạn nhân của các cuộc lừa đảo tài chính sử dụng công nghệ Deepfake. Ảnh minh họa: Internet
Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam cũng cho biết thêm, đơn vị đang phối hợp các cơ quan chức năng để điều tra làm rõ vụ việc của ông Q.T.L và xử lý nghiêm các đối tượng vi phạm theo quy định của pháp luật.
Phân tích của Trung tâm Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam chỉ ra rằng, với sự phát triển của AI, hiện nay công nghệ deepfake đang trở thành công cụ nguy hiểm cho tội phạm tống tiền trực tuyến. Việc dễ dàng tiếp cận công nghệ này cùng với sự gia tăng của các nền tảng mạng xã hội đã tạo điều kiện thuận lợi cho các đối tượng xấu lợi dụng để thực hiện hành vi vi phạm pháp luật.
Thủ đoạn của các nhóm lừa đảo theo hình thức mới này là sử dụng hình ảnh, thông tin cá nhân của nạn nhân được chia sẻ trên mạng và dùng kỹ thuật cắt ghép hình ảnh nạn nhân vào các video clip nhạy cảm. Sau đó, đối tượng sẽ nhắn tin, gọi điện đe dọa, tống tiền nạn nhân bằng hình ảnh giả mạo.
Một số nạn nhân còn bị các tổ chức lừa đảo giả danh là thám tử tư gọi điện thoại thông báo về việc phát hiện người này có mối quan hệ bất chính với những người phụ nữ khác. Đối tượng gửi cho nạn nhân các hình ảnh nhạy cảm đã được chỉnh sửa, cắt ghép có sử dụng hình ảnh khuôn mặt của nạn nhân.
Sau đó, các đối tượng lừa đảo yêu cầu nạn nhân phải chuyển một khoản tiền điện tử với giá trị tương đương hàng tỷ đồng vào ví điện tử để không bị đăng lên mạng xã hội. Khi nạn nhân bị "sập bẫy", các đối tượng sẽ hướng dẫn mua tiền điện tử, chuyển đến các tài khoản ví điện tử theo chỉ định để chiếm đoạt.
Cùng với khuyến cáo người dân nâng cao cảnh giác, Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam cũng lưu ý về một số biện pháp phòng ngừa: Cẩn trọng với những yêu cầu kết bạn từ người lạ trên mạng xã hội; không chia sẻ thông tin cá nhân, hình ảnh, video riêng tư với người không quen biết; kiểm tra kỹ nguồn gốc thông tin, hình ảnh, video trước khi chia sẻ. Ngoài ra, khi phát hiện các trường hợp nghi ngờ lừa đảo, tống tiền bằng deepfake, người dân cần báo ngay cho cơ quan chức năng.
Trường hợp người dân đã trở thành nạn nhân của hình thức lừa đảo, tống tiền bằng hình ảnh, video giả mạo được tạo ra từ việc sử dụng công nghệ deepfake, Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam khuyên người dân giữ lại tất cả bằng chứng liên quan như tin nhắn, email, hình ảnh, video...; không chuyển tiền cho kẻ tống tiền và liên hệ ngay với cơ quan công an gần nhất để được hỗ trợ.
Theo Vietnamnet
(KGO) - Trong khi lịch sửa tuyến cáp AAE-1 tiếp tục bị lùi sang tháng 12, một tuyến cáp quang biển khác là APG vừa gặp sự cố ảnh hưởng nhất định đến chất lượng Internet đi quốc tế.
Tổng số lượt truy cập: