Cảnh báo hình thức lừa đảo bằng cuộc gọi video deepfake

  • 05/05/2023 10:43:15

Các đối tượng sử dụng AI để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè để lừa đảo.

 

Sáng 5/5, tại Hà Nội, Bộ Thông tin và Truyền thông (TT&TT) tổ chức họp báo cung cấp thông tin về hoạt động của Bộ, của ngành Thông tin và Truyền thông trong tháng 4 và kế hoạch triển khai thực hiện các nhiệm vụ trọng tâm của Bộ trong thời gian tới.

Đồng thời,trao đổi với các cơ quan báo chí về những vấn đề liên quan đến hoạt động của Bộ, của ngành TT&TT đang được báo chí và dư luận quan tâm.

Về lĩnh vực an toàn thông tin mạng, Bộ TT&TT cho biết, thời gian gần đây xuất hiện hình thức lừa đảo trực tuyến mới là cuộc gọi video deepfake.

Theo đó, các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè để thực hiện các cuộc gọi lừa đảo trực tuyến

Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Nó có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn sử dụng cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác.

Cảnh báo hình thức lừa đảo bằng cuộc gọi video deepfake

Quang cảnh buổi họp báo cung cấp thông tin về hoạt động của Bộ, của ngành Thông tin và Truyền thông trong tháng 4/2023.

Theo đại diện Bộ TT&TT, phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính. Đối với các cuộc gọi deepfake như hiện nay thì bằng mắt thường vẫn có thể có một số các dấu hiệu để nhận biết như thời gian gọi thường rất ngắn chỉ vài giây.

Khuôn mặt của họ thiếu tính cảm xúc và khá "trơ" khi nói, hoặc tư thế của họ trông lúng túng, không tự nhiên, hoặc là hướng đầu và cơ thể của họ trong video không nhất quán với nhau…

Ngoài ra, cũng có thể thấy màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này, có thể khiến cho video trông rất giả tạo và không tự nhiên. Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.

Có thể xảy ra tình huống mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi và thường kẻ gian sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu... Tóm lại, các yếu tố kỳ lạ như trên là báo hiệu đỏ của deepfake. Do đó, Bộ TT&TT khuyến cáo người dân nên luôn cảnh giác và tuyệt đối bình tĩnh.

Trong lĩnh vực viễn thông, Bộ TT&TT cũng thông tin, công tác phát hiện và xử lý các trạm BTS giả phát tán tin nhắn rác: Cơ quan chức năng của Bộ TT&TT đã phối hợp với Cục A05, Bộ Công an phát hiện và bắt giữ 2 vụ/2 BTS giả (tại Hưng Yên, Thái Nguyên) để phát tán tin nhắn lừa đảo;

Đã mở rộng điều tra bắt 1 vụ/1 BTS giả tại Bắc Giang (trong tháng 3/2023 phát hiện và bắt 8 vụ/9 BTS giả tại Hà Nội, Tp. Hồ Chí Minh, Gia Lai, Thanh Hóa, Quảng Nam).

Nguồn baomoi.com

Tin Cùng Mục

Tin Mới Nhất

Cảnh báo hình thức lừa đảo bằng cuộc gọi video deepfake - Công Nghiệp

  • Tin Mới Nhất
  • Đọc Nhiều