Xem nhiều

“Công nghệ lừa đảo” Deepfake, AI

06/08/2023 15:07

Kinhte&Xahoi Từ lâu, không gian mạng đã trở thành môi trường quen thuộc cho “đạo tặc” hoành hành với các hình thức lừa đảo không ngừng gia tăng và ngày càng tinh vi hơn. Xuất hiện mới gần đây, công nghệ lừa đảo Deepfake, AI đang lợi dụng sự trung thực và tin cậy của video, hình ảnh để lừa đảo chuyển tiền, vay tiền…

Ảnh minh họa

Cách thức lừa đảo tinh vi

Chỉ vì nghe cuộc gọi video của con gái mà chị Đ.Vân (45 tuổi, Hà Nội) đã mất trắng số tiền lên tới 30 triệu đồng cho “đạo tặc” trên không gian mạng. Sự việc xảy ra khi chị Đ.Vân nhận được tin nhắn nhờ chuyển tiền từ tài khoản Facebook của con gái sinh sống bên nước ngoài. Nội dung tin nhắn cô con gái nhờ mẹ chuyển 30 triệu tiền Việt sang số tài khoản của bạn để chuyển đổi ngoại tệ. Đặc biệt, cô con gái còn liên tục nhắn tin giục giã với lý do đang cần gấp và còn bảo sẽ được tiền cảm ơn là 3 triệu đồng.

Chị Đ.Vân cho biết, khi nhận được tin nhắn của con gái, bản thân chị cũng đã cẩn thận gọi video lại để kiểm tra. Tuy video có hơi mờ và âm thanh chập chờn nhưng chính mắt chị đã nhìn thấy con gái đang nghe điện nên chị hoàn toàn yên tâm chuyển khoản 30 triệu đồng đến số tài khoản của bạn mà trước đó con gái đã gửi. Sau khi chuyển xong, cô con gái muốn mẹ chuyển thêm 15 triệu đồng nữa để được tròn 5 triệu tiền cảm ơn nhưng vì tiền trong tài khoản không đủ nên chị Đ.Vân không thể chuyển thêm được.

Kết thúc cuộc trò chuyện, con gái chị Đ.Vân còn cảm ơn và hẹn tí sẽ chuyển tiền lại cho mẹ luôn kèm cả tiền cảm ơn. Chỉ đến chiều khi con gái chị gọi điện về báo mình đã bị kẻ gian hack nick Facebook thì hai mẹ con mới tá hoả biết mình đã bị lừa tiền. Chị cho biết bọn lừa đảo rất tinh vi khi lợi dụng việc trái múi giờ để thực hiện hành vi, chúng chọn khung giờ bên nước ngoài đang là buổi đêm, còn Việt Nam đang là buổi sáng để con gái chị không sớm phát giác sự việc.

Chuyện thật tưởng như đùa nhưng tại Việt Nam đã có nhiều người dùng cho biết mình là nạn nhân của chiêu lừa đảo từ cuộc gọi video Deepfake. Hầu hết các trường hợp đều chung một kịch bản là sau khi kẻ lừa đảo chiếm đoạt tài khoản Zalo, Facebook của người dùng, chúng sẽ tiến hành nhắn tin mượn tiền của những người trong danh sách bạn bè của nạn nhân với những lý do như nhà có việc gấp, người thân cấp cứu trong bệnh viện cần tiền,… Đồng thời thực hiện cuộc gọi video mạo danh Deepfake để tăng độ tin cậy nhằm lừa đảo thành công hơn.

Trong cách thức lừa đảo này, công nghệ Deepfake hay AI đóng vai trò rất quan trọng và là “quân bài chốt” để phi vụ thành công. Deepfake là công nghệ mô phỏng hình ảnh khuôn mặt con người, được đặt tên theo cụm từ được kết hợp giữa “deep learning” (máy học) và “fake” (giả). Với công nghệ tạo ra các đoạn video với hình ảnh khuôn mặt nhân vật giống hệt hình ảnh người dùng mong muốn, Deepfake thường được dùng để phục vụ giải trí. Nhưng giờ đây một số thành phần lại sử dụng cho mục đích lừa đảo, giả mạo, bôi nhọ hay thậm chí làm ra tin giả dạng video.

Nếu như ngày trước các cuộc gọi video giả danh thường không sắc nét và dễ bị phát hiện thì ngày nay, các đối tượng nhận thấy việc lừa đảo qua không gian mạng mang lại nguồn thu bất chính lớn, nhiều nhóm đối tượng đã đầu tư nhiều tiền vào máy móc, thiết bị phần cứng, phần mềm chất lượng cao hơn, nâng cao chất lượng hình ảnh đầu ra, tạo video hình ảnh Deepfake giống như thật, khó có thể phát hiện bằng mắt thường.

Để làm được điều đó, các đối tượng thường dùng các chiêu trò để thu thập hình ảnh chân dung của người dùng ở các góc cạnh khác nhau. Chỉ cần có video người dùng nhìn thẳng, nghiêng trái, nghiêng phải,… là đã có thể tái tạo video hình ảnh chất lượng, cách này sẽ chính xác và sắc nét hơn thay vì thu thập hình ảnh trên Internet.

Theo chuyên gia bảo mật Vũ Ngọc Sơn, Giám đốc công nghệ Công ty Công nghệ an ninh mạng NCS, về bản chất, các đối tượng sẽ sử dụng clip hình ảnh này để làm đầu vào cho công nghệ AI, Deepfake để thực hiện hành vi lừa đảo hoặc bán dữ liệu này cho các đối tượng để thực hiện nhiều mục đích khác, chứ không thể dùng để làm eKYC trực tiếp được. Các công nghệ eKYC của ngân hàng hiện có thể nhận biết, phân biệt được đó có phải là người thật hay là một clip, hình ảnh chụp.

Vậy là thông qua các ứng dụng OTT (cung cấp nội dung hình ảnh, tin nhắn, gọi điện như Viber, Zalo, Messenger...) kẻ xấu đã có thể thực hiện cuộc gọi thoại, thậm chí cả video với giọng nói, hình ảnh là của người thân, người quen,… khiến người nhận rất khó phân biệt thật giả và sập bẫy lừa đảo cuộc gọi Deepfake.

Cảnh giác trước các cuộc gọi

Những cuộc gọi video trở thành “miếng mồi ngon” cho tội phạm mạng. (Ảnh: TGDĐ)

Cho đến thời điểm hiện tại, công nghệ lừa đảo Deepfake, AI là một trong những chiêu thức lừa đảo tinh vi nhất trên không gian mạng. Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh - thứ tin tưởng nhất để có thể xác minh.

Để tránh trở thành nạn nhân của cuộc gọi lừa đảo Deepfake các chuyên gia an ninh mạng khuyến cáo người dùng không nên tin ngay những cuộc gọi yêu cầu cung cấp thông tin, số tài khoản, chuyển tiền… qua mạng xã hội. Người dùng cần phải nhận biết, nâng cao cảnh giác trước các thủ đoạn lừa đảo này.

Bộ Công an khuyến cáo người dân những thông tin để nhận diện và phòng ngừa đối với loại tội phạm này. Theo đó, phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính. Nên khi người dân nhận được các cuộc gọi liên quan đến các nội dung về tài chính thì nên tỉnh táo xác nhận thêm. Đặc biệt cần chú ý đến những dấu hiệu nhận biết để cảnh giác như thời gian gọi thường rất ngắn chỉ vài giây.

Khuôn mặt thiếu tính cảm xúc và khá “trơ” khi nói, hoặc tư thế trông lúng túng, không tự nhiên, hoặc là hướng đầu và cơ thể trong video không nhất quán với nhau… Màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên.

Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh. Ngắt giữa chừng, bảo là mất sóng, sóng yếu... Yêu cầu chuyển tiền mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Nhìn chung người nhận cuộc gọi cần chú ý vào các tiểu tiết để có thể tinh mắt nhận ra các dấu hiệu bất thường.

Ngoài ra, người dân cần chú ý phòng tránh bằng cách khi nhận được một cuộc gọi yêu cầu chuyển tiền gấp, trước tiên hãy bình tĩnh và xác minh thông tin. Liên lạc trực tiếp với người thân, bạn bè thông qua một kênh khác xem có đúng là họ cần tiền không. Kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền, nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch.

Nếu cuộc gọi từ người tự xưng là đại diện cho ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không. Các cuộc gọi thoại hay video có chất lượng kém, chập chờn là một yếu tố để bạn nghi ngờ người gọi cũng như tính xác thực của cuộc gọi.

Chuyên gia an ninh mạng Trung tâm Giám sát An toàn không gian mạng quốc gia - Cục An toàn thông tin (Bộ Thông tin và Truyền thông) Ngô Minh Hiếu (Hiếu PC) cho biết, lừa đảo Deepfake được tội phạm quốc tế đã và đang áp dụng từ hai ba năm qua. Do vậy, khi tội phạm trong mạng trong nước bắt đầu biết nhiều hơn cách làm, đánh cắp video, hình ảnh, rồi cắt ghép sau đó dùng những công cụ để tạo Deepfake thì lúc đó có thể sẽ tạo ra “một làn sóng lừa đảo thế hệ 4.0”.

“Làn sóng lừa đảo này sẽ khiến nhiều người lâu nay rất khó bị lừa, người cẩn thận nhưng giờ cũng có thể sẽ là đối tượng bị lừa. Đối tượng cũng có thể là những người trung niên trở lên sẽ dễ bị lừa nhất vì họ thiếu kiến thức về an toàn thông tin, hiểu biết về công nghệ và khó nhận biết kiểu lừa này nếu không có được sự chia sẻ hướng dẫn an toàn trên không gian mạng”, Hiếu PC nói.

 Linh Chi - Pháp luật Plus

;
Bình luận
Họ tên :
Email :
Lời bình :
RadEditor - HTML WYSIWYG Editor. MS Word-like content editing experience thanks to a rich set of formatting tools, dropdowns, dialogs, system modules and built-in spell-check.
RadEditor's components - toolbar, content area, modes and modules
   
Toolbar's wrapper 
 
Content area wrapper
RadEditor's bottom area: Design, Html and Preview modes, Statistics module and resize handle.
It contains RadEditor's Modes/views (HTML, Design and Preview), Statistics and Resizer
Editor Mode buttonsStatistics moduleEditor resizer
 
 
RadEditor's Modules - special tools used to provide extra information such as Tag Inspector, Real Time HTML Viewer, Tag Properties and other.
   
Mobile
TieuDe
Nhập mã bảo mật :  
Gửi bình luận
     
Mới nhất | Cũ nhất
Không tìm thấy bản ghi nào

CÓ THỂ BẠN QUAN TÂM

Đội tuyển nữ Việt Nam chia tay World Cup, VFF gửi lời cảm ơn tới người hâm mộ

Chiều 1-8, đội tuyển bóng đá nữ Việt Nam đã kết thúc hành trình tại vòng chung kết FIFA World Cup nữ 2023. Xuyên suốt quá trình thi đấu tại giải, các nữ tuyển thủ đã luôn nhận được sự quan tâm, chia sẻ và động viên từ người hâm mộ bóng đá nước nhà, bà con kiều bào cũng như người hâm mộ quốc tế.

link bài gốc https://www.phapluatplus.vn/suc-khoe-doi-song/cong-nghe-lua-dao-deepfake-ai-d197097.html

Scroll

Kênh thông tin giới trẻ - gioitrenews.com