AI biến các vụ lừa đảo và deepfake trở nên nguy hiểm hơn bao giờ hết
11:38 | 16/01/2025
DNTH: Sự phát triển vượt bậc của trí tuệ nhân tạo (AI) đã cách mạng hóa mọi khía cạnh cuộc sống, từ mua sắm, giao dịch ngân hàng, lái xe, tìm kiếm trên internet, đến sáng tạo và tiêu thụ nội dung cùng nhiều hoạt động khác. Tuy nhiên, các chuyên gia an ninh mạng cảnh báo, AI đang biến các cuộc tấn công lên làn sóng mới, nguy hiểm hơn cho cả đời sống cá nhân lẫn doanh nghiệp.
Ba hình thức tấn công mạng phổ biến sử dụng AI
AI không chỉ mang lại những cải tiến vượt bậc trong công nghệ mà còn trở thành công cụ hỗ trợ đắc lực cho các cuộc tấn công mạng. Với khả năng tự động hóa và cá nhân hóa nội dung, AI đã biến các hình thức tấn công như phishing, deepfake âm thanh và deepfake video trở nên tinh vi hơn bao giờ hết, gây ra hậu quả nặng nề cho cả cá nhân lẫn tổ chức.
Thứ nhất là phishing, một hình thức lừa đảo qua mạng nhằm đánh cắp thông tin như tài khoản đăng nhập hoặc chi tiết ngân hàng, đã thay đổi mạnh mẽ với sự hỗ trợ của AI. Trước đây, tin nhắn phishing thường dễ nhận biết vì lỗi chính tả hoặc nội dung sơ sài. Giờ đây, với các mô hình ngôn ngữ lớn (LLM), kẻ tấn công có thể tạo ra các tin nhắn và trang web chuyên nghiệp, thuyết phục và cá nhân hóa đến từng đối tượng.
Một ví dụ điển hình là việc kẻ xấu giả danh các ngân hàng lớn gửi email cảnh báo tài khoản của nạn nhân có vấn đề. Những email này không chỉ được viết bằng ngôn ngữ trôi chảy mà còn có logo, hình ảnh và đường dẫn giả mạo, khiến người nhận khó phân biệt thật giả.
Hơn thế, AI còn có thể phân tích phong cách viết của một cá nhân thông qua dữ liệu từ mạng xã hội, từ đó tạo ra các tin nhắn giả mạo giống hệt người quen của nạn nhân. Chẳng hạn, một nhân viên công ty có thể nhận được email từ “sếp” yêu cầu chuyển tiền gấp cho một đối tác.
Ngoài ra, AI còn giúp tạo ra các trang giả mạo với giao diện bắt mắt và chuyên nghiệp. Những trang này được thiết kế để thu thập thông tin nhạy cảm từ nạn nhân, như mật khẩu hoặc thông tin thẻ tín dụng. Điều này khiến phishing trở thành một mối đe dọa toàn cầu khó phát hiện.
Thứ 2 là deepfake âm thanh, một ứng dụng khác của AI, cho phép tái tạo giọng nói của một người chỉ với vài giây ghi âm. Kẻ tấn công có thể lợi dụng công nghệ này để gửi tin nhắn thoại giả mạo nhằm lừa đảo nạn nhân. Ví dụ, một người đàn ông ở Anh đã bị lừa chuyển hơn 200.000 USD sau khi nhận cuộc gọi từ giám đốc điều hành của công ty mình. Cuộc gọi này thực chất là giọng nói giả mạo được tạo bởi AI, yêu cầu chuyển tiền khẩn cấp cho một “đối tác quan trọng”.
Theo chuyên gia an ninh mạng Kaspersky, kẻ xấu thường chiếm quyền kiểm soát tài khoản nhắn tin của nạn nhân, sau đó sử dụng giọng nói giả mạo để yêu cầu bạn bè hoặc người thân của họ chuyển tiền hoặc cung cấp thông tin cá nhân. Với độ chân thực ngày càng cao, các đoạn âm thanh này khiến nạn nhân khó lòng nghi ngờ, đặc biệt khi yêu cầu được thực hiện trong những tình huống khẩn cấp.
Thứ 3 là deepfake video, đây là một trong những hình thức tấn công nguy hiểm nhất sử dụng AI. Chỉ từ một bức ảnh hoặc đoạn video ngắn, kẻ xấu có thể tạo ra video giả mạo với khuôn mặt, giọng nói và chuyển động môi đồng bộ với độ chính xác cao. Những video này được sử dụng để phát tán thông tin sai lệch, tổ chức các cuộc họp trực tuyến giả mạo, hoặc thực hiện các chiến dịch lừa đảo quy mô lớn.
Một ví dụ nổi bật là vụ kẻ xấu sử dụng deepfake của Elon Musk để mời gọi đầu tư vào một dự án năng lượng mới. Video giả mạo cho thấy hình ảnh Elon Musk trình bày dự án và kêu gọi góp vốn, khiến nhiều người tin tưởng và đầu tư, dẫn đến thiệt hại tài chính lớn.
Không chỉ dừng lại ở đó, deepfake video còn được sử dụng trong các vụ lừa đảo tình cảm, nơi kẻ xấu tạo ra nhân vật hư cấu để tương tác với nạn nhân qua các cuộc gọi video. Sau khi lấy lòng tin, chúng yêu cầu hỗ trợ tài chính, viện lý do như chi phí khẩn cấp hoặc khoản vay.
Deepfake video cũng được dùng để tạo ra các chiến dịch quảng cáo giả mạo. Một trường hợp khác là video giả mạo Thủ tướng Canada Justin Trudeau quảng bá một kế hoạch đầu tư. Video này được phát tán trên nhiều nền tảng, khiến không ít người bị lừa do không thể phân biệt thật giả.
Cách nhận diện lừa đảo
Từ thực tế đáng báo động, Kaspersky khuyến cáo cách nhận diện lừa đảo, đặc biệt là những hình thức có sự hỗ trợ của AI. Thứ nhất, nội dung lừa đảo do các mô hình ngôn ngữ lớn (LLM) tạo ra thường được thiết kế mượt mà và tự nhiên, nhưng đôi khi vẫn để lại những dấu vết đặc trưng. Một số cụm từ như: “Là một mô hình ngôn ngữ AI…” hoặc “Mặc dù tôi không thể làm chính xác điều bạn muốn…” thường xuất hiện trong nội dung chưa được chỉnh sửa kỹ lưỡng. Ngoài ra, các email hoặc tin nhắn lừa đảo thường có tính khẩn cấp, yêu cầu nạn nhân cung cấp thông tin cá nhân, mật khẩu hoặc thực hiện giao dịch ngay lập tức.
Thứ 2, hãy kiểm tra kỹ địa chỉ email, số điện thoại hoặc đường dẫn liên kết trong các tin nhắn. Địa chỉ giả mạo thường có những biến thể nhỏ, như thêm ký tự, thay đổi một vài chữ cái để trông giống với địa chỉ thật. Ví dụ, thay vì “bankname.com”, địa chỉ giả mạo có thể là “banknam3.com”. Đường dẫn lạ hoặc không rõ ràng cũng là dấu hiệu đáng ngờ.
Thứ 3, video hoặc hình ảnh deepfake thường có những dấu hiệu bất thường, đặc biệt khi quan sát kỹ, các chi tiết như chuyển động môi không khớp với giọng nói, ánh sáng không đồng đều, hoặc các vùng mờ nhòe xung quanh khuôn mặt có thể là chỉ báo cho nội dung giả mạo. Để kiểm tra, bạn có thể sử dụng các công cụ phát hiện deepfake, nhiều công cụ hiện nay được thiết kế để nhận diện các đặc điểm không tự nhiên trong video hoặc hình ảnh.
Thứ 4, phân tích giọng nói giả mạo. Bởi giọng nói giả mạo (voice fakes) thường có âm sắc đều, thiếu cảm xúc hoặc các đặc điểm tự nhiên. Nếu nhận được cuộc gọi hoặc tin nhắn thoại yêu cầu chuyển tiền hoặc cung cấp thông tin nhạy cảm, hãy cảnh giác và kiểm tra lại thông tin qua một kênh liên lạc khác. Ví dụ, bạn có thể gọi trực tiếp đến số điện thoại chính thức của người quen hoặc tổ chức liên quan để xác minh.
Thứ 5, hãy cảnh giác với những bài đăng hoặc quảng cáo có nội dung quá tốt để là thật. Các chiến dịch lừa đảo thường sử dụng hình ảnh hoặc video của các nhân vật nổi tiếng để tạo sự tin tưởng. Nếu nghi ngờ, hãy kiểm tra nội dung này trên các nguồn chính thức hoặc tìm kiếm thông tin qua các trang web đáng tin cậy.
Thứ 6, xem xét tính nhất quán của thông điệp. Các nội dung lừa đảo thường thiếu tính nhất quán trong ngôn ngữ hoặc thông điệp. Ví dụ, một email có thể bắt đầu bằng ngôn ngữ trang trọng nhưng sau đó sử dụng các cụm từ không tự nhiên hoặc thiếu chuyên nghiệp. Hãy lưu ý các lỗi này và tránh phản hồi với những yêu cầu đáng ngờ.
Thứ 7, sử dụng công cụ phát hiện lừa đảo. Hiện nay, có nhiều công cụ và ứng dụng được phát triển để phát hiện các dấu hiệu bất thường trong nội dung do AI tạo ra. Những công cụ này có thể giúp xác định giọng nói giả, hình ảnh deepfake hoặc các email phishing. Một số phần mềm cũng cung cấp tính năng quét và cảnh báo nếu phát hiện nội dung khả nghi.
Thứ 8, nên kiểm tra tính khẩn cấp trong yêu cầu. Hầu hết các cuộc tấn công lừa đảo đều tạo cảm giác khẩn cấp để khiến nạn nhân không có thời gian suy nghĩ. Nếu nhận được yêu cầu khẩn cấp liên quan đến tài chính hoặc thông tin cá nhân, hãy dành thời gian kiểm tra và xác minh thông tin qua các kênh đáng tin cậy trước khi hành động.
Thứ 9, nâng cao cảnh giác với các tài khoản bị tấn công. Nếu một người quen gửi tin nhắn với nội dung không giống phong cách thường ngày hoặc có yêu cầu bất thường, hãy xác minh lại trước khi phản hồi. Kẻ xấu thường lợi dụng các tài khoản bị chiếm quyền để gửi tin nhắn lừa đảo.
Cuối cùng, trước khi nhấp vào bất kỳ đường dẫn nào, hãy kiểm tra kỹ URL để đảm bảo đó là địa chỉ chính thức. Tương tự, các tập tin đính kèm từ nguồn không rõ ràng có thể chứa phần mềm độc hại, hãy tránh mở chúng nếu bạn không chắc chắn.
Nhận diện lừa đảo là bước đầu tiên và quan trọng nhất để bảo vệ bản thân trước các mối đe dọa mạng. Bằng cách nâng cao nhận thức và áp dụng các biện pháp kiểm tra cơ bản, bạn có thể giảm thiểu nguy cơ trở thành nạn nhân của các cuộc tấn công tinh vi này.
Theo TTXVN
Nguồn: https://baotintuc.vn/khoa-hoc-cong-nghe/ai-bien-cac-vu-lua-dao-va-deepfake-tro-nen-nguy-hiem-hon-bao-gio-het-20250115142053538.htm
Cùng chuyên mục
- Tags:
- ka /
- cẩn thận 3 hình thức lừa đảo bằng AI /
- cách nhận diện lừa đảo qua mạng /
- đánh cắp thông tin tài khoản /
- phising /
- voice-fake /
- lừa đảo qua AI /
- Deepfake /
- lừa đảo qua mạng /
- an ninh mạng /
- Trí tuệ nhân tạo /
- Chia sẻ:
- Bình luận (0)
Năm 2025 - sân chơi của các mẫu điện thoại độc lạ
DNTH: Theo các chuyên gia công nghệ, trong năm 2025 nhiều công ty sản xuất điện thoại thông minh (smartphone) sẽ tập trung vào những chi tiết quan trọng nhằm nâng cao trải nghiệm người dùng. Các công ty sẽ thực hiện một số cải tiến nổi...
Triển khai Chương trình khoa học và công nghệ phục vụ mục tiêu Net Zero
DNTH: Sáng 10/1, Bộ Khoa học và Công nghệ phối hợp với Trường Đại học Cần Thơ, UBND thành phố Cần Thơ tổ chức hội thảo khoa học triển khai chương trình khoa học và công nghệ phục vụ mục tiêu đạt mức phát thải ròng bằng 0 (Net...
Dự báo 2025: Năm bước ngoặt để điều chỉnh cách thức phát triển AI
DNTH: Tờ “The Straits Times” vừa có bài phân tích nhận định 2025 sẽ là năm bước ngoặt, khi việc sử dụng trí tuệ nhân tạo (AI) ngày càng phổ biến và tác động mạnh mẽ đến đời sống xã hội. Tuy nhiên, việc thu thập dữ liệu chất...
Trung Quốc giúp ruồi giấm sinh sản thành công nhiều thế hệ trên vũ trụ
DNTH: Một "gia đình ruồi giấm" đang phát triển mạnh mẽ trên trạm vũ trụ của Trung Quốc, có tiềm năng sản sinh đến thế hệ thứ 3.
Trồng bí xanh VietGAP trên đất cát, năng suất 55 - 60 tấn/ha
DNTH: Nova 209 là giống bí xanh chất lượng cao, lại được sản xuất theo tiêu chuẩn VietGAP nên sinh trưởng, phát triển tốt trên dải đất cát ven biển của xã Quỳnh Bảng.
Nhiều doanh nghiệp công nghệ mạnh tay chi cho lễ nhậm chức của ông Trump
DNTH: Nhiều CEO các công ty công nghệ đã đến gặp ông Trump tại Mar-a-Lago sau kỳ bầu cử tổng thống Mỹ vừa qua, cũng như công bố những khoản tài trợ lớn cho quỹ nhậm chức của vị tổng thống đắc cử này.
Đô thị cuộc sống
-
Linh vật rắn 2025 mới 'trình làng' đã gây sốt cộng đồng mạng
-
‘Giữ lửa’ làng nghề làm hương truyền thống
-
Giảm gánh nặng cho người nộp thuế thu nhập cá nhân
-
Xe cá nhân tiếp tục tăng mạnh: Hà Nội oằn mình trong áp lực giao thông
-
Tỷ lệ hộ gia đình Việt Nam sở hữu ô tô tính đến năm 2024 là 9%
-
Người lao động ở Hà Nội mưu sinh ngày cận tết
Sống khỏe
-
Liên tiếp các ca biến chứng do làm đẹp cấp tốc đón Tết
-
Gia tăng số người tiêm vắc xin tại Bệnh viện Hùng Vương Gia Lai
-
Chất lượng không khí nguy hại, bác sĩ nêu lý do nên cho học sinh nghỉ học
-
Người dân chú ý bảo vệ sức khỏe giữa mùa ô nhiễm
-
Prudential khởi động chương trình "Tăng cường sức khỏe chủ động" nhằm nâng cao nhận thức về biến đổi khi hậu và...
Thị trường
-
Ô tô cũ ế ẩm, giới buôn “có lời là bán”
-
"Lướt sóng" bất động sản thời điểm này 90% là thất bại
-
Ninh Thuận bứt phá ngoạn mục, trở thành “mỏ vàng” trong mắt nhà đầu tư
-
Bất động sản Việt Nam vẫn hấp dẫn nhà đầu tư nước ngoài
-
M&A bất động sản phía Nam nhộn nhịp trong mùa dịch
-
Ô tô giảm giá “chạy” tháng ngâu
Ý kiến bạn đọc...