5 mối nguy hại từ Deepfake bạn cần biết  | Học trực tuyến CNTT, học lập trình từ cơ bản đến nâng cao

5 mối nguy hại từ Deepfake bạn cần biết 

Chia sẻ kiến thức 06/12/2021

Công nghệ deepfake đang ngày càng trở nên phổ biến và hoàn hảo hơn, tạo ra những hình ảnh khó phân biệt thật giả với mắt thường. Nó đang mang lại những mối nguy hại nào cho xã hội? Hãy tìm hiểu cùng FUNiX.

Trong một thế giới mà danh tính trực tuyến của bạn đã và đang liên kết trực tiếp với bạn, khả năng làm giả một cách hoàn hảo là điều rất đáng lo ngại. Nhưng đó chính xác là những gì chúng ta phải đối mặt với sự ra đời của công nghệ deepfake.

Khi những công nghệ mới đang càng ngày trở nên rẻ tiền và dễ sử dụng hơn, deepfake đang mang lại những nguy cơ gì? àm thế nào bạn có thể phân biệt được deepfake với thực tế?

1. Deepfake là gì?

Deepfake là tên được đặt cho một dạng phương tiện truyền thông, trong đó người trong ảnh hoặc video được thay thế bằng hình ảnh của người khác. Thuật ngữ này là từ ghép của “học sâu” (deep learning) và “giả mạo” (fake), nó đồng thời sử dụng các thuật toán máy tính và trí tuệ nhân tạo để tạo ra hình ảnh trông rất thực tế nhưng thực ra là nhân tạo.

Ở mức cơ bản nhất, bạn có thể thấy một khuôn mặt giả được chồng lên một khuôn mặt khác. Tồi tệ hơn cả, công nghệ deepfake đã kết hợp hình ảnh của những nạn nhân vào các video khiêu dâm giả mạo, tin tức giả mạo, lừa đảo, v.v.

2. Mối nguy hiểm của deepfake là gì?

Những hình ảnh giả mạo đã luôn tồn tại trên mạng. Phân biệt thật – giả luôn là một phần phổ biến của cuộc sống, đặc biệt là sau sự trỗi dậy của các phương tiện truyền thông số hóa. Nhưng các vấn đề mà công nghệ deepfake tạo ra lại khác, do nó mang lại độ chính xác vô song cho các hình ảnh video giả mạo.

Một trong những video deepfake đầu tiên và thu hút được nhiều lượt xem nhất là của Jordan Peele đóng giả Barack Obama trong một video thảo luận về chính deepfake: 

Đoạn video giả mạo còn khá thô sơ, giọng nói còn chưa được mô phỏng chính xác và làn da trên mặt vẫn còn chưa được nét. Tuy nhiên, nó đã minh họa thành công cho công nghệ deepfake.

Hoặc, bạn đã bao giờ tự hỏi sẽ như thế nào nếu Will Smith đóng vai Neo trong The Matrix thay vì Keanu Reeves chưa? Không cần phải thắc mắc nữa:

Hai video này không mang tính độc hại. Nhưng công nghệ tương tự đã có sẵn cho bất kỳ ai có đủ thời gian học và máy tính đủ mạnh. Rào cản đối với việc sử dụng công nghệ deepfake ban đầu khá cao. Nhưng khi công nghệ được cải thiện và các rào cản ban đầu được giảm xuống đáng kể, nhiều người đã tìm ra những cách sử dụng deepfake cực kỳ tiêu cực và có hại.

>>> Xem thêm: 4 mẹo giúp phát hiện Deepfake

Trước khi chúng ta đi sâu vào mặt tối của deepfake, đây là Jim Carrey thay thế Jack Nicholson trong bộ phim The Shining:

2.1 Sản phẩm đồi trụy có khuôn mặt người nổi tiếng 

Một trong những mối đe dọa chính từ công nghệ deepfake là những ấn phẩm đồi trụy, hay còn gọi là phim khiêu dâm deepfake. Có hàng chục nghìn video người lớn giả mạo khuôn mặt của những nữ nhân vật nổi tiếng như Emma Watson, Natalie Portman và Taylor Swift.

Chúng sử dụng thuật toán deepfake để ghép khuôn mặt người nổi tiếng vào cơ thể của một nữ diễn viên khiêu dâm, và đều thu hút hàng chục triệu lượt xem trên nhiều trang web nội dung người lớn.

Nhưng những trang web này đã không hề có động thái nào với những video giả mạo này.

Giorgio Patrini, Giám đốc điều hành và nhà khoa học trưởng tại Sensity, một công ty phân tích và phát hiện deepfake, cho biết: Cho đến khi những trang web này có lý do đủ mạnh để loại bỏ những video này thì sẽ không có gì thay đổi. Mọi người vẫn sẽ được tự do tải những ấn phẩm này lên và những website này vẫn sẽ thu hút được hàng trăm triệu lượt xem mà không phải nhận bất kỳ hậu quả nào, Những video này lợi dụng và gây nhiều tổn thất cho nạn nhân, chứ không hề vô hại như lời khẳng định của một số người sáng tạo nội dung deepfake.

2.2 Sản phẩm đồi trụy có khuôn mặt của người không nổi tiếng 

Liệu còn gì tồi tệ hơn phim khiêu dâm nhân tạo giả mạo người nổi tiếng? Đó chính là những ấn phẩm đồi trụy giả mạo những phụ nữ bình thường. Một nghiên cứu của Sensity đã phát hiện ra một bot (phần mềm trí tuệ nhân tạo) có khả năng tự động tạo deepfake trên ứng dụng nhắn tin xã hội, Telegram, đã tạo ra hơn 100.000 hình ảnh khỏa thân deepfake. Nhiều hình ảnh bị đánh cắp từ các tài khoản mạng xã hội.

Bot là một phiên bản hoàn hảo bổ sung trong công nghệ deepfake, vì người tải lên hình ảnh không cần kiến ​​thức về deepfake, học máy hoặc AI. Đây là một quá trình tự động, chỉ yêu cầu tải lên một hình ảnh duy nhất. Hơn nữa, bot Telegram dường như chỉ hoạt động với hình ảnh của phụ nữ với các gói đăng ký được gọi là cao cấp (giả mạo được nhiều hình ảnh hơn, không có dấu watermark) nhưng lại có giá rất rẻ.

Giống như những bức ảnh giả mạo người nổi tiếng, những bức ảnh deepfake từ bot Telegram mang tính chất lợi dụng, lạm dụng và vô đạo đức. Chúng có thể dễ dàng được gửi đến hòm thư của chồng, đối tác, thành viên gia đình, đồng nghiệp hoặc sếp, phá hủy cuộc sống của của những người phụ nữ này. Khả năng xảy ra tống tiền là rất cao, và nó còn làm gia tăng thêm những mối đe dọa từ các vấn đề vốn đang tồn tại, chẳng hạn như revenge porn (phân phối trực tuyến các hình ảnh nhạy cảm mà không có sự đồng ý của chính chủ nhằm mục đích làm nhục và gây tổn thương).

Việc đăng deepfake trên Telegram cũng tạo ra một vấn đề khác. Telegram là một dịch vụ nhắn tin tập trung vào quyền riêng tư, không can thiệp quá nhiều vào người dùng. Nó có chính sách xóa bot khiêu dâm và các bot khác liên quan đến tài liệu người lớn nhưng lại không làm gì trong trường hợp deepfake này.

2.3 Lừa đảo tinh vi 

Bạn đã thấy Jordan Peele đóng vai Obama. Trong video đó, anh ta đang cảnh báo về sự nguy hiểm của deepfake. Một trong những mối nguy chính liên quan đến công nghệ deepfake là ai đó sẽ có khả năng tạo và xuất bản một video quá thực tế tới mức dẫn đến hậu quả nghiêm trọng.

Ở mức tồi tệ nhất, nhiều người cho rằng nội dung của một video deepfake có thể gây ra chiến tranh. Chúng còn có những hậu quả lớn khác. Ví dụ: một video deepfake có cảnh giám đốc điều hành một công ty lớn hoặc một ngân hàng đưa ra tuyên bố gây tổn hại, có thể gây ra sự sụp đổ của thị trường chứng khoán. Ví dụ này khá cực đoan. Nhưng con người còn có thể kiểm tra và xác minh video, trong khi thị trường toàn cầu lại phản ứng tức thì với tin tức mới và tình trạng bán tháo tự động xảy ra thường xuyên.

Một điều khác cần xem xét là số lượng các video và hình ảnh giả mạo. Việc tạo ra nội dung deepfake ngày càng rẻ, điều này làm tăng khả năng có một lượng lớn nội dung deepfake của cùng một người, tập trung vào việc truyền tải cùng một thông điệp giả bằng các âm điệu, địa điểm, phong cách khác nhau, v.v.

>>> Xem thêm: Cách sử dụng web ẩn danh hiệu quả

2.4 Phủ nhận các video/hình ảnh có thật 

Những trò deepfake giả mạo này đang trở nên vô cùng thực tế. Thực tế đến mức mọi người sẽ bắt đầu đặt câu hỏi: liệu video này là thật hay giả, bất kể nội dung như thế nào.

Nếu ai đó phạm tội và bằng chứng duy nhất là một video, liệu có thể ngăn họ chối rằng “Đó là deepfake, là bằng chứng giả” hay không? 

2.5 Tấn công giả mạo, Tấn công phi kỹ thuật và các trò lừa đảo khác

Tấn công phi kỹ thuật (social engineering, chỉ việc thao tác tâm lý của con người để dụ họ tiết lộ các thông tin bí mật) đã và đang là một vấn đề nghiêm trọng trong bảo mật thông tin. Chúng ta đều muốn tin tưởng nhau, đây là bản chất của con người. Nhưng sự tin tưởng đó có thể dẫn đến những hành vi vi phạm bảo mật, đánh cắp dữ liệu, v.v. Tấn công phi kỹ thuật thường yêu cầu liên hệ theo cá nhân, có thể là qua điện thoại, sử dụng cuộc gọi điện video, v.v.

Giả sử ai đó có thể sử dụng công nghệ deepfake để bắt chước một vị giám đốc, yêu cầu được quyền truy cập vào mã bảo mật hoặc những thông tin nhạy cảm khác. Nó có thể kéo theo rất nhiều các vụ lừa đảo khác. 

Giờ bạn đã biết những mối nguy do deepfake mang lại, làm thế nào để chúng ta có thể nhận ra chúng? Hãy cùng tìm hiểu tại đây

 

Dương Hoàng (theo Makeuseof)

ĐĂNG KÝ TƯ VẤN HỌC LẬP TRÌNH TẠI FUNiX

Bình luận (
0
)

Bài liên quan

  • Tầng 0, tòa nhà FPT, 17 Duy Tân, Q. Cầu Giấy, Hà Nội
  • info@funix.edu.vn
  • 0782313602 (Zalo, Viber)        
Chat Button
Chat với FUNiX GPT ×

yêu cầu gọi lại

error: Content is protected !!