Ảnh nổ Lầu Năm Góc giả gây sốt: Cách phát hiện ảnh tạo bởi AI

Ảnh nổ Lầu Năm Góc giả gây sốt: Cách phát hiện ảnh tạo bởi AI

Chia sẻ kiến thức 03/06/2023

Một bức ảnh về một vụ nổ gần Lầu Năm Góc làm dấy lên mối lo ngại về khả năng tạo ra các thông tin sai lệch bởi AI.

Trong vòng vài phút, một loạt các tài khoản mạng xã hội, bao gồm một số tài khoản đã được xác minh, đã chia sẻ bức ảnh giả mạo. 

Các quan chức chính phủ Mỹ sau đó xác nhận rằng không có sự cố nào như vậy đã xảy ra.

Các nhà điều tra mạng xã hội, bao gồm Nick Waters từ Bellingcat, một nhóm xác minh tin tức online, đã nhanh chóng chỉ ra một số vấn đề đáng nghi với bức ảnh, trong đó bao gồm:

  • Không có nhân chứng trực tiếp nào khác chứng thực sự kiện này, đặc biệt là ở một khu vực đông đúc như Lầu Năm Góc. “Đây là lý do tại sao rất khó (nếu không muốn nỏi là không thể) tạo ra một tin giả đáng tin cậy về một sự kiện như vậy,” Waters chia sẻ trên Twitter.
  • Bản thân tòa nhà trong ảnh trông khác biệt rõ rệt so với Lầu Năm Góc. Điều này có thể dễ dàng được xác minh bằng cách sử dụng các công cụ như Google Street View để so sánh giữa hai hình ảnh.
  • Các chi tiết khác bao gồm cột đèn trông có vẻ như đang trôi và cột đen nhô ra khỏi vỉa hè là một dấu hiệu khác cho thấy bức ảnh không phải là thật. Trí tuệ nhân tạo vẫn gặp khó khăn trong việc tái tạo hình ảnh các địa điểm mà không thêm vào các vật ngẫu nhiên.

Cách phát hiện hình ảnh giả và do AI tạo

Hiện nay có nhiều công cụ AI tạo sinh (Generative AI) như Midjourney, Dall-e 2 và Stable Diffusion có thể tạo ra những bức ảnh sống động như thật mà không cần nhiều nỗ lực.

Các công cụ này được đào tạo bằng khối lượng lớn hình ảnh thực nhưng khi thiếu dữ liệu đào tạo tự lấp đầy khoảng trống bằng cách giải thích của riêng chúng. Điều này có thể dẫn đến việc mọi người trong ảnh có thêm tay chân và các đồ vật bị nhòe theo môi trường xung quanh.

Khi xem những hình ảnh online được cho là hiển thị một sự kiện tin tức nóng hổi, hãy ghi nhớ những điều sau:

  • Tin tức không xảy ra từ thinh không – Trong trường hợp một vụ nổ hoặc sự kiện lớn, bạn sẽ thấy một loạt các tin tức từ nhiều người khác nhau có mặt tại hiện trường và từ các góc độ khác nhau.
  • Ai đăng nội dung lên – Kiểm tra lịch sử đăng của tài khoản người dùng. Địa điểm của họ và vị trí của sự kiện có khớp không? Xem họ đang theo dõi ai cũng như ai theo dõi họ. Bạn có thể tiếp cận hoặc nói chuyện với họ không?
  • Sử dụng các công cụ mã nguồn mở thông minh – Các công cụ tìm kiếm hình ảnh đảo ngược như Google Images và TinEye có thể cho phép tải hình ảnh lên và xác định vị trí và thời điểm nó được sử dụng lần đầu tiên. Có một số công cụ khác mà bạn có thể dùng như xem cảnh quay trực tiếp của camera giao thông công cộng để xác minh rằng một sự kiện đang thực sự diễn ra.
  • Phân tích hình ảnh và môi trường xung quanh – Tìm kiếm manh mối trong ảnh như các địa danh gần đó, biển báo giao thông, thậm chí cả điều kiện thời tiết để giúp bạn xác định thời gian và địa điểm sự kiện có thể diễn ra.
  • Tay, mắt và tư thế – Khi xử lý ảnh của con người, hãy đặc biệt chú ý đến mắt, tay và tư thế chung của họ. Các video do AI tạo bắt chước con người, còn được gọi là deep fake, thường gặp vấn đề về chớp mắt vì hầu hết các bộ dữ liệu đào tạo không chứa khuôn mặt khi nhắm mắt. Bàn tay không cầm nắm đồ vật đúng cách hoặc tay chân bị vặn vẹo một cách bất thường cũng có thể là dấu hiệu của ảnh giả.

Đăng ký khóa học lập trình FUNiX tại đây:

Vân Nguyễn (theo Aljazeera)

ĐĂNG KÝ TƯ VẤN HỌC LẬP TRÌNH TẠI FUNiX

Bình luận (
0
)

Bài liên quan

  • Tầng 0, tòa nhà FPT, 17 Duy Tân, phường Cầu Giấy, Hà Nội
  • info@funix.edu.vn
  • 0782313602 (Zalo, Viber)        

Cơ quan chủ quản: Công ty Cổ phần Giáo dục Trực tuyến FUNiX
MST: 0108171240 do Sở kế hoạch và Đầu tư thành phố Hà Nội cấp ngày 27 tháng 02 năm 2018
Địa chỉ:
Văn phòng Hà Nội: Tầng 4, Tòa nhà 25T2, Đường Nguyễn Thị Thập, phường Yên Hòa, Hà Nội.
Văn phòng TP.HCM: Lầu 8, Tòa nhà Giày Việt Plaza 180-182 Lý Chính Thắng, phường Nhiêu Lộc, TP. Hồ Chí Minh.
Hotline: 078 231 3602 – Email: info@funix.edu.vn

yêu cầu gọi lại