
Với sự ra đời của chatbot AI, nhiều người đang dần chuyển sang sử dụng không chỉ để hỏi đáp văn bản mà còn để nhận diện hình ảnh, như xác định vết mẩn đỏ trên da, xác định vật thể, chỉnh sửa, tạo ảnh. Tuy nhiên, sự tiện lợi này đi kèm với nhiều rủi ro về quyền riêng tư mà người dùng có thể chưa nhận ra.
Khi tải hình ảnh lên các nền tảng AI, nhiều người cho rằng hình ảnh sẽ chỉ tồn tại tạm thời. Thực tế, sau khi người dùng hoàn thành session trao đổi, bức ảnh đó có thể đã được lưu trữ để phục vụ các mục đích như huấn luyện AI, kiểm thử hệ thống hoặc thậm chí là kiểm tra thủ công bởi nhân viên kỹ thuật. Hình ảnh người dùng tải lên có thể chứa nhiều thông tin nhạy cảm như vị trí chụp, thời gian, thiết bị sử dụng, hoặc các chi tiết dễ nhận diện trong hậu cảnh như giấy tờ, số thẻ, địa điểm sinh sống hoặc thông tin sinh trắc học của người xuất hiện trên ảnh.
Ngoài ra, chính sách bảo mật của các công ty cũng không thống nhất. Chẳng hạn, Microsoft và Anthropic thường không dùng ảnh tải lên để huấn luyện mô hình AI, còn OpenAI sẽ sử dụng trừ khi người dùng chủ động từ chối. Một số nền tảng còn không cho phép người dùng lựa chọn về việc sử dụng dữ liệu này. Bên cạn nguy cơ về bảo mật, AI cũng có thể “ghi nhớ” một số hình ảnh đặc biệt rõ nét hoặc nổi bật. Điều này có thể khiến các ảnh cá nhân hoặc ảnh chứa dấu hiệu đặc biệt trở thành dữ liệu mà hệ thống AI có thể tái tạo gần giống nếu ai đó sử dụng công cụ tạo ảnh.