Nhân viên của Samsung đã vô tình chia sẻ thông tin bí mật khi sử dụng sự trợ giúp ChatGPT trong công việc. Được biết bộ phận bán dẫn của Samsung cho phép các kỹ sư sử dụng ChatGPT để kiểm tra mã nguồn.
Nhưng theo tạp chí The Economist Korea, đã xảy ra ba trường hợp nhân viên của Samsung vô tình tiết lộ thông tin nhạy cảm cho ChatGPT. Trong một trường hợp, một nhân viên đã dán mã nguồn mật vào cuộc trò chuyện với Chatbot AI để kiểm tra lỗi. Một nhân viên khác đã chia sẻ code với ChatGPT với “yêu cầu tối ưu hóa code”. Trong tình huống thứ ba, bản thu âm cuộc họp đã được đưa vào với yêu cầu chuyển thành ghi chú cho bài thuyết trình.
Vụ rò rỉ là một ví dụ thực tế về những tình huống mà các chuyên gia về quyền riêng tư đã lo ngại. Các tình huống khác bao gồm chia sẻ tài liệu pháp lý mật hoặc thông tin y tế nhằm mục đích phân tích hoặc tóm tắt một văn bản dài, những nội dung sau đó có thể được sử dụng để cải thiện mô hình AI. Các chuyên gia cảnh báo rằng nó có thể vi phạm Quy định Chung về Bảo vệ Dữ liệu (GDPR) của Liên minh Châu Âu, đây cũng là nguyên nhân Ý đã cấm ChatGPT vào đầu năm nay.
Samsung đã có hành động xử lý ngay lập tức bằng cách giới hạn dung lượng tải lên ChatGPT ở mức 1024 byte cho mỗi người và đang điều tra những nhân viên liên quan đến vụ rò rỉ. Hãng cũng đang xem xét xây dựng chatbot AI nội bộ để ngăn chặn những rủi ro tương tự trong tương lai. Nhưng Samsung sẽ không thể thu hồi bất kỳ dữ liệu bị rò rỉ nào của mình. Chính sách dữ liệu của ChatGPT cho biết dữ liệu sẽ được dùng để đào tạo các mô hình trừ khi bạn yêu cầu không tham gia. Trong hướng dẫn sử dụng của ChatGPT, OpenAI cảnh báo rõ ràng người dùng không nên chia sẻ thông tin nhạy cảm trong các cuộc hội thoại.
Hãy coi đây là một câu chuyện cảnh báo cần nhớ vào lần tới khi bạn tìm đến ChatGPT để được trợ giúp!
Đăng ký khóa học lập trình FUNiX tại đây:
Vân Nguyễn (theo Mashable SEA)
Bình luận (0
)