Jennifer King, nhà nghiên cứu tại Trung tâm Trí tuệ nhân tạo lấy con người làm trung tâm (HAI) của Đại học Stanford, chia sẻ với tờ Wall Street Journal: "Khi bạn nhập gì đó vào chatbot, hãy xác định bạn có thể bị lộ thông tin riêng tư". Dưới đây là 5 loại dữ liệu cá nhân nhạy cảm mà người dùng không nên nhập vào các công cụ AI như ChatGPT, Gemini, Claude hay các chatbot tương tự.
1. Thông tin công ty
Việc sử dụng chatbot AI để soạn email, chỉnh sửa tài liệu hoặc hỗ trợ công việc có thể vô tình dẫn đến rò rỉ thông tin nội bộ như danh sách khách hàng, dữ liệu kinh doanh, chiến lược chưa công bố...
Mặc dù nhiều công ty lớn đã đăng ký phiên bản doanh nghiệp của các chatbot với tính bảo mật cao hơn, phần lớn người dùng cá nhân và đơn vị nhỏ vẫn sử dụng bản miễn phí hoặc bản thử nghiệm - nơi thông tin có thể được dùng để huấn luyện mô hình.
2. Kết quả y khoa
Dù AI có thể giúp giải thích văn bản chuyên môn, các chuyên gia cảnh báo rằng thông tin sức khỏe vẫn nên được xử lý cẩn trọng. Chatbot không bị ràng buộc bởi các quy định bảo mật thông tin y tế giống như bệnh viện hay bác sĩ, nên dữ liệu sức khỏe của bạn có thể không được bảo vệ đầy đủ.
Nếu cần nhập kết quả xét nghiệm, người dùng nên loại bỏ mọi thông tin cá nhân đi kèm như họ tên, ngày sinh hoặc mã bệnh nhân.
3. Mật khẩu và thông tin đăng nhập
Các chuyên gia nhấn mạnh rằng AI không phải là "két sắt" kỹ thuật số và không được thiết kế để lưu trữ thông tin đăng nhập. Việc sử dụng công cụ quản lý mật khẩu chuyên dụng như 1Password, Bitwarden... vẫn là lựa chọn an toàn hơn.
4. Dữ liệu nhận dạng cá nhân (PII)
Những thông tin như số CCCD, địa chỉ, số điện thoại, hộ chiếu hoặc mã số thuế tuyệt đối không nên xuất hiện trong đoạn hội thoại với AI. Dù một số hệ thống tuyên bố có tính năng tự động xóa dữ liệu, vẫn không loại trừ khả năng bị lưu trữ tạm thời hoặc truy xuất sai mục đích.
5. Thông tin tài chính
Số tài khoản ngân hàng, thông tin thẻ tín dụng hay danh mục đầu tư cá nhân có thể bị tin tặc khai thác nếu được đưa vào một nền tảng AI không đảm bảo. Ngoài nguy cơ bị truy vết dòng tiền, thông tin này có thể bị khai thác trong các cuộc tấn công lừa đảo tài chính.
Các hãng công nghệ lớn cũng đưa ra khuyến nghị tương tự. Trên trang chính thức, OpenAI yêu cầu người dùng: "Vui lòng không chia sẻ thông tin nhạy cảm trong các cuộc trò chuyện". Google cũng cảnh báo không nhập dữ liệu bí mật vào chatbot AI Gemini, nhấn mạnh rằng "bạn nên xem đây là dữ liệu có thể bị kiểm toán".
Trong trường hợp bắt buộc phải nhập dữ liệu cá nhân, các chuyên gia khuyến nghị sử dụng mật khẩu mạnh, bật xác thực hai bước và xóa hội thoại sau khi sử dụng. Jason Clinton, CEO của hãng AI Anthropic, cho biết: "Bạn có thể xóa cuộc trò chuyện thủ công sau mỗi phiên làm việc. Nhiều nền tảng cũng có chính sách tự động xóa dữ liệu sau 30 ngày".
Ý kiến ()