Theo CNBC đưa tin ngày 21 (giờ địa phương), Tổng giám đốc điều hành của OpenAI là Sam Altman đã thẳng thắn cảnh báo rằng những cuộc trò chuyện giữa người dùng và chatbot trí tuệ nhân tạo ChatGPT có thể bị cung cấp cho bên thứ ba theo yêu cầu pháp lý. Điều này đặt ra lo ngại lớn về việc thiếu sót trong cơ chế bảo vệ thông tin cá nhân hiện nay.
Trong buổi phỏng vấn với podcaster Theo Von gần đây, Altman cho biết các cuộc trao đổi mang tính riêng tư trên *ChatGPT* — bao gồm thông tin nhạy cảm hoặc tài liệu mật — hoàn toàn có thể trở thành bằng chứng cung cấp cho tòa án nếu có trát triệu tập. Ông nhấn mạnh rằng, trong khi nội dung trò chuyện giữa người dùng với chuyên gia trị liệu, luật sư hay bác sĩ được pháp luật bảo vệ bởi các hình thức "thông tin được đảm bảo bí mật" (privileged information), thì các cuộc nói chuyện với *trí tuệ nhân tạo như ChatGPT* lại không được hưởng quyền lợi tương tự.
Altman đã phát biểu rằng: “Nếu bạn chia sẻ thông tin với một bác sĩ, luật sư hoặc chuyên gia tâm lý, họ thường được luật pháp bảo vệ. Tuy nhiên, **ChatGPT thì không có cơ chế bảo vệ nào như vậy**”. Ông cho biết thêm, trong trường hợp người dùng tiết lộ thông tin riêng tư qua ChatGPT và sau đó bị liên quan đến một vụ kiện, “có khả năng chúng tôi sẽ buộc phải giao nộp các thông tin đó theo yêu cầu pháp lý”.
Tuyên bố này được đưa ra trong bối cảnh **ứng dụng trí tuệ nhân tạo đang ngày càng mở rộng** trong nhiều lĩnh vực, từ tư vấn tâm lý, chăm sóc sức khỏe đến quản lý tài chính cá nhân. Khi AI như ChatGPT ngày càng can thiệp sâu vào đời sống cá nhân, vấn đề đảm bảo *quyền riêng tư trong nội dung trò chuyện* đang nổi lên như một thách thức cấp bách.
Theo Altman, “đó là một điều rất sai trái”. Ông khẳng định rằng **cuộc hội thoại giữa người và AI cũng cần được bảo vệ như các chuyên ngành giàu tính riêng tư khác**, và rằng chúng ta cần xây dựng một khuôn khổ pháp lý tương tự để *bảo vệ dữ liệu cá nhân trong môi trường AI*.
Hiện nay, khi *trí tuệ nhân tạo* tiếp tục len lỏi vào mọi mặt của đời sống, việc các dữ liệu nhạy cảm vẫn chưa có đủ cơ chế bảo vệ đang làm dấy lên nhiều tranh cãi cả về mặt pháp lý lẫn đạo đức. Các chuyên gia pháp lý cảnh báo rằng một hệ thống *bảo vệ quyền cá nhân toàn diện* là rất cần thiết để bù đắp cho những khoảng trống về luật pháp trong thời đại AI.
Bình luận: Thực tế cho thấy, dù AI như ChatGPT có thể mang lại giá trị tiện ích lớn, nhưng nếu không thiết lập các nguyên tắc rõ ràng về bảo mật thông tin thì người dùng sẽ luôn ở trong thế bị động. Luật hóa quyền riêng tư trong giao tiếp với AI là xu hướng không thể tránh khỏi khi xu thế “số hóa cảm xúc và dữ liệu cá nhân” ngày càng trở nên phổ biến.
Bình luận 0