AI chatbot trong tư vấn pháp lý có thể đe dọa tính “bảo mật” dữ liệu người dùng
Trong bối cảnh ngày càng có nhiều người dùng tìm đến chatbot AI để nhận tư vấn pháp lý, một mối lo ngại đang ngày càng rõ rệt: các cuộc trò chuyện với chatbot như ChatGPT có thể bị sử dụng làm bằng chứng trước tòa án, đe dọa đến tính “từ bảo mật” giữa luật sư và khách hàng. Theo Reuters đưa tin ngày 24 (giờ địa phương), các chuyên gia cảnh báo: nếu không kiểm soát chặt chẽ quyền riêng tư dữ liệu, người dùng có thể vô tình phá vỡ đặc quyền bảo mật pháp lý khi khai thác những công cụ trí tuệ nhân tạo.
Cảnh báo được đưa ra bởi bà Charlyn Ho, CEO của công ty nền tảng pháp lý Rikka, đồng thời là luật sư có nhiều năm kinh nghiệm trong lĩnh vực công nghệ luật. Trả lời phỏng vấn gần đây, bà cho biết: “AI là một công cụ tiện lợi để tiếp cận thông tin với chi phí thấp, nhưng dữ liệu người dùng không được kiểm soát và các cơ chế pháp lý bảo vệ còn mơ hồ”. Bà cũng khẳng định đã có các trường hợp “nội dung trò chuyện với ChatGPT bị sử dụng làm bằng chứng trước tòa”.
Một ví dụ đáng chú ý là trong vụ kiện bản quyền gần đây, OpenAI bị yêu cầu bảo lưu 20 triệu bản ghi trò chuyện ChatGPT – tương đương với giá trị thông tin ước tính khoảng 2.836 tỷ đồng – mặc dù người dùng đã yêu cầu xóa. Lệnh tòa buộc công ty giữ lại dữ liệu này đã cho thấy: trong môi trường pháp lý hiện hành, dữ liệu AI có thể vượt khỏi tầm kiểm soát của cá nhân. Đây có thể là tiền lệ quan trọng, đặc biệt trong các cuộc điều tra về tội phạm tiền mã hóa như rửa tiền hoặc lừa đảo.
AI chưa có “chuẩn bảo mật” như phần mềm truyền thống
Để hiểu rõ mối nguy, có thể so sánh với phần mềm biên soạn truyền thống như Microsoft Office. Với bộ cài đặt tại chỗ, tài liệu của người dùng thường không bị gửi ra ngoài và ít có nguy cơ bị rò rỉ. Tuy nhiên, các dịch vụ đám mây – tương tự mô hình hoạt động của AI chatbot – lại lưu trữ dữ liệu người dùng trên nền tảng của bên thứ ba, khiến “từ bảo mật” bị lung lay.
Bình luận về vấn đề này, Charlyn Ho chỉ ra rằng: nếu trong hợp đồng AI không quy định rõ ràng việc bảo vệ dữ liệu, “mọi dữ liệu đầu vào đều có thể được xem là đã công bố cho bên thứ ba, làm mất hiệu lực của đặc quyền bảo mật”. Ngoài ra, các công cụ như ChatGPT có thể tái sử dụng dữ liệu đầu vào để huấn luyện mô hình – trừ khi người dùng chủ động thay đổi phần cài đặt. Tuy nhiên, không phải người dùng nào cũng biết đến tính năng này.
Vì vậy, “các khách hàng doanh nghiệp nên yêu cầu ghi rõ quyền sở hữu và quy chuẩn bảo mật dữ liệu trong hợp đồng khi sử dụng AI”, bà Ho nhấn mạnh.
Dữ liệu trò chuyện AI có thể trở thành bằng chứng pháp lý
Ngay cả khi người dùng đã xóa nội dung trò chuyện có liên quan đến dấu hiệu phạm tội, AI vẫn có thể lưu giữ lại các bản ghi này và buộc cung cấp theo trát đòi hầu tòa (subpoena). Bà Ho cho biết: “Tương tự dữ liệu người dùng lưu trữ trên các dịch vụ đám mây của Microsoft(MSFT) hay Google, lịch sử giao tiếp với AI cũng được xem là bằng chứng số hợp lệ tại tòa”.
Trong lĩnh vực tiền mã hóa, lo ngại này đang trở thành thực tế. Dù các giao dịch trên blockchain có thể được truy vết công khai, động cơ đằng sau các giao dịch – như lừa đảo hoặc rửa tiền – thường khó xác định. Trong trường hợp đó, nội dung trò chuyện với AI có thể trở thành chứng cứ bổ sung, phản ánh ý đồ ban đầu của người thực hiện.
Dẫu vậy, bà Ho cho biết thông tin từ AI “không phải là một loại bằng chứng hoàn toàn mới”, mà vẫn “được giải thích theo khuôn khổ pháp lý hiện hành và có bản chất giống với các bằng chứng kỹ thuật số khác.”
AI chưa thể thay thế hoàn toàn luật sư
Những năm gần đây, nhiều công ty khởi nghiệp tuyên bố phát triển “luật sư AI”, nhưng hiện tại, tại Mỹ, luật chưa cho phép các AI này cung cấp dịch vụ tư vấn pháp lý nếu không có sự tham gia của luật sư có chứng chỉ hành nghề. Bà Ho bình luận: “Các công cụ như DoNotPay chỉ hỗ trợ xử lý thủ tục pháp lý; phần tư vấn luật vẫn bắt buộc do con người đảm nhiệm. Nếu luật không thay đổi, AI chưa thể đóng vai trò ‘luật sư tự động’”.
Trong khi AI ngày càng được ứng dụng rộng rãi trong luật – từ viết tài liệu, phân tích hồ sơ đến định hướng chiến lược – thì “từ tính bảo mật” lại trở thành rào cản lớn nhất. Khi công nghệ tạo ra giá trị mới, người dùng và doanh nghiệp cần nhận thức rõ về ranh giới pháp lý trong sử dụng dữ liệu AI, đặc biệt trong các lĩnh vực nhạy cảm như pháp luật và từ tiền mã hóa.
Bình luận 0