Mỹ đề xuất luật giảm trách nhiệm pháp lý cho nhà phát triển AI trong các lĩnh vực chuyên môn cao
Theo Reuters đưa tin ngày 24 (giờ địa phương), Thượng viện Hoa Kỳ vừa trình lên một dự luật nhằm giảm bớt trách nhiệm pháp lý cho các nhà phát triển trí tuệ nhân tạo (AI) khi ứng dụng công nghệ này vào các lĩnh vực chuyên môn cao như y học, luật và kỹ thuật. Đây là bước đi mới trong nỗ lực định hình khuôn khổ pháp lý linh hoạt, cân bằng giữa sự đổi mới và quyền lợi người dùng trong thời đại AI phát triển nhanh chóng.
Dự luật mang tên “Đạo luật đổi mới có trách nhiệm và năng lực chuyên môn an toàn RISE Act of 2025” do Thượng nghị sĩ bang Wyoming, bà Cynthia Lummis đứng đầu đề xuất. Theo bà Lummis, đây là “luật đầu tiên ở Mỹ miễn giảm trách nhiệm pháp lý đối với nhà phát triển AI chuyên nghiệp”, đóng vai trò như nền tảng cho các sáng kiến công nghệ tương lai. Dự luật yêu cầu các nhà phát triển phải công khai thông tin kỹ thuật (chẳng hạn như mô hình vận hành – model cards), nhưng sẽ được bảo vệ khỏi những rủi ro pháp lý không cần thiết, nhất là khi sản phẩm AI được áp dụng bởi các chuyên gia như bác sĩ, luật sư hay cố vấn tài chính.
Tuy nhiên, dự luật này đã tạo ra nhiều tranh cãi trong giới học thuật và công đồng công nghệ. Giáo sư Hamid Ekbia từ Trường Chính sách Công, Đại học Syracuse cảnh báo rằng: “Nếu dựa vào tính minh bạch kỹ thuật mà miễn trừ trách nhiệm, thì nhà phát triển gần như được trao quyền miễn trừ pháp lý rộng rãi. Trong khi đó, phần lớn rủi ro thực tế lại đổ dồn lên vai các chuyên gia ứng dụng như người hành nghề y hay luật sư.”
Một số tổ chức và cộng đồng có xu hướng tiến bộ cũng cho rằng dự luật đang tạo “giấy phép né trách nhiệm” cho các công ty AI, làm gia tăng đáng kể nguy cơ sai lệch.
Ở chiều ngược lại, luật sư Felix Shipkevich cho rằng việc bắt nhà phát triển chịu trách nhiệm với mọi kết quả đầu ra của mô hình ngôn ngữ lớn là điều vô lý. Ông bình luận: “Việc miễn trừ một phần trách nhiệm trong trường hợp không tồn tại sai sót rõ ràng hay ác ý là phù hợp với nguyên tắc pháp lý.” Ông cũng nhận định rằng khung pháp lý hiện tại cần có các biện pháp bảo vệ để tránh rủi ro hệ thống ngày càng lan rộng.
Đáng chú ý, phạm vi áp dụng của dự luật được giới hạn rõ ràng. Cụ thể, luật chỉ áp dụng khi AI được dùng như công cụ hỗ trợ bởi một chuyên gia trong lĩnh vực như bác sĩ chuyên ngành hoặc cố vấn tài chính. Những tình huống tương tác trực tiếp giữa AI và người dùng phổ thông – ví dụ như vụ một thiếu niên tại Florida tự sát sau khi tương tác với chatbot AI – không nằm trong phạm vi điều chỉnh.
Hướng tiếp cận của dự luật lần này cũng khác biệt rõ rệt so với cách làm của Liên minh châu Âu (EU), nơi đã ban hành “Đạo luật AI” vào năm 2023 với mô hình ưu tiên quyền lợi người dùng. Trong khi EU nhấn mạnh yêu cầu bảo vệ công dân, thì Mỹ chọn phương án “dựa trên rủi ro”, trong đó công khai tài liệu kỹ thuật được xem là đủ. Điều này khiến giới chuyên gia lo ngại về mức độ bảo vệ người dùng thấp hơn. Giám đốc tổ chức nghiên cứu AI Future Project, ông Daniel Kokotajlo, nhận định: “Dự luật hiện tại quá dễ dãi khi chỉ yêu cầu mức tối thiểu về minh bạch kỹ thuật, cho phép doanh nghiệp lựa chọn giữa công khai tài liệu hoặc gánh chịu trách nhiệm.”
Ngành công nghiệp và giới học giả cùng đồng thuận rằng vẫn cần một hệ thống quy định thực tế và toàn diện hơn. Giáo sư – bác sĩ Ryan Abbott từ Đại học Surrey cho rằng: “Trách nhiệm trong lĩnh vực chăm sóc sức khỏe khi dùng AI là vô cùng phức tạp. Có nhiều tình huống AI đưa ra kết quả tốt hơn con người, nên chúng ta cần thiết lập ranh giới pháp lý rõ ràng.”
Hiện tại, chưa rõ dự luật có được Quốc hội thông qua hay không. Tuy vậy, cộng đồng công nghệ đánh giá đây là bước khởi đầu tích cực. Ông Justin Bullock, Phó Giám đốc chính sách tổ chức Người Mỹ vì Đổi mới có Trách nhiệm (ARI) cho rằng dự luật này giúp xây dựng các “hướng dẫn minh bạch, bảo hiểm trách nhiệm trong giới hạn an toàn, và cơ chế phân chia trách nhiệm cho chuyên gia.” Tuy nhiên, ông cũng cảnh báo rằng: “Chỉ công bố thông số kỹ thuật mà không có kiểm định độc lập hay đánh giá mối nguy có thể tạo ra ảo tưởng an toàn sai lệch.”
Trong bối cảnh chính quyền Tổng thống Trump siết chặt quyền kiểm soát các cơ quan bảo vệ người tiêu dùng, nhiều ý kiến lo ngại luật pháp đang nghiêng về phía các doanh nghiệp công nghệ. Nếu dự luật được thông qua, nó sẽ chính thức có hiệu lực từ ngày 1 tháng 12 năm 2025. Khi AI ngày càng can dự sâu vào những lĩnh vực ảnh hưởng đến sinh mạng và quyền lợi cá nhân, nhu cầu về một khung pháp lý hợp lý, cân bằng và bảo vệ người dùng trở nên cấp thiết hơn bao giờ hết.
Bình luận 0