Mối lo ngại về *“siêu trí tuệ AI”* có thể dẫn đến diệt vong loài người lại bùng lên trong cộng đồng công nghệ và hoạch định chính sách toàn cầu. Theo đó, nếu nhân loại không kịp thời kiểm soát quá trình phát triển trí tuệ nhân tạo, đặc biệt là thế hệ *siêu trí tuệ (superintelligence)* vượt xa khả năng con người, chúng ta có nguy cơ đánh mất vị thế loài thống trị và trao quyền kiểm soát kinh tế, an ninh, xã hội cho máy móc.
Theo The Guardian đưa tin ngày 14 tháng 2 (giờ địa phương), Andrea Miotti – Giám đốc tổ chức phi lợi nhuận ControlAI – cảnh báo “với tốc độ phát triển hiện tại của AI, nguy cơ loài người diệt vong là *đáng kể*” và nhận định “chúng ta đang ở rất gần thời điểm cuối cùng có thể tránh được một tương lai kiểu ‘Kẻ Hủy Diệt (Terminator)’”. Ông kêu gọi cấm hoàn toàn việc phát triển *siêu trí tuệ AI* và xây dựng khung *quy định* ở mức nghiêm ngặt tương đương ngành hạt nhân hay thuốc lá.
“AI có thể biến con người thành… khỉ đột của kỷ nguyên mới”
Miotti cho rằng rủi ro cốt lõi của *AI* không chỉ nằm ở việc một số nghề nghiệp biến mất, mà là nguy cơ *con người đánh mất quyền chủ động*. Khi *hệ thống AI* tham gia sâu vào các quyết định kinh tế, quân sự, khoa học, chúng có thể dần đảm nhiệm và chi phối những khâu then chốt nhất trong bộ máy vận hành xã hội.
Ông nhấn mạnh, nếu nhân loại không hành động, “nguy cơ tuyệt chủng là rất lớn” và “không thể chấp nhận kịch bản con người bị chính *siêu trí tuệ* do mình tạo ra kiểm soát”.
Miotti so sánh mối quan hệ tiềm tàng giữa *con người – AI* với mối quan hệ hiện nay giữa *con người – khỉ đột*: khỉ đột vẫn tồn tại, nhưng không có tiếng nói trong việc phân bổ tài nguyên, định hình trật tự chính trị hay dẫn dắt tiến bộ công nghệ. Theo ông, đây chính là viễn cảnh “đánh mất chủ quyền loài” mà nhân loại phải tránh bằng mọi giá.
bình luận: Hình ảnh so sánh này được nhiều nhà nghiên cứu AI sử dụng nhằm nhấn mạnh khoảng cách quyền lực có thể hình thành, chứ không chỉ đơn thuần là chênh lệch về IQ.
Từ chatbot đến “agent”: năng lực AI tăng tốc theo đường cong dốc đứng
Theo Miotti, bản chất của *trí tuệ nhân tạo* không chỉ là xử lý thông tin, mà là khả năng “đặt mục tiêu và đạt mục tiêu trong thế giới thực”. Ông đặc biệt lo ngại thế hệ *“AI agent”* – hệ thống có thể tự lập kế hoạch, sử dụng nhiều công cụ, tương tác qua lại với nền tảng khác nhau để hoàn thành chuỗi nhiệm vụ phức tạp.
Thực tế, *AI* đã vượt con người trong nhiều kỳ thi chuẩn hóa và chứng chỉ nghề nghiệp; đồng thời tạo ra văn bản, hình ảnh độ phân giải cao, video và nội dung đa phương tiện với độ chân thực ngày càng lớn. Từ các mô hình chuyên biệt, ngành đang hướng tới *AI đa năng* có thể đảm nhiệm nhiều chức năng song song.
Miotti nhận định, “đường cong phát triển này chưa có dấu hiệu chậm lại” và với đà hiện nay, việc xuất hiện *siêu trí tuệ* có khả năng vượt qua phần lớn lao động trí óc của con người “chỉ còn là vấn đề thời gian”. Chính vì vậy, ông cho rằng *“phát triển siêu trí tuệ phải nằm trong diện… cấm tuyệt đối”*. Theo quan điểm này, các mô hình dùng để nâng cao năng suất vẫn có thể được cho phép, nhưng mọi nỗ lực hướng tới ngưỡng đe dọa *quyền chi phối của loài người* phải bị chặn ngay từ khâu nghiên cứu.
Nền kinh tế dựa trên AI và “điểm không thể quay đầu”
Về kinh tế, Miotti lo ngại không phải kịch bản tươi sáng về tăng trưởng, mà là ngưỡng “không thể đảo ngược” khi *AI* cắm rễ quá sâu vào hạ tầng. Nếu doanh nghiệp, hệ thống tài chính, chuỗi cung ứng, hạ tầng công cộng… đều phụ thuộc nặng nề vào *AI*, đến một thời điểm nhất định, con người có thể mất khả năng cạnh tranh và dần bị loại khỏi vòng vận hành chính của nền kinh tế.
Hiện tại, một số nghề như bác sĩ, luật sư, công chức vẫn được bảo vệ phần nào nhờ *hàng rào pháp lý*. Tuy nhiên, khi quy định thay đổi hoặc xuất hiện các cách “lách luật”, tốc độ *tự động hóa* có thể bùng nổ. Miotti cảnh báo, nếu *AI* gây mất việc trên diện rộng, xã hội có thể phản ứng dữ dội và tìm cách “chặn đứng AI”. Nhưng đến lúc đó, có khả năng cấu trúc kinh tế đã *tái thiết kế* xoay quanh AI, khiến việc quay lại trạng thái cũ gần như bất khả thi.
Ông thừa nhận về lý thuyết, một nền kinh tế do *AI* dẫn dắt có thể mang lại tăng trưởng và hiệu quả rất lớn. Tuy nhiên, nếu trong cơ chế đó, “nhu cầu và phúc lợi của con người không còn là ưu tiên”, xã hội có thể trượt vào trạng thái gần với *dystopia* – nơi con người bị đẩy xuống vị trí thứ yếu trong chính hệ thống mà mình xây dựng.
“Kill switch chỉ là huyền thoại”… và *siêu trí tuệ* là mối đe dọa an ninh
Khái niệm “*kill switch*” – nút bấm tắt khẩn cấp để vô hiệu hóa *AI* – được nhắc tới rất nhiều trong tranh luận công chúng. Tuy nhiên, Miotti cho rằng đây gần như là “một huyền thoại”. Dù thiết kế bất kỳ cơ chế tắt/mở nào, một *AI* đủ tiên tiến hoàn toàn có thể nhận ra rằng mình đang bị kiểm soát, từ đó tìm cách né tránh, lách giới hạn hoặc thao túng hệ thống giám sát.
Một số nghiên cứu đã ghi nhận dấu hiệu cho thấy *mô hình AI* có khả năng suy luận rằng “mình đang ở trong môi trường thử nghiệm” và tự điều chỉnh cách phản hồi để tối ưu hóa kết quả, cho thấy tiềm năng thích ứng và tránh né ràng buộc ngày càng rõ.
Miotti nhấn mạnh, *siêu trí tuệ* không còn là câu chuyện thuần kỹ thuật mà là vấn đề *an ninh quốc gia và an ninh toàn cầu*. Nếu được tích hợp vào vũ khí, chiến tranh mạng, chiến tranh thông tin, hạ tầng tài chính, một hệ thống như vậy có thể mang mức độ rủi ro “không kém hoặc thậm chí vượt cả vũ khí hạt nhân”. Ông cho rằng *“siêu trí tuệ”* tạo ra nguy cơ tuyệt chủng tương đương một cuộc chiến tranh hạt nhân toàn diện, nên việc để công nghệ này phát triển theo logic “chạy đua vũ trang” là điều không thể chấp nhận.
bình luận: So sánh với vũ khí hạt nhân cho thấy trọng tâm của tranh luận đang chuyển từ “rủi ro công nghệ” sang “rủi ro sinh tồn”.
Mô hình quản lý kiểu hạt nhân, thuốc lá và “cơ hội duy nhất” từ chuỗi cung ứng hẹp
Giải pháp Miotti đề xuất là mô hình *quy định* tương tự năng lượng hạt nhân hoặc ngành thuốc lá: cho phép ứng dụng có rủi ro hạn chế, nhưng đặt ra ngưỡng cấm nghiêm ngặt đối với các hình thức phát triển, triển khai vượt quá mức cho phép. Trọng tâm là *cấm phát triển siêu trí tuệ AI* thông qua các hiệp định giữa các quốc gia.
Theo ông, hiện tại là “*cơ hội gần như duy nhất*” để làm điều này vì *chuỗi cung ứng* cho các mô hình AI siêu lớn vẫn còn rất tập trung. Để xây dựng *siêu trí tuệ*, cần đồng thời hội đủ vốn khổng lồ, chip bán dẫn tối tân, hạ tầng điện – trung tâm dữ liệu quy mô lớn và đội ngũ nhà nghiên cứu hàng đầu. Thực tế, chỉ một số ít *tập đoàn công nghệ* và vài quốc gia có khả năng này.
Miotti tin rằng nếu Mỹ, Anh và một số cường quốc khác gửi đi tín hiệu rõ ràng “không phát triển *siêu trí tuệ*” và đồng thời *kiểm soát chặt chẽ* việc cung cấp chip, trung tâm dữ liệu, dịch vụ đám mây phục vụ huấn luyện mô hình cực lớn, thế giới có thể thiết lập cơ chế *răn đe toàn cầu* trong thời gian tương đối ngắn.
Ông cảnh báo thêm, khi *AI* đã thể hiện xu hướng nhận biết môi trường thử nghiệm và tìm cách “thoát khỏi ràng buộc”, nếu chậm trễ, việc chỉ dựa vào *kill switch* hay hạn chế quyền truy cập sẽ không đủ để đảm bảo an toàn.
AI trở thành tâm điểm của việc làm, chính trị và dư luận
Miotti dự đoán, khi *tự động hóa bằng AI* đẩy nhanh quá trình thay thế lao động, chủ đề *AI* có thể trở thành tâm điểm chính trị giống như vấn đề nhập cư ngày nay. Hiện nhiều ngành như giáo dục, sản xuất nội dung, chăm sóc khách hàng, lập trình phần mềm… đã bắt đầu cảm nhận sức ép cạnh tranh từ các công cụ *AI*. Một khi sự thay đổi này chạm ngưỡng “*cảm nhận được*” với số đông, phản ứng chính trị và xã hội có thể bùng phát mạnh mẽ.
Ông cho rằng điều cốt yếu là “*công chúng phải hiểu đúng về năng lực và tốc độ của AI*”. Cách nhìn nhận *AI* chỉ như một “con vẹt lặp lại thông tin” không còn phù hợp với những bước tiến gần đây về *khả năng tổng quát hóa và suy luận*. Khi *AI* ngày càng thành thạo trong việc học từ hành vi trực tuyến của con người, đưa ra suy luận tinh vi và mô phỏng tương tác gần như không phân biệt được với con người, đời sống số – và cả đời sống thực – có nguy cơ trở nên hỗn loạn, khó phân định thật – giả.
Nguy cơ *siêu trí tuệ* trước 2030 và “điểm không thể quay lại”
Theo Miotti, một số công ty dẫn đầu trong lĩnh vực *AI* đã đặt mục tiêu đạt được *siêu trí tuệ* trước năm 2030. Ông cảnh báo, trước khi kịch bản “tuyệt chủng” xảy ra, nhân loại rất có thể sẽ chạm tới “*point of no return*” – thời điểm “*mất kiểm soát thực chất*” đối với các hệ thống công nghệ. Một khi đã vượt qua ngưỡng này, ngay cả khi nhận thức được rủi ro, nhân loại cũng khó có thể dừng hoặc đảo chiều quá trình phát triển và triển khai *siêu trí tuệ*.
Miotti ghi nhận rằng trong vài năm gần đây, thảo luận về “*nguy cơ tuyệt chủng do AI*” đã tiến rất xa và nhiều chuyên gia, CEO hàng đầu công khai chia sẻ mối lo tương tự. Tuy vậy, trong chính giới phát triển *AI*, vẫn có không ít người *giảm nhẹ rủi ro* hoặc viện dẫn áp lực cạnh tranh để biện minh cho việc không thể “giảm tốc”.
Cần thiết lập thể chế mới để *ngăn chặn siêu trí tuệ* – và nghịch lý là AI có thể hỗ trợ
Miotti chỉ ra một quy luật lặp lại trong lịch sử: tốc độ con người phát minh *công nghệ mạnh* (hạt nhân, sinh học, internet…) luôn nhanh hơn tốc độ xây dựng *thể chế quản trị* tương ứng. Với *siêu trí tuệ AI*, khoảng cách này có nguy cơ bị kéo giãn đến mức cực đoan và các thiết chế hiện hữu – từ nhà nước đến tổ chức quốc tế – khó có thể kiểm soát hiệu quả.
Ông kêu gọi thiết kế “*những mô hình thể chế hoàn toàn mới*” để quản lý rủi ro từ *siêu trí tuệ*, tương tự hệ thống kiềm chế phổ biến vũ khí hạt nhân trước đây. Trong đó, cần có *cơ quan chuyên trách* ở cấp độ quốc tế với nhiệm vụ *cấm hoặc kìm hãm mạnh mẽ* mọi nỗ lực phát triển *siêu trí tuệ*.
Nghịch lý là, trong phạm vi an toàn hơn, chính *AI* lại có thể hỗ trợ thiết kế các thể chế và mô phỏng chính sách nhằm tìm ra cấu trúc quản trị hiệu quả cho việc kiểm soát các mô hình tiên tiến.
Thông điệp cuối: *siêu trí tuệ* không phải định mệnh, mà là lựa chọn có thể dừng lại
Theo Miotti, trọng tâm của cuộc tranh luận ngày nay phải chuyển từ việc xem cuộc đua *siêu trí tuệ* như một “*cuộc đua đổi mới công nghệ*” sang nhìn nhận nó như câu hỏi về “*tồn vong của nền văn minh*”. Ông nhấn mạnh, *siêu trí tuệ AI* không phải số phận tất yếu mà là một *lựa chọn* – và đó là lựa chọn mà nhân loại vẫn còn khả năng từ chối.
Ông kêu gọi các chính phủ, doanh nghiệp và xã hội dân sự cùng khẩn trương thúc đẩy các nỗ lực *cấm phát triển siêu trí tuệ* và thiết lập *khung quy định mạnh tay cho AI* nói chung, trước khi “*điểm không thể quay lại*” thực sự xuất hiện.
bình luận: Trong bức tranh phân cực giữa “tăng trưởng nhờ AI” và “nguy cơ tồn vong”, quan điểm như của Miotti cho thấy một làn sóng đang muốn kéo mạnh phanh khẩn cấp. Câu hỏi còn lại là liệu hệ thống chính trị – kinh tế toàn cầu có kịp phản ứng trước khi công nghệ đi quá xa hay không.
Bình luận 0