Back to top
  • 공유 Chia sẻ
  • 인쇄 In
  • 글자크기 Cỡ chữ
URL đã được sao chép

Chuyên gia cảnh báo: Phụ thuộc quá mức vào GPU có thể cản trở phát triển hạ tầng AI

Chuyên gia cảnh báo: Phụ thuộc quá mức vào GPU có thể cản trở phát triển hạ tầng AI / Tokenpost

Trong bối cảnh công nghệ trí tuệ nhân tạo (AI) đang lan rộng với tốc độ chóng mặt, một số chuyên gia cảnh báo rằng vai trò của “CPU” đang bị xem nhẹ so với “GPU”, gây ra lãng phí tài nguyên và cản trở tính hiệu quả của hạ tầng AI. Theo bài viết chia sẻ trên Cointelegraph ngày 17 (giờ địa phương), ông Naman Kabra – Giám đốc điều hành kiêm đồng sáng lập NodeOps Network – nhận định tư duy phụ thuộc quá mức vào GPU đang trở thành rào cản cho sự mở rộng hệ thống AI toàn cầu.

GPU hiện đóng vai trò then chốt trong các tác vụ đòi hỏi xử lý song song khối lượng lớn dữ liệu, như huấn luyện chatbot hay nhận diện hình ảnh. Đây cũng là lý do các tập đoàn công nghệ lớn như OpenAI, Google và Meta không tiếc chi phí đầu tư vào các cụm GPU quy mô cực lớn. Tuy nhiên, theo ông Kabra, tư tưởng “chỉ có GPU mới là lựa chọn đúng” đang dẫn tới quan niệm sai lầm. Ông nhấn mạnh rằng trong giai đoạn chạy mô hình (inference), việc tận dụng CPU hoàn toàn có thể mang lại hiệu quả cao mà chi phí lại thấp hơn đáng kể.

Trong thực tế, CPU không chỉ đã được tích hợp rộng rãi trong hầu hết thiết bị, mà còn được thiết kế phù hợp cho các tác vụ yêu cầu xử lý điều kiện lặp lại và ra quyết định linh hoạt – những yếu tố quan trọng trong các ứng dụng AI như lập kế hoạch hoặc tạo mã tự động. Một số phân tích cho thấy, với những môi trường không cần phản hồi tức thì, việc sử dụng CPU để xử lý các mô hình học sâu là hoàn toàn khả thi.

Từ quan điểm đó, ông Kabra đưa ra giải pháp: sử dụng “từ” hạ tầng tính toán phi tập trung, còn được gọi là mạng DePIN (Decentralized Physical Infrastructure Network). Mô hình này cho phép cộng đồng toàn cầu chia sẻ năng lực xử lý nhàn rỗi của CPU, tạo nên một mạng tính toán AI khổng lồ, phi tập trung. Khác với mô hình truyền thống phụ thuộc vào nhà cung cấp đám mây, ý tưởng này mở ra một “nền kinh tế chia sẻ tính toán”, đồng thời có thể giảm độ trễ khi truy cập dữ liệu và tăng cường quyền riêng tư cho người dùng.

“Đây là thời điểm chúng ta nên cân nhắc cách tận dụng lại tài nguyên CPU đang có, thay vì tiếp tục dốc tiền mua thêm GPU,” ông Kabra bình luận. “Hiện có hàng triệu thiết bị trên toàn cầu chưa được tận dụng hết khả năng xử lý CPU, khiến chúng ta đang bỏ phí một nguồn lực quan trọng.”

Trong bối cảnh nhu cầu AI dự kiến sẽ “bùng nổ” trong nhiều năm tới, giới chuyên gia ngày càng đồng thuận rằng phải thoát khỏi hệ sinh thái dựa chủ yếu vào GPU – vốn vừa tốn kém, vừa đòi hỏi hạ tầng tập trung cao. Khi các trung tâm dữ liệu truyền thống dần chạm trần mở rộng, giải pháp từ “từ” phân tán hóa điện toán có thể trở thành lựa chọn bền vững.

Cuối cùng, ông Kabra khẳng định rằng điểm nghẽn trong phát triển hạ tầng AI không xuất phát từ thiếu hụt phần cứng, mà từ “tư duy hạn hẹp”. “GPU tất nhiên quan trọng, nhưng CPU là tài nguyên luôn hiện hữu quanh ta và đang bị bỏ quên,” ông nhận định. Lời cảnh báo này cho thấy tương lai của nền kinh tế AI sẽ phụ thuộc không chỉ vào việc sở hữu thiết bị mạnh hơn, mà còn ở khả năng “tái khám phá và tận dụng” những tài nguyên sẵn có một cách thông minh.

<Bản quyền ⓒ TokenPost, nghiêm cấm sao chép và phân phối trái phép>

Phổ biến nhất

Các bài viết liên quan khác

Bình luận 0

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.

0/1000

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.
1