Back to top
  • 공유 Chia sẻ
  • 인쇄 In
  • 글자크기 Cỡ chữ
URL đã được sao chép

Charles Hoskinson bảo vệ hạ tầng hyperscaler, chuyên gia cảnh báo rủi ro tập trung hóa blockchain

Charles Hoskinson bảo vệ hạ tầng hyperscaler, chuyên gia cảnh báo rủi ro tập trung hóa blockchain / Tokenpost

*Theo CoinDesk đưa tin ngày 20 tháng 1 năm 2024 (giờ địa phương),* nhà sáng lập Cardano(ADA) **"Charles Hoskinson"** đang trở thành tâm điểm tranh luận quanh câu chuyện **"phi tập trung"** và sự phụ thuộc vào **"điện toán đám mây"**. Tại sự kiện Consensus ở Hồng Kông, ông cho rằng các nhà cung cấp hạ tầng siêu lớn như Google Cloud và Microsoft Azure không phải là “mối đe dọa” trực tiếp với hệ sinh thái blockchain. Tuy vậy, nhiều chuyên gia trong ngành phản bác rằng **"mật mã học"** có thể che giấu dữ liệu nhưng không thể xóa bỏ hoàn toàn quyền lực đến từ hạ tầng vật lý.

Trong phát biểu hồi tháng 2 tại Consensus Hồng Kông, **"Charles Hoskinson"** lập luận các dự án blockchain quy mô lớn khó tránh việc phải sử dụng hạ tầng của các nhà cung cấp siêu lớn (hyperscaler), và cộng đồng không nên quá lo ngại về rủi ro điểm đơn lỗi (SPOF). Theo ông, các kỹ thuật **"mật mã tiên tiến"** có thể trung hòa phần lớn dạng tấn công, **"đa bên tính toán – MPC"** giúp phân tán khóa, còn **"tính toán bảo mật – confidential computing"** giúp che giấu dữ liệu trong quá trình xử lý. Lập luận cốt lõi: nếu nhà cung cấp đám mây không thể nhìn thấy dữ liệu, họ sẽ không thể kiểm soát hệ thống.

"bình luận" Tranh luận ở đây không chỉ là chuyện dùng hay không dùng cloud, mà là mức độ phụ thuộc bao sâu vào tầng hạ tầng, nơi quyền truy cập, băng thông và quy mô tài nguyên có thể trở thành “nút cổ chai” quyền lực trong dài hạn.

MPC và tính toán bảo mật: giảm lộ dữ liệu nhưng không xóa được phụ thuộc hạ tầng

Trong lập luận phòng thủ của **"Charles Hoskinson"**, hai trụ cột kỹ thuật là **"MPC"** và **"tính toán bảo mật"**. Thực tế, **"đa bên tính toán – MPC"** chia nhỏ các bí mật quan trọng (như khóa riêng) cho nhiều bên khác nhau, sao cho chỉ xâm nhập một nút sẽ không đủ để tái dựng toàn bộ bí mật. Điều này giúp giảm bớt gánh nặng tin cậy vào một bên duy nhất giữ khóa.

Tuy nhiên, điều đó không có nghĩa là rủi ro biến mất. Thay vì tập trung vào người giữ khóa, trọng tâm rủi ro chuyển sang khâu **"phối hợp và vận hành"**: kênh liên lạc giữa các nút tham gia, cơ chế quản trị, cách triển khai giao thức và độ chính xác của thực thi. Nói cách khác, điểm đơn lỗi không hoàn toàn biến mất mà có xu hướng **"phân mảnh và mở rộng bề mặt tin cậy"**.

Với **"tính toán bảo mật"**, đặc biệt là mô hình **"TEE – môi trường thực thi tin cậy"**, dữ liệu được mã hóa trong lúc xử lý, hạn chế tối đa việc nhà cung cấp hạ tầng nhìn thấy nội dung. Tuy vậy, TEE vẫn đứng trên những giả định về **"phần cứng"**: từ khả năng tách biệt ở cấp vi kiến trúc, tính toàn vẹn firmware cho tới độ hoàn thiện của việc triển khai. Thêm vào đó, các lỗ hổng mang tính kiến trúc như tấn công kênh kề (side-channel) đã nhiều lần bị phát hiện. Vì vậy, dù có thể thu hẹp bề mặt tấn công so với cloud thông thường, TEE vẫn cách khá xa trạng thái **"an toàn tuyệt đối"**.

Điểm đáng chú ý hơn là **"MPC"** và **"TEE"** trong thực tế lại thường chạy ngay trên hạ tầng của các **"hyperscaler"**. Khi đó, kể cả khi dữ liệu được bảo vệ bằng lớp mật mã, nhà cung cấp hạ tầng vẫn nắm trong tay quyền truy cập vật lý, năng lực băng thông, vùng triển khai (region) và các tham số vận hành khác. Những yếu tố như **"giới hạn thông lượng, tạm ngừng dịch vụ, thay đổi chính sách"** ở tầng hạ tầng là những rủi ro khó có thể loại bỏ chỉ bằng mật mã học.

"bình luận" Về bản chất, **"mật mã"** giúp ẩn giấu *nội dung*, nhưng câu hỏi lớn hơn là ai kiểm soát *đường ống và vòi nước*. Quyền tắt/mở “van hạ tầng” vẫn nằm trong tay một số ít doanh nghiệp lớn.

Vai trò thực sự của L1: không phải “siêu máy tính toàn cầu” mà là “máy kiểm chứng”

Một luận điểm khác của **"Charles Hoskinson"** là không blockchain lớp 1 (**"L1"**) nào đủ sức gánh vác toàn bộ nhu cầu tính toán của một hệ thống toàn cầu. Ông nhấn mạnh, năng lực của các trung tâm dữ liệu do các hyperscaler vận hành – với lượng vốn đầu tư lên đến hàng nghìn tỷ USD – là điều khó có thể thay thế.

Ở mức độ nào đó, nhận định này phù hợp với thiết kế ban đầu của **"L1"**: nhiệm vụ chính là **"đồng thuận – consensus"**, xác nhận trạng thái, và đảm bảo tính khả dụng dữ liệu. **"L1"** không được xây để trực tiếp xử lý khối lượng khổng lồ như huấn luyện AI, hệ thống giao dịch tần suất cực cao hay hạ tầng phân tích doanh nghiệp.

Tuy nhiên, trong vài năm trở lại đây, tư duy hạ tầng crypto đang chuyển sang trọng tâm **"tính kiểm chứng – verifiability"** chứ không phải **"tính toán trực tiếp – computation"**. Tức là: phần việc nặng được đẩy ra **"off-chain"**, còn **"on-chain"** chỉ giữ vai trò **"chứng minh và xác thực kết quả"**. Đây là triết lý đứng sau sự phát triển của **"rollup"**, **"zero-knowledge – ZK"**, và các mạng **"tính toán có thể xác minh"**.

Từ góc độ này, câu hỏi không còn là **"L1 có làm được toàn bộ tính toán toàn cầu không"**, mà là **"ai đang kiểm soát hạ tầng nâng đỡ phần tính toán và lưu trữ off-chain đó"**. Nếu toàn bộ chuỗi xử lý – từ tính toán đến lưu trữ bằng chứng – đều đặt trên hạ tầng tập trung, hệ thống sẽ **"kế thừa gần như nguyên vẹn các mô hình lỗi tập trung"**. Chuỗi khối có thể vẫn phi tập trung ở tầng quyết toán, nhưng đường dẫn để tạo ra **"trạng thái hợp lệ"** lại có thể bị bó hẹp vào một vài nhà cung cấp hạ tầng.

"bình luận" Blockchain đang di chuyển từ cuộc chơi “ai xử lý được nhiều giao dịch hơn” sang bài toán “ai bảo đảm được kết quả là đúng và không thể bị thao túng, kể cả khi hạ tầng ngoài chuỗi gặp sự cố hay bị ép buộc”.

Mật mã học trung lập, nhưng quyền tham gia lại bị hạ tầng định hình

Ý tưởng về **"tính trung lập mật mã"** mà **"Charles Hoskinson"** đưa ra là rất mạnh: quy tắc khó bị thay đổi tùy tiện, backdoor khó giấu, và giao thức được thiết kế sao cho công bằng về mặt toán học. Trong thế giới lý tưởng, nếu mọi thứ đều đúng chuẩn, người tham gia sẽ chịu sự chi phối của những luật chơi bất biến, chứ không phải chính sách công ty.

Song về mặt hiện thực, mọi giao thức mật mã đều phải chạy trên **"phần cứng – hardware"**. Khi đó, câu hỏi trở thành: **"ai đủ điều kiện tham gia"**, **"chi phí vận hành có nằm trong tầm tay đa số"**, và **"ai vô hình trung bị loại khỏi cuộc chơi"**. Tất cả đều phụ thuộc vào các biến số vật lý như thông lượng, độ trễ, chi phí năng lượng, khả năng tiếp cận trung tâm dữ liệu.

Nếu chuỗi cung ứng phần cứng, dịch vụ hosting và năng lực hạ tầng bị tập trung vào một số tập đoàn, thì dù giao thức trên giấy có **"trung lập"** đến đâu, **"cửa tham gia"** trên thực tế vẫn có thể bị thu hẹp. Đặc biệt với hệ thống đòi hỏi **"năng lực tính toán cao"**, phần cứng trở thành yếu tố quyết định về **"chi phí, khả năng mở rộng, sức chống chịu trước kiểm duyệt"**.

"bình luận" Trung lập về quy tắc không đồng nghĩa với trung lập về khả năng tham gia. Nếu quyền sở hữu và tiếp cận phần cứng không được **"phân tán"**, tính trung lập của giao thức khó trụ vững trong các kịch bản “căng thẳng”, nơi áp lực chính trị và kinh tế lên hạ tầng tăng cao.

Thị trường tính toán: hyperscaler mạnh về “đa năng”, mạng chuyên dụng thắng ở “đặc thù”

Một phần tranh luận hiện nay xoay quanh việc **"cạnh tranh với hyperscaler"** có phải chỉ là cuộc đua về **"quy mô"** hay không. Thực tế, các **"hyperscaler"** được tối ưu cho **"mô hình đa nhiệm – general purpose"**: họ phải phục vụ hàng nghìn loại khối lượng công việc (workload) khác nhau, từ web, cơ sở dữ liệu, AI đến hệ thống doanh nghiệp. Các lớp ảo hóa, điều phối (orchestration), tuân thủ tiêu chuẩn doanh nghiệp và khả năng co giãn linh hoạt là ưu điểm, nhưng đồng thời cũng tạo thêm **"lớp chi phí cố định"**.

Trái lại, các bài toán như **"zero-knowledge proof"** và **"tính toán có thể xác minh"** lại có tính chất **"định đoạt – deterministic"** rất cao, đậm đặc về số phép tính nhưng lại giới hạn bởi băng thông bộ nhớ và hiệu suất pipeline. Với những bài toán như vậy, **"mạng và phần cứng chuyên dụng"** có thể tối ưu hóa cực mạnh các chỉ số như **"bằng chứng trên mỗi đô la, bằng chứng trên mỗi watt, độ trễ trên mỗi bằng chứng"**. Khi hội tụ được từ thiết kế phần cứng, phần mềm prover, mạch (circuit) cho đến logic tổng hợp (aggregation), hiệu quả có thể được **"nhân lên theo cấp số nhân"**.

Cấu trúc giá của hai mô hình cũng khác hẳn. **"Hyperscaler"** thiết kế giá dựa trên **"biên lợi nhuận doanh nghiệp"** và sự biến động nhu cầu rất rộng của khách hàng. Trong khi đó, các mạng **"chuyên dụng, gắn kết với token và cơ chế khuyến khích của giao thức"** có thể khấu hao phần cứng theo cách khác, tối ưu cho **"tỷ lệ sử dụng liên tục và ổn định"** thay vì cho thuê theo giờ. Trọng tâm cạnh tranh vì thế dịch chuyển từ câu hỏi **"ai to hơn"** sang **"ai hiệu quả hơn về mặt cấu trúc với một workload xác định"**.

"bình luận" Lịch sử hạ tầng số thường cho thấy: mô hình “đa năng” thắng trong giai đoạn mở rộng nhu cầu, nhưng với những workload đã chín muồi, **"hệ thống chuyên dụng"** có xu hướng chiếm ưu thế về chi phí và hiệu suất.

Dùng hyperscaler như “bộ tăng tốc”, không phải “nền móng”

Điểm hạ màn của tranh luận không nằm ở câu hỏi **"hyperscaler là bạn hay thù"**, mà là vấn đề **"quản trị sự phụ thuộc – dependency management"**. Một kiến trúc hạ tầng vững chắc hoàn toàn có thể tận dụng hyperscaler cho **"năng lực bùng nổ (burst capacity), dự phòng theo khu vực (regional redundancy), phân phối edge"**. Tuy nhiên, khi các chức năng cốt lõi – đặc biệt là **"quyết toán, xác thực cuối cùng, và tính sẵn có của dữ liệu cốt lõi phục vụ xác minh"** – bị **"neo cứng – anchoring"** vào một số ít nhà cung cấp, thì bất kỳ thay đổi chính sách, sự cố hạ tầng, hay việc rút lui khỏi thị trường đều có thể làm toàn bộ hệ thống bị chao đảo.

Trong bối cảnh đó, **"lưu trữ phân tán"** và **"hạ tầng tính toán phân tán"** đang được xem là những **"lực kéo đối trọng"**. Mục tiêu là đảm bảo mọi **"bằng chứng, dữ liệu lịch sử, đầu vào cho quá trình xác minh"** không thể bị rút lại hay chặn đứng chỉ bằng quyết định đơn phương của một vài doanh nghiệp. Thay vào đó, ngay cả khi một hoặc vài nhà cung cấp lớn gặp sự cố hoặc thay đổi chính sách, **"mạng lưới vẫn tiếp tục hoạt động – dù có thể chậm hơn, nhưng không tê liệt"**.

Tóm lại, **"hyperscaler"** hoàn toàn có thể trở thành **"bộ tăng tốc"** hữu ích, nhưng không nên trở thành **"nền móng duy nhất"** của bất kỳ hệ thống blockchain nào nhắm tới **"phi tập trung"** thực sự. Thiết kế đúng đắn phải đảm bảo: nếu một nhà cung cấp lớn biến mất, mạng lưới chỉ **"mất hiệu suất"**, chứ không **"mất tính toàn vẹn"**. Điều này cho thấy: tính **"phi tập trung"** của blockchain không chỉ nằm ở **"mật mã và giao thức"**, mà còn phải được mở rộng sang **"cấu trúc sở hữu và kiểm soát hạ tầng vật lý"** – nơi quyền lực thực sự của kỷ nguyên số đang được tái định hình.

<Bản quyền ⓒ TokenPost, nghiêm cấm sao chép và phân phối trái phép>

Phổ biến nhất

Các bài viết liên quan khác

Bình luận 0

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.

0/1000

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.
1