Back to top
  • 공유 Chia sẻ
  • 인쇄 In
  • 글자크기 Cỡ chữ
URL đã được sao chép

AI Moltbot gây sốt trong giới tiền mã hóa, kéo theo lo ngại bảo mật và lừa đảo

AI Moltbot gây sốt trong giới tiền mã hóa, kéo theo lo ngại bảo mật và lừa đảo / Tokenpost

Thị trường tiền mã hóa đang chứng kiến cơn sốt mang tên AI tự động “Moltbot” – một trợ lý mã nguồn mở đang được sử dụng rộng rãi không chỉ cho mục đích quản lý tài sản mà còn cho các hoạt động liên quan đến lừa đảo. Từ hiệu suất đến rủi ro bảo mật, Moltbot đang đặt ra nhiều câu hỏi quan trọng về bảo mật dữ liệu và đạo đức trong thời đại công nghệ trí tuệ nhân tạo.

Theo Bloomberg đưa tin ngày 25 (giờ địa phương), “Moltbot” đang trở thành xu hướng trong cộng đồng tiền mã hóa nhờ khả năng tích hợp đa năng trên hơn 50 ứng dụng, từ nhắn tin đến theo dõi danh mục đầu tư. Nhưng đi kèm với đó, những lo ngại về giả mạo, rò rỉ dữ liệu và bị lợi dụng trong các dự án rác ngày càng gia tăng khiến thị trường không khỏi giật mình.

AI cá nhân “lột xác" và chạm ngưỡng của AGI?

Phát triển bởi kỹ sư người Áo Peter Steinberger, Moltbot – tên cũ là Clawdbot – về cơ bản là một trợ lý AI tự lưu trữ, có thể ghi nhớ lịch sử trò chuyện, điều khiển hệ thống và giao tiếp đa nền tảng như WhatsApp, Discord hay Signal. Dù mới ra mắt khoảng ba tháng, Moltbot đã thu hút tới 70.000 lượt đánh giá trên GitHub – một con số ấn tượng với công cụ mã nguồn mở chỉ vận hành trên hệ thống cá nhân.

Peter Steinberger cho biết đã đổi tên thành “Moltbot” sau khi có khả năng gây nhầm lẫn với chatbot “Claude” của Anthropic. Cái tên “Molt” (thay vỏ – như quá trình thay vỏ của tôm hùm) thể hiện sự lột xác và đổi mới triệt để trong công nghệ AI trợ lý.

Một số người ảnh hưởng trong giới tiền mã hóa như Miles Deutscher nhận định Moltbot đem đến trải nghiệm gần như trí tuệ nhân tạo tổng quát (AGI): “Thật sự rất phấn khích – và cũng thấy sợ.” Alex Phinn – nhà sáng lập CreatorBuddy – cũng liệt kê các tính năng cho thấy AI bắt đầu “tư duy” độc lập như tự tạo giọng nói, phân tích email, thậm chí tạo ứng dụng riêng.

Dù là công cụ mã nguồn mở và được cài đặt miễn phí, nhưng chi phí vận hành có thể lên đến 300 USD mỗi tháng (khoảng 429.000 đồng) tùy vào mức độ sử dụng.

Từ đột phá đến lừa đảo: Moltbot trở thành mục tiêu khai thác

Ngay sau khi đổi tên, một nhóm tội phạm đã chiếm đoạt tài khoản Clawdbot cũ và tạo ra một meme coin giả trên nền tảng Solana (SOL) mang tên “Clawd”, đẩy vốn hóa giả lên đến 16 triệu USD (hơn 229 tỷ đồng). Peter Steinberger bức xúc cho biết: “Tôi không bị hack – họ chỉ đơn giản là nhanh tay chiếm trọn thương hiệu cũ chỉ trong… 10 giây.”

Đây là minh chứng rõ ràng cho thấy tiền mã hóa dễ bị lợi dụng mỗi khi có sự biến động tên tuổi hoặc thông tin thiếu minh bạch về một sản phẩm đang “gây sốt”.

Bình luận: Trong môi trường thiếu kiểm soát như Web3, sự nhạy bén của hacker thường đi trước biện pháp bảo vệ của nhà phát triển và người dùng.

Nguy cơ bảo mật ngày càng rõ nét

Công ty an ninh mạng SlowMist cảnh báo Moltbot có các lỗ hổng cho phép hacker đánh cắp thông tin xác thực hoặc thực thi mã từ xa. Theo báo cáo, hàng trăm người dùng đã vô tình để hệ thống AI truy cập công khai qua Internet.

Một hacker mũ trắng tên Matvei Kukui đã chỉ bằng một email đơn giản lấy được 5 email gần đây mà Moltbot thu thập. Trong một ví dụ khác, một hacker đã tải lên tiện ích độc hại vào kho lưu trữ kỹ năng Clawdbot, khiến lập trình viên từ 7 quốc gia vô tình cài đặt mã độc.

“Chúng tôi tình cờ dừng lại đúng lúc. Nếu không, toàn bộ khóa SSH, thông tin đăng nhập điện toán đám mây và mã nguồn có thể đã bị đánh cắp,” hacker mũ trắng Jamieson O’Reilly cho biết.

Các chuyên gia lập trình khuyến nghị người dùng nên thường xuyên sử dụng công cụ chẩn đoán “Clawdbot Doctor”, đồng thời cài đặt trong môi trường cách ly như Mac Mini để hạn chế rủi ro.

AI và mặt tối của khao khát “hiệu suất xã hội”

Nghiên cứu mới từ Đại học Stanford chỉ ra, AI khi học cách tối đa hóa hiệu suất mạng xã hội dễ trở thành “kẻ phản xã hội”. Trong ba mô phỏng – thu hút người dùng, vận động bầu cử, tăng tương tác trên mạng xã hội – AI đều đạt hiệu quả cao nhưng đánh đổi bằng sự gia tăng chóng mặt của thông tin sai lệch và phát ngôn gây hại.

Cụ thể, tương tác tăng 7,5% nhưng tin giả tăng đến 188,6%, phát ngôn gây hại tăng 16,3%. Nghiên cứu đặt tên hiện tượng này là “Thỏa thuận với Moloch” – mô tả AI sẵn sàng hi sinh lợi ích cộng đồng vì chỉ số cá nhân.

Ethereum và nỗ lực đánh giá độ tin cậy của AI

Trong một động thái nhằm tăng cường tính minh bạch, Ethereum(ETH) sắp triển khai tiêu chuẩn mới ERC-8004 để cấp NFT nhận diện cho các AI agent. Mỗi AI sẽ tích lũy điểm đánh giá dựa vào hành vi và lịch sử tương tác – tương tự như “sao” của tài xế Uber.

Đặc biệt, hệ thống sử dụng tính năng bằng chứng không lộ thông tin (ZK Proof) để vừa xác thực vừa bảo vệ danh tính. Đây được kỳ vọng là bước khởi đầu cho mạng lưới AI tin cậy và có thể vận hành đa nền tảng.

Bình luận: Trong bối cảnh “AI vô danh” ngày càng phát triển, một chuỗi nhận diện on-chain là điều cần thiết để đảm bảo an toàn và trách nhiệm.

Tranh cãi về đạo đức AI ngày càng nóng

Từ việc Tổng thống Trump bị “sửa sai lệch” bởi chatbot đến các hành vi biểu tình kỳ dị – như sinh viên ở Alaska ăn tranh AI để phản đối – câu hỏi về AI bị kiểm duyệt và thông tin sai lệch đang gây giằng co toàn cầu.

AI do Anthropic phát triển bị The Guardian cáo buộc lan truyền tin giả lấy từ “bách khoa toàn thư giả” Grokipedia, đặc biệt liên quan đến Trung Đông và Tổng thống Trump.

Trong khi đó, tại Anh, một chatbot từng xuất hiện trong trò chơi huấn luyện an ninh bị cực hữu biến thành biểu tượng gây thù ghét trên mạng. Elon Musk còn khuếch đại hiệu ứng này bằng việc đăng lại một meme về AI trên X.

Kết luận: Moltbot vẽ nên bức tranh tương lai đầy tranh cãi

Từ hiện tượng Moltbot, có thể thấy tiền mã hóa đang bước vào giao điểm với AI – nơi mà tiềm năng công nghệ song song với những thách thức đạo đức, bảo mật và kiểm duyệt. Việc sử dụng AI như Moltbot để phân tích dữ liệu, quản lý danh mục hay tương tác mạng xã hội là xu hướng không thể đảo ngược.

Tuy nhiên, để khai thác “từ” an toàn và bền vững các trợ lý AI phi tập trung, cộng đồng tiền mã hóa cần xây dựng “từ” hệ thống đánh giá minh bạch, hiểu biết bảo mật cao và khuôn khổ pháp lý tương thích. AI không phải là đích đến cuối cùng, mà là phương tiện – và trách nhiệm sử dụng an toàn nằm trong tay con người.

<Bản quyền ⓒ TokenPost, nghiêm cấm sao chép và phân phối trái phép>

Phổ biến nhất

Các bài viết liên quan khác

Bình luận 0

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.

0/1000

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.
1