TÀI LIỆU  Thư viện kiến thức

Mô hình MiniMax AI là gì? Hướng dẫn mua API và dùng thực tế cho OpenClaw, N8N

15:58 | 11/05/2026
Nếu bạn đang tìm một mô hình AI có context dài, giá API phải chăng và dễ gắn vào workflow tự động hoá, mô hình MiniMax AI xứng đáng nằm trong danh sách cần xem xét. Đây là nền tảng trí tuệ nhân tạo đa phương thức từ Trung Quốc, đang phục vụ hơn 200 triệu người dùng cá nhân và hơn 100.000 doanh nghiệp toàn cầu. Bài viết này của Vinalink Academy giúp bạn hiểu rõ MiniMax là gì, so sánh thực tế với GPT và Claude và bắt đầu mua API như thế nào.

Mô hình MiniMax AI là gì và xuất phát từ đâu?

MiniMax AI là nền tảng AI đa phương thức của Trung Quốc, xử lý được văn bản, mã lập trình, âm thanh và video trong cùng một hệ sinh thái, với context lên tới 200.000 token và endpoint tương thích cả OpenAI lẫn Anthropic.

minimax ai

MiniMax Group Inc. được thành lập khoảng năm 2021-2022 tại Thượng Hải bởi các cựu nghiên cứu viên từ SenseTime, một trong những công ty trí tuệ nhân tạo lớn nhất châu Á. Mục tiêu ngay từ đầu không phải xây một chatbot đơn lẻ, mà là phát triển các mô hình nền tảng (foundation models) có thể xử lý nhiều loại dữ liệu khác nhau.

Đầu năm 2026, MiniMax niêm yết trên sàn chứng khoán Hồng Kông, trở thành một trong số ít startup AI đầu tiên trên thế giới lên sàn. Điều này không chỉ xác nhận quy mô hoạt động của họ mà còn cho thấy mức độ nghiêm túc về mặt thương mại.

Hiện tại, nền tảng này phục vụ hơn 200 triệu người dùng cá nhân và hơn 100.000 doanh nghiệp tại hơn 200 quốc gia và vùng lãnh thổ (theo số liệu từ trang IR của MiniMax). Sản phẩm bao gồm ứng dụng Talkie (nhân vật AI), Hailuo AI (nền tảng tạo nội dung), và bộ API dành cho lập trình viên.

Mô hình MiniMax AI có những phiên bản nào và API trông như thế nào?

MiniMax cung cấp nhiều dòng mô hình riêng biệt cho từng mục đích: M2 và các biến thể cho xử lý văn bản, mã và agent; dòng Hailuo cho video; dòng Speech và Music cho âm thanh. Tất cả đều có API sẵn sàng tích hợp.

Dòng MiniMax-M2 (dành cho văn bản, mã và agent)

Đây là nhóm model chủ lực mà hầu hết lập trình viên quan tâm khi nhắc đến mô hình MiniMax AI. Cụ thể:

  • MiniMax-M2 / M2.1 / M2.5: Các phiên bản tăng dần về năng lực suy luận và độ chính xác, hỗ trợ function calling, structured output và streaming.
  • MiniMax-M2.7: Phiên bản mới nhất, được quảng bá có khả năng tự cải tiến theo vòng lặp (recursive self-improvement), xử lý tốt các tác vụ office automation như Excel, Word, PowerPoint và phù hợp để xây dựng hệ thống agent phức tạp.
  • MiniMax-M2.7-highspeed: Biến thể tối ưu tốc độ, dành cho những tình huống cần phản hồi gần như tức thì.

Tất cả các model M2 đều có context khoảng 196.000-205.000 token, nhưng hiện chỉ nhận đầu vào dạng văn bản (chưa hỗ trợ hình ảnh trực tiếp như Claude 3.7 Sonnet).

Dòng abab (phiên bản trước của M2)

Trước khi có dòng M2, MiniMax từng phổ biến với dòng abab5.5, abab6, abab6.5 và abab6.5s. Dòng 6.5s được tối ưu tốc độ, xử lý gần 30.000 từ mỗi giây theo thông tin từ MiniMax. Hiện tại, MiniMax đang dần chuyển sang dòng M2 cho các ứng dụng mới.

Dòng đa phương thức khác

  • Hailuo video-01: Tạo video từ văn bản, cạnh tranh với Sora của OpenAI.
  • Speech-2.x: Chuyển văn bản thành giọng nói và ngược lại.
  • Music-2.x: Tạo âm nhạc từ mô tả văn bản.
  • VL-01: Hiểu nội dung hình ảnh và video.

Mô hình MiniMax AI mạnh cỡ nào so với GPT-5.5 và Claude Sonnet 4.6?

So với GPT-5.5 và Claude Sonnet 4.6, MiniMax M2.7 vẫn giữ được lợi thế rõ rệt về giá API, nhưng đã bị bỏ lại khá xa ở context window và chưa hỗ trợ đầu vào hình ảnh.

Bảng so sánh dựa trên dữ liệu từ OpenRouter, Artificial Analysis và trang chính thức của từng nhà cung cấp (tháng 5/2026):

Tiêu chí MiniMax M2.7 GPT-5.5 Claude Sonnet 4.6
Ngày ra mắt 18/3/2026 23/4/2026 17/2/2026
Context tối đa ~205k token ~922k token 1M token
Giá input ($/1M token) $0,30 $5,00 $3,00
Giá output ($/1M token) $1,20 $30,00 $15,00
Hỗ trợ hình ảnh Không
Function calling
Reasoning mode
Endpoint tương thích OpenAI + Anthropic OpenAI Anthropic

Về giá API: MiniMax M2.7 có giá $0,30/triệu token đầu vào và $1,20/triệu token đầu ra, trong khi Claude Sonnet 4.6 ở mức $3/triệu input và $15/triệu output, còn GPT-5.5 ở mức $5/triệu input và $30/triệu output. Tính ra, MiniMax M2.7 rẻ hơn Claude Sonnet 4.6 khoảng 10 lần ở token đầu vào và 12,5 lần ở token đầu ra. So với GPT-5.5, mức chênh lệch còn lớn hơn: rẻ hơn gần 17 lần ở input và 25 lần ở output.

Tuy nhiên, có một điểm cần lưu ý trước khi bị mê hoặc bởi giá: M2.7 sinh ra lượng token đầu ra nhiều hơn gấp 4 lần so với mức trung bình của các model reasoning cùng phân khúc. Nghĩa là dù giá mỗi token rẻ, model lại "nói nhiều" hơn đáng kể, một phần làm giảm lợi thế chi phí trong thực tế.

Về context window: Đây là điểm MiniMax M2.7 bị tụt hậu rõ nhất. M2.7 có context window khoảng 196.608 token, trong khi GPT-5.5 hỗ trợ đến 922.000 token đầu vào và Claude Sonnet 4.6 đạt 1 triệu token với mức giá thống nhất, không tính thêm phí cho context dài. Nếu workflow của bạn cần xử lý tài liệu rất dài hoặc codebase lớn trong một lần gọi API, đây là hạn chế thực sự của MiniMax.

Về tốc độ phản hồi: Qua provider SambaNova, MiniMax M2.7 đạt tốc độ sinh token lên tới 434 token/giây, và time-to-first-token qua Together.ai chỉ khoảng 0,52 giây. Trong khi đó, GPT-5.5 ở chế độ reasoning cao nhất có TTFT lên tới hơn 100 giây vì đây là chế độ suy luận sâu, không phải tốc độ phản hồi thông thường. Với các tác vụ streaming thông thường không cần reasoning nặng, GPT-5.5 và Claude Sonnet 4.6 vẫn phản hồi nhanh.

Điểm GPT-5.5 và Claude Sonnet 4.6 vượt trội rõ: GPT-5.5 được tối ưu đặc biệt cho agentic coding, computer use và nghiên cứu khoa học, với khả năng xử lý codebase lớn xuyên suốt nhiều bước mà không mất mạch. Claude Sonnet 4.6 cải thiện đáng kể về đọc hiểu context trước khi chỉnh sửa code, giảm hallucination và không overengineer khi chỉ cần sửa nhỏ. Cả hai đều hỗ trợ hình ảnh đầu vào, thứ MiniMax M2.7 chưa có.

Giá API mô hình MiniMax AI là bao nhiêu và đăng ký ở đâu?

API của MiniMax AI được bán theo mô hình trả theo lượng dùng (pay-per-token) thông qua nền tảng platform.minimax.io, với nhiều mức giá khác nhau tùy từng model và loại token.

Cách đăng ký

  1. Truy cập trang platform.minimax.io hoặc minimax.io và tạo tài khoản.
  2. Vào mục API Keys để tạo key cho dự án.
  3. Chọn model phù hợp (thường bắt đầu với MiniMax-M2 hoặc M2.7).
  4. Nạp credit hoặc đăng ký gói theo nhu cầu.

MiniMax cung cấp hai loại endpoint:

  • OpenAI-compatible: https://api.minimax.io/v1 - dùng được với bất kỳ code nào đang gọi OpenAI, chỉ cần đổi base URL và API key.
  • Anthropic-compatible: https://api.minimax.io/anthropic - dành cho ai đang dùng Anthropic SDK.

Điều này có nghĩa là nếu bạn đã có code gọi GPT-4o hay Claude, bạn có thể chuyển sang MiniMax chỉ bằng cách thay 2 dòng cấu hình, không cần viết lại từ đầu.

MiniMax cung cấp hai hướng thanh toán: trả theo lượng dùng (pay-per-token) qua API hoặc mua gói token plan theo tháng/năm tại platform.minimax.io, với mức giá từ $10/tháng.

Hướng 1: Trả theo lượng dùng (pay-per-token)

Đây là lựa chọn phổ biến nhất cho lập trình viên và doanh nghiệp dùng API trực tiếp. Theo dữ liệu từ OpenRouter và Artificial Analysis (tháng 5/2026):

Model Giá input ($/1M token) Giá output ($/1M token) Giá cache hit
MiniMax-M2.7 $0,30 $1,20 $0,059
MiniMax-M2.5 $0,15 $0,95 $0,075
MiniMax-M2.1 $0,29 - $0,03

Điểm đáng chú ý: giá cache hit của M2.7 chỉ $0,059/triệu token, tức là nếu workflow của bạn gửi lặp lại cùng một đoạn context dài (ví dụ: system prompt, tài liệu tham chiếu), chi phí thực tế giảm rất mạnh so với giá niêm yết.

Hướng 2: Mua gói token plan theo tháng hoặc năm

Hướng này phù hợp hơn nếu bạn dùng MiniMax không chỉ cho LLM mà còn kèm các model speech, image và video. Bảng gói hiện hành tại platform.minimax.io:

Gói Standard (dùng M2.7 tiêu chuẩn):

Gói Giá tháng Giá năm M2.7 (requests/5 giờ) Speech 2.8 Tạo ảnh
Starter $10 $100 1.500 - -
Plus $20 $200 4.500 4.000 ký tự/ngày 50 ảnh/ngày
Max $50 $500 15.000 11.000 ký tự/ngày 120 ảnh/ngày

Gói Highspeed (dùng M2.7-highspeed, phản hồi nhanh hơn):

Gói Giá tháng Giá năm M2.7-highspeed (requests/5 giờ) Speech 2.8 Tạo ảnh
Plus-Highspeed $40 $400 4.500 9.000 ký tự/ngày 100 ảnh/ngày
Max-Highspeed $80 $800 15.000 19.000 ký tự/ngày 200 ảnh/ngày
Ultra-Highspeed $150 $1.500 30.000 50.000 ký tự/ngày 800 ảnh/ngày

Tất cả các gói đều bao gồm 100 bài nhạc/ngày từ Music-2.6 (tối đa 5 phút/bài) miễn phí trong giới hạn. Các gói Max và Highspeed còn bao gồm thêm giới hạn tạo video với Hailuo-2.3.

Gói năm tiết kiệm tương đương 2 tháng so với gói tháng (ví dụ: Starter $100/năm thay vì $120 nếu trả tháng).

Nên chọn pay-per-token hay token plan?

Câu trả lời phụ thuộc vào cách bạn dùng:

  • Chọn pay-per-token nếu bạn chỉ cần gọi LLM API thuần, lượng dùng không đều tháng này nhiều tháng kia ít, hoặc đang trong giai đoạn thử nghiệm workflow.
  • Chọn token plan nếu bạn dùng MiniMax như một nền tảng đa năng (LLM + speech + image + video), cần hạn mức requests ổn định cho hệ thống tự động hóa chạy liên tục, và muốn dự đoán được chi phí hàng tháng.

Đăng ký tại: platform.minimax.io/subscribe/token-plan. Để dùng API trực tiếp theo pay-per-token, tạo API key tại platform.minimax.io trong mục API Keys sau khi tạo tài khoản.

Tích hợp mô hình MiniMax AI vào workflow thực tế như thế nào?

MiniMax đã có tích hợp chính thức với cả OpenClaw và n8n, giúp bạn gắn model này vào pipeline tự động hoá mà không cần viết thêm code phức tạp.

Tích hợp với OpenClaw

OpenClaw có provider minimax tích hợp sẵn với catalog đầy đủ gồm các model MiniMax-M2.7, M2.7-highspeed, VL-01, image-01 và music series.

Cách setup nhanh:

  • Mở wizard QuickStart của OpenClaw.
  • Chọn "Model Provider" là "MiniMax".
  • Chọn phương thức xác thực: nếu không muốn quản lý key thủ công, dùng "MiniMax Global - OAuth" rồi đăng nhập và nhấn Authorize.
  • Hoặc đặt biến môi trường MINIMAX_API_KEY nếu thích kiểm soát tay.
  • Xác nhận model mặc định là MiniMax-M2.7 hoặc M2.7-highspeed.

Sau đó, trong từng agent của OpenClaw (planner, executor, coder...), bạn chỉ việc chọn provider MiniMax như chọn Claude hay GPT - không khác gì.

Tích hợp với n8n

n8n có node tích hợp chính thức là "MiniMax" và "MiniMax Chat Model". Cách setup:

  • Vào mục Credentials trong n8n, tạo credential MiniMax với API key từ platform.minimax.io.
  • Thêm node MiniMax Chat Model vào workflow.
  • Chọn model (ví dụ: MiniMax-M2 hoặc M2.7) và kết nối với các node tiếp theo như Google Sheets, Gmail, CRM...

Nếu phiên bản n8n của bạn chưa có node native, cách thay thế là dùng HTTP Request gọi thẳng endpoint OpenAI-compatible của MiniMax với body tương tự OpenAI Chat Completions.

Một use case thực tế:

Nhiều team đang dùng MiniMax trong n8n để xây pipeline: nhận dữ liệu đầu vào từ form, gửi qua MiniMax-M2 để phân loại và tóm tắt, sau đó đẩy kết quả vào CRM hoặc gửi email follow-up tự động. Chi phí mỗi lượt xử lý thấp hơn đáng kể so với dùng GPT-4o hay Claude Sonnet cho cùng tác vụ.

Mô hình MiniMax AI phù hợp nhất với loại công việc gì?

MiniMax AI phù hợp với các tác vụ xử lý văn bản dài, tự động hóa quy trình lặp lại và các agent AI cần gọi tool, đặc biệt khi chi phí vận hành là yếu tố cần tối ưu.

Dùng MiniMax tốt khi:

  • Xây agent tự động hóa văn phòng: Xử lý email, tóm tắt tài liệu, sinh báo cáo từ dữ liệu thô, đặc biệt là các tác vụ liên quan đến Excel hoặc trình bày.
  • Pipeline RAG (Retrieval-Augmented Generation): Context 200k token giúp đẩy nhiều tài liệu tham chiếu vào prompt cùng lúc mà không bị cắt ngắn.
  • Coding agent trong vòng lặp dài: Tốc độ stream nhanh giúp duy trì nhịp làm việc khi model cần sinh và kiểm tra nhiều đoạn code liên tiếp.
  • Workflow n8n hoặc automation có chi phí nhạy cảm: Khi số lượng request lớn và cần kiểm soát ngân sách chặt.

Dùng GPT-4o hoặc Claude sẽ tốt hơn khi:

  • Bạn cần phân tích hình ảnh trực tiếp trong prompt (MiniMax M2.7 chưa hỗ trợ).
  • Cần hệ sinh thái plugin bên thứ ba rộng và ổn định.
  • Ưu tiên chất lượng viết sáng tạo dài, có giọng văn nhất quán (Claude vẫn mạnh hơn ở điểm này theo phần lớn đánh giá thực chiến).

Tóm lại, MiniMax M2.7 là lựa chọn hợp lý để làm default model cho các agent xử lý tác vụ nặng trong khi giữ Claude hoặc GPT cho những tác vụ cần độ tinh tế cao hơn. Sự kết hợp này giúp kiểm soát chi phí mà không đánh đổi nhiều về chất lượng.

Call Zalo Messenger TikTok LinkedIn