Generación de texto (Chat Completions)

Interfaz de chat completions basada en el modelo de lenguaje de MiniMax. Compatible con el formato de la API Chat Completions de OpenAI, puede utilizarse directamente como reemplazo de las llamadas a OpenAI.

Endpoints de la API

POST/text/chatcompletion_v2

Crear chat completion

Parámetros de solicitud

ParámetroTipoObligatorioDescripción
modelstringObligatorioNombre del modelo, p. ej. MiniMax-M2.5
messagesarrayObligatorioArray de mensajes de conversación
temperaturenumberOpcionalTemperatura de muestreo, rango 0-2, predeterminado 0.7
max_tokensintegerOpcionalNúmero máximo de tokens a generar
streambooleanOpcionalSi se usa salida en streaming
top_pnumberOpcionalParámetro de muestreo núcleo, rango 0-1

Ejemplo de solicitud

Ejemplo de solicitud
{
  "model": "MiniMax-M2.5",
  "messages": [
    {"role": "system", "content": "你是一个有用的助手。"},
    {"role": "user", "content": "你好,介绍一下你自己"}
  ],
  "temperature": 0.7,
  "max_tokens": 1024,
  "stream": false
}

Ejemplo de respuesta

Ejemplo de respuesta
{
  "id": "chatcmpl-xxxxx",
  "object": "chat.completion",
  "created": 1234567890,
  "model": "MiniMax-M2.5",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "你好!我是 MiniMax 的 AI 助手..."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 20,
    "completion_tokens": 50,
    "total_tokens": 70
  }
}

Ejemplos de código

import requests

url = "https://your-proxy-domain.com/v1/text/chatcompletion_v2"
headers = {
    "Authorization": "Bearer YOUR_API_KEY",
    "Content-Type": "application/json"
}
data = {
    "model": "MiniMax-M2.5",
    "messages": [
        {"role": "system", "content": "你是一个有用的助手。"},
        {"role": "user", "content": "你好"}
    ],
    "temperature": 0.7,
    "max_tokens": 1024
}

response = requests.post(url, headers=headers, json=data)
print(response.json())