Generación de texto (Chat Completions)
Interfaz de chat completions basada en el modelo de lenguaje de MiniMax. Compatible con el formato de la API Chat Completions de OpenAI, puede utilizarse directamente como reemplazo de las llamadas a OpenAI.
Endpoints de la API
POST
/text/chatcompletion_v2Crear chat completion
Parámetros de solicitud
| Parámetro | Tipo | Obligatorio | Descripción |
|---|---|---|---|
model | string | Obligatorio | Nombre del modelo, p. ej. MiniMax-M2.5 |
messages | array | Obligatorio | Array de mensajes de conversación |
temperature | number | Opcional | Temperatura de muestreo, rango 0-2, predeterminado 0.7 |
max_tokens | integer | Opcional | Número máximo de tokens a generar |
stream | boolean | Opcional | Si se usa salida en streaming |
top_p | number | Opcional | Parámetro de muestreo núcleo, rango 0-1 |
Ejemplo de solicitud
Ejemplo de solicitud
{
"model": "MiniMax-M2.5",
"messages": [
{"role": "system", "content": "你是一个有用的助手。"},
{"role": "user", "content": "你好,介绍一下你自己"}
],
"temperature": 0.7,
"max_tokens": 1024,
"stream": false
}Ejemplo de respuesta
Ejemplo de respuesta
{
"id": "chatcmpl-xxxxx",
"object": "chat.completion",
"created": 1234567890,
"model": "MiniMax-M2.5",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "你好!我是 MiniMax 的 AI 助手..."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 20,
"completion_tokens": 50,
"total_tokens": 70
}
}Ejemplos de código
import requests
url = "https://your-proxy-domain.com/v1/text/chatcompletion_v2"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
data = {
"model": "MiniMax-M2.5",
"messages": [
{"role": "system", "content": "你是一个有用的助手。"},
{"role": "user", "content": "你好"}
],
"temperature": 0.7,
"max_tokens": 1024
}
response = requests.post(url, headers=headers, json=data)
print(response.json())