Textgenerierung (Chat Completions)
Auf dem großen Sprachmodell von MiniMax basierte Chat-Completion-Schnittstelle. Kompatibel mit dem OpenAI Chat Completions API-Format, kann direkt als Ersatz für OpenAI-Aufrufe verwendet werden.
API-Endpunkte
POST
/text/chatcompletion_v2Chat-Completion erstellen
Anfrageparameter
| Parameter | Typ | Erforderlich | Beschreibung |
|---|---|---|---|
model | string | Erforderlich | Modellname, z.B. MiniMax-M2.5 |
messages | array | Erforderlich | Array von Konversationsnachrichten |
temperature | number | Optional | Sampling-Temperatur, Bereich 0-2, Standard 0,7 |
max_tokens | integer | Optional | Maximale Anzahl der zu generierenden Tokens |
stream | boolean | Optional | Ob Streaming-Ausgabe verwendet werden soll |
top_p | number | Optional | Nucleus-Sampling-Parameter, Bereich 0-1 |
Anfragebeispiel
Anfragebeispiel
{
"model": "MiniMax-M2.5",
"messages": [
{"role": "system", "content": "你是一个有用的助手。"},
{"role": "user", "content": "你好,介绍一下你自己"}
],
"temperature": 0.7,
"max_tokens": 1024,
"stream": false
}Antwortbeispiel
Antwortbeispiel
{
"id": "chatcmpl-xxxxx",
"object": "chat.completion",
"created": 1234567890,
"model": "MiniMax-M2.5",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "你好!我是 MiniMax 的 AI 助手..."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 20,
"completion_tokens": 50,
"total_tokens": 70
}
}Codebeispiele
import requests
url = "https://your-proxy-domain.com/v1/text/chatcompletion_v2"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
data = {
"model": "MiniMax-M2.5",
"messages": [
{"role": "system", "content": "你是一个有用的助手。"},
{"role": "user", "content": "你好"}
],
"temperature": 0.7,
"max_tokens": 1024
}
response = requests.post(url, headers=headers, json=data)
print(response.json())