MiniMax 聊天
Spring AI 支持来自 MiniMax 的多种 AI 语言模型。您可以与 MiniMax 语言模型进行交互,并基于 MiniMax 模型创建一个多语言对话助手。
先决条件
你需要创建一个与 MiniMax 集成的 API 来访问 MiniMax 语言模型。
在 MiniMax 注册页面 创建一个账户,并在 API Keys 页面 生成 token。Spring AI 项目定义了一个名为 spring.ai.minimax.api-key
的配置属性,你应该将其设置为从 API Keys 页面 获取的 API Key
的值。导出环境变量是设置该配置属性的一种方式:
export SPRING_AI_MINIMAX_API_KEY=<INSERT KEY HERE>
添加仓库和 BOM
Spring AI 的构件发布在 Maven Central 和 Spring Snapshot 仓库中。请参考 Repositories 部分,将这些仓库添加到您的构建系统中。
为了帮助进行依赖管理,Spring AI 提供了一个 BOM(物料清单)以确保在整个项目中使用的 Spring AI 版本一致。请参考 依赖管理 部分,将 Spring AI BOM 添加到你的构建系统中。
自动配置
Spring AI 提供了对 MiniMax 聊天客户端的 Spring Boot 自动配置。要启用它,请将以下依赖项添加到项目的 Maven pom.xml
文件中:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-minimax-spring-boot-starter</artifactId>
</dependency>
或者到你的 Gradle build.gradle
构建文件中。
dependencies {
implementation 'org.springframework.ai:spring-ai-minimax-spring-boot-starter'
}
请参阅 依赖管理 部分,将 Spring AI BOM 添加到您的构建文件中。
聊天属性
重试属性
前缀 spring.ai.retry
用作属性前缀,允许你为 MiniMax 聊天模型配置重试机制。
属性 | 描述 | 默认值 |
---|---|---|
spring.ai.retry.max-attempts | 最大重试次数。 | 10 |
spring.ai.retry.backoff.initial-interval | 指数退避策略的初始睡眠时长。 | 2 秒 |
spring.ai.retry.backoff.multiplier | 退避间隔乘数。 | 5 |
spring.ai.retry.backoff.max-interval | 最大退避时长。 | 3 分钟 |
spring.ai.retry.on-client-errors | 如果为 false,则抛出 NonTransientAiException,并且不会对 4xx 客户端错误代码进行重试 | false |
spring.ai.retry.exclude-on-http-codes | 不应触发重试的 HTTP 状态码列表(例如抛出 NonTransientAiException)。 | 空 |
spring.ai.retry.on-http-codes | 应触发重试的 HTTP 状态码列表(例如抛出 TransientAiException)。 | 空 |
连接属性
前缀 spring.ai.minimax
用作属性前缀,允许你连接到 MiniMax。
属性 | 描述 | 默认值 |
---|---|---|
spring.ai.minimax.base-url | 连接的 URL | api.minimax.chat |
spring.ai.minimax.api-key | API 密钥 | - |
配置属性
spring.ai.minimax.chat
是一个属性前缀,允许你为 MiniMax 配置聊天模型的实现。
属性 | 描述 | 默认值 |
---|---|---|
spring.ai.minimax.chat.enabled | 启用 MiniMax 聊天模型。 | true |
spring.ai.minimax.chat.base-url | 可选,覆盖 spring.ai.minimax.base-url 以提供聊天特定的 URL | api.minimax.chat |
spring.ai.minimax.chat.api-key | 可选,覆盖 spring.ai.minimax.api-key 以提供聊天特定的 API 密钥 | - |
spring.ai.minimax.chat.options.model | 这是要使用的 MiniMax 聊天模型 | abab6.5g-chat (abab5.5-chat 、abab5.5s-chat 、abab6.5-chat 、abab6.5g-chat 、abab6.5t-chat 和 abab6.5s-chat 指向最新的模型版本) |
spring.ai.minimax.chat.options.maxTokens | 聊天生成中生成的最大 token 数。输入 token 和生成 token 的总长度受模型上下文长度的限制。 | - |
spring.ai.minimax.chat.options.temperature | 用于控制生成内容的明显创造性的采样温度。较高的值将使输出更加随机,而较低的值将使结果更加集中和确定。不建议在同一生成请求中同时修改 temperature 和 top_p,因为这两个设置的交互难以预测。 | 0.7 |
spring.ai.minimax.chat.options.topP | 一种替代温度采样的方法,称为核采样,模型考虑具有 top_p 概率质量的 token 的结果。因此,0.1 表示只考虑构成前 10% 概率质量的 token。通常建议更改此值或温度,但不要同时更改两者。 | 1.0 |
spring.ai.minimax.chat.options.n | 为每个输入消息生成多少聊天生成选项。请注意,您将根据所有选项中生成的 token 数量收费。默认值为 1,且不能大于 5。特别是当温度非常小且接近 0 时,我们只能返回 1 个结果。如果此时 n 已设置且大于 1,服务将返回非法输入参数错误(invalid_request_error) | 1 |
spring.ai.minimax.chat.options.presencePenalty | 介于 -2.0 和 2.0 之间的数字。正值根据新 token 是否出现在文本中来惩罚它们,增加模型谈论新主题的可能性。 | 0.0f |
spring.ai.minimax.chat.options.frequencyPenalty | 介于 -2.0 和 2.0 之间的数字。正值根据新 token 在文本中的现有频率来惩罚它们,减少模型逐字重复同一行的可能性。 | 0.0f |
spring.ai.minimax.chat.options.stop | 模型将停止生成由 stop 指定的字符,目前仅支持单个停止词,格式为 ["stop_word1"] | - |
你可以为 ChatModel
实现覆盖通用的 spring.ai.minimax.base-url
和 spring.ai.minimax.api-key
。如果设置了 spring.ai.minimax.chat.base-url
和 spring.ai.minimax.chat.api-key
属性,它们将优先于通用属性。这对于你想为不同模型和不同模型端点使用不同的 MiniMax 账户时非常有用。
:::提示
所有以 spring.ai.minimax.chat.options
为前缀的属性都可以通过在 Prompt
调用中添加请求特定的运行时选项在运行时进行覆盖。
:::
运行时选项
MiniMaxChatOptions.java 提供了模型的配置选项,例如使用的模型、温度(temperature)、频率惩罚(frequency penalty)等。
在启动时,默认选项可以通过 MiniMaxChatModel(api, options)
构造函数或 spring.ai.minimax.chat.options.*
属性进行配置。
在运行时,你可以通过向 Prompt
调用添加新的、特定于请求的选项来覆盖默认选项。例如,要为特定请求覆盖默认模型和温度:
ChatResponse response = chatModel.call(
new Prompt(
"Generate the names of 5 famous pirates.",
MiniMaxChatOptions.builder()
.model(MiniMaxApi.ChatModel.ABAB_6_5_S_Chat.getValue())
.temperature(0.5)
.build()
));
除了特定于模型的 MiniMaxChatOptions 外,你还可以使用可移植的 ChatOptions 实例,该实例通过 ChatOptionsBuilder#builder() 创建。
示例控制器
创建一个 新的 Spring Boot 项目,并在你的 pom
(或 gradle
)依赖中添加 spring-ai-minimax-spring-boot-starter
。
在 src/main/resources
目录下添加一个 application.properties
文件,以启用并配置 MiniMax 聊天模型:
spring.ai.minimax.api-key=YOUR_API_KEY
spring.ai.minimax.chat.options.model=abab6.5g-chat
spring.ai.minimax.chat.options.temperature=0.7
将 api-key
替换为你的 MiniMax 凭证。
这将创建一个 MiniMaxChatModel
实现,你可以将其注入到你的类中。以下是一个简单的 @Controller
类的示例,它使用聊天模型进行文本生成。
@RestController
public class ChatController {
private final MiniMaxChatModel chatModel;
@Autowired
public ChatController(MiniMaxChatModel chatModel) {
this.chatModel = chatModel;
}
@GetMapping("/ai/generate")
public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
return Map.of("generation", this.chatModel.call(message));
}
@GetMapping("/ai/generateStream")
public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
var prompt = new Prompt(new UserMessage(message));
return this.chatModel.stream(prompt);
}
}
手动配置
MiniMaxChatModel 实现了 ChatModel
和 StreamingChatModel
接口,并使用 Low-level MiniMaxApi Client 来连接到 MiniMax 服务。
将 spring-ai-minimax
依赖项添加到你的项目的 Maven pom.xml
文件中:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-minimax</artifactId>
</dependency>
或者添加到你的 Gradle build.gradle
构建文件中。
dependencies {
implementation 'org.springframework.ai:spring-ai-minimax'
}
:::提示
请参考依赖管理部分,将 Spring AI BOM 添加到您的构建文件中。
:::
接下来,创建一个 MiniMaxChatModel
并将其用于文本生成:
var miniMaxApi = new MiniMaxApi(System.getenv("MINIMAX_API_KEY"));
var chatModel = new MiniMaxChatModel(this.miniMaxApi, MiniMaxChatOptions.builder()
.model(MiniMaxApi.ChatModel.ABAB_6_5_S_Chat.getValue())
.temperature(0.4)
.maxTokens(200)
.build());
ChatResponse response = this.chatModel.call(
new Prompt("Generate the names of 5 famous pirates."));
// Or with streaming responses
Flux<ChatResponse> streamResponse = this.chatModel.stream(
new Prompt("Generate the names of 5 famous pirates."));
MiniMaxChatOptions
提供了聊天请求的配置信息。MiniMaxChatOptions.Builder
是一个流畅的选项构建器。
低级别 MiniMaxApi 客户端
MiniMaxApi 提供了一个轻量级的 Java 客户端,用于访问 MiniMax API。
以下是一个简单的代码片段,展示了如何通过编程方式使用该 API:
import requests
# 设置 API 的 URL 和请求参数
url = "https://api.example.com/data"
params = {
"key": "your_api_key",
"query": "example_query"
}
# 发送 GET 请求
response = requests.get(url, params=params)
# 检查请求是否成功
if response.status_code == 200:
# 解析返回的 JSON 数据
data = response.json()
print(data)
else:
print(f"请求失败,状态码: {response.status_code}")
这个代码片段展示了如何使用 Python 的 requests
库来发送一个 GET 请求到 API,并处理返回的数据。
MiniMaxApi miniMaxApi =
new MiniMaxApi(System.getenv("MINIMAX_API_KEY"));
ChatCompletionMessage chatCompletionMessage =
new ChatCompletionMessage("Hello world", Role.USER);
// Sync request
ResponseEntity<ChatCompletion> response = this.miniMaxApi.chatCompletionEntity(
new ChatCompletionRequest(List.of(this.chatCompletionMessage), MiniMaxApi.ChatModel.ABAB_6_5_S_Chat.getValue(), 0.7f, false));
// Streaming request
Flux<ChatCompletionChunk> streamResponse = this.miniMaxApi.chatCompletionStream(
new ChatCompletionRequest(List.of(this.chatCompletionMessage), MiniMaxApi.ChatModel.ABAB_6_5_S_Chat.getValue(), 0.7f, true));
请参考 MiniMaxApi.java 的 JavaDoc 获取更多信息。
WebSearch 聊天
MiniMax 模型支持了网页搜索功能。该功能允许你在网页上搜索信息,并将搜索结果返回到聊天响应中。
关于网页搜索,请参阅 MiniMax ChatCompletion 获取更多信息。
以下是一个简单的示例,展示如何使用网络搜索:
UserMessage userMessage = new UserMessage(
"How many gold medals has the United States won in total at the 2024 Olympics?");
List<Message> messages = new ArrayList<>(List.of(this.userMessage));
List<MiniMaxApi.FunctionTool> functionTool = List.of(MiniMaxApi.FunctionTool.webSearchFunctionTool());
MiniMaxChatOptions options = MiniMaxChatOptions.builder()
.model(MiniMaxApi.ChatModel.ABAB_6_5_S_Chat.value)
.tools(this.functionTool)
.build();
// Sync request
ChatResponse response = chatModel.call(new Prompt(this.messages, this.options));
// Streaming request
Flux<ChatResponse> streamResponse = chatModel.stream(new Prompt(this.messages, this.options));
MiniMaxApi 示例
-
MiniMaxApiIT.java 测试提供了一些如何使用轻量级库的通用示例。
-
MiniMaxApiToolFunctionCallIT.java 测试展示了如何使用底层 API 调用工具函数。
章节摘要
📄️ Minmax 函数调用
你可以向 MiniMaxChatModel 注册自定义的 Java 函数,并让 MiniMax 模型智能地选择输出一个包含调用一个或多个已注册函数参数的 JSON 对象。这使得你可以将 LLM 的能力与外部工具和 API 连接起来。MiniMax 模型经过训练,能够检测何时应调用函数,并以符合函数签名的 JSON 格式进行响应。