跳到主要内容

智谱 AI 聊天

DeepSeek V3 中英对照 ZhiPu AI ZhiPu AI Chat

Spring AI 支持来自智谱 AI 的各种 AI 语言模型。你可以与智谱 AI 的语言模型进行交互,并基于智谱 AI 的模型创建一个多语言对话助手。

先决条件

你需要创建一个 API 来访问 ZhiPuAI,以便使用 ZhiPu AI 语言模型。

ZhiPu AI 注册页面 创建一个账户,并在 API Keys 页面 生成 token。Spring AI 项目定义了一个名为 spring.ai.zhipuai.api-key 的配置属性,你应该将其设置为从 API Keys 页面 获取的 API Key 的值。导出环境变量是设置该配置属性的一种方式:

export SPRING_AI_ZHIPU_AI_API_KEY=<INSERT KEY HERE>
shell

添加仓库和 BOM

Spring AI 的构件已发布在 Maven Central 和 Spring Snapshot 仓库中。请参考 Repositories 部分,将这些仓库添加到你的构建系统中。

为了帮助管理依赖,Spring AI 提供了一个 BOM(物料清单),以确保在整个项目中使用的 Spring AI 版本一致。请参考 依赖管理 部分,将 Spring AI BOM 添加到您的构建系统中。

自动配置

Spring AI 为 ZhiPuAI 聊天客户端提供了 Spring Boot 自动配置。要启用它,请将以下依赖项添加到项目的 Maven pom.xml 文件中:

<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-zhipuai-spring-boot-starter</artifactId>
</dependency>
xml

或者在你的 Gradle build.gradle 构建文件中。

dependencies {
implementation 'org.springframework.ai:spring-ai-zhipuai-spring-boot-starter'
}
groovy
提示

请参考 依赖管理 部分,将 Spring AI BOM 添加到您的构建文件中。

聊天属性

重试属性

前缀 spring.ai.retry 用于作为属性前缀,允许你为 ZhiPu AI 聊天模型配置重试机制。

属性描述默认值
spring.ai.retry.max-attempts最大重试次数。10
spring.ai.retry.backoff.initial-interval指数退避策略的初始休眠时间。2 秒
spring.ai.retry.backoff.multiplier退避间隔乘数。5
spring.ai.retry.backoff.max-interval最大退避时间。3 分钟
spring.ai.retry.on-client-errors如果为 false,抛出 NonTransientAiException,并且不会对 4xx 客户端错误代码进行重试。false
spring.ai.retry.exclude-on-http-codes不应触发重试的 HTTP 状态码列表(例如抛出 NonTransientAiException)。
spring.ai.retry.on-http-codes应触发重试的 HTTP 状态码列表(例如抛出 TransientAiException)。

连接属性

前缀 spring.ai.zhiPu 用作属性前缀,允许你连接到 ZhiPuAI。

属性描述默认值
spring.ai.zhipuai.base-url连接的 URLopen.bigmodel.cn/api/paas
spring.ai.zhipuai.api-keyAPI 密钥-

配置属性

前缀 spring.ai.zhipuai.chat 是用于配置 ZhiPuAI 聊天模型实现的属性前缀。

属性描述默认值
spring.ai.zhipuai.chat.enabled启用 ZhiPuAI 聊天模型。true
spring.ai.zhipuai.chat.base-url可选,覆盖 spring.ai.zhipuai.base-url,提供聊天特定的 URL。open.bigmodel.cn/api/paas
spring.ai.zhipuai.chat.api-key可选,覆盖 spring.ai.zhipuai.api-key,提供聊天特定的 API 密钥。-
spring.ai.zhipuai.chat.options.model这是使用的 ZhiPuAI 聊天模型。GLM-3-TurboGLM-3-TurboGLM-4GLM-4-AirGLM-4-AirXGLM-4-FlashGLM-4V 指向最新的模型版本)
spring.ai.zhipuai.chat.options.maxTokens聊天生成的最大 token 数量。输入 token 和生成 token 的总长度受模型上下文长度的限制。-
spring.ai.zhipuai.chat.options.temperature使用的采样温度,介于 0 和 1 之间。较高的值(如 0.8)会使输出更随机,而较低的值(如 0.2)会使输出更集中和确定性。通常建议调整此值或 top_p,但不要同时调整两者。0.7
spring.ai.zhipuai.chat.options.topP温度采样的替代方法,称为核采样,模型考虑具有 top_p 概率质量的 token 结果。因此,0.1 意味着只考虑构成前 10% 概率质量的 token。通常建议调整此值或温度,但不要同时调整两者。1.0
spring.ai.zhipuai.chat.options.stop模型将停止生成由 stop 指定的字符,目前仅支持单个停止词,格式为 ["stop_word1"]。-
spring.ai.zhipuai.chat.options.user代表最终用户的唯一标识符,可以帮助 ZhiPuAI 监控和检测滥用行为。-
spring.ai.zhipuai.chat.options.requestId该参数由客户端传递,必须确保唯一性。用于区分每个请求的唯一标识符。如果客户端未提供,平台将默认生成。-
spring.ai.zhipuai.chat.options.doSample当 do_sample 设置为 true 时,启用采样策略。如果 do_sample 为 false,则采样策略参数 temperature 和 top_p 将不会生效。true
spring.ai.zhipuai.chat.options.proxy-tool-calls如果为 true,Spring AI 不会在内部处理函数调用,而是将其代理给客户端。然后由客户端负责处理函数调用,将其分派给适当的函数并返回结果。如果为 false(默认值),Spring AI 将在内部处理函数调用。仅适用于支持函数调用的聊天模型。false
备注

你可以为 ChatModel 实现覆盖通用的 spring.ai.zhipuai.base-urlspring.ai.zhipuai.api-key。如果设置了 spring.ai.zhipuai.chat.base-urlspring.ai.zhipuai.chat.api-key 属性,它们将优先于通用属性。如果你想为不同的模型和不同的模型端点使用不同的 ZhiPuAI 账户,这将非常有用。

提示

所有以 spring.ai.zhipuai.chat.options 为前缀的属性都可以通过在 Prompt 调用中添加请求特定的运行时选项在运行时进行覆盖。

运行时选项

ZhiPuAiChatOptions.java 提供了模型的配置选项,例如使用的模型、温度(temperature)、频率惩罚(frequency penalty)等。

在启动时,可以通过 ZhiPuAiChatModel(api, options) 构造函数或 spring.ai.zhipuai.chat.options.* 属性来配置默认选项。

在运行时,你可以通过在 Prompt 调用中添加新的、特定于请求的选项来覆盖默认选项。例如,要为特定请求覆盖默认的模型和温度参数:

ChatResponse response = chatModel.call(
new Prompt(
"Generate the names of 5 famous pirates.",
ZhiPuAiChatOptions.builder()
.model(ZhiPuAiApi.ChatModel.GLM_3_Turbo.getValue())
.temperature(0.5)
.build()
));
java
提示

除了模型特定的 ZhiPuAiChatOptions 之外,你还可以使用一个可移植的 ChatOptions 实例,该实例通过 ChatOptionsBuilder#builder() 创建。

示例控制器

创建一个新的 Spring Boot 项目,并将 spring-ai-zhipuai-spring-boot-starter 添加到你的 pom(或 gradle)依赖中。

src/main/resources 目录下添加一个 application.properties 文件,以启用并配置 ZhiPuAi 聊天模型:

spring.ai.zhipuai.api-key=YOUR_API_KEY
spring.ai.zhipuai.chat.options.model=glm-4-air
spring.ai.zhipuai.chat.options.temperature=0.7
application.properties

:::提示
api-key 替换为你的智谱AI凭证。
:::

这将创建一个 ZhiPuAiChatModel 实现,你可以将其注入到你的类中。以下是一个简单的 @Controller 类的示例,该类使用聊天模型进行文本生成。

@RestController
public class ChatController {

private final ZhiPuAiChatModel chatModel;

@Autowired
public ChatController(ZhiPuAiChatModel chatModel) {
this.chatModel = chatModel;
}

@GetMapping("/ai/generate")
public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
return Map.of("generation", this.chatModel.call(message));
}

@GetMapping("/ai/generateStream")
public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
var prompt = new Prompt(new UserMessage(message));
return this.chatModel.stream(prompt);
}
}
java

手动配置

ZhiPuAiChatModel 实现了 ChatModelStreamingChatModel,并使用 Low-level ZhiPuAiApi Client 连接到 ZhiPuAI 服务。

spring-ai-zhipuai 依赖添加到项目的 Maven pom.xml 文件中:

<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-zhipuai</artifactId>
</dependency>
xml

或者在您的 Gradle build.gradle 构建文件中添加。

dependencies {
implementation 'org.springframework.ai:spring-ai-zhipuai'
}
groovy
提示

请参考依赖管理部分,将 Spring AI BOM 添加到你的构建文件中。

接下来,创建一个 ZhiPuAiChatModel 并使用它进行文本生成:

var zhiPuAiApi = new ZhiPuAiApi(System.getenv("ZHIPU_AI_API_KEY"));

var chatModel = new ZhiPuAiChatModel(this.zhiPuAiApi, ZhiPuAiChatOptions.builder()
.model(ZhiPuAiApi.ChatModel.GLM_3_Turbo.getValue())
.temperature(0.4)
.maxTokens(200)
.build());

ChatResponse response = this.chatModel.call(
new Prompt("Generate the names of 5 famous pirates."));

// Or with streaming responses
Flux<ChatResponse> streamResponse = this.chatModel.stream(
new Prompt("Generate the names of 5 famous pirates."));
java

ZhiPuAiChatOptions 提供了聊天请求的配置信息。ZhiPuAiChatOptions.Builder 是一个流式的选项构建器。

低层级 ZhiPuAiApi 客户端

ZhiPuAiApi 提供了一个轻量级的 Java 客户端,用于访问 ZhiPu AI API

以下是一个简单的代码片段,展示了如何以编程方式使用 API:

ZhiPuAiApi zhiPuAiApi =
new ZhiPuAiApi(System.getenv("ZHIPU_AI_API_KEY"));

ChatCompletionMessage chatCompletionMessage =
new ChatCompletionMessage("Hello world", Role.USER);

// Sync request
ResponseEntity<ChatCompletion> response = this.zhiPuAiApi.chatCompletionEntity(
new ChatCompletionRequest(List.of(this.chatCompletionMessage), ZhiPuAiApi.ChatModel.GLM_3_Turbo.getValue(), 0.7, false));

// Streaming request
Flux<ChatCompletionChunk> streamResponse = this.zhiPuAiApi.chatCompletionStream(
new ChatCompletionRequest(List.of(this.chatCompletionMessage), ZhiPuAiApi.ChatModel.GLM_3_Turbo.getValue(), 0.7, true));
java

请参阅 ZhiPuAiApi.java 的 JavaDoc 以获取更多信息。

智谱AI API 示例

  • ZhiPuAiApiIT.java 测试提供了一些如何使用该轻量级库的通用示例。