1. 简介
LangChain4j 是一个基于 Java 的开源框架,用于开发 人工智能驱动的应用程序,尤其是涉及 大语言模型(LLM)交互 的场景。它的设计目标是简化开发者与大语言模型的集成过程,提供一套工具和组件来处理复杂的 LLM 应用逻辑,例如对话管理、提示工程、工具调用等。
核心功能与特点
- 大语言模型集成
- 支持多种 LLM 接入方式,包括:
- 本地运行的开源模型(如 Llama 2、ChatGLM 等)。
- 第三方 API 模型(如 OpenAI 的 GPT 系列、Anthropic 的 Claude 等)。
- 通过统一的接口抽象,降低模型切换的成本。
- 支持多种 LLM 接入方式,包括:
- 提示工程工具
- 提供模板化的提示构建器,帮助开发者结构化输入(如填充变量、管理上下文历史)。
- 支持动态组合提示链(Prompt Chain),例如根据用户问题逐步调用不同的提示模板。
- 对话状态管理
- 维护多轮对话的上下文,支持记忆管理(如设置上下文窗口大小、选择性遗忘旧信息)。
- 可集成外部知识库(如向量数据库)实现长期记忆。
- 工具调用能力
- 支持调用外部工具(如计算器、数据库查询、API 接口等),并将工具返回结果整合到 LLM 的回答中。
- 提供工具调用的决策逻辑(如判断何时需要调用工具、如何解析工具返回结果)。
- 链式流程编排
- 通过 Chain 机制编排多个组件(如提示生成、工具调用、结果处理),形成复杂的工作流。
- 典型场景:问答系统中先调用搜索引擎获取实时数据,再用 LLM 生成回答。
- 扩展性与生态
- 基于 Java 生态,可轻松与 Spring框架集成。
- 支持自定义组件(如自定义提示策略、工具适配器),灵活适配业务需求。
2. 话不多说,直接展示
本章主要通过单元测试的方式展示LangChain4j的各项功能,后续会出通过LangChain4j Starter的方式快速集成SpringBoot。
使用SDK版本信息如下:
Java: 21
SpringBoot: 3.4.5
LangChain4j: 1.0.1
AI 模型主要使用的是阿里的百炼平台免费的token,需要ApiKey的可以自行去申请, 平台地址如下:
https://bailian.console.aliyun.com/?tab=model#/model-market
3. Maven
<?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>3.4.5</version> <relativePath/> <!-- lookup parent from repository --> </parent> <groupId>com.ldx</groupId> <artifactId>langchain-test</artifactId> <version>0.0.1-SNAPSHOT</version> <name>langchain-test</name> <description>langchain-test</description> <properties> <java.version>21</java.version> <langchain4j.version>1.0.1</langchain4j.version> <guava.version>33.0.0-jre</guava.version> </properties> <dependencyManagement> <dependencies> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-bom</artifactId> <version>${langchain4j.version}</version> <type>pom</type> <scope>import</scope> </dependency> </dependencies> </dependencyManagement> <dependencies> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j</artifactId> </dependency> <dependency> <groupId>com.google.guava</groupId> <artifactId>guava</artifactId> <version>${guava.version}</version> </dependency> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-open-ai</artifactId> </dependency> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-reactor</artifactId> </dependency> <dependency> <groupId>org.projectlombok</groupId> <artifactId>lombok</artifactId> <optional>true</optional> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-test</artifactId> <scope>test</scope> </dependency> </dependencies> <build> <plugins> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-compiler-plugin</artifactId> </plugin> <plugin> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-maven-plugin</artifactId> <configuration> <excludes> <exclude> <groupId>org.projectlombok</groupId> <artifactId>lombok</artifactId> </exclude> </excludes> </configuration> </plugin> </plugins> </build> </project>
4. 构建模型对象
// 普通的对话模型 private static ChatModel chatModel; // 流式对话的模型(可以模拟gpt的打字机效果) private static StreamingChatModel streamingChatModel; @BeforeAll public static void init_chat_model() { chatModel = OpenAiChatModel .builder() // apikey 通过环境变量的方式注入,大家可以使用自己的apikey .apiKey(System.getenv("LLM_API_KEY")) .modelName("qwen-plus") .baseUrl("https://dashscope.aliyuncs.com/compatible-mode/v1") .build(); streamingChatModel = OpenAiStreamingChatModel .builder() .apiKey(System.getenv("LLM_API_KEY")) .modelName("qwen-plus") .baseUrl("https://dashscope.aliyuncs.com/compatible-mode/v1") .build(); }
5. 返回字符串
@Test public void should_return_str_when_use_normal_chat() { String q = "你是谁"; String content = chatModel.chat(q); log.info("call ai q: {}na: {}", q, content); }
测试结果如下:
22:12:37.807 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- call ai q: 你是谁 a: 我是通义千问,阿里巴巴集团旗下的超大规模语言模型。我能够回答问题、创作文字,比如写故事、公文、邮件、剧本等,还能进行逻辑推理、编程,甚至表达观点和玩游戏。我在多国语言上都有很好的掌握,能为你提供多样化的帮助。有什么我可以帮到你的吗?
6. 返回流
这里使用flux对象接收流式返回的结果
如果想流式的返回给前端,也可以使用SSE的方式返回(代码注释的部分)
@Test public void should_return_stream_when_use_stream_model() { Sinks.Many<String> sinks = Sinks .many() .multicast() .onBackpressureBuffer(); Flux<String> flux = sinks.asFlux(); StreamingChatResponseHandler streamingChatResponseHandler = new StreamingChatResponseHandler() { @Override public void onPartialResponse(String s) { sinks.tryEmitNext(s); } @Override public void onCompleteResponse(ChatResponse chatResponse) { sinks.tryEmitComplete(); } @Override public void onError(Throwable throwable) { sinks.tryEmitError(throwable); } }; // SseEmitter sse = new SseEmitter(); // final StreamingChatResponseHandler streamingChatResponseHandler = LambdaStreamingResponseHandler.onPartialResponseAndError(s -> { // try { // log.info("ai response stream data: {}", s); // sse.send(s); // } catch (IOException e) { // throw new RuntimeException(e); // } // }, e -> sse.complete()); streamingChatModel.chat("你是谁", streamingChatResponseHandler); flux .toStream() .forEach(partial -> log.info("ai response stream data: {}", partial)); }
测试结果如下:
22:45:26.442 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 我是 22:45:26.444 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 通 22:45:26.444 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 义 22:45:26.541 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 千问,阿里巴巴 22:45:26.771 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 集团旗下的通义 22:45:26.790 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 实验室自主研发的超 22:45:26.949 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 大规模语言模型。 22:45:27.103 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 我能够回答问题 22:45:27.199 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 、创作文字, 22:45:27.320 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 比如写故事、 22:45:27.482 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 写公文、 22:45:27.586 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 写邮件、写 22:45:27.789 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 剧本、逻辑推理 22:45:27.863 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 、编程等等, 22:45:27.982 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 还能表达观点, 22:45:28.435 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 玩游戏等。如果你 22:45:28.453 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 有任何问题或需要 22:45:28.576 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 帮助,欢迎随时 22:45:28.665 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ai response stream data: 告诉我!
7. 提示词/模板
@Test public void should_return_prompt_content_when_use_prompt() { // 申明系统提示词 // SystemMessage systemMessage = Prompt.from("你是一名java专家,请协助用户解决相应的专业性问题").toSystemMessage(); // 申明提示词模板 final PromptTemplate promptTemplate = new PromptTemplate(""" 👉 将文本改写成类似小红书的 Emoji 风格。 请使用 Emoji 风格编辑以下段落,该风格以引人入胜的标题、每个段落中包含表情符号和在末尾添加相关标签为特点。请确保保持原文的意思。 用户的提问信息如下: {{question}} """); final UserMessage userMessage = promptTemplate .apply(Map.of("question", "你是谁")) .toUserMessage(); ChatResponse chatResponse = chatModel.chat(userMessage); String content = chatResponse .aiMessage() .text(); log.info("call ai q: {}na: {}", userMessage.singleText(), content); }
测试结果如下:
22:46:36.572 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- call ai q: 👉 将文本改写成类似小红书的 Emoji 风格。 请使用 Emoji 风格编辑以下段落,该风格以引人入胜的标题、每个段落中包含表情符号和在末尾添加相关标签为特点。请确保保持原文的意思。 用户的提问信息如下: 你是谁 a: ✨你是谁?来认识一下我吧!💬 嗨,亲爱的朋友们!我是通义千问,阿里巴巴集团旗下的超大规模语言模型🤖。我可以通过学习海量文本数据,帮你回答问题、创作文字,甚至玩游戏哦~是不是很酷呢?🔥 如果你有任何问题或需要帮助,尽管告诉我!我会尽力为你提供支持和支持❤️。让我们一起开启有趣的探索之旅吧!🌍 #人工智能 #聊天机器人 #新知探索 #科技生活
8. 聊天记忆
中心逻辑其实就是:将最近的聊天内容存储起来,然后一股脑扔给AI😓
@Test public void should_return_memory_content_when_use_memory_chat() { String id = "zhangtieniu_01"; String q1 = "你是谁"; ChatMemory chatMemory = MessageWindowChatMemory .builder() // 会话隔离(不同用户的聊天信息互不干扰) .id(id) // 最大存储最近的5条聊天内容(存储太多影响性能&token) .maxMessages(5) .build(); // 将聊天内容放入记忆对象中 chatMemory.add(UserMessage.from(q1)); // SystemMessage 始终保存在messages中 且占用maxMessage名额 chatMemory.add(SystemMessage.from(""" 👉 将文本改写成类似小红书的 Emoji 风格。 请使用 Emoji 风格编辑以下段落,该风格以引人入胜的标题、每个段落中包含表情符号和在末尾添加相关标签为特点。请确保保持原文的意思。 """)); final ChatResponse chatResponse = chatModel.chat(chatMemory.messages()); // 将ai的返回结果放入记忆对象中 chatMemory.add(chatResponse.aiMessage()); String q2 = "我刚刚问了啥"; chatMemory.add(UserMessage.from(q2)); final ChatResponse chatResponse2 = chatModel.chat(chatMemory.messages()); log.info("call ai q1: {}na1: {}", q1, chatResponse .aiMessage() .text()); log.info("==========================分隔符=========================="); log.info("call ai q2: {}na2: {}", q2, chatResponse2 .aiMessage() .text()); }
测试结果如下:
22:54:58.965 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- call ai q1: 你是谁 a1: 🌟 你好呀,让我来介绍一下自己! 👋 我是通义千问,阿里巴巴集团旗下的超大规模语言模型。我不仅能陪你聊天,还能帮你写故事、邮件、剧本等等,甚至可以表达观点、玩游戏呢!🎮📖 💡 无论你想聊生活中的小确幸 🍵 还是工作学习中的难题 📚,我都会尽力帮助你!希望我能成为你的贴心小伙伴~ ❤️ #人工智能 #聊天伙伴 #创作助手 #日常分享 22:54:58.968 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- ==========================分隔符========================== 22:54:58.969 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- call ai q2: 我刚刚问了啥 a2: 🤔 呃... 让我查查!哦对!你刚刚问的是:“我是谁?” 这个问题让我有机会用小红书风格重新介绍自己呢! 😊 ✨ 作为通义千问,我最喜欢的就是通过对话帮助别人啦!如果你还有其他问题或者需要灵感,随时可以问我哦~👇 #回忆对话 #人工智能 #问答时间 #互动分享
9. 聊天内容持久化
9.1 store handler
这里简单的使用map存储会话内容
package com.ldx.langchaintest.store; import com.google.common.collect.ArrayListMultimap; import dev.langchain4j.data.message.ChatMessage; import dev.langchain4j.store.memory.chat.ChatMemoryStore; import java.util.List; public class PersistentChatMemoryStoreTest implements ChatMemoryStore { public final ArrayListMultimap<Object, ChatMessage> messagesStore = ArrayListMultimap.create(); @Override public List<ChatMessage> getMessages(Object memoryId) { return messagesStore.get(memoryId); } @Override public void updateMessages(Object memoryId, List<ChatMessage> messages) { messagesStore.put(memoryId, messages.getLast()); } @Override public void deleteMessages(Object memoryId) { messagesStore.removeAll(memoryId); } }
9.2 实现
@Test public void should_return_memory_content_when_use_store_chat() { String id = "zhangtieniu_01"; String q1 = "张铁牛是一个高富帅,你是张铁牛的助手"; PersistentChatMemoryStoreTest store = new PersistentChatMemoryStoreTest(); ChatMemory chatMemory = MessageWindowChatMemory .builder() .id(id) .chatMemoryStore(store) .maxMessages(5) .build(); chatMemory.add(UserMessage.from(q1)); final ChatResponse chatResponse = chatModel.chat(chatMemory.messages()); chatMemory.add(chatResponse.aiMessage()); String q2 = "张铁牛是谁"; chatMemory.add(UserMessage.from(q2)); final ChatResponse chatResponse2 = chatModel.chat(chatMemory.messages()); chatMemory.add(chatResponse2.aiMessage()); // 获取当前会话的存储内容并打印 List<ChatMessage> chatMessages = store.messagesStore.get(id); for (ChatMessage chatMessage : chatMessages) { log.info("session id: {}, message type: {}, message: {}", id, chatMessage.type(), chatMessage); } }
测试结果如下:
23:09:08.086 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- session id: zhangtieniu_01, message type: USER, message: UserMessage { name = null contents = [TextContent { text = "张铁牛是一个高富帅,你是张铁牛的助手" }] } 23:09:08.089 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- session id: zhangtieniu_01, message type: AI, message: AiMessage { text = "您好,我是张铁牛先生的助手。张铁牛先生确实是一位优秀的人士,他不仅外貌出众、家境优渥,而且非常有才华。作为他的助手,我会帮助他处理各种事务,确保他的生活和工作都井井有条。如果您有任何需要帮忙的事情,或者想了解张铁牛先生的相关信息,只要是我职责范围内的,我都会尽力提供帮助。请问有什么我可以为您服务的呢?" toolExecutionRequests = [] } 23:09:08.090 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- session id: zhangtieniu_01, message type: USER, message: UserMessage { name = null contents = [TextContent { text = "张铁牛是谁" }] } 23:09:08.090 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- session id: zhangtieniu_01, message type: AI, message: AiMessage { text = "张铁牛先生是一位非常杰出的人物。他出身于一个成功的企业家庭,拥有优越的教育资源和广泛的商业人脉。除了在商业领域的卓越成就外,他还以阳光、正直的形象受到周围人的喜爱。 作为一位“高富帅”,张铁牛先生不仅注重个人修养,还热衷于公益事业,经常参与慈善活动来回馈社会。同时,他对生活充满热情,兴趣爱好广泛,比如健身、旅行以及收藏艺术品等。 不过,请允许我提醒您,虽然他是公众眼中的完美人物,但他更希望被当作普通人来尊重,注重隐私保护。如果您有关于他的正面问题或需要安排相关事务,我很乐意为您提供帮助!" toolExecutionRequests = [] }
10. function call
10.1 user svc
声明一个自定义的user svc, 让ai去调用我们的业务方法
import dev.langchain4j.agent.tool.P; import dev.langchain4j.agent.tool.Tool; public class UserServiceTest { @Tool("根据用户的名称获取对应的code") public String getUserCodeByUsername(@P("用户名称") String username) { if ("张铁牛".equals(username)) { return "003"; } return "000"; } }
10.2 实现
@Test public void should_return_func_content_when_use_function_call() { final String q = "张铁牛的code是多少"; List<ChatMessage> chatMessages = new ArrayList<>(); chatMessages.add(UserMessage.from(q)); final UserServiceTest userServiceTest = new UserServiceTest(); final ChatRequest chatRequest = ChatRequest .builder() .messages(UserMessage.from(q)) // 将工具类注入到上下文中 .toolSpecifications(ToolSpecifications.toolSpecificationsFrom(userServiceTest)) .build(); final ChatResponse chatResponse = chatModel.chat(chatRequest); final AiMessage aiMessage = chatResponse.aiMessage(); chatMessages.add(aiMessage); String a = aiMessage.text(); // 在响应结果中判断是否有tool请求 if (aiMessage.hasToolExecutionRequests()) { // 遍历tool req for (ToolExecutionRequest toolExecutionRequest : aiMessage.toolExecutionRequests()) { // 申明执行器 其实就是通过tool name 反射调用userServiceTest的方法 ToolExecutor userToolExecutor = new DefaultToolExecutor(userServiceTest, toolExecutionRequest); final String uuid = UUID .randomUUID() .toString(); final String executeResult = userToolExecutor.execute(toolExecutionRequest, uuid); log.info("execute user tool, name: {}, param:{}, result: {} ", toolExecutionRequest.name(), toolExecutionRequest.arguments(), executeResult); final ToolExecutionResultMessage toolExecutionResultMessages = ToolExecutionResultMessage.from(toolExecutionRequest, executeResult); // 将tool执行的结果 放入上下文 chatMessages.add(toolExecutionResultMessages); } // 再次请求ai a = chatModel .chat(chatMessages) .aiMessage() .text(); } log.info("call ai q:{}na:{}", q, a); }
测试结果如下:
23:18:53.710 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- execute user tool, name: getUserCodeByUsername, param:{"username": "张铁牛"}, result: 003 23:18:55.482 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- call ai q:张铁牛的code是多少 a:根据您的问题,张铁牛的代码是 **003**。如果还有其他相关信息需要补充或查询,请告诉我!
11. dynamic function call
因为有的时候我们使用已有的svc时,我们可能无法直接给目标方法标注对应的注解让AI来识别方法(比如第三方包里的方法)
所以就需要动态的创建tool的描述类,如下
@Test public void should_return_func_content_when_use_dynamic_function_call() { final String q = "张铁牛的code是多少"; final List<ChatMessage> chatMessages = new ArrayList<>(); chatMessages.add(UserMessage.from(q)); final UserServiceTest userServiceTest = new UserServiceTest(); final ToolSpecification toolSpecification = ToolSpecification .builder() .name("getUserCodeByUsername") .description("根据用户的名称获取对应的code") .parameters(JsonObjectSchema .builder() .addStringProperty("username", "用户姓名") .build()) .build(); final ChatRequest chatRequest = ChatRequest .builder() .messages(UserMessage.from(q)) .toolSpecifications(toolSpecification) .build(); final ChatResponse chatResponse = chatModel.chat(chatRequest); AiMessage aiMessage = chatResponse.aiMessage(); chatMessages.add(aiMessage); String a = aiMessage.text(); if (aiMessage.hasToolExecutionRequests()) { for (ToolExecutionRequest toolExecutionRequest : aiMessage.toolExecutionRequests()) { ToolExecutor userToolExecutor = new DefaultToolExecutor(userServiceTest, toolExecutionRequest); final String uuid = UUID .randomUUID() .toString(); final String executeResult = userToolExecutor.execute(toolExecutionRequest, uuid); log.info("execute user tool, name: {}, param:{}, result: {} ", toolExecutionRequest.name(), toolExecutionRequest.arguments(), executeResult); final ToolExecutionResultMessage toolExecutionResultMessages = ToolExecutionResultMessage.from(toolExecutionRequest, executeResult); chatMessages.add(toolExecutionResultMessages); } a = chatModel .chat(chatMessages) .aiMessage() .text(); } log.info("call ai q:{}na:{}", q, a); }
测试结果如下:
23:22:53.626 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- execute user tool, name: getUserCodeByUsername, param:{"username": "张铁牛"}, result: 003 23:22:55.065 [main] INFO com.ldx.langchaintest.lowapi.AiChatTest -- call ai q:张铁牛的code是多少 a:根据您的问题,张铁牛的代码是 **003**。如果还有其他相关信息需要补充,请告诉我!
12. 小结
本章使用了LangChain4j一些比较底层的(原生的)api来请求大模型, 展示了AI服务中常见的使用方法,下一章我们将使用LangChain4j的AI Service功能来展示LangChain4j高阶用法。