LLM Answer Engine:使用 Next.js、Groq、Mixtral、Langchain、OpenAI、Brave 和 Serper 构建答案引擎
使用 Next.js、Groq、Mixtral、Langchain、OpenAI、Brave 和 Serper 构建一个Perplexity-Inspired的答案引擎,提供高效的查询解决方案。

介绍
在你平时上网搜索信息的时候,是不是常常觉得找不到想要的答案?别担心,我最近发现了一个超棒的项目,叫做LLM Answer Engine。这个项目是为了解决复杂查询而设计的,使用了Next.js、Groq、Mixtral、Langchain、OpenAI、Brave和Serper等技术,感觉就像是为我们这些“搜索狂”量身定做的。
LLM Answer Engine是什么?
简单来说,LLM Answer Engine是一个灵活的答案引擎,它可以根据用户的查询高效地返回相关的来源、答案、图片、视频以及后续问题。对于那些对自然语言处理和搜索技术感兴趣的开发者来说,这个项目绝对是一个很好的起点。
使用的技术
- Next.js:这是一个用于构建服务端渲染和静态Web应用的React框架。
- Tailwind CSS:一个实用优先的CSS框架,可以快速构建自定义用户界面。
- Vercel AI SDK:用于构建AI驱动的流式文本和聊天UI的库。
- Groq & Mixtral:用于处理和理解用户查询的技术。
- Langchain.JS:专注于文本操作的JavaScript库,比如文本拆分和嵌入。
- Brave Search:一个注重隐私的搜索引擎,用于获取相关内容和图片。
- Serper API:用于根据用户查询获取相关视频和图片结果。
- OpenAI Embeddings:用于创建文本块的向量表示。
如何开始
要开始使用这个项目,你需要先获取一些API密钥,比如OpenAI、Groq、Brave Search和Serper的API密钥。然后,你可以选择使用Docker或非Docker的方式来安装和运行这个项目。
Docker安装
- 克隆仓库:bash
git clone https://github.com/developersdigest/llm-answer-engine.git - 进入目录:bash
cd llm-answer-engine - 编辑
docker-compose.yml文件并添加你的API密钥。 - 启动服务器:
服务器会在指定端口监听。bashdocker compose up -d #for v2
非Docker安装
- 安装所需的依赖:bash
npm install - 在项目根目录创建一个
.env文件,并添加你的API密钥。 - 启动服务器:
服务器会在指定端口监听。bashnpm run dev
配置编辑
你可以在app/config.tsx文件中修改配置,比如选择不同的模型和嵌入模型,调整文本块大小等。
贡献
如果你对这个项目有兴趣,欢迎贡献代码。你可以fork这个仓库,进行修改,然后提交pull request。当然,你也可以通过提出issue来建议改进或报告bug。
最后嘛,我觉得这个LLM Answer Engine真的是个很酷的项目,它不仅能帮我们快速找到答案,还能通过各种技术的结合,提供一种全新的搜索体验。对于开发者来说,这是一个探索和学习的好机会!