LLocalSearch:完全本地运行的搜索聚合器 无需 OpenAI 或 Google API

LLocalSearch 是一个完全本地运行的搜索聚合器,使用LLM Agents。用户可以提出一个问题,系统将使用LLMs 的链条来查找答案。用户可以看到代理的进度和最终答案。无需 OpenAI 或 Google API 密钥。

与传统依赖于云API(如OpenAI或Google API)的搜索服务不同,LLocalSearch 的所有操作都在本地完成,这意味着所有的数据处理和搜索逻辑都在用户的机器上执行,不需要通过互联网传输数据到外部服务器。

功能特点包括:

  1. 完全本地运行:LLocalSearch 不需要连接到OpenAI或Google等外部API,所有搜索活动都在本地完成,保证了高度的隐私和安全。

  2. LLM代理使用:采用一系列大语言模型代理来查找和处理用户的问题,这种方法可以有效地利用当前的自然语言处理技术,提供准确的搜索结果。

  3. 支持跟进问题:不仅可以回答用户的初始查询,还支持对搜索结果提出后续问题,增强了交互性和搜索深度。

  4. 进度日志:用户可以看到代理搜索过程的进度日志,这提高了搜索过程的透明度,让用户了解背后发生的事情。

  5. 低端硬件兼容:虽然推荐使用GPU,但LLocalSearch设计允许在不具备高性能硬件的情况下运行,使得更多用户能够使用。

  6. 快速部署:通过Docker Compose,LLocalSearch提供了快速且简便的部署方式,用户可以轻松地在自己的环境中启动和运行。

  7. Web界面访问:提供了一个Web界面,使得用户可以从任何设备轻松访问搜索服务,界面设计支持浅色和深色模式,考虑了用户体验。

  8. 移动友好设计:界面设计考虑了移动设备的使用场景,确保在小屏幕上也能提供良好的用户体验。

工作原理:

详细:infra

应用场景

GitHub:https://github.com/nilsherzig/LLocalSearch

退出移动版