FastWiki一分钟本地离线部署本地企业级人工智能客服

介绍

FastWiki是一个开源的企业级人工智能客服系统,它使用了一系列先进的技术和框架来支持其功能。

技术栈

  • 前端框架:React + LobeUI + TypeScript
  • 后端框架:MasaFramework 基于 .NET 8
  • 动态函数:基于JavaScript V8引擎实现
  • 向量搜索引擎:使用PostgreSQL的向量插件,优化搜索性能 | 简单版本支持磁盘向量
  • 深度学习与NLP:微软Semantic Kernel,提升搜索的语义理解能力
  • 许可证:Apache-2.0,鼓励社区贡献和使用

特点

  • 智能搜索:借助Semantic Kernel的深度学习和自然语言处理技术,能够理解复杂查询,提供精准的搜索结果。
  • 高性能:通过PostgreSQL的向量插件优化向量搜索性能,确保即使在大数据量下也能快速响应。
  • 现代化前端:使用React + LobeUI前端框架,提供响应式设计和用户友好的界面。
  • 强大的后端:基于最新的.NET 8和MasaFramework,确保了代码的高效性和可维护性。
  • 开源和社区驱动:采用Apache-2.0许可证,鼓励开发者和企业使用和贡献。
  • 动态JavaScript函数:提供Monaco智能代码提示,使开发更方便。
  • 强大的QA问答拆分模式:让知识库回复更智能。

FastWiki的部署过程已经被极大地简化,只需运行FastWiki服务即可,无需数据库。

对于
FastWiki
,我们不段的更新和优化,现在的版本越来越稳定,功能也更丰富,目前我们又简化了
FastWiki
的部署成本, 您无需数据库即可部署,只需要运行我们的
FastWiki
服务!

创建Docker指令

下面我们创建我们的
FastWiki
的指令,只需要一行代码即可运行。

docker run -d --name fast-wiki-service --user root --restart always \
  -p 8080:8080 \
  -v $(pwd)/wwwroot/uploads:/app/wwwroot/uploads \
  -v $(pwd)/data:/app/data \
  -e OPENAI_CHAT_ENDPOINT=https://api.token-ai.cn/ \
  -e OPENAI_CHAT_EMBEDDING_ENDPOINT=https://api.token-ai.cn/ \
  -e OPENAI_CHAT_TOKEN=您的TokenKey \
  -e ASPNETCORE_ENVIRONMENT=Development \
  registry.cn-shenzhen.aliyuncs.com/fast-wiki/fast-wiki-service

在这里我们需要注意俩个点,第一个您的AI模型地址需要修改,您的
AIToken
也需要修改,确保修改完成,替换参数以后再执行。

运行完成以后我们访问一下容器的端口 如果你是再本地运行的则访问
localhost:8080

点击立即开始

登录系统,系统默认账号:admin 默认密码 Aa123456

登录成功后还会返回页面,再次点击立即开始,点击新增,然后输入您创建的应用名称。

然后点击左边菜单的知识库,然后上传头像,设置我们的模型 (这个模型是用于QA问答解析的时候用到的),设置我们的嵌入模型(嵌入模型是我们用于量化文档的模型)创建完成以后进入知识库,然后点击上传文件。

点击上传文件,

然后吧我们的FastWiki上传上去:

然后点击提交数据:

然后返回到知识库详情:我们看到我们的文档已经量化完成

然后回到应用中然后绑定一下我们刚刚创建的知识库,然后点击保存即可。然后点击左边菜单的对话

提问内容:FastWiki有哪些技术栈?回复效果;

这些内容基本上就是我们的文档的内容!

知识库非常的详细的回复出来了。如果FastWiki对你有帮助的话帮忙再GitHub给一个Star,就是给我们最大的支持!!!

## 技术交流

Github:
https://github.com/AIDotNet/fast-wiki

Gitee
https://gitee.com/hejiale010426/fast-wiki

标签: none

添加新评论