“
产品文档、技术文档散落在各处,查找费时费力
新人入职培训需求反复讲解相反的内容
客户咨询的成绩高度反复,但每次都要人工回答
公司外部知识难以沉淀和复用
各类参考材料缺乏一致管理和疾速检索的方案
“五、个人AI知识库的搭建方案
多格式支持:可以导入PDF、Word、TXT等常见文档格式
网页抓取:直接输入URL即可抓取网页内容
智能分割:自动将长文档分割成合适向量化的片段
元数据提取:自动提取文档的标题、作者等信息
增量更新:支持文档的增量更新,无需重新处理全部内容
大规模处理:能高效处理GB级别的文档集合
“
AnythingLLM:开源收费的知识库管理前端工具,支持上传知识、向量化数据、检索加强(RAG)等服务。
DeepSeek:(简称DS)幻方量化推出的大模型,功能与Claude 3.5相当,Token价格较低,本次方案运用DS作为推理模型。
“
点击 LLM首选项
选择ollama作为模型提供商
选择已安装的deepsek 模型
留意下地址
“
开启对话:
在工作区点击 New Thread 开启新的对话。
发问后,AI会根据知识库中的内容停止回答。
查看援用来源:
假如想确认AI回答的知识来源,可以在回答底部点击 Show Citations 查看援用的知识。
“
lancedb:这是存储您的本地矢量数据库及其表的地方。
documents:这是任何上传文件的解析文档内容。
vector-cache:此文件夹是之前上传并嵌入的文件的缓存和嵌入表示。其文件名经过哈希处理。
models:系统运用的任何本地存储的 LLM 或 Embedder 模型都存储在此处。通常是 GGUF 文件。
anythingllm.db:这是 AnythingLLM SQLite 数据库。
plugins:这是存储您的自定义代理技能的文件夹。
“2. 选Dify:
需求:数据相对本地化,避免任何云端传输。
技术才能:有运维团队,能自主管理本地模型(如Llama 3)。
场景:金融、医疗等敏感行业,或外部知识库需严厉管控。
“3. 选MaxKB:
需求:构建复杂AI运用(如知识库+客服+自动化流程)。
技术才能:具有API集成阅历,希望低代码开发。
场景:企业需求灵敏扩展功能,整合现有系统(如CRM、ERP)。
“九、成本与资源考量
需求:疾速搭建轻量级问答系统,无复杂功能需求。
技术才能:非技术人员主导,追求简单配置。
场景:中小企业知识库、教育机构FAQ、个人学习助手。
“
硬件成本:AnythingLLM需本地GPU运转大模型,成本较高;Dify和MaxKB若运用云端API,按调用量计费。
维护成本:AnythingLLM需技术维护;Dify和MaxKB更易托管。
开源协议:三者均开源,但企业版功能或需付费(如Dify的团队协作功能)。
| 欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/) | Powered by Discuz! X3.5 |