| 组织 | 模型/运用 | 备注 |
| OpenAI | GPT-1/GPT-2/GPT-3 |
GPT-2:15亿参数;40GB预训练数据 GPT-3:1750亿参数;570GB预训练数据 |
| OpenAI | GPT-4 |
更情愿调用本人的外部知识 有更强的逻辑推理才能 体验地址:https://chat.openai.com/ |
| Google | LaMDA |
137B参数 独特之处在于采用了对话式的交互方式,让用户可以愈加自然地与计算机停止交流 |
| Google | PaLM-E |
独特之处在于可将言语模型和视觉模型结合起来,完成多模态了解与生成。 |
| Meta | PaLM-A |
可运用于多种场景,包括文本分类、问答系统等 |
| Meta | LLaMA |
|
| 微软 | Windows Copilot |
|
| 组织 | 模型/运用 | 备注 |
| 复旦大学 | MOSS |
国内首个类ChatGPT模型 体验地址:https://moss.fastnlp.top/ |
| 阿里 | 通义千问 |
公开 https://tongyi.aliyun.com/ |
| 清华大学 | ChatGLM |
https://github.com/THUDM/ChatGLM-6B |
| 华为 | 盘古 |
体验地址:https://pangu.huaweicloud.com/index.html?ref=openi.cn |
| 商汤 | “磋商”SenseChat |
|
| 腾讯 | 混元 |
超1000亿参数规模,预训练语料超2万亿tokens 体验地址:https://hunyuan.tencent.com/ |
| 科大讯飞 | 星火认知 |
体验地址:https://xinghuo.xfyun.cn/ |
| 百川智能 | Baichuan-7B、Baichuan-13B |
体验地址:https://www.baichuan-ai.com/home |
| 百度 | 文心一言 2023.10.17 文心大模型4.0正式发布 |
文心大模型的4.0正式发布:在了解、生成、逻辑、记忆这四大才能上分明的提升 |
| 特点 | LangChain | Llama-Index | Semantic Kernel(微软) |
| 言语 | Python ;Js/Ts | Python | TypeScript |
| 可组合性 | 是 | 是 | 是 |
| LLMs和Prompt管理 | 是 | 是 | 是 |
| Chains(编排才能) | 是 | 否 | 是 |
| 数据索引处理 | 是 | 是 | 是 |
| 义务管理(agents) | 是 | 否 | 是 |
| 形态管理 | 是 | 否 | 是 |
| Evaluation | 是 | 否 | 是 |
| 文档 | https://github.com/hwchase17/langchain https://langchain.github.io/ | https://github.com/microsoft/semantic-kernel https://learn.microsoft.com/en-us/semantic-kernel/ |
| langchain-python | langchain-java | |
| 生态繁荣度和牢靠性 | 高,社区活跃,github 4.7W+star | 低,集团外部团队自建 |
| 扩展工具多样性 | 高度丰富的组件才能 | 极少 |
| 集团中间件兼容 | 和集团外部对接都需求停止框架层开发,比如hsf调用、数据库对接、服务化的才能 | 支持 |
| 集团容器兼容 | 支持 | 支持 |
| 集团LLM接口兼容 | 需求停止框架层对接,开发成本较低 | 有对接成本 |
| 开发成本 | python数据处理(爬取、清洗、标注)、大模型交互python性价比更高,可疾速搭建试错 | 跟数据处理和大模型交互更重,试错周期长 |
| 文档 | langchain官网:https://python.langchain.com/en |
| 成绩 | 描画 | 处理方案及思绪 |
| 知识量有限 | 比如GPT 4,21年前训练样本&通用语料训练,实时数据、垂直范畴的数据&专属知识无法了解 无法"在外部世界举动",不论是搜索网页、调用 API 还是查找数据库 | 方案1.LLM+检索加强 :LLM的基础上经过检索等额外提供范畴数据信息;对于用户输入Query,结合业务数据中检索到的结果一同输入给LLM,则可以得到更精准的回答。 方案2.构建行业数据集对LLM停止微调,使模型本身具有输入行业信息的才能。(成本高且效果不佳) 【处理方案】:LLM+检索加强:OpenAI提出了chatgpt-retrieval-plugin、WebGPT,开源社区提出了DocsGPT、ChatPDF、基于langchain的检索加强chatbot等等一系列处理方案 |
| 效果成绩 | 部分场景效果不及预期 复杂逻辑推理才能不佳 对未见过的知识语料回答效果差 | 1、大模型+上下文学习技术(In-Context Learning), 设计合理的prompt模版 2、大模型+思想链提示(Chain-of-Thought Prompting),引入推理途径作为提示,激发大模型按照这种推理的形式生成出合理的结果 3、大模型+高质量标注样本+指令微调,提高模型对特定义务的泛化才能 |
| 延迟成绩 | 一次残缺问答大概 10s+ (用户200ms会有体感) 延迟次要受两个要素影响:模型和生成的令牌数量。 | 1、流式传输。央求中的设置stream: true使模型在令牌可用时立刻末尾前往令牌,而不是等待生成残缺的令牌序列。它不会改变获取一切令牌的工夫,但它会减少我们想要显示部分进度或将中止生成的运用程序的第一个令牌的工夫。这可以是更好的用户体验和 UX 改进,因此值得尝试流式传输。 2、基础设备。openai 美国。存在跨国网络延时 3、减小token 。例如运用更短的提示。
|
| 资源和功能 | 训练&微调都需求不少机器资源,目前GPU资源匮乏 部署资源,尤其是C端投放有高并发低延时要求,需求投入宏大成本在线serving | 1、不训练基座模型,微调选择的基座模型选几B~几十B左右的LLM (如ChatGLM-6B) 2、曲线救国,线上不直接运用大模型serving,一种是应用大模型的embedding, 另一种是应用大模型来停止更多样本标注,来辅助小模型学习 |
| 成绩 | 描画 | 处理方案及思绪 |
| 安全与合规 | 如政治敏感、违法犯罪、伦理道德等成绩,尤其是LLM直接面向C端场景 | 1、建设安全校验模块才能 2、B端:生成素材数据清洗&人工审核 3、C端:生成式大模型必须经过SFT、RLHF等微调技术对大模型做适配微调,对齐人类的价值观; |
| 政策成绩 | 对于类GPT才能作为C端运用的开放程度需受限于政策 | 1、上线前需安全评价 |
| 欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/) | Powered by Discuz! X3.5 |