二是原生支持多模态推理,V4 Lite 采用原生多模态架构(残缺的DeepSeek V4版本亦采用原生多模态架构),这意味着该模型在预训练阶段就将文本和视觉了解相结合,而非后期拼接,可对超长文本、大型代码库等复杂输入停止深度分析与了解。
三是模型参数有很大提升,V4 Lite 估计有 2000 亿参数,而残缺的DeepSeek V4版本参数能够会打破1万亿,DeepSeek V4版本大模型参数规模的提升意味着其在推理才能和输入结果的质量方面,将比上一代的DeepSeek V3版本有较大幅度的提升。
四是SVG图像才能更出色,相比上一代的DeepSeek V3版本,V4 Lite 在生成高精度SVG图形等高难度生成义务大模的表现也愈加出色,其运用极简代码(仅 54 行)即可生成高质量图像,显示出其在空间推理和结构化输入方面的分明提升。
2、V4模型立足原生多模态,支持图文视频一体化生成,无需切换工具即可满足多种需求。
从国内AI大言语模型(Large Language Model的简称,旨在了解和生成人类言语,经过大量的文本数据停止训练,协助人类执行广泛的义务,包括文本总结、翻译和情感分析等)的发展历程来看,大量企业堕入了“参数竞争”的死胡图,业内动辄千亿、万亿参数的AI大言语模型层出不穷,但多数产品都停留在实验室阶段,落地场景较为有限。