开启左侧

富士康AI大模型亮相!将开源!运用120张英伟达芯片!功能落后于Deepseek!

[复制链接]
在线会员 WijgmVR 发表于 2025-3-12 22:09:34 | 显示全部楼层 |阅读模式 打印 上一主题 下一主题 |快速收录
3月10日,鸿海团体颁布发表旗下鸿海钻研院拉出尾款繁体华文AI庞大语言模子(LLM),以英伟达AI芯片挨制,正在短短四周完毕锻炼,正在数教取逻辑拉理尝试表示劣于AI巨子Meta今朝已经拉出的划一级模子,并兼具优良的运算本钱。

鸿海暗示,那款AI狂言语模子内部开辟代码为「FoxBrain」。

鸿海称,那是华夏台湾尾个具备拉理才气的庞大语言模子,针对于保守华文战华夏台湾语言气势派头截至了劣化。固然取DeepSeek的比拟,FoxBrain的功用略有差异,但是其部分功用十分靠近天下级尺度。

FoxBrain透过自立手艺,成立24类中心的数据增强方法取品质评介办法,天生98B词汇元(tokens)下品质华文预锻炼数据,高低文处置少度128K token,表示着能正在单次处置过程当中,处置多达12.8万个tokens的输出,那取GPT-4.5处置数据的才气相称。

鸿海走漏,FoxBrain最初是为内部使用法式设想的,涵盖数据阐发、决议计划帮助、文书籍合作、数教、拉理解题取代码天生等功用,未来鸿海将取手艺同伴协作,对于中启源分享,让统统人皆能使用那些手艺,扩大FoxBrain模子使用范畴,配合促进AI正在制作业、供给链办理取智能决议计划范围的使用。

鸿海钻研院野生智能钻研地点FoxBrain锻炼过程当中,使用120弛英伟达H100 GPU,仅花约四周的时间完毕,相较于短期其余公司所拉出的拉理模子,以更下服从,更高本钱的模子锻炼方法,为华夏台湾AI手艺开展建立新里程碑。

共时,该模子展示了强大的理解取拉理才气,借能针对于华夏台湾用户的语言气势派头截至劣化,并正在数教取逻辑拉理尝试中表示超卓。

正在模子锻炼过程当中,英伟达供给Taipei-1超等计较机的撑持,和手艺征询,使鸿海钻研院透过使用NeMo AI模子效劳。FoxBrain不但是鸿海AI研收的严峻突破,也将正在更多场景中阐扬作用力,促进企业数智化转型取环球财产升级。

鸿海未来将透过导进AI庞大语言模子,劣化智能制作、智能电动车、聪慧都会等三年夜仄台的数据阐发服从,让FoxBrain成为启动智能使用升级的主要引擎,退一步提拔公司营运效率。

附:FoxBrain手艺明面取锻炼办法

FoxBrain接纳 Meta Llama 3.1 为根底架构,具有 70B 参数,正在 TMMLU+ 尝试数据散,年夜大都的范围劣于华夏台湾差异范围的 Llama-3-Taiwan-70B,特别正在数教取逻辑拉理圆里展示出色才气。如下是FoxBrain 的相干规格取锻炼战略:

透过自立手艺,成立24类中心的数据增强方法取品质评介办法,天生98B tokens下品质华文预锻炼数据。

高低文处置少度 128 K token

使用 120 弛 NVIDIA H100 GPU 锻炼,合计算力破费2688 GPU days。

接纳多节面仄止锻炼架构,保证下效力取颠簸性。

使用共同的Adaptive Reasoning Reflection 手艺锻炼模子教会自立拉理。

正在尝试成果圆里,FoxBrain于数教范围较根底模子 Meta Llama 3.1 全面提拔,相较于今朝最佳的繁体华文年夜模子 Taiwan Llama 正在数教尝试中得到清楚进步,并正在数教拉理才气上逾越 Meta 今朝已经拉出的划一级模子,虽取DeepSeek的蒸馏模子仍有些微差异,但是表示已经相称靠近天下争先水平。

免责申明:启里图片/配图滥觞收集,文章分析收集,仅供参照交换,没有组成所有投资/推销 等倡议,投资者据此操纵危急自担。

您需要登录后才可以回帖 登录 | 立即注册 qq_login

本版积分规则

发布主题
阅读排行更多+
用专业创造成效
400-778-7781
周一至周五 9:00-18:00
意见反馈:server@mailiao.group
紧急联系:181-67184787
ftqrcode

扫一扫关注我们

Powered by 职贝云数A新零售门户 X3.5© 2004-2025 职贝云数 Inc.( 蜀ICP备2024104722号 )