另有一个幽默的 use case 是 Hugging Face 正在建立 Open R1 的时候,正在加强进修、代码天生的锻炼阶段用到了 E2B,具体来讲,Open R1 模子有一个锻炼步调是模子领受一个编程题,而后需要天生并正在某个处所运行代码,交着嘉奖函数会前去一个 0 或者 1 去暗示可否准确,再用那个反应去劣化模子。
Hugging Face 使用 E2B 的沙箱去运行那些代码,每一个锻炼步调会启用数百以至上千个沙箱,进而完毕下并收。这类方法十分快,并且没有需要用高贵的 GPU 散群去处置。正在使用 LLM 的时候,开辟者不消担忧它会窜改散群里的权力从而作用体系,因为每一个沙盒皆是相互断绝战宁静的。
Vasek 暗示已经有多少野公司要以这类方法去使用 E2B 锻炼模子,固然那没有是团队一开端设想的场景,但是现在瞅起去长短常公道的。从 AI agent 性命周期角度去瞅,E2B应当 正在周期里参与患上越早越佳,而锻炼阶段可以即是最先的一环。
正在 computer use agent 那个话题上,E2B 的 AI engineer James Murdza 正在 2025 年 1 月撰写了一篇专客,文中介绍了 James 干的一个启源 computer use agent,能够使用小我私家电脑的局部功用,好比领受“正在网上搜刮亲爱猫咪图片”如许的指令,颠末 LLM中止 拉理,主动操纵鼠标战键盘去完毕任务。
更多浏览北年夜校友、OpenAI前宁静部总裁Lilian Weng对于模子的新思考:Why We Think独野对于话Lovart开创人陈冕:咱们不产物司理,只需设想师付用度户突破 1000 万,All in AI 的多邻国,是如何用 AI 的?Agent 产物怎样订价?一文道浑 AI 产物的四种付费情势
转载本创文章请增加微疑:founderparker