2025火山引擎原动力大会的一些记录

字节在多方向发力。每一个形态它都在产品层面做到很极致。不仅在多模态对话助手(to C端) 、云原生、faas等领域,而更在入口端、生态端已经飞驰在高速公路上。最触动我的是Trae Solo。虽然说是个期货,暂时先不关注了,但为什么Trae一个面向程序员的app在两天里有这么多场次,这么大篇幅来讲,我觉得野心勃勃。Trae Solo 将来有可能成为另一种形式的浏览器、或者说是另一种形式的集成办公软件。说它代替浏览器,是因为它将成为一切信息获取的入口。说它成为办公软件是因为它将成为生产一切数字产出物的制作工具。对我来说,trae可以代替豆包,可以代替扣子空间,可以代替manus,可以代替fellou,可以代替一切agent,靠MCP让它有着无与伦比的扩展性,靠本身是一个VSCode环境让他天然有底层运行各种本地工具的能力,靠代码编写和编译可以直接弥补以上都无法实现的最终fallback。既可以产出代码,又可以产出文档,又可以分析数据,可以是任何形式的工作伙伴和专家。

AI

Qwen3真的好快啊

Qwen3 真的好快啊,首token 0.2秒,55TPS,比之前QwQ-32B快220%多……

AI

Fellou浏览器

最近,更新的Trae支持了MCP,开拓了全新的用法,对程序员来说这就是Manus的另一种形态了。紧接着,又收获了新玩意儿,让数字生活变得更美好,一个**Fellou**让浏览器为我打工,自动做深度检索、提高效率。都是国产之光。

AI

LMStudio运行QwQ-32B时报错的解决方法

使用QwQ-32B时,MLX版本对话报错“Error rendering prompt with jinja template: Error: Parser Error: Expected closing statement token. OpenSquareBracket !== CloseStatement.”,需修改jinja模板解决。gguf版本无此问题。修改后成功运行,效果如图。

AI

Manus和最近折腾的AI工具

Trae国内版接入DeepSeek,部分场景优于Claude3.5-Sonnet。QwQ-32B性能接近R1,适合本地部署。Manus若普及将颠覆现有技术,未来AI需云资源支持多模态操作与智能体协作。

AI

本地调用大模型玩“谁是卧底”游戏

大过年的,大家都在讨论deepseek。睿睿想玩"谁是卧底"总是凑不齐人,我开发了一个AI驱动的《谁是卧底》游戏机器人,通过调用大模型生成角色描述和投票策略,但遇到了模型输出不稳定、格式错误等问题。经过多次调整模型和提示词,最终实现了基本功能,过程中充满了有趣的失误和挑战。

AI

推荐AnythingLLM搭建私人AI助理

推荐一下AnythingLLM,结合LM Studio可以跑本地大模型,私人AI助理。我尝试用它处理文档和进行中医学习的体验。虽然目前效果一般,但从0到1的过程很有意义。

AI

AI中医脉象测试

亚健康困扰下跨界学中医,探索利用互联网、AI 从理性角度建模,对比豆包与 ChatGPT 高下。 由于我今年亚健康比较困扰,所以经常在学习休养身体的技能。在中医入门里我想起一个有趣的问题,“把脉”这个学中医专业的朋友也是说要经历过很多年很多的病人才能有体会有经验,所以我就在想,一个现代跨界学习中医的人,利用互联网和AI可以如何快速从理性角度建模呢? 于是正好对比了一下豆包和ChatGPT在这...

个人相关

Jetbrains用户继续等待github copilot chat功能

GitHub Copilot chat preview只能在vs/vsc上尝鲜,jetbrains用户没有更新选项,又得继续等

工具软件