如今想真正做好 AI,你得成为智能体部署专家
文章认为,AI 应用已经经历了几个阶段:从早期必须具备较强技术能力,才能从原始大模型 API 中获得可用结果;到后来更多人开始接触和使用;再到当下,真正稀缺的能力变成了把“智能体”实际部署到业务流程中并稳定落地。作者强调,今天要想真正受益于 AI,不只是会使用模型,而是要成为擅长智能体部署与应用实施的人,但具备这种能力的人仍然很少。
Tag
围绕 大模型训练 这个主题,opc.ren 当前收录了 5 篇相关文章。
文章认为,AI 应用已经经历了几个阶段:从早期必须具备较强技术能力,才能从原始大模型 API 中获得可用结果;到后来更多人开始接触和使用;再到当下,真正稀缺的能力变成了把“智能体”实际部署到业务流程中并稳定落地。作者强调,今天要想真正受益于 AI,不只是会使用模型,而是要成为擅长智能体部署与应用实施的人,但具备这种能力的人仍然很少。
文章介绍了Dan Woods的研究:基于苹果“LLM in a Flash”,让定制版Qwen3.5-397B-A17B在48GB内存的MacBook Pro M3 Max上实现本地运行并达到5.5+ tokens/second。
文章借“消息清淡”的一天,回顾并讨论 Anthropic 在 Gemini 和 OpenAI 之后,才正式普及 100 万上下文窗口这一进展及其意义。
作者此前认为多种大模型工具效果很差:Copilot 只会写冗长注释,Gemini 把 200 行脚本膨胀成 700 行乱码,因此长期忽视 LLM。
作者继续在完成《Build a Large Language Model (from Scratch)》后做“加分”项目,回顾上次使用书中 GPT‑2 架构在 Lambda Labs 上训练四个基础模型,并进一步分析“LLM 作为评判者”的结果。