当产品经理甩过来一份50页的需求文档,要求"这周把测试用例写完"时,你会怎么做?手动复制粘贴到Excel?还是让AI直接读图生成用例?
最初你使用LLM时,比如豆包,只需要在输入框输入一句话,模型给你一段回答,这个阶段,软件工程的主要工作围绕于Prompt。
"实际操作中,我一边打开LLM agent,另一边打开Obsidian。LLM根据对话进行编辑,我实时浏览结果——跟随链接、查看图谱视图、阅读更新后的页面。Ob...
问题的核心在于,多数团队将LLM当作“加强版的模板工具”——输入需求文档,输出标准格式用例。这种工具驱动的思维,往往导致大量低质量产出。而真正发挥LLM价值的方...
大多数 AI 辅助开发工具背后,潜藏着一个心照不宣的假设:要帮助 AI 理解你的代码,就得给它更多的代码。
这篇文章的起因是我在做一个Agent项目,把2022年到现在AI工程领域的演进翻了一遍。
LLM 之所以能驱动全新技术范式的出现,不仅在于其强大的语言理解与意图识别能力,更具备出色的逻辑推理、知识归纳、复杂指令执行与多轮上下文理解能力,同时还能实现内...
在聊天场景下,我们和 LLM 对话是"发散"的,它可能会说很多无关紧要的话,输出格式也可能随机变化。但一旦要把 LLM 接入业务系统,问题就来了:程序需要解析 ...
温度=0时LLM两次输出仍不完全一样,核心原因是 LLM 推理过程中(尤其 Transformer 架构的多头注意力、层归一化、输出层)存在不可避免的微小浮点计...
PPO(Proximal Policy Optimization,近端策略优化) 和 DPO (Direct Preference Optimization,直...
这不是幻想!本文手把手教你用 Playwright(自动化) + 本地大模型(LLM),搭建一个 轻量级白盒测试 Harness。
🚀 本文收录于Github:AI-From-Zero 项目 —— 一个从零开始系统学习 AI 的知识库。如果觉得有帮助,欢迎 ⭐ Star 支持!
前言:最近花了一段时间,把 google/gemma-4-31B-it 真正部署到了本地服务器,。把它做成了一个可以通过局域网访问的 vLLM 服务,并进一步接...
随着大语言模型驱动的智能体不断发展,其在自动化复杂任务和科学数据探索中的潜力日益凸显,但在生物医学数据分析领域仍受限于多工具调用和多步骤推理的复杂性。研究人员提...
随着 AI 工具逐渐渗透到我们的工作与生活,“大模型”“Token”“上下文窗口”这些词频繁出现,但很多人对它们的含义仍然一知半解。不懂这些核心概念,你可能永远...