暂无搜索历史
这篇文章的起因是我在做一个Agent项目,把2022年到现在AI工程领域的演进翻了一遍。
大语言模型(LLM,Large Language Model)很强,但它有一个天然局限:它只知道训练时见过的东西。
2月底开源至今不到 2 个月,Star 数狂飙至 5.1 万 +,300 + 贡献者参与,平均 3-5 天一个大版本,已迭代至 v0.8.0。社区吵翻了天,有人...
学了一堆技术,笔记散落在各处——有道云、飞书文档、VS Code的临时文件、浏览器的书签。想用的时候找不到,找到了又不记得上下文。
核心观点:Skill是AI Agent的可复用能力包,本质是一套文本规则+脚本工具的组合,让AI「学会」某项特定技能。
读完本文,你将:理解 RAG 为什么存在、掌握它的完整工作流程、能独立跑通一个本地知识库问答项目,并深入理解 混合检索(BM25 + 向量检索 + RRF 融合...
2023 年是大模型“百模大战”年,所有人都在刷榜单、比参数。2024 年起,战场转移了——谁能把大模型真正用起来,谁才有价值。
在上一篇文章中,我们介绍了 LangChain 的基础用法:LLM 调用、Function Call、Memory、RAG、结构化输出。
简单说,LangChain 是一个 "搭积木"的框架,帮你把大模型、数据库、API、工具等组件拼在一起,快速构建 AI 应用。
技术公众号作者都经历过这样的痛点:每天花 2-3 小时翻阅 Hacker News、GitHub Trending、RSS 订阅源寻找选题,再花 2 小时查阅资...
2026 年,AI 圈最火的概念不是 GPT-5,不是 Claude 4,而是一个你可能没听过的词:Harness(驾驭层)。
这不是调用人家的 API,不是下载人家的预训练模型——而是你自己从头训练出来的模型。
究其原因,是但凡讲到Transformer,铺天盖地的资料上来就直奔自注意力机制(Self-Attention)的Q、K、V细节,只钻枝叶、不谈全局,只见树林,...
VibeCoding的人都知道,决定代码质量的还是大模型。Opus模型可以全托管,其它模型只能扶着走,有的模型根本付不起来。
LLaMA、Qwen、Mistral、DeepSeek、Baichuan……名字一大堆,眼花缭乱。
LLM 之所以能驱动全新技术范式的出现,不仅在于其强大的语言理解与意图识别能力,更具备出色的逻辑推理、知识归纳、复杂指令执行与多轮上下文理解能力,同时还能实现内...
之前看装一个OpenClaw需求200多块钱,就觉得这个安装肯定巨复杂巨多的坑,就想着用AI来。可是
不要急,不要急。这个问题OpenClaw已经考虑到了,并且从架构层面进行解耦。这个问题很容易解决,龙虾不白养,不白养,已经“养”好的“膘”可以丝滑地长到新的龙虾...
最近一个猎头朋友问我:"现在招聘架构师,JD里不写懂AI都不好意思发。你们搞技术的,AI到底改变了什么?"
它只控制 “取多少”,不控制 “取什么”;它不是 “两个词整体有多像”,而是 “这个词对当前词有没有用”。
暂未填写公司和职称
暂未填写个人简介
暂未填写技能专长
暂未填写学校和专业
暂未填写个人网址
暂未填写所在城市