Q2: 超大参数的LLM,如175B参数GPT-3,是否能产生通用的item表征? Q3: 装配了175B参数量的LLM的推荐系统算法能否打败基于ID的经典算法? Q4: 基于LLM的TCF算法距离推荐系统通用大模型还有多远? 在LLM狂欢之时,也应该正视其不足,推荐系统经典范式仍然十分具有竞争力。 问题2:这些极大的语言模型LLM是否能为推荐任务提供通用的物品表示? 文章试图回答具有175B参数的LLM生成的物品表征是否具有一定程度的通用性。在NLP领域一个很关键的目标就是建立通用的LLM。 另一方面,如果计算量可以显著降低,那么端到端训练序列推荐模型和LLM可以带来明显优于IDCF的推荐性能。 问题4:TCF范式与通用推荐模型有多接近?
前言 随着ChatGPT横空出世,大模型的风算是吹遍了每一个领域,推荐系统作为老牌AI领域,也得沾沾光嘛~ 大模型与推荐结合的方式有很多,我个人将其分为三种类型: LLM与传统推荐结合 Rec-to-LLM 传统推荐模型做“大” 例:《On the Embedding Collapse when Scaling up Recommendation Models》 生成式推荐大模型 例:meta GRs 相比于其他方案 另外就是这些特征本质上都是在其对应的预训练任务上做的,与推荐任务的目标是不一致的,直接加入到模型中可能会被当成噪音。 方法论:借鉴多模态技术做LLM embedding融合;LLM embedding对齐推荐任务或补充协同信息;再来就是一些特征的处理方式 而LLM emb与推荐系统结合,可以总结成2个步骤: 怎么拿embedding 【离线模型对齐】:参考LEARN、HLLM、FLARE,基本上都是利用交互信息来把LLM emb对齐推荐任务。
LLM v.s. Rec 既然是大模型在推荐系统中的应用,那么首先要梳理对比下传统推荐模型和LLM的优缺点,推荐到底在 "馋" LLM的什么? LLM in Rec 从应用视角出发,将LLM应用拆解到传统推荐系统的各个模块。 ; 推荐流程控制 :LLM作为集成控制器,操控推荐系统的整体流程。 (可以认为是BERT的变体)对上述topM个Q-I排序 相当于针对有描述类推荐的场景里(NDR),弥补了传统id-based推荐系统的文本处理能力;有点像推荐搜索化,将用户长本文通过LLM生成搜索query 水平,但是TCF(千亿LLM)只需要冻住的表征就可以跟ID comparable,是很大的进步; LLM具有一定的迁移能力,但远远不够成为通用的推荐模型,比NLP/CV更具挑战性; 2.3 LLM for
应用于推荐领域已经有很多例子了,但是从经典推荐方法向LLM过渡很重要的一个问题是LLM很难有效利用用户和item的ID,主要是因为它们在语义空间中的表征和常规的自然语言不同,因此无法直接使用LLM。 为了解决这个问题,本文提出了ControlRec,用于推荐系统的对比提示学习框架。 对不同指令的鲁棒性 2.方法 和P5一样,ControlRec也是在5个任务上预训练和验证,包括评分预测,序列推荐,解释生成,直接推荐和评论总结。 而在序列推荐和直接推荐的上下文中,它们分别表示交互历史和候选item的ID序列。 ICL对LLM生成的序列进行操作,它需要LLM的生成能力,这在早期训练阶段可能受到限制,。直接用ICL训练模型可能会导致学习过程的低效和不稳定。
太长不看版 这篇文章主要做了两个工作: 工作1:使用冻结的LLM提取文本embedding后,设计了一个基于transformer的双塔结构,用对比学习的方式训练用户行为序列数据,以提取更适用于推荐任务的 同时,对于一些行为数据少的用户和物品(冷启动和长尾)ID embedding是学不好的,但是LLM对于语义信息的表征能力是很强的,所以自然就会想用LLM学习物品描述中的语义信息来改善推荐中的冷启动和长尾问题 现有的用LLM来做推荐的大多是通过构建prompt将推荐的数据文本化作为LLM的输入,然后通过生成式的方式来推荐物品,但受限于计算性能以及LLM的输入长度,所以也只能在几个玩具数据集上跑一跑,文章把这种方式称为 Rec-to-LLM, 而文章要做的工作就是LLM-to-Rec,将LLM用作特征提取器,将推荐任务作为训练目标,不仅有利于从 LLM 的开放世界领域无缝过渡到RS的协作领域,还能确保更好地满足工业在线 偏好理解PCH模块是为了将LLM生成的内容embedding与推荐任务进行对齐,弥补的开放世界知识与协作知识之间的领域差距,采用推荐任务的自监督训练目标来指导模型优化。
; 这种二阶段的应用方式,LLM 能力会很大程度受限于传统推荐模型效果的影响; 基于此,论文提出使用推荐数据微调(Instruct Tuning)LLM(LLaMA-7B+LoRA)。 生成推荐结果,与上面不同的是,PALR 通过微调 LLaMA-7B,并将微调之后的 LLM 作为生成推荐的排序模型。 Quadrant-1:相对较小的 PLM 用于语义特征提取,而后传统推荐模型用作后续推荐; Quadrant-3:利用 LLM 的 zero-shot 能力直接来推荐,但由于缺乏推荐专业领域知识,效果一般 【没有找到很多资料,欢迎推荐补充~】 LLM 在电商推荐系统的探索与实践 利用大模型的知识和推理能力,提高推荐模型对商品信息、上下文、用户行为序列的知识表达。 讨论 对于推荐而言,领域内的协同知识非常重要。LLM 只是 general knowledge 很强,有两种方式引入专业知识 引入传统推荐模型进行 serving 微调 LLM LLM 是否越大越好?
本文提出采用大模型LLM从用户的异构行为信息中提取和融合异构知识,然后将异构知识和推荐任务相结合,在LLM上执行指令微调进行个性化推荐。 ,指令是对任务的描述包括对类别,价格,商家等的偏好,而输出是用户真实的下单的标签 基于构建的指令数据进行微调,本文作者采用的LLM为chatglm-6b 2.1 异构知识融合 在异构知识融合阶段,利用LLM 基于用户行为生成的异构知识将用于LLM的微调和推荐阶段。 2.2 指令微调 微调过程旨在帮助LLM更好地理解异构知识,并进一步提高其在推荐任务中的准确性和适应性。 该指令包括用户对类别、价格和商家等偏好的推荐,而输出是用户下一个订单的真实标签。基于构建的指令数据集,对LLM进行指令调优。 作者选择开源模型ChatGLM-6B作为基础LLM,并采用Lora方法进行微调。 2.3 推荐 给定一个用户,从数据库中检索用户行为异构知识作为LLM的输入。
支持模型和功能对比PPL LLM只支持baichuan、chatglm、llama三个模型,Tensor-LLM支持几乎所有大模型。 TensorRT-LLM使用起来更方便模型量化TensorRT-LLM是离线量化,支持更多的量化方法,smooth quant、weight only、AWQ等PPL LLM是实时量化(i8i8),支持整个网络一起量化 模型DeployTensorRT-LLM量化结束,不需要deploy中间模型,直接进入编译器。部分模型可以支持onnx可视化PPL LLM不需要deploy以及编译,直接用onnx调算子。 /docs/llama_guide.md at master · openppl-public/ppl.llm.serving (github.com)TensorRT LLM原模型-->量化-->编译 两个框架都是tensor并行框架依赖Tensor-LLM需要依赖tensorrt,但主要是一些单算子(卷积、激活函数、gemm等),融合算子都是Tensor-LLM自带的。PPL LLM没有依赖
https://arxiv.org/pdf/2403.01744v2 简介 本文来自小红书和中科大, 首次尝试了将LLM应用到笔记推荐(Note Recommendation)中. 更具体的, 本文在推荐链路(召回->粗排->精排->重排)的召回环节, 新上(或替换了)一路现有的I2I(Item2Item, 这里item其实是Note)召回. 模型核心点是: 如何考虑用户共点击行为和属性/标签, 对LLM模型LLama2进行微调, 使之可以适配推荐场景的需求? 在线A/B测试的提升也非常显著. 相应的, prompt的结构如下: 这里[EMB]代表经过LLM生成的笔记的embedding, 用于后续的对比学习任务.
LLM-Rec:基于提示大语言模型的个性化推荐 1. 介绍 本文研究了利用大语言模型(LLM)进行输入增强的提示策略,以提高个性化内容推荐。 之前的研究更多关注直接利用LLM作为推荐模型。 推荐驱动提示:在基本提示的基础上加入推荐驱动指示,得到, , 。明确生成的内容描述用于内容推荐,引导LLM聚焦在关键特征上。 结论 本文介绍了LLM-Rec提示策略,利用大语言模型进行输入增强,以提高个性化内容推荐。通过对LLM-Rec四种变体的全面实验,观察到增强输入文本与原始内容描述的组合可显著提高推荐性能。 这些发现强调了使用LLM和策略化提示技术来提高个性化内容推荐的准确性和相关性的潜力。本文的研究凸显了创新方法对利用LLM进行内容推荐的重要性,并展示了输入增强在改进推荐性能方面的价值。
现有的涉及LLM的重排方法大致可以分为三类: 用重排任务微调LLM 使用prompt让LLM进行重排 以及利用LLM做训练数据的增强 本文中针对前两种方法介绍一些研究。 Method 使用TF-IDF相似度得到初步的候选文档集,再使用LLM进行重排。 LLM对召回的文档先进行打分,保留top K_1个文档,用超链接对这些文档进行扩展,再用LLM对扩展文档打分并挑选top K_2的文档,如此往复直到到达最大深度H。 一方面,LLM的输入长度对于一个文档列表来说还是十分受限的,必须通过滑动窗口或集成的方式才能实现文档输入。 另外,还有参数过剩与时效性的问题会导致LLM重排器难以落地。
论文:arxiv.org/abs/2307.15780 大型语言模型(LLM)在推荐系统中的使用在最近的研究中引起了极大的关注。许多研究已经探索了LLM作为推荐模型的直接使用。 虽然这些工作展示了LLM作为强大推荐模型的潜力,但重点主要是直接利用LLM进行推荐。然而,在这项研究中,本文从不同的角度来看待这个问题。 本研究没有使用LLM作为推荐模型,而是深入探讨了使用LLM增强输入文本的提示策略,以进行个性化内容推荐。 我们的研究深入了解了不同提示策略对推荐性能的影响,并揭示了利用LLM进行个性化内容推荐的潜力。 这些发现强调了使用LLM和策略化提示技术来提高个性化内容推荐的准确性和相关性的潜力。本文的研究凸显了创新方法对利用LLM进行内容推荐的重要性,并展示了输入增强在改进推荐性能方面的价值。
在这里,作者提出了LLM4Vis,基于大模型LLM(如ChatGPT)的提示方法,用于执行可视化推荐,并使用很少的示例返回类似人类的解释。 ,但是对应的解释,这里的解释通过大模型根据特征描述生成,这里的解释是为了增强推荐的可解释性,即为什么推荐某一类的可视化方法 具体流程可以看2.1节概览。 2.方法 2.1 概览 如图1所示,LLM4Vis由几个关键步骤组成:特征描述、演示示例选择、解释生成引导、提示构建和推理。 通过设计提示prompt,利用LLM,如ChatGPT的内置知识为每个样本生成适当的可视化和解释。 「StructGPT」面向结构化数据的大模型推理框架 用大模型LLM进行异构知识融合构建推荐系统 CIKM'23 | 统一的搜索推荐冷启动基础模型
Open LLM Leaderboard(英文) Open LLM Leaderboard中包含有下列Benchmark: 所有能力 通用&数学&code——MT-Bench,由80个高质量的多轮对话问题组成的基准 是多个数据集的结合,划分了LLM的语言、知识、推理、数学、Code、Agent几类能力。
本文总结了2026 WWW上有关LLM Graph的相关论文,包含Research一个Track的论文(没有其它track),总计24篇,如有疏漏,欢迎补充。 笔者将LLM和Graph结合的工作分为两大类,一类是LLM4Graph,即LLM做图任务。 另外一类是利用Graph4LLM,即利用图这种格式来增强LLM的能力。 LLM4Graph1. Disentangled Graph LLM for Molecule Graph Editing under Distribution Shifts4. ,RAG 推荐阅读 ICLR 2026 | LLM×Graph论文总结【LLM4Graph与Graph4LLM】 ICLR 2026 | Rebuttal前 图基础模型(GFM)&文本属性图(TAG)高分论文
RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐 1.MaxKB MaxKB = Max Knowledge 邮件自动化处理:LLM 可以用于起草电子邮件、社交媒体更新和其他形式的沟通。通过提供简要的大纲或关键要点,LLM 可以生成一个结构良好、连贯且与上下文相关的信息。 6.更多LLM框架推荐 更多框架推荐参考下述文章:LLM框架、RAG框架、Agent框架 LLMops如何重塑AI-native新范式的运维格局[行业范式]、以及主流LLMops推荐 国内大模型+Agent 应用案例精选,以及主流Agent框架开源项目推荐 6.1 DB-GPT: 用私有化LLM技术定义数据库下一代交互方式 DB-GPT是一个开源的AI原生数据应用开发框架(AI Native Data App 强大的Chat功能:Chat功能不仅支持多轮对话,还能通过智能推荐和上下文理解提升用户体验,适用于需要复杂交互的场景。
从今年开始,人们对大型语言模型 (LLM) 及其在 GPU 基础设施上的部署的兴趣显着增加。这种不断增长的热情是由人工智能和机器学习的进步推动的,这需要 GPU 能够有效提供大量的计算能力。 Ollama 是一个开源的机器学习模型部署工具,它可以帮助您将模型部署到生产环境中,简化大型语言模型 (LLM) 的管理和交互。
什么是LLM Agent导语GPT(尤其是GPT-4)等大语言模型(LLM)的推出,让人类认识到了大语言模型强大的文本生成能力。 只是用来做文本生成工具的话,LLM的能力就被严重低估了。 LLM Agent 概念定义关于LLM Agent, OpenAI 应用人工智能研究负责人Lilian Weng在其Blog中将LLM Agent定义为LLM、记忆(Memory)、任务规划(Planning 通过LLM和三个关键组件,LLM Agent可以拥有复杂的工作流程,其中模型基本上是与自身对话,而无需人工参与到交互的每个部分。 LLM Agent通过迭代运行并定义一些新的目标/任务,而非传统GPT那般接受单个查询的输入并返回输出LLM Agent 常见功能LLM Agent能够基于大语言模型进行对话、完成任务、推理,并可以展示一定程度的自主行为 LLM 与 三个组件LLM Agent 以 LLM 驱动,并需要三大组件辅助以完成工作(图片来自: https://lilianweng.github.io/posts/2023-06-23-agent
limit_mm_per_prompt image=4 --max_model_len 8784 成功挂载: 在Dify中编辑“模型供应商”,添加更多模型供应商“OpenAI-API-compatible”,不仅支持LLM
/trtllm_checkpoint_fp16 \ --dtype float16 ❝[TensorRT-LLM] TensorRT-LLM version: 0.17.0.post1 [TensorRT-LLM][INFO] Refreshed the MPI local session [TensorRT-LLM][INFO] MPI size: 1, MPI local size : 1, rank: 0 [TensorRT-LLM][INFO] Rank 0 is using GPU 0 [TensorRT-LLM][WARNING] Fix optionalParams : ] TRTGptModel maxNumSequences: 2048 [TensorRT-LLM][INFO] TRTGptModel maxBatchSize: 2048 [TensorRT-LLM : 0 [TensorRT-LLM][INFO] TRTGptModel maxNumTokens: 8192 [TensorRT-LLM][INFO] TRTGptModel maxInputLen: