首页
学习
活动
专区
圈层
工具
发布
首页标签第四期热点征文-大模型技术

#第四期热点征文-大模型技术

大模型应用:大模型多线程推理:并发请求的处理与资源隔离实践.77

未闻花名

我们通常在做大模型应用处理时,常规单一请求的输入问题→等待模型返回→得到答案,一切都很顺畅,但如果有 10 个人、100 个人同时请求,就会出现我们经常遇到的并...

2722

ModelEngine思想落地指南:用“智能体 + 插件”构建可复用AI应用.76

未闻花名

在AI应用开发过程中,我们常面临“重复造轮子”、“流程碎片化”、“技术门槛高”三大绊脚难题,不同场景需重新编写数据处理、工具调用逻辑,非专业人员难以参与,复杂流...

8342

AI 成为主流负载后,数据基础设施将如何演进?

SelectDB技术团队

在过去几年中,数据基础设施的演进始终围绕一个核心问题展开:如何更快地分析数据?但进入 2026 年,这个问题正在被重新定义。随着 AI 应用的爆发式增长,数据系...

4600

大模型应用:本地数学模型:从导数求解到公式推导轻松搞定数学任务.74

未闻花名

最近在实际应用的基础上深挖了一些算力和显存的底层业务,也被各种烧脑的计算算法折腾的心力交瘁,在这个过程中,我们基本都要么依赖笨重的专业数学软件,要么手动逐行推导...

10442

大模型应用:算力分层治理:基于大模型算力四层匹配体系的优化方案.72

未闻花名

大模型的应用,算力成了我们逃脱不开的话题,往往我们在谈到模型应用这个事情,算力焦虑似乎成了我们都会遇到的痛点。不仅是我,我相信都会陷入“算力要显卡、加卡即提效”...

16742

大模型应用:批量文档摘要与分类实践:本地合同、报告数据处理与导出.70

未闻花名

在日常工作场景中,批量处理合同、报告类文档是高频刚需,传统人工逐份阅读、总结、分类的模式,不仅耗时耗力、易漏关键信息,还存在敏感数据泄露风险。而基于本地批量文档...

21252

大模型应用:大模型运行全流程解析:从初始化加载→计算→结果输出.69

未闻花名

大模型的运行本质上是一条从静态存储到动态智能的完整技术链路。整个过程始于硬盘中保存的模型权重与配置文件,这些静态数据在启动时被加载至系统内存,并由CPU完成初步...

20732

大模型应用:GPU的黑盒拆解:可视化看透大模型并行计算的底层逻辑.67

未闻花名

显卡的核心是图形处理器,也就是我们常说的GPU,全称Graphics Processing Unit,它和 CPU 的本质区别是并行计算架构,CPU 擅长复杂的...

21432

大模型应用:多卡集群跑满14B模型:大模型推理算力应用实践.66

未闻花名

我们需要在 10 台 RTX 4090 组成的算力集群上部署 Qwen-14B大模型,支撑日均 10 万次用户对话推理请求,核心痛点:

19332

大模型应用:大模型算力优化方案:识别突破隐性瓶颈达到效能最大化.65

未闻花名

在大模型落地实践中,我们都会面临一个共性困惑:明明显卡算力达标、模型量化适配,实际运行时却始终跑不满算力,甚至出现卡顿、显存溢出等问题。前文我们已详解算力指标(...

28942

大模型应用:Mistral-7B-Instruct 中文超长文本处理实战全解析.59

未闻花名

今天的核心目的就是为了做一个超长上下文处理的实践,我们常用的模型LLaMA-2 默认上下文长度为 4096 tokens,原生不支持滑动窗口!强行设置 conf...

27142

大模型应用:稀疏注意力 vs 滑动窗口:大模型扩窗技术完全解析.58

未闻花名

我们应该也遇到过这样的情况,在和模型应用沟通的过程中,聊着聊着它就忘了开头的要求;或者让模型工具分析一本几百页的电子书,它只记住了最后几页的内容?我们也反复讨论...

22044

大模型应用:上下文理解极限:Context Window 与注意力跨度的数学边界.57

未闻花名

在大模型的世界里,理解其处理长文本的能力,不能只看一个数字。我们常听到“支持128K上下文”这样的宣传,但真正决定模型能否有效利用这些信息的,远不止窗口长度本身...

53442

大模型应用:大模型瘦身:量化、蒸馏、剪枝的基础原理与应用场景深度解析.56

未闻花名

如今大模型越来越火,不管是企业做业务落地,还是我们作为个人开发者上手体验,都绕不开一个核心问题:大模型虽强,但太笨重,动辄几十上百GB显存占用,普通硬件跑不动,...

49154

大模型应用:高精度量化感知训练(QAT)与低成本后训练量化(PTQ)方案优选.55

未闻花名

在我们反复探讨的大模型落地的过程中,高性能与低成本的矛盾始终存在。想用好一个高性能拥有千亿参数大模型,都面临着存储占用高、推理速度慢的问题。模型量化作为一种核心...

40742

大模型应用:大模型量化:INT4与INT8核心差异、选型指南及代码实现.53

未闻花名

大模型的量化我们前期也探讨了基础概念和实践原理,针对CPU的量化流程做了通俗易懂的基础说明,但实际应用场景往往是需要GPU的落地实践,随着大模型参数规模突破千亿...

58852

大模型应用:量化校准:全局/分组 Min-Max、GPTQ、AWQ 算法最优匹配.54

未闻花名

一直以来,我们都围绕大模型的本地部署由浅入深的仔细讨论,大模型的落地困境从来离不开“显存”与“速度”,以 LLaMA-7B 为例,FP32 精度下显存占用高达 ...

64932

大模型应用:中小显存适配方案:大模型微调底座选型指标与应用实现.52

未闻花名

在大模型微调落地场景中,中小算力设备是多数开发者的主力工具。此类设备面临显存有限但需满足特定任务需求的核心矛盾,以中文电商文案生成为例,需兼顾文案流畅度,同时确...

43432

大模型应用:大模型越大越好?模型参数量与效果的边际效益分析.51

未闻花名

我们接触大模型以来,经常听到什么模型有多少亿参数,通常1B/7B/13B/34B/70B/175B或者GPT有 1750 亿参等等这类说法,很容易让我们陷入模型...

42742

大模型应用:大模型的token频率偏见:高频词与低频词的嵌入表示差异分析.46

未闻花名

随着大模型技术深入渗透到日常对话、专业咨询、内容创作等多元场景,模型对高频词汇的理解精准度远超低频词汇,这种差异直接影响着输出结果的可靠性与实用性。从底层逻辑来...

32542
领券