首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • Java已死,模型才是未来?

    本文将从多个维度深入探讨Java的现状、模型技术的影响,以及Java模型融合的可能性,为读者提供一个更为全面和深入的视角。 Java模型的融合与变革在模型技术崛起的背景下,Java作为一种成熟且广泛应用的编程语言,自然也在探索与模型技术的融合之路。事实上,Java模型的融合已经取得了不少进展和成果。 首先,Java社区对于模型技术的支持和探索已经初见成效。一些开源项目和框架在Java环境中实现了深度学习和模型技术的支持,如Deeplearning4j、ND4J等。 这些项目和框架为Java开发者提供了丰富的工具和资源,使得他们能够更加方便地构建和部署基于模型的应用。其次,Java自身的特性和优势也为其与模型的融合提供了有力的支持。 同时,Java的跨平台特性也使得基于Java模型应用能够在不同的操作系统和硬件平台上运行,从而提高了应用的兼容性和可移植性。最后,Java模型的融合也推动了软件开发的智能化升级。

    82720编辑于 2024-09-29
  • 来自专栏码农编程进阶笔记

    Java + LangChain 开发语言模型应用!

    在 Baeldung 上看到了一篇介绍基于 Java + LangChain 开发语言模型应用的基础入门文章,写的非常不错,非常适合初学者。于是,我抽空翻译了一下。 1. 然而,目前没有官方的 Java 版本 LangChain 可供 Java 或 Spring 应用使用。 不过,社区开发了 Java 版本 LangChain,称为 LangChain4j[15] ,支持 Java 8 或更高版本,并兼容 Spring Boot 2 和 3。 模块化组件不仅提供了有用的抽象,还包含了一系列操作语言模型的实现。接下来,我们将通过 Java 示例来讨论其中的一些模块。 5.1. 这使得我们能够探索 LangChain 的 Java 版本 —— LangChain4j 的一些核心组件 。这些库未来将快速发展,它们会让开发由语言模型驱动的应用程序的过程变得更成熟和有趣!

    2.6K12编辑于 2025-03-29
  • 来自专栏快乐阿超

    Java生态AI模型框架langchat

    ——严歌苓 Github: GitHub - TyCoding/langchat: LangChat: Java LLMs/AI Project, Supports Multi AI Providers ( OpenAI / Gemini / Ollama / Azure / 智谱 / 阿里通义模型 / 百度千帆模型), Java生态下AI模型产品解决方案,快速构建企业级AI知识库、AI机器人应用 官方文档: https://langchat.cn/ 介绍: LangChat是Java生态下企业级AIGC项目解决方案,在RBAC权限体系的基础上,集成AIGC模型能力,帮助企业快速定制AI知识库 接入 OpenAI / Gemini / Ollama / Azure / Claude / 智谱AI / 阿里通义模型 / 百度千帆模型模型。 这里顺带说一下咱们dromara的easyai也是Java生态的AI模型框架,采用Apache-2.0开源协议,可以免费商用~

    41410编辑于 2024-09-13
  • 来自专栏创作是最好的自我投资

    通用模型VS垂直模型

    在人工智能这个充满无限可能的领域内,通用模型和垂直模型各有千秋。就我个人而言,在二者之间的选择上,并不存在偏向某一方的倾向。我觉得应当依据实际应用场景的具体需求,来挑选最为契合的模型。 通用模型通用模型,乃是旨在应对多种任务与数据类型的庞然物级人工智能模型。 在知识覆盖的广度方面,通用模型无疑具有明显的优势。当我们对于当下所需模型所涉及的精确专业领域的界限感到模糊不清时,选择通用模型无疑是一种明智之举。垂直模型接下来谈谈垂直模型。 然而,由于垂直模型的训练内容聚焦于当前行业,其涉猎的范围更集中,数据针对性更强,所以在提供专业咨询时往往更加精准、细致,这也正是垂直模型的独特价值所在。 因此,对于通用模型或者垂直模型,更倾向于哪一方不取决于个人想法,而是取决于用户需要。

    75901编辑于 2024-12-30
  • 来自专栏小洁叫你mysql

    【AI模型】训练Al模型

    模型超越AI 目前所指的模型,是“大规模深度学习模型”的简称,指具有大量参数和复杂结构的机器学习模型,可以处理大规模的数据和复杂的问题,多应用于自然语言处理、计算机视觉、语音识别等领域。 本文将探讨模型的概念、训练技术和应用领域,以及与模型相关的挑战和未来发展方向。 模型是指具有庞大参数数量的机器学习模型。传统的机器学习模型通常只有几百或几千个参数,而模型则可能拥有数亿或数十亿个参数。 训练模型的挑战 训练模型需要应对一系列挑战,包括: 以下是与模型相关的一些代码示例: 计算资源需求: import tensorflow as tf # 指定使用GPU进行训练 with tf.device 更智能的模型压缩技术:模型压缩和加速技术将继续发展,以减小模型的计算和存储开销。 更好的计算平台支持:为了支持训练和部署模型,计算平台将继续改进,提供更强大的计算资源和工具。

    1.5K30编辑于 2023-10-10
  • TL-JAVA+AI模型智能应用开发

    在人工智能技术席卷全球的当下,企业级模型应用正成为数字化转型的核心驱动力。然而,传统Java开发者往往面临技术断层:既需要突破AI算法的复杂门槛,又要解决模型与现有业务系统的融合难题。 混合编程突破技术边界针对Java生态与AI工具的兼容性问题,TL课程推出“双引擎协同方案”:轻量级场景:通过JNI调用PyTorch模型,在Java服务中直接嵌入图像识别能力。 智慧医疗:知识图谱与模型的协同创新TL课程独创的“双脑驱动”模式在某三甲医院落地:知识图谱构建:从300万份电子病历中提取12万组实体关系,形成医疗知识中枢模型推理:基于知识增强的GPT模型,将辅助诊断准确率提升至 四、未来展望:智能系统的无限可能随着模型技术进入“工程化落地”深水区,TL课程正探索三前沿方向:自适应学习系统:开发能够根据业务反馈自动优化模型参数的智能引擎隐私增强计算:研究同态加密、差分隐私等技术 ,保障企业数据安全具身智能集成:探索模型与机器人、物联网设备的深度融合在AI重塑产业格局的今天,TL课程证明:Java开发者不仅不会被时代淘汰,反而能凭借工程化优势成为智能系统构建的核心力量。

    50110编辑于 2025-11-21
  • TL-JAVA+AI模型智能应用开发

    在人工智能的浪潮之巅,语言模型(LLM)以其惊人的能力,正以前所未有的深度和广度重塑着各行各业。 起点:不止于“Hello, World”的模型调用对于许多开发者而言,与AI模型的初次邂逅往往始于一个简单的API调用。 核心:RAG——让模型“接上地气”单纯依赖模型预训练知识的应用是脆弱的。为了让AI能够理解企业私有的、动态更新的知识,检索增强生成(RAG)架构应运而生。 RAG逻辑编排: 在Java后端服务中,RAG的核心逻辑——接收用户查询、检索相关文档片段、构建增强的Prompt、调用模型、返回结果——可以被清晰地编排成一个业务流程。 结语:Java,AI时代的可靠基石从最初的一个简单API调用,到一个承载着核心业务、具备高可用性和可扩展性的企业级AI服务,Java以其无与伦比的生态成熟度、稳定性和企业级特性,为AI模型的全链路开发铺就了一条坚实的道路

    34710编辑于 2025-11-24
  • 来自专栏学习

    开源模型与闭源模型

    在人工智能(AI)和机器学习(ML)的快速发展过程中,模型(Large Models)已经成为推动技术进步的重要力量。当前,业界存在两种主要的模型开发模式:开源模型和闭源模型。 一、开源模型 开源模型是指开发者将模型的代码和训练数据公开,使得任何人都可以访问、修改和使用这些资源。 二、闭源模型 闭源模型是指模型的代码和数据不对外公开,通常由商业公司开发和维护。代表性的闭源模型包括OpenAI的GPT-3和Google的BERT。 三、开源模型与闭源模型的对比 1.透明性与可控性: 开源模型的透明性更高,任何人都可以查看和验证其代码和数据,确保模型的行为符合预期。这对于学术研究和技术验证非常重要。 闭源模型通过控制代码和数据的访问,能够更好地保护用户隐私和数据安全,降低被恶意利用的风险。 五、总结 开源模型和闭源模型各有优缺点,适合不同的应用场景和需求。

    1.7K10编辑于 2024-10-09
  • 来自专栏IT从业者张某某

    模型模型的幻觉问题

    参考 模型中的涌现 OpenAI 科学家:幻觉是模型与生俱来的特性,而非缺陷 模型「幻觉」,看这一篇就够了|哈工大华为出品 模型 什么是模型 语言模型(LLM)是基于海量文本数据训练的深度学习模型 模型模型发展如下图 涌现 参考:模型中的涌现 什么是涌现?先从蚂蚁开始说起。蚂蚁是自然界中一种个体非常简单,但是群体能力非常强大的生物。 如何解决模型的「幻觉」问题? 方向一:什么是模型「幻觉」 模型出现幻觉,简而言之就是“胡说八道”。 用文中的话来讲,是指模型生成的内容与现实世界事实或用户输入不一致的现象。 OpenAI 科学家 Andrej Karpathy关于模型幻觉 在 Karpathy 看来: 从某种意义上说,语言模型的全部工作恰恰就是制造幻觉,模型就是「造梦机」。 只有模型助手存在幻觉问题。 方向二:造成大模型「幻觉」的原因 那么致使模型产生幻觉的原因都有哪些?

    1.8K11编辑于 2024-01-04
  • 来自专栏数据派THU

    原创 | 模型扫盲系列——初识模型

    为了提高模型的性能,研究者们不断尝试增加模型的参数数量,从而诞生了模型这一概念。本文将从模型的原理、训练过程、prompt和相关应用介绍等方面进行分析,帮助读者初步了解模型。 为了提高模型的性能,研究者们不断尝试增加模型的参数数量,从而诞生了模型这一概念。本文讨论的模型将以平时指向比较多的语言模型为例来进行相关介绍。 训练三步骤 初步认识了模型长什么样了,接下来一起来看看如何训练出一个模型。 除这些外还包括算法优化、隐私和数据安全以及模型可解释性等方面的研究和应用,每天还有很多大模型的应用正在不断涌现,模型在未来仍然有很大的发展潜力,国内的优秀模型代表例如百度文心模型也正在搭建全系统产业化的模型全景 模型挑战 模型也存在一些现实挑战: 1.数据安全隐患:一方面模型训练需要大量的数据支持,但很多数据涉及到机密以及个人隐私问题,如客户信息、交易数据等。

    21.2K29编辑于 2023-11-22
  • 来自专栏人工智能极简应用

    【AI模型】Transformers模型库(八):模型微调之LoraConfig

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 LoRA是一种用于微调大型语言模型的轻量级方法,它通过添加低秩矩阵到预训练模型的权重上来实现适应性调整,从而在不显著增加模型大小的情况下提升特定任务的性能。 task_type: 指定任务类型,如'CAUSAL_LM',以确保LoRA适应正确应用到模型的相应部分。 get_peft_model(model, config) print_trainable_parameters(model) 三、总结 本文简要介绍LoraConfig的配置参数情况,具体的机遇peft对模型进行微调后面单独开一页详细讲解

    95010编辑于 2024-08-13
  • Java模型开发:核心疑问与落地指南

    Java生态对接AI模型已成为企业智能化转型的热门方向,结合JBoltAI的实践经验,整理了开发者最关心的核心问答,帮你少走弯路。问:Java做人工智能,核心优势在哪?适合什么场景? JBoltAI作为原生Java框架,正是贴合这一需求,让Java开发者能在熟悉的技术栈内快速落地AI能力。问:Java模型和普通AI开发有啥区别?重点在哪? 答:Java模型开发更强调“工程化落地”,而非单纯的模型调用。普通AI开发可能只关注功能实现,而Java模型开发需要解决多模型适配、资源管控、成本优化、生态融合等企业级问题。 重点在于让模型能力稳定融入Java系统,比如对接Spring生态、支持高并发请求、实现模型负载均衡等。JBoltAI的设计思路就是围绕这些重点,提供标准化的模型接入和管控方案。 问:Java接入AI模型,常见坑有哪些?怎么避?

    14410编辑于 2026-02-05
  • Java接入AI模型:框架助力与实践指南

    Java接入AI模型是企业实现数智化升级的关键路径,但原生开发面临多模型适配、工程化部署等挑战。 一、Java接入AI模型的核心难点Java接入AI模型的核心难点集中在三个方面。 不同厂商的模型接口规范不统一,导致集成多个模型时需要重复开发适配代码;企业现有Java系统与AI能力的融合需要兼顾架构兼容性,避免大规模重构;模型调用涉及的资源调度、权限管控、数据处理等工程化问题, 三、Java接入AI模型的实践要点(一)需求匹配与模型选型接入前需明确业务需求,根据场景选择合适的模型类型与部署方式。 Java接入AI模型的核心是平衡技术适配与业务需求,借助JBoltAI等框架的标准化能力,可有效降低开发难度,提升项目落地效率。

    26510编辑于 2026-01-28
  • Java接入AI模型:JBoltAI的实践与应用

    Java技术团队接入AI模型时,往往会面临诸多痛点:模型调用的底层逻辑与Java开发习惯差异较大,跨语言开发增加学习成本;现有Java系统与模型能力的对接需要大量定制化开发,效率低下;不同模型的调用接口不统一 从底层对接来看,JBoltAI已完成对多款主流AI模型的深度整合,将不同模型的调用接口进行标准化、封装化处理,转化为Java原生的调用方式。 Java开发者无需研究不同模型的专属调用协议,只需通过框架提供的统一接口,就能实现对各类模型的调用,同时框架支持私有化部署的模型,满足企业数据安全与私有化的需求。 AI模型Java系统中的落地方法。 在实际应用中,JBoltAI将AI模型能力与具体的业务解决方案结合,让Java接入模型后能快速落地到实际场景。

    24410编辑于 2026-03-06
  • 图灵-JAVA+AI模型智能应用开发课程

    Java,凭借其稳定性、生态成熟度、企业级治理能力和对复杂系统的天然亲和力,正悄然成为模型时代不可或缺的“幕后引擎”。 正是在这一趋势下,《TL-JAVA+AI 模型实战》课程应运而生,聚焦两核心能力:模型推理部署与企业级系统集成,帮助 Java 工程师抢占未来十年的技术制高点。 本课程并非将 Java 与 AI 简单拼接,而是深入剖析二者融合的底层逻辑。例如:如何在 Spring Boot 微服务中封装模型推理接口?如何通过异步流式处理支持长文本生成? 据行业调研,具备 Java + 模型集成经验的高级工程师,薪资溢价显著,且职业发展路径可延伸至技术负责人、AI 产品架构师甚至 CTO 角色。未来已来,只是分布不均。 Python 让 AI 被看见,而 Java 让 AI 被信任、被规模化、被真正用起来。《TL-JAVA+AI 模型实战》不教人追逐热点,而是锻造在 AI 落地深水区中稳扎稳打的核心战斗力。

    57311编辑于 2025-11-22
  • 来自专栏IT从业者张某某

    语言模型-1.2-模型技术基础

    简介 1.2 模型技术基础 语言模型 预训练阶段会得到base model,本质上就是一个互联网文本模拟器,这个阶段需要上万台服务器训练几个月的时间,这个生成的模型可以认为是互联网的有损压缩。 构建一个语言模型 语言模型预训练(Pre-training) 使用与下游任务无关的大规模数据进行模型参数的初始训练 ➢ 基于Transformer解码器架构,进行下一个词预测 ➢ 数据数量、数据质量都非常关键 人类对齐(Human Alignment) ➢ 将语言模型与人类的期望、需求以及价值观对齐 ➢ 基于人类反馈的强化学习对齐方法(RLHF) 模型的研发已经成为一项系统工程 扩展定律( Scaling Law) ➢ 通过扩展参数规模、数据规模和计算算力,语言模型的能力会出现显著提升 ➢ 扩展定律在本次大模型浪潮中起到了重要作用 语言模型采用了与小型预训练语言模型相似的神经网络结构 ,从而获得更可靠的答案 涌现能力与扩展定律的关系 ➢ 涌现能力和扩展定律是两种描述规模效应的度量方法 模型核心技术 ➢ 规模扩展:扩展定律奠定了早期模型的技术路线,产生了巨大的性能提升

    51410编辑于 2025-03-15
  • 来自专栏机器学习入门

    【AI模型】LLM主流开源模型介绍

    学习目标 了解LLM主流开源模型. 掌握ChatGLM、LLaMA、Bloom等基础模型的原理 LLM主流模型类别 随着ChatGPT迅速火爆,引发了模型的时代变革,国内外各大公司也快速跟进生成式AI市场,近百款模型发布及应用 目前,市面上已经开源了各种类型的语言模型,本章节我们主要介绍其中的三类: ChatGLM-6B:衍生的模型(wenda、ChatSQL等) LLaMA:衍生的模型(Alpaca、Vicuna BLOOM模型 BLOOM系列模型是由 Hugging Face公司的BigScience 团队训练的语言模型。 小结 本小节主要介绍了LLM主流的开源模型,对不同模型架构、训练目标、优缺点进行了分析和总结。

    1.2K10编辑于 2024-09-24
  • 来自专栏人工智能极简应用

    【AI模型】Transformers模型库(十二):Evaluate模型评估

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 本文重点介绍Evaluate模型评估。 二、Evaluate模型评估 2.1 概述 Transformers库中的evaluate API主要用于评估模型在特定数据集上的性能。 下面是一个使用Python和Transformers库进行模型评估的基本步骤,假设你已经有了一个预训练模型和相应的数据集处理器。 评估结果将包含各种指标,如准确率,具体指标还要取决于你的模型

    1K10编辑于 2024-08-13
  • 来自专栏muller的测试分享

    MetaLlama模型

    llama 模型介绍我们介绍 LLaMA,这是一个基础语言模型的集合,参数范围从 7B 到 65B。 我们在数万亿个Token上训练我们的模型,并表明可以专门使用公开可用的数据集来训练最先进的模型,而无需诉诸专有的和无法访问的数据集。 特别是,LLaMA-13B 在大多数基准测试中都优于 GPT-3 (175B),llama2 模型介绍我们开发并发布了 Llama 2,这是一组经过预训练和微调的大型语言模型 (LLM),其参数规模从 我们经过微调的语言模型(称为 Llama 2-Chat)针对对话用例进行了优化。 //huggingface.co/meta-llama/Llama-2-7bhttps://huggingface.co/docs/transformers/model_doc/llamallama 语言模型提供的主要模型列表

    44510编辑于 2024-09-02
  • 来自专栏muller的测试分享

    mixtral模型

    简介Mixtral 是一种具有开放权重的高质量稀疏专家混合模型 (SMoE)。根据 Apache 2.0 许可。 它是最强大的开放权重模型,具有宽松的许可证,也是成本/性能权衡方面的最佳模型。特别是,它在大多数标准基准测试中匹配或优于 GPT3.5。Mixtral 的特点可以优雅地处理 32k 令牌的上下文。 请为google编写web自动化测试用例,使用pytest page object设计模式,断言使用hamcrest') debug(r)总结Mixtral 是一种具有开放权重的高质量稀疏专家混合模型

    22410编辑于 2024-10-16
领券