首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏技术翻译

    为微服务架构编写测试

    微服务架构的一个主要方面是应用程序形成为松散耦合的服务的集合,每个服务可以独立地部署并且通过某种轻型协议相互通信。 现在假设您要为Cart Service编写测试。 在更复杂的情况下,在成本(部署云),时间(启动所有基础架构和服务)和维护时间方面,运行这些测试可能会很昂贵。 很难在开发人员计算机中运行它们,因为您需要在计算机上安装所有部件。 因此,测试不是测试微服务的最佳方法,但您仍需要一种从服务的开始结束进行测试的方法。 有必要找到一种“模拟”这些外部依赖关系的方法,而不必注入任何模拟对象。 让我们看看Cart Service的“”测试是怎样的。 因此,任何微服务中的测试与整体应用程序中的测试并不完全相同; 您仍在测试整个服务,但保持受控环境,其中测试仅依赖于服务边界内的组件。 合同测试如何适应?

    1.8K10发布于 2018-12-12
  • 来自专栏超级架构师

    【日志架构】ELK Stack + Kafka 练习

    利用缓存层最流行的解决方案之一是将Kafka集成ELK堆栈中。我们将在本章讨论如何建立这样的环境。 架构 当Kafka被用作ELK栈中的缓存层时,将使用如下架构: ? 156/157 (hostnames: e2e-l4-0690-155/156/157): kafka cluster zookeeper will also be installed on these 3 10.226.69.157:2888:3888 Create file /var/lib/zookeeper/myid with content 1/2/3 on each node: echo 1 > /var/lib/zookeeper/myid # kafka69155 echo 2 > /var/lib/zookeeper/myid # kafka69156 echo 3 > /var/lib Logstash产生日志Kafka 每个Logstash实例负责合并某些指定数据源的日志。

    69720发布于 2020-08-12
  • 来自专栏媒矿工厂

    利用混合架构自动化加速AI商业化

    Sriram首先介绍了IBM为业界AI项目落地和实现商业价值所做的工作,包括为自然语言处理的落地带来巨大进步,实现上百万条对话的自动处理;提高数据科学的规模和计算速度;以及将AI模型的迭代周期大幅缩短等 尤其是部署方面,还存在着如何集成业务和工作流程以及治理和风险管理的问题,需要进行持续的检测和迭代。Sriram指出他将以AI在商业化的部署和应用过程为主进行介绍。 Sriram也介绍了在自动化部署下的AI模型生命周期流程,包括数据收集和增强,模型训练与评估以及部署三个方面,并指出了在应用反馈数据并通过自动机器学习更新模型的重要性。 在模型方面,Sriram指出在实际商业部署中,精度不是最主要的问题,还要考虑部署成本等其他实际问题。因此,Sriram指出,模型需要在多种制约因素下联合训练,以满足实际部署的需要。 模型的可解释性,以实现对于AI模型更好的控制和风险管理。

    36120发布于 2021-07-29
  • 来自专栏深度学习与python

    微软发布 OpenAI 聊天参考架构基线

    作者 | Robert Krzaczyński 译者 | 明知山 策划 | Tina 微软发布 OpenAI 聊天参考架构基线。 OpenAI 聊天架构基线利用类似于用于托管聊天 UI 的基线应用服务 Web 应用程序的组件。该架构优先考虑用于编排聊天流程、数据服务和访问大型语言模型(LLM)的组件。 OpenAI 聊天架构基线(来源:微软博客) OpenAI 聊天架构基线优先考虑了网络安全以及基于身份的访问。 关键点包括聊天 UI 流量的安全入口点、过滤的网络流量以及对传输中的数据使用 TLS 进行加密。通过使用 Private Link 来最小化数据外流。 该架构包含将托来自 App Service 托管的聊天 UI 的调用路由 Azure Machine Learning 的在线端点,然后将调用定向运行部署流的服务器。

    32110编辑于 2024-03-07
  • 来自专栏PaddlePaddle

    ”思想

    深度学习基础理论-CNN篇 “”思想 深度学习的一个重要思想即“”的学习方式(end-to-end manner),属表示学习(representation learning)的一种。 对此,深度学习则为我们提供了另一种范式(paradigm)即“”学习方式,整个学习流程并不进行人为的子问题划分,而是完全交给深度学习模型直接学习从原始输入到期望输出的映射。 相比分治策略,“”的学习方式具有协同增效的优势,有更大可能获得全局最优解。

    1.8K70发布于 2018-04-24
  • 来自专栏音视频技术

    MPAI正式启动AI编码标准

    点击上方“LiveVideoStack”关注我们 整理 | Alex 近期,MPAI创始人、MPEG前主席Leonardo Chiariglione在他的博客上宣布MPAI正式启动AI编码标准 AI编码是指使用单层神经网络训练数据:由单层网络输出的数据被压缩,然后在接收被另一个网络解码。 的端视频编码 (MPAI-EEV,AI-based End-to-End Video Coding project),该项目受到了相关研究的推动(这些研究收获了重大成果,同时进一步研究也要持续跟进 会议对端视频编码研究做了初步分析。 Leonardo表示,在各方编解码器竞争激烈的态势下,MPAI将保持更加清醒的态度,积极致力于基于AI的视频编解码方法。

    80620发布于 2021-10-14
  • 腾讯智绘影音:AI驱动音视频架构演进与业务增长

    构建一体化AI音视频引擎:融合实时通信与多模态能力 针对上述痛点,腾讯提供涵盖底层网络、AI处理与前端特效的结构化解决方案: Tencent RTC AI 实时对话架构: 提供客户与服务的一体化集成方案 AI 实时翻译引擎: 依托TRTC全球传输网络,实现文字文字、语音文字(实时字幕)、语音语音(同声传译)的全链路覆盖,内置距离感知VAD与多说话人识别。 腾讯游戏语音 GVoice AI 方案: 采用云协同架构,前端运用小模型进行定向拾音、VAD人声检测与AI解码;云端提供级联方案(ASR-LLM-TTS)与语音E2E大模型的自由选择。 30日留存率:AI陪伴类达到 15% - 50%,而传统类普遍 低于 10%(Dating类仅约 3-5%)。 交互频率:实现 24/7 全天候响应,日均消息数达 70+ 条。 极致的系统性能: 音视频延迟 低于 300ms。 AI对话延迟 低于 1000ms。 高精度的环境与设备兼容: 多语种支持覆盖 130种 国际语言及 23种 方言。

    14910编辑于 2026-04-02
  • 来自专栏老张的求知思考世界

    漫谈测试

    从我的角度来看,所谓测试,通俗理解就是从一另一完整串联起来的测试方法。当然,由于是漫谈,我会尝试通过对几个与测试有关的问题思考,来聊这个话题。什么是测试? 至于测试的步骤,与常规的测试流程并无太大区别,都是从需求分析开始,线上交付结束。当然,测试并非是特别新颖和独特的测试方法,早在16、17年,业内就有了类似的测试思路,如业务流、数据流。 测试的优势与不足上面提到了测试的难度相比于传统的测试方法更大,主要体现在业务和系统的复杂性会让测试的实施成本随之水涨船高。 要设计测试用例,就要提前梳理对应的业务流程和数据模型;要执行测试用例,就需要确保该链路的通畅性;同时还要完善的监控覆盖,以及保障测试执行环境的稳定性(这是最大的影响测试结果的因素)。 今年以来各种技术大模型开始涌现,借助AI大模型的能力,在业务场景和数据模型梳理以及用例完善方面,也许能获得一定的助力。当然,如何实践还需要自己亲自去尝试,找到适合自己的方法。

    73210编辑于 2024-08-21
  • 边缘AI云协同架构

    边缘AI云协同架构概述 边缘AI将人工智能模型部署在边缘设备(如手机、传感器、嵌入式设备)上,实现本地实时处理;云协同通过边缘与云计算的协作,平衡计算负载、隐私与延迟。 案例分析 案例1:智能家居安防系统 架构设计: 边缘:摄像头运行轻量级YOLOv5模型,实时检测入侵者,触发本地警报。 云端:上传可疑图像至云端进行高精度分析(如ResNet),并通知用户。 案例2:工业设备预测性维护 架构设计: 边缘:传感器采集设备振动数据,运行LSTM模型预测故障。 云端:聚合多设备数据,训练全局模型并下发更新至边缘。 技术要点: 边缘计算减少数据传输延迟。 output_details = interpreter.get_output_details() # 模拟输入数据 input_data = np.random.randn(1, 224, 224, 3) 通过案例与代码可见,边缘AI云协同能显著提升响应速度并降低带宽消耗,但需权衡模型精度与资源限制。

    45210编辑于 2026-01-20
  • 来自专栏测试开发技术

    这款AI测试工具 Testim,让效率飙升!(支持移动、Web

    随着人工智能(AI)和机器学习(ML)技术的飞速发展,AI测试工具应运而生,为软件测试领域带来了革命性的变化。今天,我要向大家强烈推荐一款专为测试设计的AI测试工具——Testim! (文章较长,建议收藏,反复实操) 1、Testim介绍 Testim 是一款专为现代软件开发团队打造的测试平台,它深度融合了人工智能技术,旨在简化测试流程,提高测试效率与可靠性。 四、多场景覆盖能力 1、与API测试 支持Web、移动应用的UI测试及API功能/性能测试,覆盖全链路验证。 提供行为驱动开发(BDD)支持,将业务需求转化为可执行测试脚本。 3、Testim安装使用 一、注册账号 访问Testim官网(www.testim.io),点击“Sign Up”按钮注册一个新的账户。 而Testim作为一款专为测试设计的AI测试工具,凭借其智能定位、无代码操作、无缝集成CI/CD流程等核心特性,为测试工作带来了前所未有的便捷和高效。

    4.5K01编辑于 2025-04-04
  • 来自专栏CKL的思考空间

    需求交付管理

    一直以来,作为研发人员,我们关注的都是研发任务的交付(从需求澄清到需求交付),很少有人会去关注需求本身是否给产品或者企业带来多少真正的价值(如激活了多少存量用户、吸引了多少新用户等等)。 今天我们跳出研发的角色,聊一聊需求的交付管理。 上图直观的反映了当下交付需求的不确定性。往常,我们只需要根据合同或者行业成熟的解决方案,定期交付我们的产品,然后按合同收款即可。 原来2个月或者半年发布一个版本,我们的试错周期是2个月或者半年,但是当我们把节奏变成2周或者3周时(这个会根据每个团队进行调整),我们试错的机会是不是变多了呢? 敏捷中有一个名词叫MVP(Minimum Viable Product最小可行产品),如上图,用户的需求是需要一辆车,图一呢,就是从车轮子车底盘车架到完整的汽车的过程,在这个交付过程中呢我们的车都是不可用的 ,再来看第二幅图,从一个滑板滑板车自行车摩托车再到汽车,在这个交付过程中的每个阶段,我们都有车可用。

    78320编辑于 2023-02-01
  • 来自专栏小鹏的专栏

    10 语音识别

    语音识别 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? • Espnet: https://github.com/espnet/espnet • 实现了主流的语音识别方法 • Speech-Transformer、LAS、CTC、RNN-T • 一个小缺点

    1.9K20发布于 2020-03-25
  • 来自专栏不能显示专栏创建者

    自主的测试

    机器学习在测试中的核心优势是能够利用高度复杂的产品分析数据来识别和预测用户需求。

    65900发布于 2020-12-14
  • 来自专栏从流域到海域

    的深度学习

    的深度学习 有些数据处理系统,或者机器学习系统需要多个阶段的处理。的深度学习,做的是用单个深度神经网络(一般情况下)去替代多个阶段的处理过程。 ? 如上图,传统的语音识别大致包括四个步骤,而的深度学习直接接收声音输入,然后完成听译过程。 它目前面临的其中一个挑战是,你可能需要大量的数据才能使它运行得很好。 而关于直接从图片映射到人的身份这个数据集可能只有很小的一部分数据,在该情况下端的深度学习不能取得更好的效果。 下面是2个正面的例子。 ? 学习的优缺点 ? 优点: 让数据说话 不需要手动设计组件 缺点: 可能需要大量的数据 排除了可能是有用的手动设计组件 什么时候使用的深度网络 ? 如图:一个正例,一个反例。 而人脸识别这个例子,人脸位置识别和身份识别两个组件就十分恰当,所以才能得到优于学习的效果。 所以组件的合理性和完备性及其适用性也是我们去考虑要不要舍弃去进行学习的一个考量。

    1.2K20发布于 2019-05-26
  • 来自专栏CRM日记本

    到底指什么?

    1 初步认识 首先我们看下MBA智库里对的解释: “流程是从客户需求端出发,满足客户需求端去,提供服务,的输入是市场,输出也是市场。 为了打通交付流程,最大程度满足客户需求,公司正在全球范围内推行,一时之间成为当年华为热门词汇。 ? 还是任总讲话通俗易懂,就是解决流程断头的问题,简单一句话点出了要解决的问题关键。 3 如何解决 我们还是回到前面的定义的第一句话,“流程是从客户需求端出发,满足客户需求端去”,这句话怎么理解? 有的小伙伴会问,的流程建立起来了,但是大家都是平行部门,谁来负责整个流程的推动?

    17.1K51发布于 2019-10-25
  • 来自专栏陈哥聊测试

    什么是测试?

    不知道大家有没有听过测试?每个软件都应该进行测试,以确保其按规定运行。这种测试方法建立了对系统的信心,并帮助开发团队确定软件是否已准备好进行生产部署。 在本文,我给大家简单分享一下测试是什么,为什么它很重要,以及如何在软件项目中有效地实现它。1.先搞懂,什么是测试? 2.测试的不同阶段我把测试拆为三个阶段:规划、测试、收尾,接下来我们会逐一了解这些阶段。 (1)规划:把测什么想明白规划没做好,后面测试很容易“东一榔头、西一棒槌”,我们要考虑以下3点:了解业务和功能需求一个网购APP,用户从搜商品确认收获的全流程里,我们不仅要知道哪些步骤是关键、哪些环节容易出问题 (3)收尾:做好总结测试执行完并不意味着结束,收尾阶段也很重要。测试人员在测试完成后,可以在禅道中生成测试报告,包含报告详情、测试范围、测试轮次、关联的用例等。

    27810编辑于 2025-11-12
  • 来自专栏爬虫资料

    秒级行情推送系统实战:从触发、采集入库的架构

    本文将结合 行情业务场景,搭建一个 秒级数据更新与推送系统,并演示架构。 一、系统架构图 ┌────────────────┐ │ 触发层 (Trigger)│ ← 定时调度/交易所推送事件 └──────┬──────── 3. 缓冲层(Buffer)使用 Kafka/Redis Stream 暂存行情,防止入库时拥塞。支持多消费者:一个消费者负责入库,另一个负责推送用户。4. == 采集函数(模拟获取行情API) ======def fetch_price(symbol="BTCUSDT"): url = f"https://api.binance.com/api/v3/ 推送层:保证用户 秒级可见行情。这种架构,既能满足 高并发,又能做到 低延迟,是 行情推送、金融交易风控、实时监控 等场景的理想方案。

    48710编辑于 2025-09-28
  • 来自专栏程序员阿常

    需求交付管理

    以下文章来源于CKL的思考空间 ,作者CKL的思考 一直以来,作为研发人员,我们关注的都是研发任务的交付(从需求澄清到需求交付),很少有人会去关注需求本身是否给产品或者企业带来多少真正的价值( 今天我们跳出研发的角色,聊一聊需求的交付管理。 上图直观的反映了当下交付需求的不确定性。往常,我们只需要根据合同或者行业成熟的解决方案,定期交付我们的产品,然后按合同收款即可。 原来2个月或者半年发布一个版本,我们的试错周期是2个月或者半年,但是当我们把节奏变成2周或者3周时(这个会根据每个团队进行调整),我们试错的机会是不是变多了呢? 敏捷中有一个名词叫MVP(Minimum Viable Product最小可行产品),如上图,用户的需求是需要一辆车,图一呢,就是从车轮子车底盘车架到完整的汽车的过程,在这个交付过程中呢我们的车都是不可用的 ,再来看第二幅图,从一个滑板滑板车自行车摩托车再到汽车,在这个交付过程中的每个阶段,我们都有车可用。

    1.1K20编辑于 2022-09-01
  • 来自专栏我爱计算机视觉

    Mask TextSpotter v3 来了!最强文本识别模型

    作者来自华中科技大学和 Facebook AI。 之前的文本识别模型使用包围文本的矩形框作为Proposals,在应对旋转、形状任意和极端纵横比的文本时存在明显的缺陷。 以下为在ROIC13数据集上在检测任务和识别任务中的结果比较,大幅超越之前的SOTA: ? 以下为在MSRA-TD500数据集上在检测任务中的结果: ? 在Total-Text 数据集上端识别结果: ? 应对小实例文本数据集,在IC15上的结果比较,v3 取得了三个最好结果: ? 总结与思考 Mask TextSpotter v3文本识别任务中实现了更高的精度,得益于从分割中获得文本多边形区域表示和Hard ROI masking 特征提精方法。

    1.4K10发布于 2020-08-17
  • 来自专栏SimpleAI

    Huggingface🤗NLP笔记3:Pipeline的背后发生了什么

    「HuggingfaceNLP笔记系列-第3集」最近跟着Huggingface上的NLP tutorial走了一遍,惊叹居然有如此好的讲解Transformers系列的NLP教程,于是决定记录一下学习的过程 =pt 本系列笔记的GitHub:https://github.com/beyondguo/Learn_PyTorch/tree/master/HuggingfaceNLP ---- Pipeline的背后发生了什么 transformers import AutoModel model = AutoModel.from_pretrained(checkpoint) 加载了模型之后,就可以把tokenizer得到的输出,直接输入model 3. Model Heads 模型头,接在基础模型的后面,用于将hidden states文本表示进一步处理,用于具体的任务。 整体框架图: Head一般是由若干层的线性层来构成的。 Transformers库中的主要模型架构有: *Model (retrieve the hidden states) *ForCausalLM *ForMaskedLM *ForMultipleChoice

    2.5K20发布于 2021-10-08
领券