首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈程序员必看

    TensorFlow学习--学习率衰减/learning rate decay

    learning_rate=0.5, global_step=global_step, decay_steps=10, decay_rate=0.9, staircase=False) lr1 = sess.run([learing_rate1]) lr2 = sess.run([learing_rate2]) y.append(lr1[0]) learning_rate=0.5, global_step=global_step, decay_steps=10, decay_rate=0.9, staircase=False) lr1 ]) lr2 = sess.run([learing_rate2]) lr3 = sess.run([learing_rate3]) y.append(lr1 = sess.run([learing_rate1]) lr2 = sess.run([learing_rate2]) y.append(lr1[0])

    75520编辑于 2022-08-27
  • 来自专栏bit哲学院

    Tensorflow中 tf.train.exponential_decay() 等实现学习率衰减

    learning_rate=0.5, global_step=global_step, decay_steps=10, decay_rate=0.9, staircase=False)         lr1 = sess.run([learing_rate1])         lr2 = sess.run([learing_rate2])         y.append(lr1[0])         learning_rate=0.5, global_step=global_step, decay_steps=10, decay_rate=0.9, staircase=False)         lr1 ])         lr2 = sess.run([learing_rate2])         lr3 = sess.run([learing_rate3])         y.append(lr1 = sess.run([learing_rate1])         lr2 = sess.run([learing_rate2])         y.append(lr1[0])        

    1.8K30发布于 2021-01-05
  • 来自专栏祝威廉

    用线性回归无编码实现文章浏览数预测

    配置文件简要说明 以lr-train.json为例,大体框架如下: { "lr1": { "desc": "LR模型训练Job", "strategy": "streaming.core.strategy.SparkStreamingStrategy 因为一个配置文件里可能有多个Job,每个Job引用的关联表也是不一样,你需要显示指定引用,在Job 的ref中申明即可: "lr1": { "strategy": "streaming.core.strategy.SparkStreamingStrategy term_index_ref_table", "term_idf_ref_table" ], "compositor": [ 这样框架自动为你准备好关联引用,注册UDF函数,然后在lr1

    66910发布于 2018-08-27
  • 来自专栏bit哲学院

    算法导论:分治法,python实现合并排序MERGE-SORT

    return L0, R0 L1, R1 = dividelist(B1) LL1, RL1 = dividelist(L1)           # 这部分最终将8个数的列表分为,4个2个元素的子列表 LR1 dividelist(R1) MERGE_SORT(LL1) MERGE_SORT(RL1)             # 调用合并排序函数,把元素个数为2的4个子列表各自排好序 MERGE_SORT(LR1 ) MERGE_SORT(RR1) L1 = LL1 + RL1 R1 = LR1 + RR1            # 将排好序的4个子列表两两合并为元素个数为2的左右两部分都排好序的子列表 MERGE_SORT

    72200发布于 2021-01-16
  • 来自专栏AlgorithmDog的专栏

    XGBoost + LR 就是加特征而已

    下图便是实验结果,其中: “xgboost+lr1" 是 XGBoost 的叶子节点特征、原始属性特征和二阶交叉特征一起给 LR 进行训练;"xgboost+lr2" 则只有叶子节点特征给 LR;"lr1 [1505977730620_2673_1505977730658.png] 从上面的实验来看:1) "xgboost+lr2" 明显弱于 "lr1" 方法,说明只用叶子节点特征的 XGBoost +

    7.6K41发布于 2017-09-22
  • 来自专栏技术让梦想更伟大

    【进阶】详解KEIL的分散加载文件

    例子 The following example shows common cases where the FIXED execution region attribute is misused: LR1 、创建function.c包含以下代码的源文件: int sqr(int n1) { return n1*n1; } 1234 3、创建scatter.scat包含以下加载区域的分散文件: LR1 、创建function.c包含以下代码的源文件: int sqr(int n1) { return n1*n1; } 1234 3、创建scatter.scat包含以下加载区域的分散文件: LR1 armcc -E #define ADDRESS 0x20000000 #include "include_file_1.h" lr1 ADDRESS { ... } 123456789 避免在分散文件中填充的示例 以下分散文件生成带有填充的图像: LR1 0x4000 { ER1 +0 ALIGN 0x8000 { ... } } 1234567

    2.2K20编辑于 2022-12-22
  • 来自专栏我的充电站

    LeetCode笔记:Weekly Contest 301

    -=1 if lcnt > 0 or rcnt < 0: return False lr1 elif ch2 == "L": lr2.append(cnt2) return all(x == y for x, y in zip(lr1

    43820编辑于 2022-07-11
  • 来自专栏AlgorithmDog的专栏

    XGBoost + LR 就是加特征而已

    下图便是实验结果,其中: “xgboost+lr1″ 是 XGBoost 的叶子节点特征、原始属性特征和二阶交叉特征一起给 LR 进行训练;”xgboost+lr2″ 则只有叶子节点特征给 LR;”lr1 从上面的实验来看:1) “xgboost+lr2” 明显弱于 “lr1” 方法,说明只用叶子节点特征的 XGBoost + LR 弱于有特征工程的 LR 算法。

    1.8K80发布于 2017-12-29
  • 来自专栏caoqi95的记录日志

    DeepSleepNet - 基于原始单通道 EEG 的自动睡眠阶段评分模型

    然后使用具有两种不同学习速率 lr1 和 lr2 的小批量 Adam 优化器,使用序列训练集训练模型。 由于 CNN 部分已经过预训练,因此我们对 CNN 部分使用较低的学习速率 lr1,对序列残差学习部分使用较高的学习速率 lr2,以及 softmax 层。

    3.9K20发布于 2019-03-28
  • 来自专栏从码农的全世界路过

    二叉树

    root.left = l1; root.right = r1; TreeNode l11 = new TreeNode(4); TreeNode lr1 = new TreeNode(5); l1.left = l11; l1.right = lr1; System.out.println(preOrderTraversal

    47830编辑于 2022-06-20
  • 《机器学习》 第 2 章 - 模型估计与优化

    不同学习率对比 ===================== init_theta = -2 # 初始参数 epochs = 20 # 3种学习率 lr1 = 0.1 # 学习率偏小 lr2 = 0.5 # 学习率适中 lr3 = 0.95 # 学习率偏大(接近震荡阈值) theta1, theta_hist1, loss_hist1 = gradient_descent(init_theta, lr1 theta_range, loss_range, label='目标函数曲线', color='black') plt.scatter(theta_hist1, loss_hist1, label=f'学习率={lr1 plt.legend() plt.grid(alpha=0.3) # 子图2:损失随迭代次数变化 plt.subplot(2, 1, 2) plt.plot(loss_hist1, label=f'学习率={lr1 '损失值随迭代次数变化') plt.legend() plt.grid(alpha=0.3) plt.tight_layout() plt.show() # 输出最终结果 print(f"学习率{lr1

    18830编辑于 2026-01-21
  • 来自专栏网络技术联盟站

    SFP 收发器居然有那么多种?值得收藏学习

    涵盖从 OC-3/STM-1 (155 Mbps) 到 OC-48/STM-16 (2488 Gbps) 的标准数据速率范围,适用于多模 ( MM)、短距离 (SR)、中距离 (IR1) 和长距离 (LR1

    1.1K10编辑于 2023-03-01
  • 来自专栏人人都是极客

    Arm64 栈回溯

    sp寄存器指向了第一个栈帧中的FP1寄存器,即0xffffffc0ee823b80地址,FP1向高地址偏移8字节得到LR1寄存器,即0xffffff80087369e4地址,该地址位于dwc3_ep0_

    1.2K11编辑于 2023-08-22
  • 来自专栏ACM算法日常

    为什么面试总喜欢考算法题?

    ,里面的每个算法都倒背如流,甚至能在一场面试内写个 LR1 的 parser 算法出来,那么你问他一些实际项目是考察不出他的潜力的和实际的学习能力的。

    1.4K20发布于 2018-08-07
  • 来自专栏Spark学习技巧

    Spark的Ml pipeline

    例如,如果我们有两个LogisticRegression实例lr1和lr2,然后我们可以建立一个ParamMap与两个maxIter指定的参数:ParamMap(lr1.maxIter -> 10, lr2

    3K90发布于 2018-01-31
  • 来自专栏cloud stdio

    【微信小程序】基于百度大脑人体检测、人脸识别以及调用阿里垃圾分类识别小程序利用canvas完成人脸画图、分割手部部分图片算法

    grant_type=client_credentials&client_id=XbQ******pkTxo&client_secret=Lyw1o******lR1", // method

    78641编辑于 2023-08-08
  • 来自专栏绿盟科技研究通讯

    如何在有限资源设备上部署深度网络(上)

    通常,基于特征映射关系的基于关系的知识蒸馏损失可表示为: 其中ft和fs分别是教师和学生模型的特征映射,Ψt (⋅)和Ψs (⋅)分别是教师和学生模型特征映射对的相似性度量函数,LR1表示师生特征图之间的相关函数

    46510编辑于 2023-11-27
  • 来自专栏小L的魔法馆

    两圆相交到两球相交

    如上图所示,已知r1,r2,Lr1,r2,Lr_1,r_2,L那就可以得到很多东西。

    1.1K51发布于 2019-02-20
  • 来自专栏光芯前沿

    从芯片到集群的光连接:Google TPU光互连的架构演进、链路优化与低延迟突破

    从技术演进趋势来看,过去数年相干系统的能量效率已取得巨大进步,随着7nm、5nm CMOS工艺的应用,以及400G ZR、800G LR1等标准的推进,相干技术在数据中心的适用性持续提升。 3.

    2.3K21编辑于 2025-10-29
  • 来自专栏光芯前沿

    AI驱动下的数据中心光互连(DCI):需求增长、技术选型与未来展望

    - 硬件形态与光模块变化: - 机框形态:从传统电信300mm深机框,转向数据中心600mm深机框; - 光模块:100G从LR4(103.125Gbps)转向LR1(106.125Gbps,二者不可直接互通

    1.2K10编辑于 2025-10-13
领券