首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏彩铅的随笔博客

    Hands on Reinforcement Learning 15 Imitation Learning

    模仿学习(imitation learning)研究的便是这一类问题,在模仿学习的框架下,专家能够提供一系列状态动作对{(st,at)}\{(s_t,a_t)\}{(st​,at​)},表示专家在环境sts_tst​ 3 类: 行为克隆(behavior cloning,BC) 逆强化学习(inverse RL) 生成式对抗模仿学习(generative adversarial imitation learning 15.3 生成式对抗模仿学习 生成式对抗模仿学习(generative adversarial imitation learning,GAIL)是 2016 年由斯坦福大学研究团队提出的基于生成式对抗网络的模仿学习

    68950编辑于 2023-04-24
  • 来自专栏刘笑江的专栏

    Reinforce Learning

    有模型学习 Markov Decision Process Q-learning 可用于推荐系统 [0.1] 免模型学习 现实世界中,环境的转移概率、奖赏函数往往难以得知,甚至很难知道环境中一共有多少状态

    78960发布于 2018-05-28
  • 来自专栏mathor

    Transfer Learning

    model, test_loader) print('test_acc:', test_acc) if __name__ == '__main__': main() Transfer Learning 那我们能不能用ImageNet的一些train好的模型,拿来帮助我们解决一下特定的图片分类任务,这就是Transfer Learning,也就是在A任务上train好一个分类器,再transfer到B上去 我个人理解Transfer Learning的作用是这样的,我们都知道神经网络初始化参数非常重要,有时候初始化不好,可能就会导致最终效果非常差。 相当于帮你做了一个很好的初始化,你在这个网络的基础上,去做B任务,如果这两个任务比较接近的话,夸张一点说,这个网络的训练可能就只需要微调一下,就能在B任务上显示出非常好的效果 下图展示的是一个真实的Transfer Learning 把除了最后一层以外的所有层都取出来,保存在list中,然后用*将其list展开,之后接一个我们自定义的Flatten层,作用是将output打平,打平以后才能送到Linear层去 上面几行代码就实现了Transfer Learning

    63510发布于 2020-02-17
  • 来自专栏刘笑江的专栏

    Deep Learning

    LeNet-5 Gradient-based learning applied to document recognition Yan LeCun, 1998 LeNet AlexNet 12’ ImageNet 2014 ImageNet top-5 error 6.7% Inception, network in network Inception GoogLeNet ResNet Deep Residual Learning Transfer Learning Segmentation end-to-end: 输入图片(smaller),输出标注图片 multi-scale approach: Farable et al. A survey on transfer learning[J]. Learning phrase representations using RNN encoder-decoder for statistical machine translation[J]. arXiv

    1.2K30发布于 2018-05-28
  • 来自专栏光城(guangcity)

    Feasibility of Learning

    Feasibility of Learning 0.说在前面 1.Learning is Impossible 2.Probablity to the Rescue 3.Connection to Learning 4.Connection to Real Learning 5.作者的话 0.说在前面 前面几节主要介绍了机器学习的分类以及相关的二元分类问题及算法。 1.Learning is Impossible ? 数据图 在本节中,林老师给出了如上图所示的例子:输入特征x是二进制的、三维的,对用有8种输入,其中训练样本D有5个。 3.Connection to Learning 【迁移】 ? 迁移图 我们将上述罐子抽球思想迁移到机器学习上来。 4.Connection to Real Learning 【ML上的Hoeffding's inequality】 上述主要讲固定h情况下,当h很多的情况下,又应该怎么做?

    53440发布于 2019-09-20
  • 来自专栏CreateAMind

    Represent learning

    ? ? ? ? ? ? ? ? ? ? ?

    65440发布于 2019-07-10
  • 来自专栏DPDK VPP源码分析

    learning: arping

    下面来学习一下基本的使用,和查询arp缓存表情况: 1、在vpp1上发送免费arp,在vpp2上并不会生产arp表 learning_vpp1# arping gratuitous 192.168.100.1 learning_vpp2# show ip neighbors GigabitEthernet13/0/0 2、在vpp1上发送arp,双方都会生成arp表 learning_vpp1# arping # set interface mac address GigabitEthernet13/0/0 00:0c:29:aa:cc:bb learning_vpp1# arping gratuitous 2、免费arp场景 learning_vpp# arping gratuitous 192.168.100.1 GigabitEthernet13/0/0 repeat 1 Sending 1 GARP to 192.168.100.1 vpp2收到后,进行处理后丢弃 learning_vpp# show trace ------------------- Start of thread 0 vpp_main

    1.5K20编辑于 2023-03-07
  • 来自专栏从流域到海域

    Planning and Learning

    Dyna-Q: Integrating Planning, Acting, and Learning 如果能有完美的环境模型,就可以使用类似动态规划那样的planning方法来更快更好地收敛Q,但是实际上由于各种各样的原因

    47010发布于 2019-11-12
  • 来自专栏应兆康的专栏

    Pandas Learning

    本文介绍了Pandas的基础用法 Github: https://github.com/yingzk/pandas_learning 本文PDF下载:https://www.yingjoy.cn/downloads

    2.5K80发布于 2018-04-16
  • 来自专栏算法与数据之美

    Ensemble Learning

    集成学习(ensemble [ɒnˈsɒmbl] learning)通过构建并结合多个学习器来完成任务,有时也被称为多分类器系统(multi-classifier system)。

    55010发布于 2020-01-17
  • 来自专栏计算机视觉理论及其实现

    Multitask Learning

    performance),关系具体定义可以参考文献[1]6、Multitask Learning方法浅层隐含层节点共享神经网络是最简单MTL,如图2所示。 7、多任务学习与其他学习算法之间的关系多任务学习(Multitask learning)是迁移学习算法的一种,迁移学习之前介绍过。 多类别学习(Multiclass learning)是多标签学习任务中的一种,对多个相互独立的类别(classes)进行建模。 Multitask Learning. A Convex Formulation for Learning Task Relationships in Multi-Task Learning. arXiv.org.[5] Zhou, J.,

    79810编辑于 2022-09-02
  • 来自专栏DPDK VPP源码分析

    learning:vetpolicer

    https://github.com/jin13417/dpdk-vpp-learning/tree/main/new_map 命令行 1、添加。 3、查询pool资源情况 查询当前pool资源使用情况: learning_vpp1# show policer pools pool sizes: configs=1 templates=1 policers [unapply] name <name> <interfac> #接口使能policer policer input name jsh GigabitEthernet13/0/0 #查询使能情况 learning_vpp1 5、policer bind worker线程 #新增命令行 policer bind [unbind] name <name> <worker> #查询当前环境worker线程数量 learning_vpp1 #1、policer绑定核1. learning_vpp1# policer bind name jsh 0 #2、从worker1上收取报文,通过handoff送到worker0核上去做限速处理。

    1.7K20编辑于 2023-03-07
  • 来自专栏SAMshare

    Machine Learning-经典模型之DT Learning

    本篇文章整理一下decision tree learning的知识点。 下面是维基百科的定义: Decision tree learning uses a decision tree (as a predictive model) to go from observations Decision tree learning is the construction of a decision tree from class-labeled training tuples. N2N2 4>> 对N1N1和N2N2分别继续执行2-3步,直到每个结点足够纯为止; 参考文献: 1)维基百科 https://en.wikipedia.org/wiki/Decision_tree_learning

    97030发布于 2019-08-22
  • 来自专栏JNing的专栏

    深度学习: Zero-shot Learning One-shot Learning Few-shot Learning

    为了 “多快好省” 地通往炼丹之路,炼丹师们开始研究 Zero-shot Learning / One-shot Learning / Few-shot LearningLearning类型 分为: Zero-shot Learning、One-shot Learning、Few-shot Learning、传统 Learning 。 Zero-shot Learning Zero-shot Learning,零次学习。 成品模型 对于 训练集 中 没有出现过 的 类别,能自动创造出相应的映射: XXX -> YYY。 One-shot Learning One-shot Learning,一次学习。 Few-shot Learning Few-shot Learning,少量学习。 也即 One-shot Learning

    2.2K30发布于 2018-09-27
  • 来自专栏老秦求学

    Deep Learning综述

    Deep-Learning-Papers-Reading-Roadmap: [1] LeCun, Yann, Yoshua Bengio, and Geoffrey Hinton. "Deep learning." (2015) (Three Giants' Survey) Review 机器学习在当下有很多应用:从网络搜索的内容过滤到电商的商品推荐,以及在手持设备相机和智能手机上的应用 Supervised learning 机器学习算法中最常见的形式为监督学习。比如我们想搭建一个图片分类系统,区分马、汽车、人和宠物四类。首先收集这四类的图片,然后打上标签。

    76170发布于 2018-06-14
  • 来自专栏python3

    Perl Learning - 3 (A

    While scalar is single value, list is a list of scalars in order. Every element of a list is a dependant scalar, it can be number or characters.

    1.5K20发布于 2020-01-10
  • 来自专栏赵化冰的技术博客

    Machine Learning Introduction

    What is machine learning? Two definitions of machine learning are offered. Machine learning algorithms In general, any machine learning problem can be assigned to one of two broad classifications: Supervised learning Unsupervised learning There are also some others: Reinforcement learning, Recommender system Supervised learning Supervised learning is the machine learning task of learning a function that maps an input to an output based on example input-output pairs.

    53840编辑于 2022-08-01
  • 来自专栏点云PCL

    deep learning paper

    Some high-light papers are selected just for reference, most of them are associated with machine learning (deep learning) for 3D data. (ECCV 2016) (2) Voxels-based Learning Semantic Deformation Flows with 3D Convolutional Networks – Yumer (CVPR 2018) Dynamic Graph CNN for Learning on Point Clouds – Wang et al. (CVPR 2018) AtlasNet: A Papier-Mâché Approach to Learning 3D Surface Generation – Groueix et al.

    81510发布于 2019-07-30
  • 来自专栏潇涧技术专栏

    Learning Git by Animations

    看到一个动画版的Git教程(网址),动画效果真心不错,所以学了下,本文是记录其中的几个重点部分。

    60720发布于 2018-08-01
  • 来自专栏杨熹的专栏

    Instance Based Learning

    Udacity Machine Learning Instance Based Learning ---- Supervised Learning 给你一些数据集,用算法去训练函数,训练出来后,就可以投入新的数据进行预测 Instance Based Learning 不包含训练函数这个过程,只需要把所有数据放在数据库里,投入新的数据时,只需要去数据库里查找, ? 优点是: Remember:可信,不需要平滑什么的近似 Fast:不需要 learning Simple: 缺点是: Overfitting:太依赖已有数据了 看起来只能返回已有数据,无法返回新数据 并不是 LR 就比 NN 慢,因为 learning 只需要一次,但是可以 query 很多次 这个例子计算一下 q 这个点,在不同的 Domain 和 不同的 k 时,结果是怎样的,不过与实际值 18

    1.5K40发布于 2018-04-02
领券