首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏CreateAMind

    Control is important! model predictive control mpc.pytorch lib

    At each time step in the environment, MPC solves the non-convex optimization problem x⋆1:T,u⋆1:T=argminx1 This Library: A Differentiable PyTorch MPC Layer We provide a PyTorch library for solving the non-convex

    1.6K50发布于 2019-01-03
  • 来自专栏半杯茶的小酒杯

    轨迹规划-Constrained ILQR

    Cost, c_k 是k时刻的Cost; 式1a)是非线性的车辆动力学方程; 式1b)是Initial State; 1c)和1d)是State和Control的非线性(Non-linear)和非凸(Non-Convex SQP算法 SQP是一种解决非线性(Nonlinear)和非凸(Non-Convex)优化问题的通用方法,但是计算效率不高。 Collision Avoidance Constraints通常是Non-convex Inequality Constraint。

    6.8K52编辑于 2023-11-13
  • 来自专栏机器人网

    【收藏】人工智能术语表

    高斯先验概率 MAP 极大后验估计 maximum likelihood estimation 极大似然估计 activation function 激活函数 tanh function 双曲正切函数 non-convex 非线性变换 represent compactly 简洁地表达 part-whole decompositions “部分-整体”的分解 parts of objects 目标的部件 highly non-convex

    90941发布于 2018-04-12
  • 来自专栏计算机视觉战队

    梯度优化

    批量梯度下降可以保证在convex error surfaces 条件下取得全局最小值,在non-convex surfaces条件下取得局部极小值。 然而,(实验)表明当我们慢慢地减小学习速率时SGD表现出和批量梯度下降同样的收敛行为,几乎确定地在non-convex and convex optimization中各自收敛到一个局部或者全局极小值在 在神经网络中常见的极小化highly non-convex error functions的一个关键挑战是避免步入大量的suboptimal local minima。

    99290发布于 2018-04-18
  • 来自专栏计算机视觉战队

    各类的梯度优化

    批量梯度下降可以保证在convex error surfaces 条件下取得全局最小值,在non-convex surfaces条件下取得局部极小值。 然而,(实验)表明当我们慢慢地减小学习速率时SGD表现出和批量梯度下降同样的收敛行为,几乎确定地在non-convex and convex optimization中各自收敛到一个局部或者全局极小值在 在神经网络中常见的极小化highly non-convex error functions的一个关键挑战是避免步入大量的suboptimal local minima。

    1.5K60发布于 2018-04-17
  • 来自专栏机器学习、深度学习

    人脸对齐--One Millisecond Face Alignment with an Ensemble of Regression Trees

    在测试阶段,基于向量的人脸特征点 shape 优化是一个 non-convex with many local optima。

    1.4K30发布于 2019-05-28
  • 来自专栏fangyangcoder

    Andrew Ng机器学习课程笔记(二)之逻辑回归

    理论上来说,我们也可以对逻辑回归模型沿用这个定义,但是问题在于,当我们将带入到这样定义了的代价函数中时,我们得到的代价函数将是一个非凸函数( non-convex function) 如下图所示 ?

    58430发布于 2018-09-11
  • 来自专栏AI科技评论

    KDD2016论文亮点解析(一)

    of System Structure Knowledge from Text(IDETC/CIE 2016 Conference) ·Four-Bar Linkage Synthesis Using Non-Convex 更多相关论文: ·Four-Bar Linkage Synthesis Using Non-Convex Optimization(CP 2016 Conference ) ·Automated Extraction

    1.6K60发布于 2018-03-07
  • 来自专栏机器之心

    NeurIPS 2018 | 腾讯AI Lab&北大提出基于随机路径积分的差分估计子非凸优化方法

    论文:Near-Optimal Non-Convex Optimization via Stochastic Path Integrated Differential Estimator ?

    69330发布于 2018-12-21
  • 来自专栏红色石头的机器学习之路

    Coursera吴恩达《神经网络与深度学习》课程笔记(2)-- 神经网络基础之逻辑回归

    原因是这种Loss function一般是non-convex的。non-convex函数在使用梯度下降算法时,容易得到局部最小值(local minumum),即局部最优化。 平方错误其实也可以,只是它是non-convex的,不利于使用梯度下降算法来进行全局优化。

    1K00发布于 2017-12-28
  • 来自专栏NLP小白的学习历程

    随机梯度下降之——SGD自适应学习率

    is guaranteed to converge to the global minimum for convex error surfaces and to a local minimum for non-convex behaviour as batch gradient descent, almost certainly converging to a local or the global minimum for non-convex Another key challenge of minimizing highly non-convex error functions common for neural networks is avoiding Identifying and attacking the saddle point problem in high-dimensional non-convex optimization. arXiv

    1.2K50发布于 2020-11-13
  • 来自专栏机器学习人工学weekly

    机器学习人工学weekly-2018/1/28

    (这个更适合搞机器学习理论的同学)印度神校IIT和MS的两个哥们往Arxiv上扔了篇ML非凸优化的文章介绍概念 Non-convex Optimization for Machine Learning

    898100发布于 2018-03-07
  • 来自专栏决胜机器学习

    机器学习(七) ——logistic回归

    三、代价函数 1、不能使用线性回归的代价函数公式 根据下图所示线性回归的代价函数,把h(x)用上面的1/(1+e-z)带入,求出来的结果,会是一个存在非常多极小值的函数,这样的代价函数称为非凸函数(non-convex

    85160发布于 2018-03-07
  • 来自专栏人工智能头条

    推荐收藏 | AI术语中英文对照

    Machine Translation 神经机器翻译 NTM Neural Turing Machine 神经图灵机 NCE noise-contrastive estimation 噪音对比估计 non-convex

    3.3K10发布于 2018-07-20
  • 来自专栏AI科技评论

    大会 | 腾讯AI Lab独家解析ICML 2017五大研究热点

    模型训练实验结果 2)Natasha: Faster Non-Convex Stochastic Optimization Via Strongly Non-Convex Parameter 本文由微软研究院发表 3)Dual Iterative Hard Thresholding: From Non-convex Sparse Minimization to Non-smooth Concave Maximization

    1K40发布于 2018-03-13
  • 来自专栏人工智能前沿讲习

    【强基固本】深度学习算法收敛性证明之拓展SGD

    Li, “Unified convergence analysis of stochastic momentum methods for convex and non-convex optimization Hong, “On the convergence of a class of adam-type algorithms for non-convex optimization,” arXiv preprint

    1.5K10发布于 2021-03-17
  • 来自专栏iOSDevLog

    机器学习专业名词中英文对照

    hidden layer 隐含层 hidden units 隐藏神经元 Hierarchical grouping 层次型分组 higher-order features 更高阶特征 highly non-convex MFCC Mel 倒频系数 multi-class classification 多元分类 neural networks 神经网络 neuron 神经元 Newton’s method 牛顿法 non-convex No Free Lunch Theorem/NFL 没有免费的午餐定理 Noise-contrastive estimation 噪音对比估计 Nominal attribute 列名属性 Non-convex

    2.3K30发布于 2019-06-11
  • 来自专栏Small Code

    梯度下降优化算法概述

    BGD 对于凸误差曲面(convex error surface)保证收敛到全局最优点,而对于非凸曲面(non-convex surface)则是局部最优点。 Dauphin 等人 [19,Identifying and attacking the saddle point problem in high-dimensional non-convex optimization Identifying and attacking the saddle point problem in high-dimensional non-convex optimization. arXiv

    3K80发布于 2018-01-03
  • 来自专栏机器学习算法与Python学习

    反向传播算法

    极大后验估计 MAP 极大似然估计 maximum likelihood estimation 激活函数 activation function 双曲正切函数 tanh function 非凸函数 non-convex

    1.6K50发布于 2018-04-08
  • 来自专栏新智元

    普林斯顿大学教授:用理论的力量横扫深度学习(77PPT)

    深度学习中的优化 困难:深度学习中大多数优化问题是非凸(non-convex)的,最坏的情况是NP难问题(NP-hard)。

    58100发布于 2018-07-31
领券