首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈程序员必看

    PyTorch实现的ResNet50、ResNet101和ResNet152

    3, stride=2, padding=1) ) class Bottleneck(nn.Module): def __init__(self,in_places,places, stride=1,downsampling __init__() self.expansion = expansion self.downsampling = downsampling self.bottleneck = nn.Sequential self.expansion, kernel_size=1, stride=1, bias=False), nn.BatchNorm2d(places*self.expansion), ) if self.downsampling self.relu = nn.ReLU(inplace=True) def forward(self, x): residual = x out = self.bottleneck(x) if self.downsampling , in_places, places, block, stride): layers = [] layers.append(Bottleneck(in_places, places,stride, downsampling

    1.2K20编辑于 2022-11-10
  • 来自专栏机器人课程与技术

    Learning ROS for Robotics Programming Second Edition学习笔记(七) indigo PCL xtion pro live

    --$ rosrunchapter6_tutorials pcl_downsampling CMakeLists.txt pcl_downsampling pcl_matching pcl_partitioning pcl_read pcl_visualize.cpp write_pcd_test.pcd package.xml pcl_downsampling.cpp pcl_matching.cpp pcl_partitioning.cpp

    49230发布于 2019-01-23
  • 来自专栏YOLO大作战

    RT-DETR优化改进:Backbone改进|RIFormer:无需TokenMixer也能达成SOTA性能的极简ViT架构 | CVPR2023

    down_patch_size (int): The patch size of downsampling patch embedding. down_stride (int): The stride of downsampling patch embedding. Defaults to 2. down_pad (int): The padding of downsampling patch embedding. Defaults to 1. Index 0-6 respectively corresponds to [stage1, downsampling, stage2, downsampling, stage3, downsampling, stage4] Defaults to -1, means the last stage.

    1.4K50编辑于 2023-11-20
  • 来自专栏AI智韵

    【Block总结】HWD,小波下采样,适用分类、分割、目标检测等任务|即插即用

    论文信息 Haar wavelet downsampling (HWD) 是一项针对语义分割的创新模块,旨在通过减少特征图的空间分辨率来提高深度卷积神经网络(DCNNs)的性能。 论文的详细信息如下: 标题: Haar Wavelet Downsampling: A Simple but Effective Downsampling Module for Semantic Segmentation Haar Wavelet Downsampling (HWD) 模块相较于传统下采样方法(如最大池化和步幅卷积)具有多项显著优势: 优势 信息保留能力: HWD 模块通过 Haar 小波变换进行下采样, 总结 Haar wavelet downsampling 模块为语义分割任务提供了一种简单而有效的下采样解决方案。

    1.3K10编辑于 2025-02-05
  • 来自专栏机器学习、深度学习

    实时语义分割

    Intuitive Speedup Downsampling Input 对输入图像降采样来提速 ? 这个思路的缺点就是精度下降的比较厉害 Downsampling Feature 对特征图进行降采样来提速 ?

    1.2K20发布于 2019-05-26
  • 来自专栏机器学习之禅

    1 | 从0开始学PyTorch

    =0, bias=True), nn.InstanceNorm2d(ngf), nn.ReLU(True)] n_downsampling = 2 for i in range(n_downsampling): mult = 2**i model += [nn.Conv2d( nn.InstanceNorm2d(ngf * mult * 2), nn.ReLU(True)] mult = 2**n_downsampling for i in range(n_blocks): model += [ResNetBlock(ngf * mult)] for i in range(n_downsampling ): mult = 2**(n_downsampling - i) model += [nn.ConvTranspose2d(ngf * mult, int

    91130编辑于 2022-07-11
  • 来自专栏YOLO大作战

    注意力机制---Yolov5/Yolov7引入CBAM、GAM、Resnet_CBAM

    common.py中加入common.py中class ResBlock_CBAM(nn.Module): def __init__(self, in_places, places, stride=1, downsampling __init__() self.expansion = expansion self.downsampling = downsampling self.bottleneck ) self.cbam = CBAM(c1=places * self.expansion, c2=places * self.expansion, ) if self.downsampling x): residual = x out = self.bottleneck(x) out = self.cbam(out) if self.downsampling

    2.8K10编辑于 2023-11-30
  • 来自专栏正则

    iOS性能优化-iOS 页面优化

    DownSampling(向下采样) DownSampling 就是在Decode的时候指定尺寸,只Decode部分数据,减少内存的使用。 使用DownSampling后,只需要解码少量数据就可以达到所需。 这个SDWebImage也已经支持,大家只需在加载图片的时候,利用context参数设置图片的大小和控件的大小相同即可。 在不进行DownSampling的情况下,加载6张图片都消耗了 25M 但是在使用DownSampling的时候,指定尺寸为100*100,内存直接降低到了 5M 目前运用到项目中的首页Feeds流上,

    3K21发布于 2021-11-04
  • 来自专栏各类技术文章~

    iOS 页面优化

    DownSampling(向下采样) DownSampling 就是在Decode的时候指定尺寸,只Decode部分数据,减少内存的使用。 使用DownSampling后,只需要解码少量数据就可以达到所需。 这个SDWebImage也已经支持,大家只需在加载图片的时候,利用context参数设置图片的大小和控件的大小相同即可。 在不进行DownSampling的情况下,加载6张图片都消耗了 25M 但是在使用DownSampling的时候,指定尺寸为100*100,内存直接降低到了 5M 目前运用到项目中的首页Feeds流上

    1.1K00发布于 2021-09-29
  • 来自专栏杨丝儿的小站

    MOB LEC11 Mapping and Occupancy Grid

    Occupancy Map Calculus Practicle issues of Occupancy map Inverse Measurement Model Downsampling

    75440编辑于 2022-11-15
  • 来自专栏ATYUN订阅号

    使用生成式对抗网络进行图像去模糊

    (x) x= BatchNormalization()(x) x= Activation('relu')(x) # Increase filter number n_downsampling = 2 for iin range(n_downsampling): mult= 2**i x= Conv2D(filters=ngf*mult*2, kernel_size BatchNormalization()(x) x= Activation('relu')(x) # Apply 9 ResNet blocks mult= 2**n_downsampling res_block(x, ngf*mult, use_dropout=True) # Decrease filter number to 3 (RGB) for iin range(n_downsampling ): mult= 2**(n_downsampling- i) x= Conv2DTranspose(filters=int(ngf* mult/ 2), kernel_size

    6.6K91发布于 2018-04-19
  • 来自专栏AI 算法笔记

    [Github项目]基于PyTorch的深度学习网络模型实现

    annealing of learning rate) Cutout 随机消除(Random Erasing) Mixup 降采样后的预激活捷径(Preactivation of shortcuts after downsampling ) 实验结果表明: 类似金字塔网络的残差单元设计有帮助,但不适宜搭配 Preactivation of shortcuts after downsampling 基于 cosine 的学习率递减策略提升幅度较小

    80620发布于 2019-08-16
  • 来自专栏AIWalker

    SoftPool:基于Softmax加权的池化操作 | 2021新文

    论文: Refining activation downsampling with SoftPool ? SoftPool Downsampling ---- ?   定义大小为 的特征图 的局部区域 , 为2D空间区域,大小等同于池化核大小 ,输出为 ,对应的梯度为 。

    1.4K20发布于 2021-02-03
  • 来自专栏逆锋起笔

    你的 App 为何在 iPhone 12 上显示异常,而别人的不会?

    Display Zoom)下,虽然屏幕分辨率和 iPhone 11 Pro 相同,但顶部安全距离却是 40,底部安全距离是 31; 除了运行在兼容模式,退化为旧设备分辨率外,iPhone 还有一种尺寸适配策略:downsampling mini,被当做 iPhone 11 Pro 渲染即 375×812 points,如果按照3x 图渲染,实际的渲染像素是 1125 x 2436,在 1080×2340 pixel 屏幕上显示不下,需要 downsampling 关于如何 downsampling ,这里用 8P 的渲染示例,截图取自 ?

    3.5K30发布于 2020-11-30
  • 来自专栏专知

    【干货】基于GAN实现图像锐化应用(附代码)

    ) x = BatchNormalization()(x) x = Activation('relu')(x) # Increase filter number n_downsampling = 2 for i in range(n_downsampling): mult = 2**i x = Conv2D(filters=ngf*mult*2, kernel_size BatchNormalization()(x) x = Activation('relu')(x) # Apply 9 ResNet blocks mult = 2**n_downsampling res_block(x, ngf*mult, use_dropout=True) # Decrease filter number to 3 (RGB) for i in range(n_downsampling ): mult = 2**(n_downsampling - i) x = Conv2DTranspose(filters=int(ngf * mult / 2), kernel_size

    2.5K20发布于 2018-06-05
  • 来自专栏生信宝典

    什么?你做的差异基因方法不合适?

    Downsampling 最后一个校正文库大小的方式是对表达矩阵进行向下抽样使得每个细胞检测到的总分子数相同。这个方法的优势是计算过程中会引入0值进而消除不同细胞检测到的基因数不同引入的偏差。 该方法最大的缺点是其非确定性,每次downsampling获得的表达矩阵都会有些细微不同。通常需要重复多次保证结果的稳定性。 downsampling 标准化使用的是前面展示的方法。 Downsampling logcounts(umi.qc) <- log2(Down_Sample_Matrix(counts(umi.qc)) + 1) plotPCA( umi.qc[umi_qc_endog_genes ], exprs_values = "logcounts", exprs_logged = c(TRUE), colour_by = "batch" ) + ggtitle("Downsampling

    2.1K40发布于 2019-05-09
  • 来自专栏机器学习、深度学习

    二值网络训练--Training Competitive Binary Neural Networks from Scratch

    replacing certain crucial layers in a binary network with full precision layers 这里我们认为 第一层,最后一层,以及 downsampling

    63220发布于 2019-05-28
  • 来自专栏机器学习、深度学习

    语义分割

    conv means convolution 和 full-conv means full convolution /2 denotes downsampling by a factor of 2

    53710发布于 2019-05-26
  • 来自专栏机器之心

    教程 | 在Keras上实现GAN:构建消除图片模糊的应用

    ) x = BatchNormalization()(x) x = Activation('relu')(x) # Increase filter number n_downsampling = 2 for i in range(n_downsampling): mult = 2**i x = Conv2D(filters=ngf*mult*2, kernel_size BatchNormalization()(x) x = Activation('relu')(x) # Apply 9 ResNet blocks mult = 2**n_downsampling res_block(x, ngf*mult, use_dropout=True) # Decrease filter number to 3 (RGB) for i in range(n_downsampling ): mult = 2**(n_downsampling - i) x = Conv2DTranspose(filters=int(ngf * mult / 2), kernel_size

    1.7K30发布于 2018-05-08
  • 来自专栏纸飞机与软件技术

    高效细分:学习语义边界附近的下采样

    原文标题:Efficient Segmentation: Learning Downsampling Near Semantic Boundaries 原文链接:https://arxiv.org/abs

    81540发布于 2019-07-17
领券