首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Michael阿明学习之路

    TensorFlow 2.0 - tf.data.Dataset 数据预处理 & 猫狗分类

    if label == None: return img_resized return img_resized, label # 使用 tf.data.Dataset 生成数据 file_dir[:idx], file_dir[idx:] train_labels, valid_labels = labels[:idx], labels[idx:] # 使用 tf.data.Dataset

    2.6K20发布于 2021-02-19
  • 来自专栏计算机视觉CV

    Tensorflow读取数据(二)

    其实在tf1.4之后新增了tf.data.Dataset,官方推出的一些源码也都转为使用dataset的API来进行数据读取,所以今天就来介绍下利用dataset来进行数据读取。 我就直接用代码来介绍下如何使用tf.data.dataset读取数据。 还是使用上一篇的数据结构和代码框架,只是把QueueRunner和coord相关的代码删除,替换为tf.data.dataset的API # -*- coding: utf-8 -*- # @Time self.paths = tf.cast(self.paths, tf.string) self.labels = tf.cast(self.labels, tf.string) #利用tf.data.Dataset

    72020发布于 2021-01-29
  • 来自专栏深度学习|机器学习|歌声合成|语音合成

    Tensorflow2系类知识-6:数据集构建和预处理

    文章目录 数据集的构建和预处理 数据集的预处理办法 TFRecord :TensorFlow 数据集存储格式 数据集的构建和预处理 tf.data.Dataset类,提供了对数据集的高层封装 tf.data.Dataset由可迭代的访问元素组成。每个元素包含一个或多个张量。

    72010发布于 2021-01-14
  • 来自专栏深度学习框架

    Tensorflow小技巧(一)

    tf.data.Dataset.from_tensor_slices([1, 2, 3]) for element in dataset.as_numpy_iterator(): print(element) tf.data.Dataset The tf.data.Dataset API supports writing descriptive and efficient input pipelines.

    39250发布于 2021-07-29
  • 来自专栏Mybatis学习

    TensorFlow2学习——tf.data模块

    tf.data API的使用 tf.data.Dataset:表示一系列元素,其中每个元素包含一个或多个 Tensor 对象。 通过对一个或多个 tf.data.Dataset 对象来使用变换(例如 Dataset.batch())来创建 Dataset 已知文件名称和标签,用data保存每一个文件的地址,用label保存每一文件对应的标签

    63510发布于 2021-06-21
  • 来自专栏软件研发

    解决AttributeError: module tensorflow has no attribute placeholder

    在TensorFlow 2.0及更高版本中,推荐使用tf.data.Dataset API来处理数据输入,而不是使用placeholder。 tensorflow as tf# 创建Dataset对象dataset = tf.data.Dataset.from_tensor_slices((features, labels))# 其他操作...通过使用tf.data.Dataset 需要注意的是,在TensorFlow 2.0以及更高版本中,placeholder被移除了,推荐使用tf.data.Dataset API作为替代方案。 但需要注意的是,在TensorFlow 2.0以及更高版本中,placeholder被移除,推荐使用tf.data.Dataset API作为替代方案。

    3.8K20编辑于 2023-10-17
  • 来自专栏HyperAI超神经

    TensorFlow 2.1.0 来了,重大更新与改进了解一下

    除了 tf.data.Dataset 之外,还可以使用 numpy 数据支持的 TPU 上的 .fit,.evaluate,.predict,在 TensorFlow Model Garden 中提供了许多流行模型的 tf.data.Dataset 现在支持在分布式环境中(包括在 TPU pod 上)自动进行数据分发和分片。 tf.data.Dataset 的分发策略,现在可以调整为: tf.data.experimental.AutoShardPolicy(OFF, AUTO, FILE, DATA) tf.data.experimental.ExternalStatePolicy

    2.2K00发布于 2020-02-17
  • 来自专栏机器学习与统计学

    Colab超火的Keras/TPU深度学习免费实战,有点Python基础就能看懂的快速课程

    先教会你如何在Tensorflow框架下快速加载数据,然后介绍一些tf.data.Dataset的基础知识,包括eager模式以及元组数据集等。 此实验涉及两个tf的基础操作,一个是使用tf.data.Dataset API导入训练数据,另一个是使用TFRecord格式从GCS有效导入训练数据。 使用tf.data.Dataset API 执行数据加载。 Keras和Tensorflow在其所有训练和评估功能中接受数据集。 的基础知识、tf.data.Dataset和eager模式、元组数据集的详细步骤,请戳: https://codelabs.developers.google.com/codelabs/keras-flowers-data 我们将在少量文件中批量处理它们,并使用tf.data.Dataset的强大功能一次性读取多个文件。

    1.4K20发布于 2019-05-16
  • 来自专栏新智元

    Colab 超火的 Keras/TPU 深度学习免费实战,有点 Python 基础就能看懂的快速课程

    先教会你如何在 Tensorflow 框架下快速加载数据,然后介绍一些 tf.data.Dataset 的基础知识,包括 eager 模式以及元组数据集等。 此实验涉及两个 tf 的基础操作,一个是使用 tf.data.Dataset API 导入训练数据,另一个是使用 TFRecord 格式从 GCS 有效导入训练数据。 使用 tf.data.Dataset API 执行数据加载。 Keras 和 Tensorflow 在其所有训练和评估功能中接受数据集。 = filenames_dataset.map(decode_jpeg)# this is now a dataset of decoded images (uint8 RGB format) 有关 tf.data.Dataset 我们将在少量文件中批量处理它们,并使用 tf.data.Dataset 的强大功能一次性读取多个文件。

    1.3K20发布于 2019-05-17
  • 来自专栏JAVA

    如何修复TensorFlow中的OutOfRangeError:迭代器数据耗尽

    例如,在训练过程中,我们通过tf.data.Dataset对象创建数据集,并使用for循环遍历数据集时,如果没有正确处理迭代器的结束,就会遇到此错误。 2. 参考资料 TensorFlow官方文档 tf.data.Dataset Python异常处理 希望这篇文章能对你有所帮助。如果你有任何问题或建议,欢迎在评论区留言。

    1.3K10编辑于 2024-11-22
  • 来自专栏大数据文摘

    Colab超火的Keras/TPU深度学习免费实战,有点Python基础就能看懂的快速课程

    先教会你如何在Tensorflow框架下快速加载数据,然后介绍一些tf.data.Dataset的基础知识,包括eager模式以及元组数据集等。 此实验涉及两个tf的基础操作,一个是使用tf.data.Dataset API导入训练数据,另一个是使用TFRecord格式从GCS有效导入训练数据。 使用tf.data.Dataset API 执行数据加载。 Keras和Tensorflow在其所有训练和评估功能中接受数据集。 的基础知识、tf.data.Dataset和eager模式、元组数据集的详细步骤,请戳: https://codelabs.developers.google.com/codelabs/keras-flowers-data 我们将在少量文件中批量处理它们,并使用tf.data.Dataset的强大功能一次性读取多个文件。

    1.4K30发布于 2019-05-15
  • 来自专栏量子位

    TensorFlow可以“预装”数据集了,新功能Datasets出炉

    18train_dataset, test_dataset = datasets['train'], datasets['test'] 19assert isinstance(train_dataset, tf.data.Dataset 4train_dataset, test_dataset = datasets["train"], datasets["test"] 5assert isinstance(train_dataset, tf.data.Dataset

    1.5K30发布于 2019-04-23
  • 来自专栏机器之心

    TensorFlow 2.0到底怎么样?简单的图像分类任务探一探

    tf.data.Dataset 加载数据 我们用的是 Kaggle 的 Aerial Cactus Identification(仙人掌航拍识别)竞赛(https://www.kaggle.com/ train_size=0.9, random_state=42) 现在我们已经将图像文件名和标签分成了训练集和验证集,可以分别创建相应的 tf.data.Dataset 训练模型 TensorFlow 2.0 中的 tf.keras API 现在完全支持 tf.data API,所以训练模型时可以轻松使用 tf.data.Dataset

    1.2K20发布于 2019-04-29
  • 来自专栏罗西的思考

    [源码解析] TensorFlow 分布式 DistributedStrategy 之基础篇

    _distribute_datasets_from_function :通过调用 dataset_fn 来分发 tf.data.Dataset。 对于预取(prefetch),默认情况下,该方法在用户提供的 tf.data.Dataset 实例的末尾添加一个预取转换。 Args: dataset: a tf.data.Dataset instance. dataset: tf.data.Dataset that will be used as the input source. Args: dataset: A tf.data.Dataset object.

    1.7K10编辑于 2022-05-09
  • 来自专栏量子位

    Keras 3.0正式发布!一统TF/PyTorch/Jax三大后端框架,网友:改变游戏规则

    使用任何来源的数据管道 无论使用哪个后端,Keras 3 都能与tf.data.Dataset对象、PyTorch DataLoader对象、NumPy 数组、Pandas数据框兼容。 这意味着可以在PyTorch DataLoader上训练Keras 3 + TensorFlow模型,或在 tf.data.Dataset上训练Keras 3 + PyTorch模型。

    70210编辑于 2023-11-30
  • 来自专栏Python编程爱好者

    Keras 3.0发布:全面拥抱 PyTorch!

    Keras 3 的 fit()/evaluate()/predict()例程兼容 tf.data.Dataset 对象、PyTorch 的 DataLoader 对象、NumPy 数组和 Pandas 您可以在 PyTorch 的 DataLoader 上训练 Keras 3 + TensorFlow 模型,或者在 tf.data.Dataset 上训练 Keras 3 + PyTorch 模型。

    83010编辑于 2024-01-05
  • 来自专栏磐创AI技术团队的专栏

    一文上手最新TensorFlow2.0系列(二)

    tf.image.resize(image, [192, 192]) # 对每个像素点的RGB值做归一化处理 image /= 255.0 return image 完成对类标和图像数据的预处理之后,我们使用“tf.data.Dataset image_label_ds) 输出结果如图17所示: 图17 构建的“dataset” 在代码中,我们使用了“from_tensor_slices”方法使用张量的切片元素构建“dataset”,“tf.data.Dataset 我们使用了“tf.data.Dataset”的“map”方法,该方法允许我们自己定义一个函数,将原数据集中的元素依次经过该函数处理,并将处理后的数据作为新的数据集,处理前和处理后的数据顺序不变。 最后我们使用“tf.data.Dataset”的“zip”方法将图片数据和类标数据压缩成“(图片,类标)”对,其结构如图17所示。 BATCH_SIZE) # 通过“prefetch”方法让模型的训练和每个batch数据集的加载并行 ds = ds.prefetch(buffer_size=AUTOTUNE) 在代码中,我们使用“tf.data.Dataset

    2.5K31发布于 2019-08-20
  • 来自专栏Datawhale专栏

    PyTorch常见的坑汇总

    后来我当时给官方提了一个issue,官方当时的回答是,这个bug目前无法解决,但是他们在即将到来的tf1.2版本中, 推出的新型数据处理API tf.contrib.data.dataset(tf1.3版本将其合并到了tf.data.dataset 然后tf1.2版本刚出来以后,我就立马升级并且开始tf.data.dataset踩坑,踩了大概2周多的坑,(这个新版的API其实功能并不是非常强大,有不少局限性,在此就不展开)。

    2.1K53发布于 2019-09-24
  • 来自专栏深度学习和计算机视觉

    Pytorch常见的坑汇总

    后来我当时给官方提了一个issue,官方当时的回答是,这个bug目前无法解决,但是他们在即将到来的tf1.2版本中, 推出的新型数据处理API tf.contrib.data.dataset(tf1.3版本将其合并到了tf.data.dataset 然后tf1.2版本刚出来以后,我就立马升级并且开始tf.data.dataset踩坑,踩了大概2周多的坑,(这个新版的API其实功能并不是非常强大,有不少局限性,在此就不展开)。

    52540编辑于 2022-09-28
  • 来自专栏深度学习框架

    Load and preprocess images

    tf.data for finer control The above tf.keras.preprocessing utilities are a convenient way to create a tf.data.Dataset configure_for_performance(val_ds) Continue training the model You have now manually built a similar tf.data.Dataset

    90730发布于 2021-07-29
领券