TPU都在运行,然后我激活torch-xla-nightly环境,但当我尝试调用以下简单代码时: import torchimport torch_xla.core.xla_model/site-packages/torch_xla/core/xla_model.py", line 231, in xla_device
devkind=devkind if devkind is not
因为我不是从源代码构建TensorFlow的,所以在默认情况下,XLA搜索文件夹/user/local/cuda-*。但是因为我没有这个文件夹,所以它会发出一个错误。我检查了tensorflow/compiler/xla/service/gpu/nvptx_compiler.cc.中的TensorFlow源代码文件"//用户通过--xla_gpu_ CUDA _data_dir我尝试了以下两个环境变量,但它们都不起作用: expor
我正在编写一个启用了XLA的非常简单的tensorflow程序。config=config) as sess:基本上,我们的想法是看看XLA在开启XLA的情况下,上面的程序几乎比没有XLA的机器上的GPU卡慢2倍。在我的图形处理器配置文件中,我看到XLA生成了许多名为"reduce_xxx“和"fusion_xxx”的内核,这些内核似乎压倒了整个运