TENSOR 日语是什么意思 - 日语翻译

名词

在 中文 中使用 Tensor 的示例及其翻译为 日语

{-}
  • Ecclesiastic category close
  • Programming category close
  • Computer category close
什么是Tensor核心?
Tensorコアとは?
Tensor与numpy的Array的相互转换.
TensorとNumPy配列の交互変換。
除了维度外,tensor还有数据类型。
次元に加えて、テンソルにはデータ型があります。
将输入Tensor中的每一个字符串转化成指定的数字类型.
入力Tensorの各文字列を指定された数値型に変換します。
使用强大的GPU加速的Tensor计算(类似numpy).
強いGPU加速を用いたテンソル計算(NumPyなど)。
Variables是由tensor的值来初始化的。
Variableはテンソル値で初期化されます。
我在开始写这篇文章之前,从未听说过“Tensor核心”这个词。
このブログを書き始めるまで、私はTensorコアを聞いたことがありませんでした。
利用TuringTensor核心提供无与伦比的AI加速性能.
TuringTensorコアによる比類なきAIの高速化。
从公布的参数来看,TITANRTX拥有4608个CUDA核心,576个TensorCore。
CUDAコアは4608個、Tensorコアは576個。
你可以认为一个TensorFlow的tensor是一个n维数组或者列表。
TensorFlowのテンソルは、n次元の配列あるいはリストだ。
Tensorrank(有时称为顺序或度数或n维)是张量的阶。
テンソルのRank(時々、次数または次数またはn次元と呼ばれる)は、テンソルの次元数です。
例如,下面的tensor(定义为一个Python列表)的秩为2:.
たとえば、次のテンソル(Pythonリストとして定義されています)のランクは2です。
Tensorrank(有时称为顺序或度数或n维)是张量的维数。
テンソルのRank(時々、次数または次数またはn次元と呼ばれる)は、テンソルの次元数です。
胶子场强度张量(英语:gluonfieldstrengthtensor).
グルーオン場の強さテンソル(英語版)(Gluonfieldstrengthtensor)。
TensorFlow程序使用tensor数据结构来代表所有的数据。
TensorFlowプログラムは、テンソルデータ構造を使用してすべてのデータを表現する。
目前,为了获得实时结果,GauGAN必须在Tensor计算平台上运行。
リアルタイムで結果を得るためには、GauGANはTensorコアを使った計算機プラットフォーム上で実行する必要がある。
Tensor和Numpy的ndarrays类似,但Tensor可以使用GPU进行加速….
TensorはNumpyのndarrayと似ているものの、GPUで利用されることができ、計算を加速することができる。
训练操作使用VoltaTensorCore并运行45,000个步骤以达到等于34的困惑度。
トレーニングでは、VoltaTensorコアを使用し、45,000回の試行で34というパープレキシティを達成しました。
能够做到这一点是因为,每个TeslaV100GPU包含5120CUDA个核心和640个Tensor核心。
これが可能になるのは、各TeslaV100GPUには5,120のCUDACoreおよび640のTensorCoreが含まれているためです。
这些库与NVIDIATensorCoreGPU无缝地配合工作,加快基于AI的应用程序的开发和部署速度。
これらはすべてNVIDIATensorコアGPUとシームレスに動作し、AIベースのアプリケーションの開発および展開を高速化します。
编写新的神经网络模块,或PyTorch的TensorAPI的使用,其设计非常直接和最小的抽象。
新しいニューラルネットワークモジュールの作成やPyTorchのTensorAPIとのインターフェースは、最小限の抽象化を伴って簡単であるように設計されました。
亚马逊的DeepScalableSparseTensorNetworkEngine(DSSTNE)是一个为机器学习、深度学习构建模型的库。
AmazonのDSSTNE(DeepScalableSparseTensorNetworkEngine)は機械学習及びディープラーニングのモデル構築用のライブラリです。
编写新的神经网络模块,或与PyTorch的TensorAPI进行接口的设计是简单而且抽象最少的。
新しいニューラルネットワークモジュールの作成やPyTorchのTensorAPIとのインターフェースは、最小限の抽象化を伴って簡単であるように設計されました。
在其核心,它的CPU和GPUTensor与神经网络后端(TH、THC、THNN、THCUNN)被编写成了独立的库,带有C99API。
コアでは、CPUとGPUTensorとニューラルネットワークのバックエンド(TH、THC、THNN、THCUNN)はC99APIを使って独立したライブラリとして書かれています。
根据NVIDIA博客上的这篇非常有帮助的文章的介绍,Tensor核心是专为加快大型、深度神经网络的训练和推理而设计的。
大変有益なNVIDIAブログの記事によると、Tensorコアは大きなDeepNeuralNetworkの学習や推論を高速化するために設計されています。
DeepScalableSparseTensorNetworkEngine(DSSTNE)库现在可以以Apache2.0许可证从GitHub获得了。
GitHubに公開されたこの「DeepScalableSparseTensorNetworkEngine(DSSTNE)」ライブラリは、「Apache2.0」ライセンスの下で利用可能になっている。
下图取自Google的TPU论文《In-DatacenterPerformanceAnalysisofaTensorProcessingUnit》。
ISCA論文のレビュー版「In-DatacenterPerformanceAnalysisofaTensorProcessingUnit」。
神经网络中大量使用了同类型的运算,可以使用GPU和Googles自身的TPU(TensorProcessingUnit)对这样的运算进行优化。
ニューラルネットワークには、GPUやGoogle自身のTensorProcessingUnit(TPU)で最適化できる計算がたくさん使われている。
它也支持增强的FP16,从而加速为AmazonEC2P3实例提供支持的NVIDIAVoltaV100GPU的Tensor核心上的混合精度训练。
また、強化されたFP16に対応しているため、TensorCoreのNVIDIAVoltaV100 GPUで動作するAmazonEC2P3インスタンスでの混合精度トレーニングを高速化できます。
结果: 29, 时间: 0.0213

Tensor 用不同的语言

顶级字典查询

中文 - 日语