INFERENCING 日本語 意味 - 日本語訳 - 英語の例文

名詞
推論
inference
infer
inferencing
reasoning
corollaries
deduce
reasonings

英語 での Inferencing の使用例とその 日本語 への翻訳

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
  • Programming category close
The second phase of machine learning is called inferencing.
機械学習の次の段階は、推論と呼ばれます。
Using type inferencing, it will automatically pick the last item c's type, which is Int.
推論により自動的に最後の要素cの型、つまりIntが選ばれる。
Machine learning typically requires two types of computing workloads,training and inferencing.
機械学習は通常、2種類の計算負荷、学習と推論が必要です。
Instead they must perform inferencing close to the source of their data on the edge.
代わりに、エッジ上にあるデータソースの近くで推論を行わなければいけません。
FPGAs also possess inherent parallel processing capabilities,which is useful for implementing machine learning inferencing.
FPGAはまた、FPGAは固有の並列処理能力を備えており、機械学習推論の実装に最適です。
Our processing framework utilize type inferencing with respect to record-like type structure.
我々は処理の枠組みとしてレコード的型構造に関する型推論を採用した。
ONNX Runtime is compatible withONNX version 1.2 and comes in Python packages that support both CPU and GPU inferencing.
ONNXRuntimeは、ONNXバージョン1.2と互換性があり、CPUとGPUの両方の推論をサポートするPythonパッケージで提供されます。
At the edge devices must perform inferencing using arithmetic that employs as few bits as possible.
エッジでは、デバイスはできるだけわずかな消費電力で計算できる推論処理を行わなければいけません。
The company has contributed multiple designs such as Big Basin andBig Sur optimized for AI/deep learning, inferencing, and training.
QCTは、AI/深層学習、推論、訓練のために最適化されたBigBasinやBigSurなどの複数のハード設計にも貢献しています。
Which can accelerate both training and inferencing with Fast I/O data reading as deep learning is a data-driven algorithm.
これはデータ駆動型アルゴリズムを用いる深層学習で重要な、高速I/O読込みされるトレーニングや推論などを加速することができます。
The original TPU was very limited in the range of applications it could be used for, had no support for branch instructions,and was primarily applied to machine learning inferencing tasks.
元来のTPUは、利用されうるアプリケーションの幅がかなり限定されており、分岐命令のサポートもなく、そして主に機械学習の推測タスクに適用されていました。
This document could be used for search and discovery or inferencing purposes, or just to provide a longer description of the resource.
このドキュメントは、検索・発見や推論のために、または、単に資源に関するより長い記述を提供するために使用できます。
Training vs. Inferencing'Training' typically happens in the datacenter/cloud, and'inferencing' at the edge of the network in embedded/mobile systems.
学習vs推論訓練通常、データセンタ/クラウドで、推論はエッジのネットワーク(組込み/モバイルシステム)で行われます。
Unlike a sea-of-gates view after synthesis, PowerArtist's RTL inferencing engine retains a functional view, making it easy to identify and debug power hotspots.
PowerArtistのRTL推論エンジンは、合成後のシーオブゲートビューではなく、機能ビューを維持するため、電力ホットスポットの特定とデバッグが容易です。
Enabling Inferencing at the Edge FPGAs are well-suited for'inferencing' at the edge due to their parallel-processing architecture, capable of highest operations per second(OPS) at lowest power consumption compared to CPUs and GPUs.
エッジでの推論を可能にFPGAは(CPUやGPUに比べて)最低の電力消費で高度な1秒あたりの動作(OPS)が可能な並列処理アーキテクチャを採用しているため、エッジでの推論に最適です。
Where can developers find the platform needed to perform inferencing on the network edge? One solution lies in the parallel processing capability built into FPGAs.
ネットワークエッジにおける推論を行うために必要なプラットフォームをどこで見つけることができるのでしょうか?1つのソリューションは、FPGAに組み込まれた並列処理機能です。
The use of inferencing at the network edge level promises to minimize latency in decision-making and reduce network congestion, as well as improve personal security and privacy since captured data is not continuously sent to the cloud.
ネットワークエッジレベルの推論の使用は、取得されたデータが絶えずクラウドに送られないので、意思決定のレイテンシを最小限に抑え、ネットワークの混雑を解消するとともに、個人のセキュリティやプライバシーを向上させます。
The NVIDIA HGX-2 server platform features 16 NVIDIA Tesla® V100 32GB Tensor Core GPUs connected by NVIDIA NVSwitchTMinterconnect fabric that enables AI training and inferencing models at an unprecedented 2.4 TB per second.
NVIDIAHGX-2サーバプラットフォームは、NVIDIANVSwitchTM相互接続ファブリックによって接続された16個のNVIDIATesla®V10032GBTensorCoreGPUを搭載する前例のない2.4TB/秒の性能をもち、AIトレーニングおよび推論モデルを可能にします。
The second phase of machine learning called inferencing applies the system's capabilities to new data by identifying patterns and performing tasks.
機械学習、推論における次の段階はパターンを確定し、タスクを実行することで新しいデータをシステムの機能に応用することです。
Lattice sensAI is a complete technology stack that combines modular FPGA development kits, neural network IP cores, software tools, reference designs andcustom design services to accelerate the integration of flexible machine learning inferencing into fast-growth industrial, automotive and consumer IoT applications, including smart home, smart city, smart factory and smart car products.
ラティスsensAIは、モジュール型FPGA開発キット、ニューラルネットワークIPコア、ソフトウェアツール、リファレンスデザイン、およびカスタムデザインサービスを組み合わせた完全なテクノロジースタックです。スマートホーム、スマートシティ、スマートファクトリー、スマートカー製品を含む、急成長する産業機器、オートモーティブ、コンスーマIoTアプリケーションにおいて、フレキシブルな機械学習と推論の実装を短期間で実現します。
For extremely fast and low-cost inferencing, Azure Machine Learning service offers hardware accelerated models(in preview) that provide vision model acceleration through FPGAs.
超高速かつ低コストで推論を実行するため、AzureMachineLearningserviceでは、FPGAを利用してビジョン モデルアクセラレーションを実現するHardwareAcceleratedModels(プレビュー段階)が提供されます。
To address this growing need and help accelerate and simplify the development of AI solutions in edge devices, Lattice released sensAI,the first full-featured FPGA-based machine learning inferencing technology stack that combines hardware kits, neural network IP cores, software tools, reference designs and custom design services.
エッジデバイスの急増するニーズに応え、AIソリューションの展開を加速・簡素化するために、ラティスはハードウェアキット、ニューラルネットワークIPコア、ソフトウェアツール、リファレンスデザインとカスタム設計サービスを組み合わせた初めてのフル機能で、FPGAベースの機能学習の推論技術スタックであるsensAIを発表しました。
By delivering a full-featured machine learning inferencing technology stack combining flexible, ultra-low power FPGA hardware and software solutions, the Lattice sensAI stack accelerates integration of on-device sensor data processing and analytics in edge devices.
柔軟な超低消費電力FPGAハードウェアとソフトウェアソリューションを組み合わせた、フル機能の機械学習推論技術スタックを持つLatticesensAIスタックは、エッジデバイス上のオンデバイスセンサデータ処理および解析の統合を加速します。
Till now, processing batches of data for non-real time inferencing needed to be done by resizing large datasets into smaller chunks of data and managing real-time endpoints.
これまでは、非リアルタイムの推論のためのデータのバッチ処理は、大きなデータセットを小さなデータの固まりにサイズ変更し、リアルタイムのエンドポイントを管理することによって処理する必要がありました。
To address this need we recently announced Lattice sensAI,the first comprehensive technology stack for inferencing that brings together the modular hardware kits, neural network IP cores, software tools, reference designs and custom design services designers require to bring ultra-low power AI applications to market.
このニーズに応えるため、当社は推論向けに初めての包括的な技術スタックであるLatticesensAIを発表しました。これは超低消費電力のAIアプリケーションを市場にもたらすために必要な、モジュラーハードウェアキット、ニューラルネットワークIPコア、ソフトウェアツール、リファレンスデザイン、およびカスタム設計サービスを備えています。
結果: 25, 時間: 0.0266

トップ辞書のクエリ

英語 - 日本語