FEATURE VECTORS 日本語 意味 - 日本語訳 - 英語の例文

['fiːtʃər 'vektəz]
['fiːtʃər 'vektəz]

英語 での Feature vectors の使用例とその 日本語 への翻訳

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
  • Programming category close
Generating Feature Vectors.
特徴ベクトルの作成。
To reduce memory consumption,Jubatus can hash keys of feature vectors.
Jubatusでは特徴ベクトルのキーをハッシュ化することでメモリ消費を抑えることができる。
This node saves feature vectors in files.
特徴量ベクトルをファイルに保存する.。
Note that hash_max_size is not a limit for a number of keys in the original datum,but a number of keys in(converted) feature vectors.
Hash_max_sizeが制限するのは入力されるdatumのキー数ではなく、(変換後の)特徴ベクトルのキー数であることに注意する。
Finally, we generate feature vectors that correspond to each of the target pairs.
では最後に、抽出した予測対象に対応する特徴ベクトルを作成しましょう。
It is assumed inside the KaldiDecoder that the dimension number of feature vectors and mask vectors are the same.
特徴量ベクトルとマスクベクトルの次元数は同じ大きさであることがKaldiDecoder内部で仮定されている。
Fv prints the feature vectors extracted from the input record by fv_converter.
Fvはfv_converterによって入力データから抽出された特徴ベクトルを出力します。
Feature extraction: Transform a collection of text documents into feature vectors based on the Bag-Of-Words model.
特徴抽出:テキスト文書のコレクションをBag-Of-Wordsモデルに基づく特徴ベクトルに変換します。出力は、ワード・。
The whole training data(feature vectors and the responses) are used to split the root node.
全学習データ(特徴ベクトル,およびそれに対する応答)は,ルートノードを分岐させるために用いられる。
New statistical features and optionsFeature extraction:Transform a collection of text documents into feature vectors based on the Bag-Of-Words model.
新しい統計機能とオプション特徴抽出:テキスト文書のコレクションをBag-Of-Wordsモデルに基づく特徴ベクトルに変換します。
All of the training data(feature vectors and the responses) is used to split the root node.
根ノードの分岐には,すべての学習データ(特徴ベクトル,およびそれに対する応答)が用いられます。
IMP lab. publication database: Detail of Publication Efficiency of object recognition methods using local descriptors such as SIFT andPCA-SIFT depends largely on the speed of matching between feature vectors since images are described by a large number of feature vectors.
知能メディア処理研究室文献データベース:文献の詳細画像の局所記述子としてSIFTやPCA-SIFTを用いる物体認識では,一画像あたりの特徴ベクトルの数が膨大となるため,特徴ベクトルの照合速度が全体の効率を左右する。
Details of the node This node saves feature vectors in a format which can be treated by HTK.
ノードの詳細特徴量ベクトルをHTKで扱われる形式で保存する。
We write the feature vectors and binary target labels(which indicate if the user purchased the item or not) together to the train. tsv file.
特徴ベクトルと正解ラベル(与えられたユーザーが与えられた購入したか否かを示す二値)を一緒にtrain.tsvに保存します。
Cosine similarity calculations are then made against these feature vectors to identify similar customers(X, Y) and similar products(A, B).
次に、類似した顧客(X、Y)と類似した商品(A、B)を特定するために、これらの特徴ベクトルに対して、類似度の計算を行う。
The feature vectors that are the closest to the hyper-plane are called"support vectors", meaning that the position of other vectors does not affect the hyper-plane the decision function.
超平面に最も近い特徴ベクトルは「サポートベクタ」と呼ばれ,それ以外のベクトル位置が超平面(決定関数)に影響を及ぼさないという事を表しています。
In general, increasing the number of local features for indexing(reference feature vectors) by generative learning enables us to improve the recognition rate.
一般に,生成型学習を用いて,索引付けのための局所特徴量(参照特徴ベクトル)の数を増やせば,それだけ認識率が向上する。
Consider the set of the feature vectors: N vectors from a d-dimensional Euclidean space drawn from a Gaussian mixture: where is the number of mixtures, is the normal distribution density with the mean and covariance matrix, is the weight of the k-th mixture.
特徴ベクトルの集合を考えます:ここで,d-次元ユークリッド空間のN 個のベクトルは,混合ガウス分布に従って選択されます:ここで,は混合数,は平均がで共分散行列がである正規分布の確率密度,はk番目の分布に対する重み。
In general, to give structure to an image set based on feature vectors obtained from the image without knowing the actual image category, such information compression techniques as principal component analysis or a Self Organization Map can be used.
画像から得られた特徴ベクトルを基に画像集合に構造を与える場合、主成分分析等の線形手法や、自己組織化マップ等の学習による情報圧縮手法が一般に利用されている。
From the experimental results using 10,000 reference images,6.6 times reference feature vectors enabled us both to reduce the processing time to 2/3 from the original, and to improve the recognition rate by 12.2\%. Another experiment with 1 million reference images indexed by 2.6 billion reference feature vectors yielded the recognition rate of 90\% in 59ms/query.
万画像を用いた認識実験の結果,6.6倍の参照特徴ベクトルを用いることで,処理時間を2/3,認識率を12.2\%改善できること,ならびに26億個の参照特徴ベクトルを用いて索引付けされた100万物体を,59ms/query,90\%の認識率で認識可能であることを示す。
Represents a name for the dimension of the feature vector.
特徴ベクトルの次元名を表す。
Represents a weight for the dimension of the feature vector.
特徴ベクトルの次元の重みを表す。
Represents a dimension of feature vector.
特徴ベクトルの次元を表す。
Jubatus supports this kind of feature vector extraction(in this case, from text of natural language into words) by default.
Jubatusはこのような特徴ベクトルの抽出機能(ここでは、自然言語のテキストを単語に分割)をデフォルトで備えています。
Many machine learning algorithmsrequire the input to be represented as a fixed-length feature vector.
多くの機械学習アルゴリズムでは入力を固定長の特徴ベクトルとして表す必要がある。
For example, in a spam filter thatuses a set of words occurred in the message as a feature vector, the variable importance rating can be used to determine the most"spam-indicating" words and thus help to keep the dictionary size reasonable.
例えばスパムフィルタで,文章中に登場する単語の集合を特徴ベクトルとして用いると,変数の重要度評価は,最も「スパムらしい」単語を決定するために利用でき,その結果,適切な辞書のサイズを保つのに役立つ。
Major changes include: RandomForest supports sparse efficient feature vector format Added Feature selection, anomaly detection and topic modeling functionalities Added General predictors Collection: Hashing Filter(aws/idcf) You can now apply a hash filter to your data connector import.
主な変更点は次のとおりです。RandomForestは、疎な効率的な特徴ベクトルフォーマットをサポート機能選択、異常検出、トピックモデリング機能の追加一般的なPredictorの追加コレクション: HashingFilter(aws/idcf)データコネクタインポートにハッシュフィルタを適用できるようになりました。
You can initialize a cluster with a random feature vector, and then add all othersamples to their closest cluster(given that each sample represents a feature vector and a Euclidean distance used to identify“distance”).
初期化した後、その他すべてのサンプルを、それぞれに最も距離が近いクラスターに追加します(各サンプルが機能ベクトルを表し、ユークリッド距離を使用して「距離」を特定することが前提となります)。
Predicting with Decision Trees To reach a leaf node,and thus to obtain a response for the input feature vector, the prediction procedure starts with the root node. From each non-leaf node the procedure goes to the left(i.e. selects the left child node as the next observed node), or to the right based on the value of a certain variable, which index is stored in the observed node.
決定木による予測予測手続きは,ルートノードから開始して葉に到達することで,入力特徴ベクトルに対する応答を得る.この処理は,ある変数の値を基に,葉ではない各ノードから左(つまり次の観測ノードとして左側の子ノードを選択),あるいは右に分岐して進む.そのインデックスは観測ノードに保存される。
結果: 29, 時間: 0.032

単語ごとの翻訳

トップ辞書のクエリ

英語 - 日本語