FEATURE SELECTION на Русском - Русский перевод

['fiːtʃər si'lekʃn]
['fiːtʃər si'lekʃn]
выбор признаков
feature selection
отбор признаков
feature selection

Примеры использования Feature selection на Английском языке и их переводы на Русский язык

{-}
  • Official category close
  • Colloquial category close
Afterwards, feature selection can be used in order to prevent overfitting.
Затем может быть использован отбор признаков для предотвращения переобучения.
Determining a subset of the initial features is called feature selection.
Определение подмножества начальных признаков называется отбором признаков.
Feature selection algorithms are needed to reduce feature space.
Алгоритмы выбора признаков необходимы для снижения признакового пространства.
Dimensionality reduction and feature selection can decrease variance by simplifying models.
Снижение размерности и отбор признаков могут уменьшить дисперсию путем упрощения моделей.
Feature selection techniques should be distinguished from feature extraction.
Техники отбора признаков следует отличать от выделения признаков..
This is a survey of the application of feature selection metaheuristics lately used in the literature.
Ниже обзор приложений метаалгоритмов отбора признаков, использованных в литературе.
Filter feature selection is a specific case of a more general paradigm called Structure Learning.
Фильтр отбора признаков является специальным случаем более общей парадигмы с названием« структурное обучение».
For example, a maximum entropy rate criterion may be used for feature selection in machine learning.
Например, критерий максимальной энтропийной скорость может быть использован для отбора признаков в обучении машин.
The paper surveys feature selection, classification and regression algorithms, evaluation metrics.
В статье исследуются функции выбора, классификации и регрессии алгоритмы, показатели оценки.
Embedded methods are a catch-all group of techniques which perform feature selection as part of the model construction process.
Методы вложения являются обобщающей группой техник, которые осуществляют отбор признаков как часть процесса построения модели.
Feature selection approaches try to find a subset of the original variables also called features or attributes.
Метод отбора признаков пытается найти подмножество исходных переменных которые называются признаками или атрибутами.
In traditional regression analysis, the most popular form of feature selection is stepwise regression, which is a wrapper technique.
В традиционной статистике наиболее популярной формой отбора признаков является ступенчатая регрессия, которая является техникой оборачивания.
There are different Feature Selection mechanisms around that utilize mutual information for scoring the different features..
Есть различные механизмы отбора признаков, которые используют взаимную информацию для оценки различных признаков..
A learning algorithm takes advantage of its own variable selection process and performs feature selection and classification simultaneously.
Обучающий алгоритм имеет преимущество собственного процесса выбора переменной и осуществляет выбор признаков и классификацию одновременно.
Software provides speech feature selection module using greedy add-del and genetic algorithms.
Комплекс позволяет производить отбор речевых признаков с помощью алгоритмов жадного добавления- удаления и генетического алгоритма.
However, the issue of biased predictor selection is avoided by the Conditional Inference approach,a two-stage approach, or adaptive leave-one-out feature selection.
Однако, проблема смещения с помощью условного умозаключения,двухступенчатого подхода или адаптивного отбора признаков по отдельным объектам.
The feature selection methods are typically presented in three classes based on how they combine the selection algorithm and the model building.
Методы отбора признаков обычно представлены тремя классами по тому, как они комбинируют алгоритмы выбора и построения модели.
Figuring out the most effective representation of your input data(called feature selection) is one of the keys of using machine learning algorithms well.
Поиск наиболее эффективного представления входных данных( так называемый выбор признаков) является одним из ключевых навыков использования алгоритмов машинного обучения.
Feature selection techniques are often used in domains where there are many features and comparatively few samples or data points.
Техники отбора признаков часто используются в областях, где имеется много признаков и выборки сравнительно малы мало точек данных.
The choice of evaluation metric heavily influences the algorithm, andit is these evaluation metrics which distinguish between the three main categories of feature selection algorithms: wrappers, filters and embedded methods.
Выбор метрики сильновлияет на алгоритм и они различны для трех основных категорий алгоритмов отбора признаков: обертки, фильтры и методы вложения.
Peng et al. proposed a feature selection method that can use either mutual information, correlation, or distance/similarity scores to select features..
Пэн, Лон и Дин предложили метод отбора признаков, который может использовать взаимную информацию, корреляцию или оценку расстояния/ похожести для отбора признаков..
Weka supports several standard data mining tasks, more specifically, data preprocessing,clustering, classification, regression, visualization, and feature selection.
Weka позволяет выполнять такие задачи анализа данных, как подготовку данных( preprocessing),отбор признаков( англ. feature selection), кластеризацию, классификацию, регрессионный анализ и визуализацию результатов.
The optimal solution to the filter feature selection problem is the Markov blanket of the target node, and in a Bayesian Network, there is a unique Markov Blanket for each node.
Оптимальное решение задачи фильтра отбора признаков является марковским ограждением целевого узла и в байесовской сети имеется единственное марковское ограждение для каждого узла.
In a typical machine learning application, practitioners must apply the appropriate data pre-processing, feature engineering,feature extraction, and feature selection methods that make the dataset amenable for machine learning.
В типичном приложении обучения машины практический работник должен применить подходящие методы предварительной обработки данных, конструирования признаков,выделения признаков и выбора признаков, которые делают набор данных пригодным для обучения машин.
The size of filter F determines the efficiency of the feature selection in the image and the number of stored network parameters; it, therefore, is one of the most significant characteristics of the architecture;
Размер фильтра F определяет эффективность выделения признаков на изображении, количество хранимых параметров сети и поэтому является одной из наиболее значимых характеристик архитектуры;
Feature templates- implementing features templates instead of coding new features Feature combinations- combinations that cannot be represented by the linear system There are a few solutions to help stop feature explosion such as: regularization,kernel method, feature selection.
Шаблоны признаков- внедрение шаблонов признаков вместо кодирования новых признаков Комбинации признаков- комбинации, которые не могут быть представлены в виде линейной комбинации Существует несколько решений для останова взрыва признаков, такие как регуляризация,ядерный метод, отбор признаков.
Archetypal cases for the application of feature selection include the analysis of written texts and DNA microarray data, where there are many thousands of features, and a few tens to hundreds of samples.
Классическими местами применения отбора признаков являются анализ рукописных текстов и ДНК- микрочипы, где имеется много тысяч признаков и от десятков до сотен экземпляров выборки.
The above may then be written as an optimization problem: m R M R max x∈{ 0, 1}n.{\displaystyle\mathrm{mRMR}=\max_{x\in\{ 0,1\}^{ n}}\ left.} The mRMR algorithm is an approximation of the theoretically optimal maximum-dependency feature selection algorithm that maximizes the mutual information between the joint distribution of the selected features and the classification variable.
Формула выше может теперь быть переписана как задача оптимизации: m R M R max x∈{, 1}n.{\ displaystyle\ mathrm{ mRMR}=\ max_{ x\ in\{, 1\}^{ n}}\ left.} Алгоритм mRMR является аппроксимацией теоретически оптимального алгоритма отбора признаков с максимальной зависимостью, который максимизирует взаимную информацию между совместным распределением выбранных признаков и классификационной переменной.
Feature selection finds the relevant feature set for a specific target variable whereas structure learning finds the relationships between all the variables, usually by expressing these relationships as a graph.
Выбор признаков находит значимый набор признаков для конкретной целевой переменной, в то время как структурное обучение находит связи между переменными, обычно выражая эти связи в виде графа.
Other available filter metrics include: Class separability Error probability Inter-class distance Probabilistic distance Entropy Consistency-based feature selection Correlation-based feature selection The choice of optimality criteria is difficult as there are multiple objectives in a feature selection task.
Другие возможные метрики фильтров: Отделимость классов Вероятность ошибки Межклассовое расстояние Вероятностное расстояние Энтропия Выбор признаков на основе непротиворечивости Выбор признаков на основе корреляции Выбор критерия оптимальности сложен, так как имеется несколько целей в задаче отбора признаков.
Результатов: 548, Время: 0.0465

Пословный перевод

Лучшие запросы из словаря

Английский - Русский