What is the translation of " LOSS FUNCTION " in Russian?

[lɒs 'fʌŋkʃn]
[lɒs 'fʌŋkʃn]
функцией потерь
loss function

Examples of using Loss function in English and their translations into Russian

{-}
  • Official category close
  • Colloquial category close
It is important for the loss function to be convex.
Важно, чтобы функции потерь была выпуклой.
The loss function also affects the convergence rate for an algorithm.
Функция потерь влияет также на скорость сходимости алгоритма.
For example, in online classification, the prediction domain and the loss functions are not convex.
Например, в онлайновой классификации, область предсказания и функции потерь не выпуклы.
The Huber loss function describes the penalty incurred by an estimation procedure f.
Функция потерь Хьюбера задает штраф за процедуру оценки.
In such scenarios, two simple techniques for convexification are used: randomisation and surrogate loss functions.
В таких сценариях применяются две простые техники приведения к выпуклому случаю- рандомизация и суррогатные функции потерь.
People also translate
This familiar loss function is used in Ordinary Least Squares regression.
Эта знакомая функция потерь используется в обычном методе наименьших квадратов.
The optimal regularization in hindsight can be derived for linear loss functions, this leads to the AdaGrad algorithm.
Оптимальная регуляризация в кусочно-линейной функции может быть получена для линейных функций потерь, что приводит к алгоритму AdaGrad.
Different loss functions are used depending on whether the problem is one of regression or one of classification.
Используются разные функции потерь в зависимости от того, является задача регрессией или классификацией.
The above proved a regret bound for linear loss functions v t( w)⟨ w, z t⟩{\displaystyle v_{ t}( w)=\ langle w, z_{t}\rangle.
Выше доказана граница« сожаления» для линейных функций потерь v t( w)⟨ w, z t⟩{\ displaystyle v_{ t}( w)=\ langle w, z_{ t}\ rangle.
If a loss function could be specified then critical areas could be identified in forecasting methodology where research is most needed.
Спецификация функции потерь позволяет выявлять критические области в методологии прогнозирования, остро требующие проведения исследований.
In an inference context the loss function would take the form of a scoring rule.
В контексте вывода функция потерь примет вид правила подсчета результата.
Train the network, letting NetTrain automatically infer that it should attach cross-entropy loss functions to both outputs.
Обучите сеть, позволяя NetTrain автоматически определять, что она должна прикрепить функцию потерь перекрестной энтропии к обеим группам выходных данных.
BrownBoost uses a non-convex potential loss function, thus it does not fit into the AdaBoost framework.
BrownBoost использует невыпуклую функцию потерь, поэтому он не попадает в семейство алгоритмов AnyBoost.
Hyperparameter optimization finds a tuple of hyperparameters that yields an optimal model which minimizes a predefined loss function on given independent data.
Оптимизация гиперпараметров находит кортеж гиперпараметров, который дает оптимальную модель, оптимизирующую заданную функцию потерь на заданных независимых данных.
The most common loss function for regression is the square loss function also known as the L2-norm.
Наиболее употребительной функцией потерь для регрессии является квадратичная функция потерь известная также как L2- норма.
For decision-making, Bayesian statisticians might use a Bayes factor combined with a prior distribution and a loss function associated with making the wrong choice.
Для принятия решений статистики, использующие байесовский подход, могут использовать коэффициент Байеса вместе с априорным распределением и функцией потерь.
The choice of loss function is a determining factor on the function f S{\displaystyle f_{S}} that will be chosen by the learning algorithm.
Выбор функции потерь- это определение определяющего фактора для функции f S{\ displaystyle f_{ S}}, которая будет выбрана обучающим алгоритмом.
Some classification models, such as naive Bayes, logistic regression andmultilayer perceptrons(when trained under an appropriate loss function) are naturally probabilistic.
Некоторые классификационные модели, такие как наивный байесовский классификатор, логистическая регрессия имногослойные перцептроны( когда они тренируются с подходящими функциями потерь) естественным образом являются вероятностными.
The choice of loss function here gives rise to several well-known learning algorithms such as regularized least squares and support vector machines.
Выбор функции потерь здесь дает несколько хорошо известных алгоритмов обучения, таких как регуляризованный метод наименьших квадратов и метод опорных векторов.
The posterior gives a universal sufficient statistic for detection applications,when choosing values for the variable subset that minimize some expected loss function, for instance the probability of decision error.
Это следствие дает нам универсальную оценку для приложений,где нужно выбрать значения подмножества переменных, которое минимизирует функцию потерь, например, вероятность ошибочного решения.
The Huber loss is a loss function used in robust regression, that is less sensitive to outliers in data than the squared error loss..
Функция потерь Хьюбера- это функция потерь, используемая в устойчивой регрессии, которая менее чувствительна к выбросам, чем квадратичная ошибка.
In estimation theory and decision theory, a Bayes estimator or a Bayes action is an estimator ordecision rule that minimizes the posterior expected value of a loss function i.e., the posterior expected loss..
В математической статистике и теории принятия решений байесовская оценкарешения- это статистическая оценка, минимизирующая апостериорное математическое ожидание функции потерь то есть апостериорное ожидание потерь..
In this case the set of actions is the parameter space, and a loss function details the cost of the discrepancy between the true value of the parameter and the estimated value.
Если решается задача оценки параметра сигнала на фоне помех, то функция потерь является мерой расхождения между истинным значением оцениваемого параметра и оценкой параметра.
For the Euclidean regularisation, one can show a regret bound of O( T){\displaystyle O({\sqrt{T}})}, which can be improved further to a O( log⁡ T){\displaystyle O(\log T)}for strongly convex and exp-concave loss functions.
Для евклидовой регуляризации можно показать, что граница« сожаления» равна O( T){\ displaystyle O({\ sqrt{ T}})} и она может быть улучшена до O( log⁡ T){\ displaystyle O(\ log T)}для строго выпуклых и exp- вогнутых функций потерь.
These two different scales of loss function for uncertainty are both useful, according to how well each reflects the particular circumstances of the problem in question.
Две разные шкалы функции потерь для неопределенности обе являются полезными, согласно с тем, насколько хорошо каждая отражает конкретные обстоятельства рассматриваемой проблемы в задаче.
The framework is that of repeated game playing as follows: For t 1, 2,…, T{\displaystyle t=1,2,…,T} Learner receives input x t{\displaystyle x_{t}} Learner outputs w t{\displaystyle w_{t}} from a fixed convex set S{\displaystyle S}Nature sends back a convex loss function v t: S→ R{\displaystyle v_{t}: S\rightarrow\mathbb{R.
Схема является многократным действием: Для t 1, 2,…, T{\ displaystyle t= 1, 2,…, T} Ученик получает вход x t{\ displaystyle x_{ t}} Ученик образует выход w t{\ displaystyle w_{ t}} из фиксированного выпуклого множества S{\ displaystyle S}Природа возвращает значение выпуклой функции потерь v t: S→ R{\ displaystyle v_{ t}: S\ rightarrow\ mathbb{ R.
Commonly used loss functions for probabilistic classification include log loss and the Brier score between the predicted and the true probability distributions.
Обычно используемые функции потерь для вероятностной классификации- логистическая функция потерь и показатель Бриера между предсказанным и истинным распределением вероятностей.
For the final error to be exactly 1- erf( c){\displaystyle 1-{\ mbox{ erf}}({\ sqrt{c}})}, the variance of the loss function must decrease linearly w.r.t. time to form the 0-1 loss function at the end of boosting iterations.
Чтобы конечная функция потерь была в точности 1- erf( c){\ displaystyle 1-{\ mbox{ erf}}({\ sqrt{ c}})}, дисперсия должна линейно убывать по времени, чтобы сформировать бинарную функцию потерь после окончания итераций бустинга.
In this setting, the loss function is given as V: Y× Y→ R{\displaystyle V: Y\times Y\to\mathbb{R}}, such that V( f( x), y){\displaystyle V(f(x), y)} measures the difference between the predicted value f( x){\displaystyle f(x)} and the true value y{\displaystyle y.
В этих условиях функция потерь задается как V: Y× Y→ R{\ displaystyle V: Y\ times Y\ to\ mathbb{ R}}, такая, что V( f( x), y){\ displaystyle V( f( x), y)} измеряет разницу между предсказанным значением f( x){\ displaystyle f( x)} и истинным значением y{\ displaystyle y.
In addition to the standard hinge loss( 1- y f( x))+{\displaystyle 1-yfx for labeled data, a loss function( 1-| f( x)|)+{\displaystyle 1-|fx is introduced over the unlabeled data by letting y sign⁡ f( x){\displaystyle y=\operatorname{sign}{fx.
В дополнение к стандартной петле потери( 1- y f( x))+{\ displaystyle 1- yfx для размеченных данных, функция потерь( 1-| f( x)|)+{\ displaystyle 1-| fx вводится и для неразмеченных данных, обозначив y sign⁡ f( x){\ displaystyle y=\ operatorname{ sign}{ fx.
Results: 653, Time: 0.0702

Word-for-word translation

Top dictionary queries

English - Russian