What is the translation of " LOSS FUNCTION " in Ukrainian?

[lɒs 'fʌŋkʃn]
[lɒs 'fʌŋkʃn]
функція втрат
loss function
the cost function
функцією втрат
loss function
функцію втрат
loss function

Examples of using Loss function in English and their translations into Ukrainian

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
The loss function also affects the convergence rate for an algorithm.
Функція втрат також впливає й на темп збіжності алгоритму.
In some sense the 0-1indicator function is the most natural loss function for classification.
Характеристична функція 0-1 є в певному сенсі найприроднішою функцією втрат для класифікації.
This familiar loss function is used in Ordinary Least Squares regression.
Ця знайома функція втрат використовується у звичайній регресії найменших квадратів[en].
In statistics and decision theory, a frequently used loss function is the 0-1 loss function..
У статистиці татеорії рішень часто застосовуваною функцією втрат є функція втрат 0-1(англ. 0-1 loss function).
The loss function is typically chosen to be a norm in an appropriate function space.
Як функцію втрат зазвичай обирають норму відповідного функційного простору.
People also translate
In an inference context the loss function would take the form of a scoring rule.
В контексті висновування функція втрат набуватиме форми оцінювального правила[en].
To extend SVM to cases in which the data are notlinearly separable, we introduce the hinge loss function.
Для розширення ОВМ на випадки, в яких дані не є лінійно роздільними,ми вводимо заві́сну функцію втрат(англ. hinge loss function).
Other loss functions are used in statistics, particularly in robust statistics.
Інші функції втрати застосовують в статистичній теорії, особливо при перевірці статистичної надійності.
It is very restrictive and sometimes the loss function may be characterized by its desirable properties.
Він має дуже обмежувальний характер, а іноді функції втрат можуть зображуватися їхніми бажаними властивостями.
A"linear" loss function, with a> 0{\displaystyle a>0}, which yields the posterior median as the Bayes' estimate.
Лінійна» функція втрат, з a> 0{\displaystyle a>0}, що видає як баєсову оцінку апостеріорну медіану.
A typical example is estimation of a location parameter with a loss function of the type L( a- θ){\displaystyle L(a-\theta)}.
Типовим прикладом є оцінювання коефіцієнту зсуву з функцією втрат типу L( a- θ){\displaystyle L(a-\theta)}.
Another"linear" loss function, which assigns different"weights" a, b> 0{\displaystyle a, b>0} to over or sub estimation.
Інша«лінійна» функція втрат, що призначає різну«вагу» a, b> 0{\displaystyle a, b>0} для пере- та недооцінки.
For most optimization algorithms, it is desirable to have a loss function that is globally continuous and differentiable.
Для більшості алгоритмів оптимізації бажано мати таку функцію втрат, яка є всюди неперервною та диференційовною.
The most common loss function for regression is the square loss function(also known as the L2-norm).
Найзвичнішою функцією втрат для регресії є квадратична функція втрат(англ. square loss function, відома також як норма L2).
C is a scalar constant(set by the user of the learning algorithm)that controls the balance between the regularization and the loss function.
C- скалярна стала(встановлена користувачем алгоритму навчання),яка контролює баланс між регуляризацією та функцією втрат.
In-depth understanding of loss functions and ability to create custom loss functions.
Поглиблене розуміння функцій втрат та можливість створювати власні функції втрат.
Loss functions need not be explicitly stated for statistical theorists to prove that a statistical procedure has an optimality property.
Статистикам-теоретикам не потрібне явне вказання функцій втрат для доведення того, що статистична процедура володіє властивістю оптимальності.
These algorithms minimize or maximize a Loss function E(x) using its Gradient values with respect to the parameters.
Ці алгоритми мінімізують або максимізують функцію втрат E(x) за домогою значення градієнта обчисленного по параметрам.
In light of the above discussion, we see that the SVM technique is equivalent to empirical risk minimization with Tikhonov regularization,where in this case the loss function is the hinge loss..
Зважаючи на вищенаведене, видно, що методика ОВМ є рівнозначною мінімізації емпіричного ризику з регуляризацією Тихонова,де в цьому випадку функцією втрат є заві́сні втрати..
When taking this drug for bodybuilding and weight loss functions, it is most often taken in a pill or liquid form.
Приймаючи цей препарат для бодібілдингу та функцій зниження ваги, він найчастіше приймається в таблетці або в рідкій формі.
Popular loss functions include the hinge loss(for linear SVMs) and the log loss(for linear logistic regression).
До популярних функцій втрат належать заві́сні втрати(для лінійних ОВМ) та лог-втрати[en](для лінійної логістичної регресії).
Thus, in statistical decision theory, the risk function of an estimator δ(x) for a parameter θ, calculated from some observables x,is defined as the expectation value of the loss function L.
Таким чином, в статистичній теорії прийняття рішень, функція ризику оцінки δ(x) для параметра θ, обчислена при деяких спостережуваних x;визначається як математичне сподівання функції втрат L.
Bayesian regret Loss functions for classification Discounted maximum loss Hingeloss Scoring rule Statistical risk Wald, A.(1950).
Функції втрат для класифікації Знецінені максимальні втрати Завіснівтрати Оцінювальне правило Wald, A.(1950).
There are other methods of estimation that minimize the posterior risk(expected-posterior loss)with respect to a loss function, and these are of interest to statistical decision theory using the sampling distribution("frequentist statistics").
Існують інші методи оцінювання,що мінімізують апостеріорний ризик(очікувані апостеріорні втрати) відносно функції втрат, і вони становлять інтерес для статистичної теорії рішень з використанням вибіркового розподілу(«частотна статистика»).
In statistics, typically a loss function is used for parameter estimation, and the event in question is some function of the difference between estimated and true values for an instance of data.
У статистиці функція втрат, як правило, використовується для оцінювання параметрів, а подія, яка розглядається, є певною функцією відмінності між розрахунковими та істинними значеннями для зразка даних.
Discriminative training of linear classifiers usually proceeds in a supervised way, by means of an optimization algorithm that isgiven a training set with desired outputs and a loss function that measures the discrepancy between the classifier's outputs and the desired outputs.
Розрізнювальне тренування лінійних класифікаторів, як правило, здійснюється керованим чином, за допомогою алгоритму оптимізації,якому надається тренувальний набір із бажаними виходами, та функція втрат, яка задає міру невідповідності між виходами класифікатора, та бажаними.
Leonard J. Savage argued thatusing non-Bayesian methods such as minimax, the loss function should be based on the idea of regret, i.e., the loss associated with a decision should be the difference between the consequences of the best decision that could have been made had the underlying circumstances been known and the decision that was in fact taken before they were known.
Севідж також стверджував, що при застосуванні небаєсових методів, таких як мінімакс, функція втрат повинна ґрунтуватися на ідеї смутку(англ. regret), тобто, втрати, пов'язані з рішенням, повинні бути різницею між наслідками найкращого рішення, яке могло би бути зроблено, якби обставини для його обґрунтування були відомими, та рішення, яке в дійсності було зроблено, перш ніж вони стали відомими.
Tie-Yan Liu of Microsoft Research Asia has analyzed existing algorithms for learning to rank problems in his paper"Learning to Rank for Information Retrieval".[1]He categorized them into three groups by their input representation and loss function: the pointwise, pairwise, and listwise approach.
Tie-Yan Liu з досліджень Microsoft Research Asia проаналізував наявні алгоритми навчання ранжуванню у своїй роботі"Навчання ранжуванню для пошуку інформації".[1]Він класифікував їх за трьома групами за їх вхідним представлення і функцією втрати: точковий, попарний і списковий підхід.
Gradient descent is used in machine-learning by defining a loss function that reflects the error of the learner on the training set and then minimizing that function..
Градієнтний спуск використовується в машинному навчанні через визначення функції втрат, яка відображає помилку на тренувальному наборі, а потім відбувається мінімізація функції..
Under typical statistical assumptions, the mean or average is the statistic for estimating location thatminimizes the expected loss experienced under the squared-error loss function, while the median is the estimator that minimizes expected loss experienced under the absolute-difference loss function.
За типових статистичних припущень середнє або усереднене значення- це статистика для оцінювання положення,яка мінімізує очікувані втрати, що виникають за функції втрат квадратичної похибки, тоді як медіана є оцінювачем, який мінімізує очікувані втрати за функції втрат абсолютної різниці.
Results: 30, Time: 0.0361

Word-for-word translation

Top dictionary queries

English - Ukrainian