Sta znaci na Srpskom LOSS FUNCTION - prevod na Српском

[lɒs 'fʌŋkʃn]
[lɒs 'fʌŋkʃn]
функција губитка
loss function
функцију губитка
loss function

Примери коришћења Loss function на Енглеском и њихови преводи на Српски

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
  • Latin category close
  • Cyrillic category close
What is a loss function?
Шта је функција потрошње?
The minimizer of I[ f]{\displaystyle I[f]} for the hinge loss function is.
Минимизатор од I[ f]{\ displaystyle I[ f]} за функцију губитка зглоба је.
What Is a Loss Function and Loss?.
Које су основе прихода и губитка?
These are called margin-based loss functions.
Оне се називају функције губитка засноване на маржи.
The square loss function is both convex and smooth.
Функција квадратног губитка је и конвексна и глатка.
The output of the network is then compared to the desired output,using a loss function.
Излаз мреже се затим упоређује са жељеним излазом,користећи функцију губитка.
Choosing a margin-based loss function amounts to choosing ϕ{\displaystyle\phi}.
Одабир функције губитка засноване на маржи представља избор ϕ{\ displaystyle\ phi}.
To extend SVM to cases in which the data are not linearly separable, the hinge loss function is helpful.
За проширење МПВ на случајеве у којима подаци нису линеарно одвојиви, функција губитка зглоба је од помоћи.
The logistic loss function can be generated using(2) and Table-I as follows.
Функција логистичких губитака може се генерисати коришћењем( 2) и табеле-И као.
The minimizer of I[ f]{\displaystyle I[f]}for the Savage loss function can be directly found from equation(1) as.
Минимизатор за I[ f]{\ displaystyle I[ f]}за Севиџ функцију губитка може се директно наћи из једначине( 1) као.
Selection of a loss function within this framework impacts the optimal f ϕ∗{\displaystyle f_{\phi which minimizes the expected risk.
Избор функције губитка унутар овог оквира утиче на оптималну f ϕ ∗{\ displaystyle f_{\ phi што минимизира очекивани ризик.
A more general result states that Bayes consistent loss functions can be generated using the following formulation[7].
Општији резултат каже да се Бајесове конзистентне функције губитка могу генерисати коришћењем следеће формулације.
The loss function calculates the difference between the network output and its expected output, after a training example has propagated through the network.
Функција губитка рачуна разлику између излаза мреже и очекиваног излаза, након што се случај рашири кроз мрежу.
In the second phase, this gradient is fed to the optimization method, which in turn uses it to update the weights,in an attempt to minimize the loss function.
У другој фази, овај градијент се напаја методом оптимизације, која заузврат то користи за ажурирање тежине,у покушају да минимизира функцију губитка.
The generalized smooth hinge loss function with parameter α{\displaystyle\alpha} is defined as.
Генерализована глатка функција губитка зглоба са параметром α{\ displaystyle\ alpha} се дефинише као.
We also assume a risk function R( θ, δ){\displaystyle R(\theta,\delta)},usually specified as the integral of a loss function.
Такође претпостављамо функцију ризика( risk function) R( θ, δ){\ displaystyle R(\ theta,\ delta)},најчешће је наведена као интеграл једне функције губитка( loss function).
A benefit of the square loss function is that its structure lends itself to easy cross validation of regularization parameters.
Предност функције квадратног губитка је у томе што њена структура омогућава лаку унакрсну валидацију параметара регуларизације.
Candidate solutions to the optimization problem play the role of individuals in a population, andthe fitness function determines the quality of the solutions(see also loss function).
Решење оптимизационог проблема је једна индивидуа из популације, афитнес функција одређује квалитет решења( погледај функцију губитка).
Such loss functions where the posterior probability can be recovered using the invertible link are called proper loss functions.
Такве функције губитка где се задња вероватноћа може повратити коришћењем инверзибилне везе називају се функције правилног губитка.
However, the hinge loss does have a subgradient at y f( x→)= 1{\displaystyle yf({\vec{x}})=1}, which allows for the utilization of subgradient descent methods.[1]SVMs utilizing the hinge loss function can also be solved using quadratic programming.
Међутим, губитак зглоба има субградијент на y f( x→)= 1{\ displaystyle yf({\ vec{ x}}) =1}, што омогућава коришћење субградијентних метода спуштања.SVM-ови који користе функцију губитка зглоба такође се могу решити коришћењем квадратног програмирања.
While the hinge loss function is both convex and continuous, it is not smooth(is not differentiable) at y f( x→)= 1{\displaystyle yf({\vec{x}})=1}.
Док је функција губитка зглоба и конвексна и континуирана, није глатка( не може се разликовати) на y f( x→)= 1{\ displaystyle yf({\ vec{ x}}) =1}.
For convex margin loss ϕ( υ){\displaystyle\phi(\upsilon)}, it can be shown that ϕ( υ){\displaystyle\phi(\upsilon)} is Bayes consistent if and only if it is differentiable at 0 and ϕ′( 0)< 0{\displaystyle\phi'(0)<0}.[6][2] Yet,this result does not exclude the existence of non-convex Bayes consistent loss functions.
За губитак конвексне маргине ϕ( υ){\ displaystyle\ phi(\ upsilon)}, може се показати да ϕ( υ){\ displaystyle\ phi(\ upsilon)} је Бајес конзистентан ако и само ако је диференцибилан на 0 и ϕ′( 0)<0{\ displaystyle\ phi'( 0)< 0}. Ипак, овај резултат не искључује постојање неконвексних Бајесових конзистентних функција губитка.
Consequently, the hinge loss function cannot be used with gradient descent methods or stochastic gradient descent methods which rely on differentiability over the entire domain.
Сходно томе, функција губитка зглоба се не може користити са методама градијентног спуста или методама стохастичког градијента које се ослањају на диференцијабилност у целом домену.
Within classification, several commonly used loss functions are written solely in terms of the product of the true label y{\displaystyle y} and the predicted label f( x→){\displaystyle f({\vec{x}})}.
У оквиру класификације, неколико често коришћених функција губитка је написано искључиво у смислу производа праве лабеле y{\ displaystyle y} и предвиђене лабеле f( x→){\ displaystyle f({\ vec{ x}})}.
For proper loss functions, the loss margin can be defined as μ ϕ=- ϕ′( 0) ϕ″( 0){\displaystyle\mu_{\phi}=-{\frac{\phi'(0)}{\phi''(0)}}} and shown to be directly related to the regularization properties of the classifier.[9]Specifically a loss function of larger margin increases regularization and produces better estimates of the posterior probability.
За валидне функције губитка, маргина губитка се може дефинисати као μ ϕ=- ϕ′( 0) ϕ″( 0){\ displaystyle\ mu_{\ phi}=-{\ frac{\ phi'( 0)}{\ phi''( 0)}}} а показало се да је директно повезанаса својствима регуларизације класификатора. Конкретно, функција губитка веће маргине повећава регуларизацију и даје боље процене постериорне вероватноће.
The difference between the hinge loss and these other loss functions is best stated in terms of target functions- the function that minimizes expected risk for a given pair of random variables X, y{\displaystyle X,\, y}.
Разлика између губитка зглоба и ових других функција губитка најбоље се може изразити у смислу циљних функција- функција која минимизира очекивани ризик за дати пар случајних прмонељивих X, y{\ displaystyle X,\, y}.
However, this loss function is non-convex and non-smooth, and solving for the optimal solution is an NP-hard combinatorial optimization problem.[4] As a result, it is better to substitute loss function surrogates which are tractable for commonly used learning algorithms, as they have convenient properties such as being convex and smooth.
Међутим, ова функција губитка није конвексна и није глатка, а решавање оптималног решења је НП-тежак комбинаторни оптимизациони проблем. Као резултат тога, боље је заменити сурогате функције губитка који су погодни за уобичајено коришћене код алгоритама учења, јер имају погодна својства као што је конвексност и глаткос.
Given the binary nature of classification,a natural selection for a loss function(assuming equal cost for false positives and false negatives) would be the 0-1 loss function(0-1 indicator function), which takes the value of 0 if the predicted classification equals that of the true class or a 1 if the predicted classification does not match the true class.
С обзиром на бинарну природу класификације,природна селекција за функцију губитка( под претпоставком да је једнака цена за лажне позитивне и лажно негативне) била би функција губитка 0-1( функција индикатора 0-1), која узима вредност 0 ако је предвиђено класификација једнака оној праве класе или 1 ако се предвиђена класификација не поклапа са правом класом.
A Bayes consistent loss function allows us to find the Bayes optimal decision function f ϕ∗{\displaystyle f_{\phi by directly minimizing the expected risk and without having to explicitly model the probability density functions.
Бајесова конзистентна функција губитка омогућава нам да пронађемо Бајесову оптималну функцију одлучивања f ϕ ∗{\ displaystyle f_{\ phi директним минимизовањем очекиваног ризика и без потребе за експлицитним моделирањем функција густине вероватноће.
Резултате: 29, Време: 0.0328

Превод од речи до речи

Најпопуларнији речнички упити

Енглески - Српски