What is the translation of " LOSS FUNCTION " in Korean?

[lɒs 'fʌŋkʃn]
[lɒs 'fʌŋkʃn]
손실 함수
loss function
loss function
손실 기능이

Examples of using Loss function in English and their translations into Korean

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Ecclesiastic category close
  • Programming category close
  • Computer category close
Loss function.
손실 함수.
Taguchi Loss Function.
다구치 손실 함수.
Of course, there are many other loss functions.
물론, 다른 많은 손실 기능이 있으며.
Quality Loss Function(QIF).
품질 손실 함수 (QLF).
We need to adjust our loss function.
그것을 하기 위해서, 우리는 손실 기능을 수정합니다.
Quality Loss Function(QIF) Term Definition.
품질 손실 함수 (QLF) 기간 정의.
So we need a loss function.
그래서 우리는 손실 기능이 필요합니다.
Loss function in regression is mean squared error.
여기서 설명하는 loss function은 mean squared error였다.
You need a loss function.
그래서 우리는 손실 기능이 필요합니다.
High accuracy means that you have optimized the loss function.
정확도가 높다는 것은 손실 함수를 최적화했다는 뜻이다.
Define the Loss Function.
손실 함수(loss function) 정의하기.
Nonlinear models use either standard least squares or a custom loss function.
비선형 모형은 표준 최소 제곱과 사용자 손실 함수 중 하나를 사용합니다.
Quality Loss Function(QIF)- short version.
품질 손실 함수 (QLF) - 짧은 버전.
Expalin: Taguchi Quality Loss Function?
Genichi Taguchi: 불량 품질비용 결정함수인 품질손실함수(quality loss function)를?
Due to squaring, this loss function amplifies the influence of bad predictions.
제곱을 하기 때문에, 이 손실 함수는 나쁜 예측의 영향을 증폭함.
Also, it is supported by many programming languages and supports many loss functions.
또한 많은 프로그래밍 언어로 지원되며 많은 손실 기능을 지원합니다.
But in practice, different loss functions can be used.
하지만 실제로 다른 손실 기능을 사용할 수 있습니다.
Quality loss function(QIF): See Taguchi quality loss function.
불량 품질비용 결정함수인 품질손실함수(quality loss function)를.
Finally, you need to choose a loss function and an optimizer.
마지막으로 손실 함수와 옵티마이저를 선택해야 합니다.
Micro power loss function can work over 2 years in the electricity saving mode.
Micro 동력 손실 기능은 전기 저축 본에 있는 2 년의 위, 작동할 수 있습니다.
In MXNet Gluon, the corresponding loss function can be found here.
MXNet Gluon에서는 관련된 loss 함수에 대한 내용을 여기에서 볼 수 있습니다.
Loss function is essentially a sum of losses on each example from training set.
왜냐하면 손실 기능은 기본적으로 트레이닝 세트에서 나온 각각의 예들에 발생하는 손실의 합계이기 때문입니다.
We still use the mini-batch stochastic gradient descent to optimize the loss function of the model.
모델의 손실 함수(loss function)를 최적화하기 위해서 미니 배치 확률적 경사 하강법(stochastic gradient descent)를 이용합니다.
It adds a penalty term to the loss function on the training set to reduce the complexity of the learned model.
학습된 모델의 복잡도를 줄이기 위해서 학습 데이터에 대한 손실 함수(loss function)의 값에 패널티 항목을 더합니다.
Similar to linear regression,polynomial function fitting also makes use of a squared loss function.
선형 회귀(Linear regression)와 비슷하게,다항 함수 학습에 제곱 손실 함수(squared loss function)를 이용하겠습니다.
This new loss function is still mathematically the same as categorical_crossentropy; it just has a different interface.
손실 함수는 인터페이스만 다를 뿐이고 수학적으로는 categorical_crossentropy와 동일합니다.
High area under the ROC curve is good, so when you are using it as the basis for a loss function you actually want to maximize the AUC.
ROC 곡선 아래의 높은 영역은 좋은 것이기 때문에 이를 손실 함수를 위한 기초로 사용하는 경우 실제로 AUC를 극대화해야 한다.
The cost or loss function has an important job in that it must faithfully distill all aspects of the model down into a single number in such a way that improvements in that number are a sign of a better model.
비용 또는 손실 함수는 모델의 모든 측면을 단일 숫자로 충실하게 증류해야 한다는 점에서 중요한 역할을 하며, 이러한 수치의 개선은 더 나은 모델(function loss 예제)의 표시입니다.
While we attacked regression problems by trying to minimize the L1 or L2 loss functions, the common loss function for classification problems is called cross-entropy.
우리는 회귀 문제를 풀 때 L1 또는 L2 loss 함수를 최소화하는 시도를 했는데, 분류 문제에서 cross-entropy 함수가 흔히 사용되는 loss 함수는 입니다.
He defines loss functions, risk functions, a priori distributions, Bayes decision rules, admissible decision rules, and minimax decision rules, and proves that a minimax decision rule has a constant risk under certain regularity conditions.
그는 minimax 결정 규칙, 손실 함수, 위험 함수, 선험적으로 배포판, 베이즈 결정 규칙, 입국 결정 규칙을 정의하고 그 minimax 결정 규칙을 특정 규칙 일정한 조건 하에서 위험이 증명한다.
Results: 270, Time: 0.037

How to use "loss function" in a sentence

As in the loss function derived wrt w1.
Here is what the loss function looks like.
a gradient to optimize our loss function effectively.
Call Model.compile() with the loss function and optimizer.
Implement a loss function for the value network.
KSVMs uses a loss function called hinge loss.
The loss function used in binary logistic regression.
You regularize the loss function with L2 regularizer.
What is the Loss function for KNN Regressor?
The Huber loss function is a combination of the squared-error loss function and absolute-error loss function.
Show more

Word-for-word translation

Top dictionary queries

English - Korean