Що таке GRADIENT DESCENT Українською - Українська переклад

['greidiənt di'sent]
['greidiənt di'sent]
спуск градієнта
градієнтного спуску
gradient descent
градієнтним спуском
gradient descent

Приклади вживання Gradient descent Англійська мовою та їх переклад на Українською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Therefore, the gradient descent equations on the functional E are given by.
Таким чином, градієнтний спуск рівняння заданий як.
Calculation, analysis and synthesis of 3D systems is supplemented by gradient descent and particle swarm optimization procedures.
Розрахунок, аналіз та синтез тривимірних систем доповнений градієнтною і ройовою оптимізаційними процедурами.
Gradient descent methods are first-order, iterative, optimization methods.
Методи градієнтного спуску- ітераційні методи оптимізації першого порядку.
Below is an example that shows how to use the gradient descent to solve for three unknown variables, x1, x2, and x3.
Нижче наведено приклад, як застосовувати градієнтний спуск для розв'язання для трьох невідомих змінних, x1, x2 та x3.
Gradient descent works in spaces of any number of dimensions, even in infinite-dimensional ones.
Градієнтний спуск працює в просторах з будь-яким числом вимірів, навіть у нескінченновимірних.
As the L 2{\displaystyle L_{2}} norm is differentiable, learning problems using Tikhonovregularization can be solved by gradient descent.
Оскільки L 2{\displaystyle L_{2}} -норма є диференційованою,задача може бути вирішена за допомогою градієнтного спуску.
Gradient descent has problems with pathological functions such as the Rosenbrockfunction shown here.
Градієнтний спуск має проблеми з патологічними функціями, такими як показана тут функція Розенброка[en].
Popular ones for linear classification include(stochastic) gradient descent, L-BFGS, coordinate descent and Newton methods.
До популярних для лінійної класифікації належать(стохастичний) градієнтний спуск, L-BFGS[en], координатний спуск[en] та методи Ньютона.
The gradient descent can be combined with a line search, finding the locally optimal step size on every iteration….
Градієнтний спуск можна поєднувати з лінійним пошуком[en], який на кожній ітерації шукає локально оптимальний розмір кроку γ.
As observed above, rk is the negative gradient of f at x= xk,so the gradient descent method would require to move in the direction rk.
Як було зазначено вище, r k- від'ємний градієнт f при x= x k,тому метод спуску градієнтом потребує руху в напрямку r k.
A training procedure like gradient descent will tend to learn more and more complex functions as the number of iterations increases.
Такі методики як градієнтний спуск, мають тенденцію до створення все більш і більш складних функцій з часом.
TeachingBox is a Java reinforcement learningframework supporting many features like RBF networks, gradient descent learning methods,….
TeachingBox- це каркас навчання з підкріпленням наJava, який підтримує багато функцій, таких як мережі РБФ, методи навчання градієнтним спуском,….
We see that gradient descent leads us to the bottom of the bowl, that is, to the point where the value of the function F{\displaystyle F} is minimal.
Видно, що спуск градієнтом веде нас до дна чаші, тобто до точки, в якій значення функції F{\displaystyle F} є мінімальним.
One way to regularize non-parametric regression problems is to apply an earlystopping rule to an iterative procedure such as gradient descent.
Один із способів регулювання непараметричних задач регресії полягає в застосуванніправила ранньої зупинки до ітераційної процедури, такої як спуск градієнта.
A very common strategy inconnectionist learning methods is to incorporate gradient descent over an error surface in a space defined by the weight matrix.
Дуже поширеною стратегією вметодах навчання зв'язування є включення градієнтного спуску над поверхнею помилки в просторі, визначеному ваговою матрицею.
Gradient descent is used in machine-learning by defining a loss function that reflects the error of the learner on the training set and then minimizing that function.
Градієнтний спуск використовується в машинному навчанні через визначення функції втрат, яка відображає помилку на тренувальному наборі, а потім відбувається мінімізація функції.
Many boosting algorithms fit into the AnyBoost framework,which shows that boosting performs gradient descent in a function space using a convex cost function.
Багато алгоритмів підсилювання вписуються в систему AnyBoost,яка показує, що підсилювання виконує градієнтний спуск у просторі функцій за допомогою опуклої функції витрат.
Boosting methods have close ties to the gradient descent methods described above can be regarded as a boosting method based on the L 2{\displaystyle L_{2}} loss: L2Boost.
Методи підсилення мають тісні зв'язки з методами градієнтного спуску, описаними вище, і можуть розглядатися як метод підсилення, заснований на L 2{displaystyle L_{2}}.
When the function F{\displaystyle F} is convex, all local minima are also global minima,so in this case gradient descent can converge to the global solution.
Якщо функція F{\displaystyle F} є опуклою, то всі локальні мінімуми є також і глобальними мінімумами,тому в такому випадку градієнтний спуск може збігатися до глобального розв'язку.
For some of the above examples, gradient descent is relatively slow close to the minimum: technically, its asymptotic rate of convergence is inferior to many other methods.
Для деяких із наведених вище прикладів градієнтний спуск є відносно повільним поблизу мінімуму: з технічної точки зору, його асимптотичний темп збігання поступається багатьом іншим методам.
The combined system is analogous to a Turing Machine or Von Neumann architecture, but is differentiable end-to-end,allowing it to be efficiently trained with gradient descent.
Комбінована система аналогічна машині Тьюринга або архітектурі фон Неймана, але відрізняється в кінцевих параметрах,що дозволяє їй ефективно тренуватися з градієнтним спуском.
Minimizing this cost using gradient descent for the class of neural networks called multilayer perceptrons(MLP), produces the backpropagation algorithm for training neural networks.
Зведення до мінімуму цих витрат за допомогою градієнтного спуску для класу нейронних мереж, званого багатошаровими перцептронами(БШП), дає алгоритм зворотного поширення для тренування нейронних мереж.
In machine learning, early stopping is a form of regularization used to avoid overfitting whentraining a learner with an iterative method, such as gradient descent.
У машинному навчанні рання зупинка є формою регуляризації, яка використовується для уникнення перенавчання упроцесі навчання за допомогою ітераційного методу, такого як градієнтний спуск.
When one tries to minimise this cost using gradient descent for the class of neural networks called Multi-Layer Perceptrons, one obtains the well-known backpropagation algorithm for training neural networks.
Зведення до мінімуму цих витрат за допомогою градієнтного спуску для класу нейронних мереж, званого багатошаровими перцептронами(БШП), дає алгоритм зворотного поширення для тренування нейронних мереж.
Ten years ago, no one expected that we would achieve such amazing results on machine perception problems byusing simple parametric models trained with gradient descent.
Десять років тому ніхто не міг уявити, яких приголомшливих результатів ми досягнемо проблеми машинного сприйняття, використовуючипрості параметричні моделі, навчені з градієнтним спуском.
The second method optimised scores through gradient descent- a mathematical technique commonly used in machine learning for making small, incremental improvements- which resulted in highly accurate structures.
Другий метод оптимізував оцінки за допомогою градієнтного спуску- математичного методу, який зазвичай використовується в машинному навчанні для внесення невеликих, поступових покращень,- що робило структури точніше.
Many algorithms exist for solving such problems;popular ones for linear classification include(stochastic) gradient descent, L-BFGS, coordinate descent and Newton methods.
Існує багато алгоритмів розв'язання таких задач;до популярних для лінійної класифікації належать(стохастичний) градієнтний спуск, L-BFGS, координатний спуск та методи Ньютона.
Gradient descent(alternatively,"steepest descent" or"steepest ascent"): A(slow) method of historical and theoretical interest, which has had renewed interest for finding approximate solutions of enormous problems.
Градієнтний спуск(інколи,«крутий спуск» чи«крутий підйом»):(повільний) метод з точки зору історичного та теоретичного інтересу, який наново викликав інтерес до знаходження наближених розв'язань величезних проблем.
The combined system is analogous to a Turing machine or Von Neumann architecture but is differentiable end-to-end,allowing it to be efficiently trained with gradient descent.[58].
Така об'єднана система аналогічна машині Тюрінга або архітектурі фон Неймана, але є диференційовною з краю в край,що дозволяє їй продуктивно тренуватися за допомогою градієнтного спуску.[48].
The algorithm performs Gibbs sampling and is used inside a gradient descent procedure(similar to the way backpropagation is used inside such a procedure when training feedforward neural nets) to compute weight update.
Цей алгоритм здійснює вибірку за Ґіббсом, і використовується всередині процедури градієнтного спуску(подібного до того, як зворотне поширення використовується всередині такої процедури при тренуванні нейронних мереж прямого поширення) для обчислення уточнення вагових коефіцієнтів.
Результати: 34, Час: 0.0362

Переклад слово за словом

Найпопулярніші словникові запити

Англійська - Українська