Що таке ГРАДІЄНТНИЙ СПУСК Англійською - Англійська переклад

gradient descent
градієнтний спуск
спуск градієнта

Приклади вживання Градієнтний спуск Українська мовою та їх переклад на Англійською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Таким чином, градієнтний спуск рівняння заданий як.
Therefore, the gradient descent equations on the functional E are given by.
Градієнтний спуск працює в просторах з будь-яким числом вимірів, навіть у нескінченновимірних.
Gradient descent works in spaces of any number of dimensions, even in infinite-dimensional ones.
Нижче наведено приклад, як застосовувати градієнтний спуск для розв'язання для трьох невідомих змінних, x1, x2 та x3.
Below is an example that shows how to use the gradient descent to solve for three unknown variables, x1, x2, and x3.
Градієнтний спуск має проблеми з патологічними функціями, такими як показана тут функція Розенброка[en].
Gradient descent has problems with pathological functions such as the Rosenbrockfunction shown here.
До популярних для лінійної класифікації належать(стохастичний) градієнтний спуск, L-BFGS[en], координатний спуск[en] та методи Ньютона.
Popular ones for linear classification include(stochastic) gradient descent, L-BFGS, coordinate descent and Newton methods.
Градієнтний спуск можна поєднувати з лінійним пошуком[en], який на кожній ітерації шукає локально оптимальний розмір кроку γ.
The gradient descent can be combined with a line search, finding the locally optimal step size on every iteration….
Багато алгоритмів підсилювання вписуються в систему AnyBoost,яка показує, що підсилювання виконує градієнтний спуск у просторі функцій за допомогою опуклої функції витрат.
Many boosting algorithms fit into the AnyBoost framework,which shows that boosting performs gradient descent in a function space using a convex cost function.
Такі методики як градієнтний спуск, мають тенденцію до створення все більш і більш складних функцій з часом.
A training procedure like gradient descent will tend to learn more and more complex functions as the number of iterations increases.
Якщо функція F{\displaystyle F} є опуклою, то всі локальні мінімуми є також і глобальними мінімумами,тому в такому випадку градієнтний спуск може збігатися до глобального розв'язку.
When the function F{\displaystyle F} is convex, all local minima are also global minima,so in this case gradient descent can converge to the global solution.
Градієнтний спуск використовується в машинному навчанні через визначення функції втрат, яка відображає помилку на тренувальному наборі, а потім відбувається мінімізація функції.
Gradient descent is used in machine-learning by defining a loss function that reflects the error of the learner on the training set and then minimizing that function.
У машинному навчанні рання зупинка є формою регуляризації, яка використовується для уникнення перенавчання упроцесі навчання за допомогою ітераційного методу, такого як градієнтний спуск.
In machine learning, early stopping is a form of regularization used to avoid overfitting whentraining a learner with an iterative method, such as gradient descent.
Для деяких із наведених вище прикладів градієнтний спуск є відносно повільним поблизу мінімуму: з технічної точки зору, його асимптотичний темп збігання поступається багатьом іншим методам.
For some of the above examples, gradient descent is relatively slow close to the minimum: technically, its asymptotic rate of convergence is inferior to many other methods.
Існує багато алгоритмів розв'язання таких задач;до популярних для лінійної класифікації належать(стохастичний) градієнтний спуск, L-BFGS, координатний спуск та методи Ньютона.
Many algorithms exist for solving such problems;popular ones for linear classification include(stochastic) gradient descent, L-BFGS, coordinate descent and Newton methods.
Градієнтний спуск(інколи,«крутий спуск» чи«крутий підйом»):(повільний) метод з точки зору історичного та теоретичного інтересу, який наново викликав інтерес до знаходження наближених розв'язань величезних проблем.
Gradient descent(alternatively,"steepest descent" or"steepest ascent"): A(slow) method of historical and theoretical interest, which has had renewed interest for finding approximate solutions of enormous problems.
Методи градієнтного спуску- ітераційні методи оптимізації першого порядку.
Gradient descent methods are first-order, iterative, optimization methods.
Дуже поширеною стратегією вметодах навчання зв'язування є включення градієнтного спуску над поверхнею помилки в просторі, визначеному ваговою матрицею.
A very common strategy inconnectionist learning methods is to incorporate gradient descent over an error surface in a space defined by the weight matrix.
TeachingBox- це каркас навчання з підкріпленням наJava, який підтримує багато функцій, таких як мережі РБФ, методи навчання градієнтним спуском,….
TeachingBox is a Java reinforcement learningframework supporting many features like RBF networks, gradient descent learning methods,….
Комбінована система аналогічна машині Тьюринга або архітектурі фон Неймана, але відрізняється в кінцевих параметрах,що дозволяє їй ефективно тренуватися з градієнтним спуском.
The combined system is analogous to a Turing Machine or Von Neumann architecture, but is differentiable end-to-end,allowing it to be efficiently trained with gradient descent.
Десять років тому ніхто не міг уявити, яких приголомшливих результатів ми досягнемо проблеми машинного сприйняття, використовуючипрості параметричні моделі, навчені з градієнтним спуском.
Ten years ago, no one expected that we would achieve such amazing results on machine perception problems byusing simple parametric models trained with gradient descent.
Оскільки L 2{\displaystyle L_{2}} -норма є диференційованою,задача може бути вирішена за допомогою градієнтного спуску.
As the L 2{\displaystyle L_{2}} norm is differentiable, learning problems using Tikhonovregularization can be solved by gradient descent.
Другий метод оптимізував оцінки за допомогою градієнтного спуску- математичного методу, який зазвичай використовується в машинному навчанні для внесення невеликих, поступових покращень,- що робило структури точніше.
The second method optimised scores through gradient descent- a mathematical technique commonly used in machine learning for making small, incremental improvements- which resulted in highly accurate structures.
Цей алгоритм здійснює вибірку за Ґіббсом, і використовується всередині процедури градієнтного спуску(подібного до того, як зворотне поширення використовується всередині такої процедури при тренуванні нейронних мереж прямого поширення) для обчислення уточнення вагових коефіцієнтів.
The algorithm performs Gibbs sampling and is used inside a gradient descent procedure(similar to the way backpropagation is used inside such a procedure when training feedforward neural nets) to compute weight update.
Методи підсилення мають тісні зв'язки з методами градієнтного спуску, описаними вище, і можуть розглядатися як метод підсилення, заснований на L 2{displaystyle L_{2}}.
Boosting methods have close ties to the gradient descent methods described above can be regarded as a boosting method based on the L 2{\displaystyle L_{2}} loss: L2Boost.
Така об'єднана система аналогічна машині Тюрінга або архітектурі фон Неймана, але є диференційовною з краю в край,що дозволяє їй продуктивно тренуватися за допомогою градієнтного спуску.[48].
The combined system is analogous to a Turing machine or Von Neumann architecture but is differentiable end-to-end,allowing it to be efficiently trained with gradient descent.[58].
Нехай М{\властивості стиль відображення значення М} позначає копію гладкихзображень. Тоді дифузійні рівняння, представлені вище, можуть бути інтерпретовані як рівняння градієнтного спуску для мінімізації енергії Е: М → Р{\властивості стиль відображення значення E: M\rightarrow\mathbb{Р}} визначеної як:.
Let M{\displaystyle M} denote the manifold of smooth images,then the diffusion equations presented above can be interpreted as the gradient descent equations for the minimization of the energy functional E: M→ R{\displaystyle E: M\rightarrow\mathbb{R}} defined by.
Самоорганізовані карти відрізняються від інших штучних нейронних мереж, оскільки вони застосовують конкурентне навчання, яке є протилежним до навчання з виправленням помилок(наприклад,метод зворотного поширення помилки з градієнтним спуском), і в тому сенсі, що вони використовують функцію сусідства для збереження топологічних властивостей вхідного простору.
Self-organizing maps differ from other artificial neural networks as they apply competitive learning asopposed to error-correction learning(such s backpropagation with gradient descent), and in the sense that they use a neighborhood function to preserve the topological properties of the input space.
Анімація, яка показує перші 83 ітерації градієнтного спуску, що застосовується до цього прикладу.
An animation showing the first 83 iterations of gradient descent applied to this example.
Інше розширення градієнтного спуску виникло завдяки Юрієві Нестерову[en] 1983 року,[7] і було згодом узагальнене.
Another extension of gradient descent is due to YuriiNesterov from 1983,[11] and has been subsequently generalized.
Порівняння збіжності градієнтного спуску з оптимальним розміром кроку(зеленим) такон'югованим вектором(червоним кольором) для мінімізації квадратичної функції, пов'язаної із заданою лінійною системою.
A comparison of the convergence of gradient descent with optimal step size(in green) and conjugate vector(in red) for minimizing a quadratic function associated with a given linear system.
Результати: 29, Час: 0.014

Переклад слово за словом

Найпопулярніші словникові запити

Українська - Англійська