What is the translation of " РЕГУЛЯРИЗАЦІЇ " in English?

Noun
regularization
регуляризації
регулярізація

Examples of using Регуляризації in Ukrainian and their translations into English

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Використання регуляризації мережі.
Regulation of use of nets.
Другим є використовувати якийсь із видів регуляризації.
The second is to use some form of regularization.
Знати: методи регуляризації лінійних і нелінійних некоректних задач;
Know: regularization methods for linear and non-linear ill-posed problems;
Регуляризації можна досягати обмеженням простору гіпотез H{\displaystyle{\mathcal{H}}}.
Regularization can be accomplished by restricting the hypothesis space H{\displaystyle{\mathcal{H}}}.
Якщо функція регуляризації R є опуклою, то наведене вище є опуклою задачею[en].
If the regularization function R is convex, then the above is a convex problem.
Необхідно також мати попереднізнання про рівень шуму, оскільки вибір параметра регуляризації залежить від нього.
A prior knowledge ofnoise level is required as the choice of regularization parameter depends on it.
Застосування методів нелінійної просторово-часової регуляризації для аналізу даних метеорологічних спостережень.
The use of methods of the nonlinear spatial-temporal data regularization for the analysis of meteorological observations.
Увести адміністративні процедури длягромадян України, які проживають на тимчасово окупованих територіях, для регуляризації їхньої громадянської документації;
Introduce administrative procedures for Ukrainiancitizens living in the temporarily occupied territories for the regularisation of their civil documentation;
У той час як звичайні правила для темпів навчання та сталих регуляризації все ще застосовуються, при оптимізації потрібно мати на увазі наступне.
While the usual rules for learning rates and regularization constants still apply, the following should be kept in mind when optimizing.
Параметри регуляризації λ A{\displaystyle\lambda_{A}} та λ I{\displaystyle\lambda_{I}} контролюють гладкість у довколишніх та внутрішніх просторах відповідно.
The regularization parameters λ A{\displaystyle\lambda_{A}} and λ I{\displaystyle\lambda_{I}} control smoothness in the ambient and intrinsic spaces respectively.
Коректність цього рівняння може бути досягнута шляхом регуляризації, а також за допомогою введення ефекту розмитості, який є основним недоліком регуляризації.
The well-posedness of the equation can be achieved by regularization but it also introduces blurring effect, which is the main drawback of regularization.
Іншим видом регуляризації є нав'язування абсолютної верхньої межі величині вагового вектора для кожного нейрону, і застосування методу проекційного найшвидшого спуску для забезпечення цього обмеження.
Another form of regularization is to enforce an absolute upper bound on the magnitude of the weight vector for every neuron and use projected gradient descent to enforce the constraint.
У машинному навчанні рання зупинка є формою регуляризації, яка використовується для уникнення перенавчання у процесі навчання за допомогою ітераційного методу, такого як градієнтний спуск.
In machine learning, early stopping is a form of regularization used to avoid overfitting when training a learner with an iterative method, such as gradient descent.
Регуляція Тихонова, разом з регресією головних компонентів і багатьма іншими схемами регуляризації, відноситься до спектральної регуляризації, регуляризації, яка характеризується застосуванням фільтра.
Tikhonov regularization, along with principal component regression and many other regularization schemes, fall under the umbrella of spectral regularization, regularization characterized by the application of a filter.
Набори даних для затверджування можуть бути використані для регуляризації шляхом ранньої зупинки: навчання переривається, коли помилка на наборі даних для затверджування збільшується, оскільки це є ознакою перенавчання на навчальному наборі даних.
Validation datasets can be used for regularization by early stopping: stop training when the error on the validation dataset increases, as this is a sign of overfitting to the training dataset.
Це, як правило, передбачає накладання певного обмеження гладкості на вивчену модель.[1] Ця гладкість може бути затребувана явно, коли фіксується кількість параметрів у моделі,або через зміну функції втрат, як у регуляризації Тихонова.
This generally involves imposing some sort of smoothness constraint on the learned model.[1] This smoothness may be enforced explicitly, by fixing the number of parameters in the model,or by augmenting the cost function as in Tikhonov regularization.
Таким чином, регуляризація особливо важлива для цих методів.
Regularization is, therefore, especially important for these methods.
Регуляризація може розв'язувати проблему перенавчання й надавати задачі стійкості.
Regularization can solve the overfitting problem and give the problem stability.
На мою думку,шість мільйонів людей пройшли так звану регуляризацію в Європі.
I believe six million people have undergone so-called regularisation in Europe.
Проблема існування безмасових зарядів: теоретико-групова регуляризація реакції випромінювання.
Problem of existence of a massless charge: group Lie regularization of the radiation reaction.
Як і в УЛМ, зазвичай застосовується регуляризація.
Like in GLMs, regularization is typically applied.
Додаткові члени в тренувальнійфункції витрат можуть легко виконувати регуляризацію кінцевої моделі.
Additional terms in the trainingcost function can easily perform regularization of the final model.
У 1949 він опублікував статтю про регуляризацію Паулі-Вілларса, у якій шлось про важливість ренормування, або видалення полюсів з квантової теорії поля.
In 1949, he published a paper on Pauli-Villars regularization, which provides an important prescription for renormalization, or removing infinities from quantum field theories.
Регуляризація, в контексті машинного навчання, відноситься до процесу зміни алгоритму навчання з метою запобігання перенавчання.
Regularization, in the context of machine learning, refers to the process of modifying a learning algorithm so as to prevent overfitting.
Адаптивне керування агломераційним комплексом на основі авторегресійних структур з регуляризацією. Анотація. Щокін В. П.
Adaptive control agglomeration complex on the basis of autoregressive structures with regulation. Manuscript. Shchokin V. P.
Регуляризація- це математичний прийом для уникнення сингулярності в ньютонівському законі тяжіння для двох частинок, які зближуються дуже тісно.
Regularization is a mathematical trick to remove the singularity in the Newtonian law of gravitation for two particles which approach each other arbitrarily close.
C- скалярна стала(встановлена користувачем алгоритму навчання),яка контролює баланс між регуляризацією та функцією втрат.
C is a scalar constant(set by the user of the learning algorithm)that controls the balance between the regularization and the loss function.
Стосовно до штучного інтелекту це відомо як«регуляризація» і«робота» шляхом створення простих комп'ютерних моделей, які віддають пріоритет основній інформації, але усувають деякі деталі, що дозволяє більш широке застосування.
In artificial intelligence, this principle is called regularization and it works by creating simple computer models that prioritize core information but eliminate specific details, allowing for wider application.
Було показано, що для декількох алгоритмів підсилення(включаючи AdaBoost) регуляризація за допомогою ранньої зупинки може забезпечити гарантії узгодженості, тобто, результат отриманий при підсиленні наближається до справжнього рішення, оскільки кількість зразків прямує до нескінченності.
It has been shown, for several boosting algorithms(including AdaBoost), that regularization via early stopping can provide guarantees of consistency, that is, that the result of the algorithm approaches the true solution as the number of samples goes to infinity.
Зважаючи на вищенаведене, видно,що методика ОВМ є рівнозначною мінімізації емпіричного ризику з регуляризацією Тихонова, де в цьому випадку функцією втрат є заві́сні втрати.
In light of the above discussion, we see that the SVM technique isequivalent to empirical risk minimization with Tikhonov regularization, where in this case the loss function is the hinge loss.
Results: 30, Time: 0.0252

Top dictionary queries

Ukrainian - English