What is the translation of " OVERFITTING " in Ukrainian?

Noun
перенавчанню
overfitting
retraining
re-skilling
re-training

Examples of using Overfitting in English and their translations into Ukrainian

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
This leads to overfitting.
Це призводить до перевантаженості.
Overfitting and, in some instances.
Листування і в деяких інших випадках.
Underfitting and not overfitting.
Не заповнюються і не подаються.
This is called overfitting, and we will explore it later.
Це називається перенацілюванням, і ми обговоримо його пізніше.
It thus guards against overfitting.
Воно таким чином захищає від перенавчання.
Underfitting and overfitting- what is it and how to deal with.
Недостатня обробка та перевиконання- що це і як з цим боротися.
As mentioned earlier, a major issue is overfitting.
Як говорилося вище, важливим моментом є пережовування.
Regularization can solve the overfitting problem and give the problem stability.
Регуляризація може розв'язувати проблему перенавчання й надавати задачі стійкості.
Many algorithms exist to prevent overfitting.
Існує багато алгоритмів для запобігання перенавчанню.
Overfitting occurs when the learned function f S{\displaystyle f_{S}} becomes sensitive to the noise in the sample.
Перенавчання стається тоді, коли навчена функція f S{\displaystyle f_{S}} стає чутливою до шуму в вибірці.
This complication has led to the creation of many ad-hoc rules for deciding when overfitting has truly begun.
Це ускладнення призвело до появи багатьох ad-hoc правил для визначення того, що перенавчання справді почалось.
Overfitting occurs when a model begins to“memorize” training data rather than“learning” to generalize from trend.
Перенавчання стається тоді, коли модель починає«запам'ятовувати» тренувальні дані, замість того, щоби«вчитися» узагальненню з тенденції.
Convolutional neural networks usually require a large amount of training data in order toavoid overfitting.
А згорткові нейронні мережі зазвичай вимагають великої кількості тренувальних даних,щоби запобігати перенавчанню.
Overfitting occurs when a statistical model describes random error or noise instead of the underlying relationship.
При перенавчанні(англ. overfitting) статистична модель описує випадкову похибку або шум, замість взаємозв'язку, що лежить в основі даних.
The error on the validation set is used as aproxy for the generalization error in determining when overfitting has begun.
Помилка набору перевірки використовується якпроксі для помилки узагальнення при визначенні початку перенавчання.
Overfitting occurs when a model fits the data in the training set well, while incurring larger generalization error.
Перенавчання відбувається тоді, коли модель добре вписується в дані тренувального набору, одночасно з тим має велику помилку узагальнення.
In model development, it is possible to increase the fit by adding parameters,but doing so may result in overfitting.
При пристосовуванні моделей можливо підвищувати правдоподібність шляхом додавання параметрів,але це може призводити до перенавчання.
Overfitting generally occurs when a model is excessively complex, such as having too many parameters relative to the number of observations.
Перенавчання виникає тоді, коли модель є занадто складною, такою, що має занадто багато параметрів відносно числа спостережень.
In machine learning,early stopping is a form of regularization used to avoid overfitting when training a learner with an iterative method, such as gradient descent.
У машинному навчанні рання зупинка є формою регуляризації,яка використовується для уникнення перенавчання у процесі навчання за допомогою ітераційного методу, такого як градієнтний спуск.
DNNs are prone to overfitting because of the added layers of abstraction, which allow them to model rare dependencies in the training data.
ГНМ схильні до перенавчання із-за доданих шарів абстракції, що дозволяють їм моделювати рідкісні залежності в тренувальних даних.
It is a particular problem in statistical modelling, where many different models are rejected by trial anderror before publishing a result(see also overfitting, publication bias).
Це особлива проблема в статистичному моделюванні, коли багато різних моделей відхиляються методом спроб іпомилок перед публікацією результату(див. Також перенавчання, упередження публікації).
Overfitting occurs when a model describes noise(randomness) in the data set rather than the underlying statistical relationship.
Так звана переподгонка трапляється, коли модель описує шум(випадковість) в наборі даних, замість того, щоб встановлювати основні статистичні співвідношення.
One of the simplest methods to prevent overfitting of a network is to simply stop the training before overfitting has had a chance to occur.
Одним із найпростіших методів запобігання перенавчанню мережі є просто зупиняти тренування, перш ніж перенавчання отримає шанс відбутися.
Overfitting is the use of models or procedures that violate Occam's razor, for example by including more adjustable parameters than are ultimately optimal, or by using a more complicated approach than is ultimately optimal.
Перенавчання є застосуванням моделей або процедур, які порушують лезо Оккама, наприклад, включаючи більше регульованих параметрів, ніж є зрештою оптимально, або використовуючи складніший підхід, ніж є зрештою оптимально.
Restriction of the hypothesis space avoids overfitting because the form of the potential functions are limited, and so does not allow for the choice of a function that gives empirical risk arbitrarily close to zero.
Обмеження простору гіпотез дозволяє уникати перенавчання, оскільки обмежує вигляд потенційних функцій, і відтак унеможливлює вибір функції, що давала би як завгодно близький до нуля емпіричний ризик.
Overfitting is especially likely in cases where learning was performed too long or where training examples are rare, causing the learner to adjust to very specific random features of the training data, that have no causal relation to the target function.
Перенавчання є особливо ймовірним в тих випадках, коли навчання виконувалося занадто довго, або коли тренувальні зразки є рідкісними, що спричиняє пристосовування до дуже особливих випадкових ознак тренувальних даних, які не мають причинного взаємозв'язку[en] з цільовою функцією[en].
Another simple way to prevent overfitting is to limit the number of parameters, typically by limiting the number of hidden units in each layer or limiting network depth.
Іншим простим шляхом запобігання перенавчанню є обмежити кількість параметрів, зазвичай обмежуючи кількість прихованих вузлів у кожному шарі, або обмежуючи глибину мережі.
One can intuitively understand overfitting from the fact that information from all past experience can be divided into two groups: information that is relevant for the future and irrelevant information("noise").
Перенавчання можна інтуїтивно розуміти з точки зору тієї обставини, що інформацію з усього минулого досвіду може бути поділено на дві групи: інформацію, яка стосується майбутнього, і недоречну інформацію(«шум»).
Since the degree of model overfitting is determined by both its power and the amount of training it receives, providing a convolutional network with more training examples can reduce overfitting.
Оскільки ступінь перенавчання моделі визначається як її потужністю, так і кількістю отримуваного нею тренування, забезпечення згорткової мережі більшою кількістю тренувальних прикладів може знижувати перенавчання.
Results: 29, Time: 0.0359

Top dictionary queries

English - Ukrainian