Що таке ТРЕНУВАЛЬНІ ДАНІ Англійською - Англійська переклад S

training data
навчальних даних
тренувальні дані
дані навчання

Приклади вживання Тренувальні дані Українська мовою та їх переклад на Англійською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Перенавчання стається тоді, коли модель починає«запам'ятовувати» тренувальні дані, замість того, щоби«вчитися» узагальненню з тенденції.
Overfitting occurs when a model begins to“memorize” training data rather than“learning” to generalize from trend.
Це є особливо корисним, коли тренувальні дані є обмеженими, оскільки ваги з погано заданими початковими значеннями можуть значно заважати продуктивності моделі.
This is particularly helpful when training data are limited, because poorly initialized weights can significantly hinder learning.
Для прикладу завеликого числа регульованих параметрів розгляньмо такий набір даних,де тренувальні дані для y може бути адекватно передбачено лінійною функцією двох залежних змінних.
For an example where there are too many adjustable parameters,consider a dataset where training data for y can be adequately predicted by a linear function of two dependent variables.
Особливо зашумлені тренувальні дані роблять непотрібне збільшення об'єму бази прецедентів, бо протягом тренувальної фази не здійснюється жодного абстрагування.
Particularly noisy training data increases the case base unnecessarily, because no abstraction is made during the training phase.
Торральба зі співавторами використали для підсилювання GentleBoost, та показали, що, коли тренувальні дані є обмеженими, навчання через спільні ознаки виконує роботу набагато краще, ніж без спільних ознак, за однакових раундів підсилювання.
Used GentleBoost for boosting and showed that when training data is limited, learning via sharing features does a much better job than no sharing, given same boosting rounds.
Якщо тренувальні дані є лінійно роздільними, то ми можемо обрати дві паралельні гіперплощини, які розділяють два класи даних таким чином, що відстань між ними є якомога більшою.
If the training data is linearly separable, we can select two parallel hyperplanes that separate the two classes of data, so that the distance between them is as large as possible.
Це особливо корисно тоді, коли доступні тренувальні дані є обмеженими, оскільки вагові коефіцієнти з погано заданими початковими значеннями можуть значно заважати ефективності навченої моделі.
This is particularly helpful when training data are limited, because poorly initialized weights can significantly hinder learning.
Якщо тренувальні дані лінійно відокремлюються, ми можемо вибрати дві гіперплощини таким чином, щоб вони розділяли дані, а між ними не було точок, а потім намагалися максимально збільшити відстань між ними.
If the training data are linearly separable, we can select two hyperplanes in such a way that they separate the data and there are no points between them, and then try to maximize their distance.
Аналогічно, модель, яка виробляється опорно-векторною регресією, залежить лише від підмножини тренувальних даних,оскільки функція втрат для побудови моделі ігнорує будь-які тренувальні дані, близькі до передбачення моделі.
Analogously, the model produced by SVR depends only on a subset of the training data,because the cost function for building the model ignores any training data close to the model prediction.
У праці«Sharing visual features for multiclass and multiview object detection», А. Торральба зі співавторами використали для підсилювання GentleBoost, та показали, що,коли тренувальні дані є обмеженими, навчання через спільні ознаки виконує роботу набагато краще, ніж без спільних ознак, за однакових раундів підсилювання.
In the paper"Sharing visual features for multiclass and multiview object detection", A. Torralba et al. used GentleBoost for boosting andshowed that when training data is limited, learning via sharing features does a much better job than no sharing, given same boosting rounds.
Навчання ранжуванню[1] або машине-навчання ранжуванню(млр) є застосуванням машинного навчання, як правило, під наглядом, Котор Semi-спостерігали або навчанняз підкріпленням, при побудові моделей ранжирування для інформаційно-пошукових систем.[2] Тренувальні дані даних складаються зі списків елементів з деяким частковим порядком, заданим між елементами в кожному списку.
Learning to rank[1] or machine-learned ranking(MLR) is the application of machine learning, typically supervised, semi-supervised or reinforcement learning,in the construction of ranking models for information retrieval systems.[2] Training data consists of lists of items with some partial order specified between items in each list.
Як крайній приклад, якщо число параметрів є таким же, або більшим, як число спостережень,то проста модель або процес навчання може відмінно передбачувати тренувальні дані, просто запам'ятовуючи їх повністю, але така модель зазвичай зазнаватиме рішучої невдачі при здійсненні передбачень про нові або небачені дані, оскільки ця проста модель взагалі не навчилася узагальнювати.
As an extreme example, if the number of parameters is the same as or greater than the number of observations,a simple model or learning process can perfectly predict the training data simply by memorizing the training data in its entirety, but such a model will typically fail drastically when making predictions about new or unseen data, since the simple model has not learned to generalize at all.
Для багатьох застосувань тренувальних даних доступно мало.
For many applications, little training data is available.
Типова програма машинного навчаннянамагатиметься максимізувати загальну точність передбачення для тренувальних даних.
A typical machine-learning program willtry to maximize overall prediction accuracy for the training data.
Проте її ефективність визначається не її продуктивністю на тренувальних даних, а її здатністю працювати добре на даних небачених.
However, its efficacy is determined not by its performance on the training data but by its ability to perform well on unseen data..
Коли тільки судять Трансформер про його здатність відповідатина запитання, які використовували цифри, що бачили в тренувальних даних, то його точність знімалася до 76 відсотків.
When only judging Transformer on its ability toanswer questions that utilized numbers seen in the training data, its accuracy shot up to 76 percent.
Методи навчання з високою дисперсією можуть бути здатними добре представляти свої тренувальні набори,але перебувають під загрозою перенавчання зашумлених або нехарактерних тренувальних даних.
High-variance learning methods may be able to represent their training set well,but are at risk of overfitting to noisy or unrepresentative training data.
ГНМ схильні до перенавчання із-за доданих шарів абстракції,що дозволяють їм моделювати рідкісні залежності в тренувальних даних.
DNNs are prone to overfitting because of the added layers of abstraction,which allow them to model rare dependencies in the training data.
Альтернативний метод із застосуванням ізотонічної регресії, як правило,перевершує метод Платта, коли доступно достатньо тренувальних даних.
An alternative method using isotonic regression is generallysuperior to Platt's method when sufficient training data is available.
Хоча машинне навчання й виявилося дуже перетворювальним в деяких галузях, ефективне машинне навчання є складним, оскільки пошук закономірностей є важким,і наявних тренувальних даних часто не достатньо;
Although machine learning has been transformative in some fields, effective machine learning is difficult because finding patterns is hard andoften not enough training data are available;
Перенавчання є особливо ймовірним в тих випадках, коли навчання виконувалося занадто довго, або коли тренувальні зразки є рідкісними,що спричиняє пристосовування до дуже особливих випадкових ознак тренувальних даних, які не мають причинного взаємозв'язку[en] з цільовою функцією[en].
Overfitting is especially likely in cases where learning was performed too long or where training examples are rare,causing the learner to adjust to very specific random features of the training data, that have no causal relation to the target function.
Машинне навчання та добування даних часто використовують одні й ті ж методи, і значно перекриваються, але в той час якмашинне навчання фокусується на передбаченні на основі відомих властивостей, вивчених з тренувальних даних, добування даних фокусується на відкритті невідомих(раніше) властивостей даних(це є кроком аналізу з відкривання знань у базах даних)..
Machine learning and data mining often employ the same methods and overlap significantly, but while machine learning focuses on prediction,based on known properties learned from the training data, data mining focuses on the discovery of(previously) unknown properties in the data(this is the analysis step of knowledge discovery in databases).
Це означає,що мережа майже завжди навчатиметься відбудови усереднення всіх тренувальних даних.
This causes the network toalmost always learn to reconstruct the average of all the training data.
А згорткові нейронні мережі зазвичай вимагають великої кількості тренувальних даних, щоби запобігати перенавчанню.
Convolutional neural networks usually require a large amount of training data in order to avoid overfitting.
Недоліки, пов'язані з ледачим навчанням,включають вимогу великого простору для зберігання всіх тренувальних даних.
The disadvantages with lazy learning include thelarge space requirement to store the entire training dataset.
Поширеною оцінковою функцієює апостеріорна ймовірність структури за заданих тренувальних даних, така як БІК або BDeu.
A common scoring functionis posterior probability of the structure given the training data, like the BIC or the BDeu.
Результати: 26, Час: 0.023

Переклад слово за словом

S

Синоніми слова Тренувальні дані

Найпопулярніші словникові запити

Українська - Англійська