Що таке ТРЕНУВАЛЬНОМУ НАБОРІ Англійською - Англійська переклад

training set
тренувальному наборі
навчальна множина

Приклади вживання Тренувальному наборі Українська мовою та їх переклад на Англійською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Дисперсія(англ. variance)- це похибка від чутливості до малих флуктуацій в тренувальному наборі.
Variance is an error from sensitivity to small fluctuations in the training set.
Ця міра ґрунтується на тренувальному наборі, вибірці з цього невідомого розподілу ймовірності.
This measure is based on the training set, a sample from this unknown probability distribution.
Перцептрон- алгоритм, який намагається виправити всі помилки, що зустрілися в тренувальному наборі.
Perceptron- an algorithm that attempts to fix all errors encountered in the training set.
Проте в процесі вониможуть також представляти й велику складову шуму, присутню в тренувальному наборі, роблячи свої передбачення менш точними- незважаючи на свою додану складність.
In the process, however,they may also represent a large noise component in the training set, making their predictions less accurate- despite their added complexity.
Другий набір методів включає розрізнювальні моделі,які намагаються максимізувати якість виходу на тренувальному наборі.
The second set of methods includes discriminative models,which attempt to maximize the quality of the output on a training set.
Потім остаточна модель, яка використовується для перевірки та класифікації даних,тренується на всьому тренувальному наборі із застосуванням обраних параметрів.
The final model, which is used for testing and for classifying new data,is then trained on the whole training set using the selected parameters.
Модель запускається з набором навчальних даних і продукує результат,який потім порівнюється з ціллю для кожного вхідного вектора в тренувальному наборі.
The current model is run with the training dataset and produces aresult, which is then compared with the target, for each input vector in the training dataset.
Градієнтний спуск використовується в машинному навчанні черезвизначення функції втрат, яка відображає помилку на тренувальному наборі, а потім відбувається мінімізація функції.
Gradient descent is used in machine-learning by defining aloss function that reflects the error of the learner on the training set and then minimizing that function.
Після навчання функції на основі тренувального набору даних цю функцію перевіряють на перевірному наборі даних: даних,яких не було в тренувальному наборі.
After learning a function based on the training set data, that function is validated on a test set of data,data that did not appear in the training set.
В результаті ця функція працюватиме добре на тренувальному наборі, але не працюватиме добре на інших даних зі спільного розподілу ймовірності x{\displaystyle x} та y{\displaystyle y}.
As a result, the function will perform well on the training set but not perform well on other data from the joint probability distribution of x{\displaystyle x} and y{\displaystyle y}.
Машинне навчання також має тісні зв'язки з оптимізацією:багато задач навчання формулюються як мінімізація деякої функції втрат на тренувальному наборі прикладів.
Machine learning also has intimate ties to optimization:many learning problems are formulated as minimization of some loss function on a training set of examples.
Різниця між цими двома областями виникає з мети узагальнення:в той час як алгоритми оптимізації можуть мінімізувати втрати на тренувальному наборі, машинне навчення зосереджене на мінімізації втрат на небачених зразках.
The difference between the two fields arises from the goalof generalization: while optimization algorithms can minimize the loss on a training set, machine learning is concerned with minimizing the loss on unseen samples.
Червоні точки представляють дані тренувального набору.
The red dots represent training set data.
Це дозволяє згортковиммережам успішно застосовуватися до задач з невеликими тренувальними наборами.
This allows convolutional networks tobe successfully applied to problems with small training sets.
Методи навчання з високою дисперсієюможуть бути здатними добре представляти свої тренувальні набори, але перебувають під загрозою перенавчання зашумлених або нехарактерних тренувальних даних.
High-variance learning methods may be able to represent their training set well, but are at risk of overfitting to noisy or unrepresentative training data.
Semi-supervised learning:комп'ютерові дають лише неповний тренувальний сигнал: тренувальний набір, в якому відсутні деякі(часто численні) цільові виходи.
Semi-supervised learning:the computer is given only an incomplete training signal: a training set with some(often many) of the target outputs missing.
Моделі з малим зсувом зазвичай є складнішими(наприклад, регресійними многочленами високого порядку),що дозволяє їм представляти тренувальний набір точніше.
Models with high variance are usually more complex(e.g. higher-order regression polynomials),enabling them to represent the training set more accurately.
До певного моменту це покращує продуктивність на даних розташованих поза тренувальним набором.
Up to a point, this improves the learner's performance on data outside of the training set.
Перенавчання відбувається тоді,коли модель добре вписується в дані тренувального набору, одночасно з тим має велику помилку узагальнення.
Overfitting occurs when a model fits the data in the training set well, while incurring larger generalization error.
Моделі з малим зсувом зазвичай є складнішими(наприклад, регресійними многочленами високого порядку),що дозволяє їм представляти тренувальний набір точніше.
Models with low bias are usually more complex(e.g. higher-order regression polynomials),enabling them to represent the training set more accurately.
Оскільки тренувальні набори є скінченними, а майбутнє є непевним, теорія навчання зазвичай не дає гарантій продуктивності алгоритмів.
Because training sets are finite and the future is uncertain, learning theory usually does not yield guarantees of the performance of algorithms.
Оскільки тренувальні набори є скінченними, а майбутнє є непевним, теорія навчання зазвичай не дає гарантій продуктивності алгоритмів.
Because the training sets for the algorithms are finite and the future is not certain, the learning theory does not always produce guaranteed results of the performance of algorithms.
Математичне сподівання пробігає різні варіанти вибору тренувального набору x 1,…, x n, y 1,….
The expectation ranges over different choices of the training set x 1,…, x n, y 1,….
Припустімо, що в нас є тренувальний набір, який складається з набору точок x 1,….
Suppose that we have a training set consisting of a set of points x 1,….
Розрізнювальне тренування лінійних класифікаторів, як правило, здійснюється керованимчином, за допомогою алгоритму оптимізації, якому надається тренувальний набір із бажаними виходами, та функція втрат, яка задає міру невідповідності між виходами класифікатора, та бажаними.
Discriminative training of linear classifiers usually proceeds in a supervised way,by means of an optimization algorithm that is given a training set with desired outputs and a loss function that measures the discrepancy between the classifier's outputs and the desired outputs.
Такі алгоритми діють шляхом побудови моделі зі зразкового тренувального набору вхідних спостережень, щоби здійснювати керовані даними прогнози або ухвалювати рішення, виражені як виходи, замість того, щоби суворо слідувати статичним програмним інструкціям.
Such algorithms operate by building a model from an example training set of input observations in order to make data-driven predictions or decisions expressed as outputs, rather than following strictly static program instructions.
Абревіатура 3D-QSAR або 3-D QSAR відноситься до застосування розрахунків силових полів, що вимагають тривимірних структур заданогонабору малих молекул з відомими діями(тренувальний набір).
The acronym 3D-QSAR or 3-D QSAR refers to the application of force field calculations requiring three-dimensional structures of a givenset of small molecules with known activities(training set).
Пошук f^{\displaystyle{\hat{f}}},яка узагальнюється на точки за межами тренувального набору, може бути здійснено за допомогою будь-якого із безлічі алгоритмів, що застосовуються для керованого навчання.
Finding an f^{\displaystyle{\hat{f}}}that generalizes to points outside of the training set can be done with any of the countless algorithms used for supervised learning.
Класифікувальні моделі машинного навчання можливо затверджувати за допомогою таких методик оцінювання точностіяк методпритримування[en], що розбиває дані на тренувальний та перевірний набори(загальноприйнято призначають 2/3 тренувального набору та 1/3 перевірного) та оцінює продуктивність моделі тренування на перевірному наборі.
Classification machine learning models can be validated by accuracy estimation techniques like the Holdout method,which splits the data in a training and test set(conventionally 2/3 training set and 1/3 test set designation) and evaluates the performance of the training model on the test set..
Результати: 29, Час: 0.0216

Переклад слово за словом

Найпопулярніші словникові запити

Українська - Англійська