Приклади вживання Тренувальному наборі Українська мовою та їх переклад на Англійською
{-}
-
Colloquial
-
Ecclesiastic
-
Computer
Дисперсія(англ. variance)- це похибка від чутливості до малих флуктуацій в тренувальному наборі.
Ця міра ґрунтується на тренувальному наборі, вибірці з цього невідомого розподілу ймовірності.
Перцептрон- алгоритм, який намагається виправити всі помилки, що зустрілися в тренувальному наборі.
Проте в процесі вониможуть також представляти й велику складову шуму, присутню в тренувальному наборі, роблячи свої передбачення менш точними- незважаючи на свою додану складність.
Другий набір методів включає розрізнювальні моделі,які намагаються максимізувати якість виходу на тренувальному наборі.
Потім остаточна модель, яка використовується для перевірки та класифікації даних,тренується на всьому тренувальному наборі із застосуванням обраних параметрів.
Модель запускається з набором навчальних даних і продукує результат,який потім порівнюється з ціллю для кожного вхідного вектора в тренувальному наборі.
Градієнтний спуск використовується в машинному навчанні черезвизначення функції втрат, яка відображає помилку на тренувальному наборі, а потім відбувається мінімізація функції.
Після навчання функції на основі тренувального набору даних цю функцію перевіряють на перевірному наборі даних: даних,яких не було в тренувальному наборі.
В результаті ця функція працюватиме добре на тренувальному наборі, але не працюватиме добре на інших даних зі спільного розподілу ймовірності x{\displaystyle x} та y{\displaystyle y}.
Машинне навчання також має тісні зв'язки з оптимізацією:багато задач навчання формулюються як мінімізація деякої функції втрат на тренувальному наборі прикладів.
Різниця між цими двома областями виникає з мети узагальнення:в той час як алгоритми оптимізації можуть мінімізувати втрати на тренувальному наборі, машинне навчення зосереджене на мінімізації втрат на небачених зразках.
Червоні точки представляють дані тренувального набору.
Це дозволяє згортковиммережам успішно застосовуватися до задач з невеликими тренувальними наборами.
Методи навчання з високою дисперсієюможуть бути здатними добре представляти свої тренувальні набори, але перебувають під загрозою перенавчання зашумлених або нехарактерних тренувальних даних.
Semi-supervised learning:комп'ютерові дають лише неповний тренувальний сигнал: тренувальний набір, в якому відсутні деякі(часто численні) цільові виходи.
Моделі з малим зсувом зазвичай є складнішими(наприклад, регресійними многочленами високого порядку),що дозволяє їм представляти тренувальний набір точніше.
До певного моменту це покращує продуктивність на даних розташованих поза тренувальним набором.
Перенавчання відбувається тоді,коли модель добре вписується в дані тренувального набору, одночасно з тим має велику помилку узагальнення.
Моделі з малим зсувом зазвичай є складнішими(наприклад, регресійними многочленами високого порядку),що дозволяє їм представляти тренувальний набір точніше.
Оскільки тренувальні набори є скінченними, а майбутнє є непевним, теорія навчання зазвичай не дає гарантій продуктивності алгоритмів.
Оскільки тренувальні набори є скінченними, а майбутнє є непевним, теорія навчання зазвичай не дає гарантій продуктивності алгоритмів.
Математичне сподівання пробігає різні варіанти вибору тренувального набору x 1,…, x n, y 1,….
Припустімо, що в нас є тренувальний набір, який складається з набору точок x 1,….
Розрізнювальне тренування лінійних класифікаторів, як правило, здійснюється керованимчином, за допомогою алгоритму оптимізації, якому надається тренувальний набір із бажаними виходами, та функція втрат, яка задає міру невідповідності між виходами класифікатора, та бажаними.
Такі алгоритми діють шляхом побудови моделі зі зразкового тренувального набору вхідних спостережень, щоби здійснювати керовані даними прогнози або ухвалювати рішення, виражені як виходи, замість того, щоби суворо слідувати статичним програмним інструкціям.
Абревіатура 3D-QSAR або 3-D QSAR відноситься до застосування розрахунків силових полів, що вимагають тривимірних структур заданогонабору малих молекул з відомими діями(тренувальний набір).
Пошук f^{\displaystyle{\hat{f}}},яка узагальнюється на точки за межами тренувального набору, може бути здійснено за допомогою будь-якого із безлічі алгоритмів, що застосовуються для керованого навчання.
Класифікувальні моделі машинного навчання можливо затверджувати за допомогою таких методик оцінювання точностіяк методпритримування[en], що розбиває дані на тренувальний та перевірний набори(загальноприйнято призначають 2/3 тренувального набору та 1/3 перевірного) та оцінює продуктивність моделі тренування на перевірному наборі.