Приклади вживання Тренувальні дані Українська мовою та їх переклад на Англійською
{-}
-
Colloquial
-
Ecclesiastic
-
Computer
Перенавчання стається тоді, коли модель починає«запам'ятовувати» тренувальні дані, замість того, щоби«вчитися» узагальненню з тенденції.
Це є особливо корисним, коли тренувальні дані є обмеженими, оскільки ваги з погано заданими початковими значеннями можуть значно заважати продуктивності моделі.
Для прикладу завеликого числа регульованих параметрів розгляньмо такий набір даних, де тренувальні дані для y може бути адекватно передбачено лінійною функцією двох залежних змінних.
Особливо зашумлені тренувальні дані роблять непотрібне збільшення об'єму бази прецедентів, бо протягом тренувальної фази не здійснюється жодного абстрагування.
Торральба зі співавторами використали для підсилювання GentleBoost, та показали, що, коли тренувальні дані є обмеженими, навчання через спільні ознаки виконує роботу набагато краще, ніж без спільних ознак, за однакових раундів підсилювання.
Якщо тренувальні дані є лінійно роздільними, то ми можемо обрати дві паралельні гіперплощини, які розділяють два класи даних таким чином, що відстань між ними є якомога більшою.
Це особливо корисно тоді, коли доступні тренувальні дані є обмеженими, оскільки вагові коефіцієнти з погано заданими початковими значеннями можуть значно заважати ефективності навченої моделі.
Якщо тренувальні дані лінійно відокремлюються, ми можемо вибрати дві гіперплощини таким чином, щоб вони розділяли дані, а між ними не було точок, а потім намагалися максимально збільшити відстань між ними.
Аналогічно, модель, яка виробляється опорно-векторною регресією, залежить лише від підмножини тренувальних даних, оскільки функція втрат для побудови моделі ігнорує будь-які тренувальні дані, близькі до передбачення моделі.
У праці«Sharing visual features for multiclass and multiview object detection», А. Торральба зі співавторами використали для підсилювання GentleBoost, та показали, що,коли тренувальні дані є обмеженими, навчання через спільні ознаки виконує роботу набагато краще, ніж без спільних ознак, за однакових раундів підсилювання.
Навчання ранжуванню[1] або машине-навчання ранжуванню(млр) є застосуванням машинного навчання, як правило, під наглядом, Котор Semi-спостерігали або навчанняз підкріпленням, при побудові моделей ранжирування для інформаційно-пошукових систем.[2] Тренувальні дані даних складаються зі списків елементів з деяким частковим порядком, заданим між елементами в кожному списку.
Як крайній приклад, якщо число параметрів є таким же, або більшим, як число спостережень,то проста модель або процес навчання може відмінно передбачувати тренувальні дані, просто запам'ятовуючи їх повністю, але така модель зазвичай зазнаватиме рішучої невдачі при здійсненні передбачень про нові або небачені дані, оскільки ця проста модель взагалі не навчилася узагальнювати.
Для багатьох застосувань тренувальних даних доступно мало.
Типова програма машинного навчаннянамагатиметься максимізувати загальну точність передбачення для тренувальних даних.
Проте її ефективність визначається не її продуктивністю на тренувальних даних, а її здатністю працювати добре на даних небачених.
Коли тільки судять Трансформер про його здатність відповідатина запитання, які використовували цифри, що бачили в тренувальних даних, то його точність знімалася до 76 відсотків.
Методи навчання з високою дисперсією можуть бути здатними добре представляти свої тренувальні набори,але перебувають під загрозою перенавчання зашумлених або нехарактерних тренувальних даних.
ГНМ схильні до перенавчання із-за доданих шарів абстракції,що дозволяють їм моделювати рідкісні залежності в тренувальних даних.
Альтернативний метод із застосуванням ізотонічної регресії, як правило,перевершує метод Платта, коли доступно достатньо тренувальних даних.
Хоча машинне навчання й виявилося дуже перетворювальним в деяких галузях, ефективне машинне навчання є складним, оскільки пошук закономірностей є важким,і наявних тренувальних даних часто не достатньо;
Перенавчання є особливо ймовірним в тих випадках, коли навчання виконувалося занадто довго, або коли тренувальні зразки є рідкісними,що спричиняє пристосовування до дуже особливих випадкових ознак тренувальних даних, які не мають причинного взаємозв'язку[en] з цільовою функцією[en].
Машинне навчання та добування даних часто використовують одні й ті ж методи, і значно перекриваються, але в той час якмашинне навчання фокусується на передбаченні на основі відомих властивостей, вивчених з тренувальних даних, добування даних фокусується на відкритті невідомих(раніше) властивостей даних(це є кроком аналізу з відкривання знань у базах даних). .
Це означає,що мережа майже завжди навчатиметься відбудови усереднення всіх тренувальних даних.
А згорткові нейронні мережі зазвичай вимагають великої кількості тренувальних даних, щоби запобігати перенавчанню.
Недоліки, пов'язані з ледачим навчанням,включають вимогу великого простору для зберігання всіх тренувальних даних.
Поширеною оцінковою функцієює апостеріорна ймовірність структури за заданих тренувальних даних, така як БІК або BDeu.