Що таке ЛІНІЙНОЇ РЕГРЕСІЇ Англійською - Англійська переклад

Приклади вживання Лінійної регресії Українська мовою та їх переклад на Англійською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Це може бути ресурсномістким у обчислюванні задач лінійної регресії.
It can be computationally expensive to solve the linear regression problems.
ІКАк початково запропонував для лінійної регресії(лише) Sugiura,(1978).
AICc was originally proposed for linear regression(only) by Sugiura(1978).
Cp Меллоуза є еквівалентом ІКА у випадку(гаусової) лінійної регресії.
Mallows's Cp is equivalent to AIC in the case of(Gaussian) linear regression.
У цьому курсі ви будете вивчати регуляризоване моделі лінійної регресії для вирішення завдання прогнозування та відбору ознак.
In this course, you will explore regularized linear regression models for the task of prediction and feature selection.
(2003) пояснюють, як використовувати вибіркові методи для баєсової лінійної регресії.
(2003) explain how to use sampling methods for Bayesian linear regression.
Функція INTERCEPT() обчислює точку перетину прямої лінійної регресії з віссю y.
The INTERCEPT() function calculates the interception of the linear regression line with the y axis.
По-перше, ейнаїм і його колеги зробили ці оцінки окремо для найменувань різних цін ібез використання лінійної регресії.
First, Einav and colleagues made these estimates separately for items of different prices andwithout using linear regression.
Існують чотири основні припущення, які виправдовують використання моделі лінійної регресії для цілей логічного висновку або прогнозування:.
There are four principal assumptions which justify the use of linear regression models for purposes of inference or prediction:.
За допомогою моделі множинної лінійної регресії з покроковим вибором предикторів установлені зв'язки між показниками меженного стоку та посух.
Using multiple linear regression model with stepwise selection of predictors links between established of low flow and drought are established.
Carlin and Louis(2008) and Gelman, et al.(2003) пояснюють,як використовувати вибіркові методи для баєсової лінійної регресії.
Carlin and Louis(2008) and Gelman, et al.(2003)explain how to use sampling methods for Bayesian linear regression.
При використанні лінійної регресії взаємозв'язок між даними моделюється за допомогою лінійних функцій, а невідомі параметри моделі оцінюються за вхідними даними.
In linear regression, data is modeled using linear functions, and unknown model parameters are estimated from the data.
Так що aT в даний час в лінійному положенні разом з усіма іншими відомими значеннями, і, таким чином,може бути проаналізована за допомогою лінійної регресії.
So that aT is now in a linear position with all other terms known,and thus can be analyzed by linear regression techniques.
Перевага індикатора лінійної регресії за нормальною середньою швидкістю полягає в тому, що вона має менший відставання, ніж середня швидкість, що швидше реагує на зміни напрямку.
The advantage of the Linear Regression Indicator over a normal moving average is that it has less lag than the moving average, responding quicker to changes in direction.
Такий підхід має перевагу, тому що він не потребує параметрах q,щоб бути в змозі визначити з індивідуального набору даних і лінійної регресії похибку.
This approach has the advantages that it does not need the parameters q to be able tobe determined from an individual data set and the linear regression is on the original error terms[4].
Можна показати, що залишки RХ, йдуть від лінійної регресії X на Z, якщо також розглядати як N-мірний вектор rХ, мають нульовий скалярний добуток з вектором z породженною Z.
It can be shown that the residuals RX coming from the linear regression of X using Z, if also considered as an N-dimensional vector rX, have a zero scalar product with the vector z generated by Z.
Поширеним прикладом може слугувати обмеження H{\displaystyle{\mathcal{H}}} лінійними функціями: це можна розглядати якзведення задачі до стандартної задачі лінійної регресії.
A common example would be restricting H{\displaystyle{\mathcal{H}}} to linear functions: this can be seen as areduction to the standard problem of linear regression.
Простий спосіб обчислити часткову кореляцію для деяких данихполягає у розв'язанні двох пов'язаних задач лінійної регресії, отримати залишки і обчислити кореляцію між ними.
A simple way to compute the sample partialcorrelation for some data is to solve the two associated linear regression problems, get the residuals, and calculate the correlation between the residuals.
Можна показати, що залишки RХ, йдуть від лінійної регресії X на Z, якщо також розглядати як N-мірний вектор rХ, мають нульовий скалярний добуток з вектором z породженною Z.
It can be shown that the residuals eX, i coming from the linear regression of X on Z, if also considered as an N-dimensional vector eX(denoted rX in the accompanying graph), have a zero scalar product with the vector z generated by Z.
На основі проведених розрахунків, інформаційною базою яких є дані проведеного вибіркового обстеження,зроблено статистичне прогнозування за допомогою методів лінійної регресії, ланцюгових підставлень.
Using the performed calculations, the information base of which is the data of a sampling,there carried out statistical forecast by means of the methods of linear regression, chain substitutions.
Множинна лінійна регресія є узагальненням лінійної регресії з урахуванням більш ніж однієї незалежної змінної, а окремий випадок загальної лінійної моделі формується за рахунок обмеження кількості залежних змінних до одного.
Multiple linear regression is a generalization of linear regression by considering more than one independent variable, and a specific case of general linear models formed by restricting the number of dependent variables to one.
Багато поширених статистик, включно з t-критеріями, регресійними моделями, плануваннями експериментів та багатьма іншими,використовують методи найменших квадратів при застосуванні теорії лінійної регресії, яка ґрунтується на квадратичній функції втрат.
Many common statistics, including t-tests, regression models, design of experiments, and much else,use least squares methods applied using linear regression theory, which is based on the quadratric loss function.
Можна показати, що залишки RХ, йдуть від лінійної регресії X на Z, якщо також розглядати як N-мірний вектор rХ, мають нульовий скалярний добуток з вектором z породженною Z. Це означає, що вектор залишків лежить на(n-1)-мірною гіперплощиною Sz, яка перпендикулярна до z.
It can be shown that the residuals RX coming from the linear regression of X on Z, if also considered as an N-dimensional vector rX, have a zero scalar product with the vector z generated by Z. This means that the residuals vector lies on an(N- 1)-dimensional hyperplane Sz that is perpendicular to z.
Третій метод- це інверсійна модель, яка перетворює нелінійну модель m(f, p, Ac) в приблизну лінійну форму елементів А,які можуть бути вивчені за допомогою ефективного відбору та оцінки лінійної регресії.
A third method is model inversion, which converts the non-linear m(f, p, Ac) into an approximate linear form in the elements ofA, that can be examined using efficient term selection and evaluation of the linear regression.
Формально, часткова кореляція між X і Y, задана множиною n керуючими змінними Z={Z1, Z2,…, Zn}, написана ρхуz,є кореляцією між залишками RХ і Ry у результаті лінійної регресії на Х із Z та Y з Z, відповідно.
Formally, the partial correlation between X and Y given a set of n controlling variables Z={Z1, Z2,…, Zn}, written ρXY·Z,is the correlation between the residuals RX and RY resulting from the linear regression of X with Z and of Y with Z, respectively.
Навіть якщо ви не особливо зацікавлені в аукціонах на eBay, ви повинні захоплюватися таким чином, що Малюнок 2. 7 і Малюнок 2.8 пропонують багатшими розуміння eBay, ніж прості оцінки лінійної регресії, які беруть на себе лінійні відносини і поєднують в собі безліч різних категорій елементів.
Even if you are not particularly interested in auctions on eBay, you have to admire the way that Figure 2.7 andFigure 2.8 offer a richer understanding of eBay than simple linear regression estimates that assume linear relationships and combine many different categories of items.
Метою статті є проведення статистичного оцінювання та розрахунків статистичного прогнозування впливу окремих факторів на обсяги викидів оксиду азоту(NO) та ТЧ10, ТЧ2,5 за допомогою методів лінійної регресії та ланцюгових підставлень.
The aim of the article is to perform statistical estimation and statistical forecast of the influence of individual factors on the volumes of nitrogen oxide(NO) and PM10,PM2.5 by means of the methods of linear regression and chain substitution.
Третій метод це інверсійна модель, яка перетворює нелінійну m(f, p, Ac) в приблизну лінійну форму елементів А,які можуть бути вивчені за допомогою ефективного відбору та оцінки лінійної регресії. Для простого випадку одного значення q(q= aTc) і оцінка q*. Прийнявши dq= aTc- q* отримаємо.
A third method is model inversion,[4][16][17] which converts the non-linear m(f, p, Ac) into an approximate linear form in the elements ofA, that can be examined using efficient term selection[23][24] and evaluation of the linear regression.[9] For the simple case of a single q value(q= aTc) and an estimate q* of q. Putting dq= aTc- q* gives.
Якщо помилки не йдуть за багатовимірним нормальним розподілом, узагальнені лінійні моделі можуть бути використані, щоб спростити припущення про Y та U. Загальна лінійна модель включає в себе цілий ряд різних статистичних моделей: ANOVA, ANCOVA, MANOVA, MANCOVA,звичайні лінійної регресії, Т-тест і F-тест.
If the errors do not follow a multivariate normal distribution, generalized linear models may be used to relax assumptions about Y and U. The general linear model incorporates a number of different statistical models: ANOVA, ANCOVA, MANOVA, MANCOVA,ordinary linear regression, t-test and F-test.
Формально, часткова кореляція між X і Y, яка визначається множиною n керуючих змінних Z={Z1, Z2,…, Zn}, записується якρXY·Z, є кореляцією між залишками eX та eY, як результат лінійної регресії на X із Z та Y з Z, відповідно.
Formally, the partial correlation between X and Y given a set of n controlling variables Z={Z1, Z2,…, Zn}, written ρXY·Z,is the correlation between the residuals eX and eY resulting from the linear regression of X with Z and of Y with Z, respectively.
Результати: 29, Час: 0.0157

Переклад слово за словом

Найпопулярніші словникові запити

Українська - Англійська