Що таке POSTERIOR DISTRIBUTION Українською - Українська переклад

[pɒ'stiəriər ˌdistri'bjuːʃn]
[pɒ'stiəriər ˌdistri'bjuːʃn]
апостеріорного розподілу
posterior distribution

Приклади вживання Posterior distribution Англійська мовою та їх переклад на Українською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Subsequently, the posterior distribution becomes the next prior.
Згодом цей апостеріорний розподіл стає наступним апріорним.
This is achieved by updating'beliefs' through the use of prior and posterior distribution.
Це досягається уточненням«переконань» шляхом використання апріорного та апостеріорного розподілів.
It is often desired to use a posterior distribution to estimate a parameter or variable.
Часто потрібно використовувати апостеріорний розподіл для оцінювання параметру або змінної.
Several methods of Bayesianestimation select measurements of central tendency from the posterior distribution.
Кілька методів баєсовогооцінювання вибирають вимірювання центральної тенденції з апостеріорного розподілу.
It yields a quantile from the posterior distribution, and is a generalization of the previous loss function:.
Вона видає квантиль апостеріорного розподілу, і є узагальненням попередньої функції втрат:.
The relative acceptancefrequencies for the different models now approximate the posterior distribution for these models.
Тепер відносні частоти прийняття для різних моделей наближують апостеріорний розподіл для цих моделей.
There are many problems where a glance at posterior distributions, for suitable priors, yields immediately interesting information.
Існує багато задач, де побіжний погляд на апостеріорні розподіли, за підхожих апріорних, негайно дає цікаву інформацію.
Then we simply add in the counts for all the new observations(the vector c) in order to derive the posterior distribution.
Тоді ми просто додаємо кількості для всіх нових спостережень(вектор c), щоби вивести апостеріорний розподіл.
In that special case, the prior and posterior distributions were Beta distributions and the data came from Bernoulli trials.
У цьому окремому випадку апріорний та апостеріорний розподіли були бета-розподілами, а дані вибиралися з проб Бернуллі.
In this section,we will consider a so-called conjugate prior for which the posterior distribution can be derived analytically.
В цьому розділі ми розглянемо так зване спряжене апріорне, для якого апостеріорний розподіл може бути виведено аналітично.
The denominator of the posterior distribution(so-called partition function) does not depend on θ and therefore plays no role in the optimization.
Знаменник цього апостеріорного розподілу(так звана статистична сума[en]) не залежить від θ{\displaystyle \theta}, і тому не відіграє ролі в оптимізації.
The sequential use of Bayes' formula: when more data become available,calculate the posterior distribution using Bayes' formula;
Послідовним застосуванням формули Баєса: щойно надходять додаткові дані,обчислити апостеріорний розподіл за допомогою формули Баєса;
The posterior distribution should have a nonnegligible probability for parameter values in a region around the true value of in the system, if the data are sufficiently informative.
Апостеріорний розподіл повинен мати не-незначну ймовірність значень параметрів в області навколо істинного значення θ{\displaystyle \theta} в системі, якщо дані є достатньо інформативними.
The sequential use of the Bayes' formula: when more data becomes available,calculate the posterior distribution using the Bayes' formula;
Послідовним застосуванням формули Баєса: щойно надходять додаткові дані,обчислити апостеріорний розподіл за допомогою формули Баєса;
In sequential estimation, unless a conjugate prior is used, the posterior distribution typically becomes more complex with each added measurement, and the Bayes estimator cannot usually be calculated without resorting to numerical methods.
У послідовному оцінюванні, якщо не використовуються спряжені апріорні, апостеріорний розподіл типово стає складнішим із кожним доданим вимірюванням, і баєсову оцінку зазвичай неможливо обчислювати без удавання до чисельних методів.
This is because the choice of summary statistics andthe choice of tolerance constitute two sources of error in the resulting posterior distribution.
Причина в тому, що вибір зведених статистик тавибір допуску складають два джерела помилки в отримуваному в результаті апостеріорному розподілі.
The usual priors such as the Jeffreys prior often do not work, because the posterior distribution will not be normalizable and estimates made by minimizing the expected loss will be inadmissible.
Звичайні апріорні, такі як апріорне Джеффріса, часто не працюють, оскільки апостеріорний розподіл буде некоректним(його неможливо буде унормувати), а оцінки, зроблені мінімізуванням очікуваних втрат будуть неприйнятними.
The method of maximum a posteriori estimation then estimates θ{\displaystyle\theta}as the mode of the posterior distribution of this random variable:.
Відтак метод оцінки апостеріорного максимуму оцінює θ{\displaystyle \theta}як моду апостеріорного розподілу цієї випадкової змінної:.
In fact, if the prior distribution is a conjugate prior,and hence the prior and posterior distributions come from the same family, it can easily be seen that both prior and posterior predictive distributions also come from the same family of compound distributions..
Справді, якщо апріорний розподіл є спряженим апріорним розподілом[en], і, отже,апріорний та апостеріорний розподіли походять із одного сімейства, то можна легко переконатися, що як апріорний, так і апостеріорний передбачувані розподіли також походять з одного й того ж сімейства складних розподілів..
Assuming θ is distributed according to the conjugate prior, which in this case is the Beta distribution B(a,b), the posterior distribution is known to be B(a+x, b+n-x).
За припущення, що θ розподілене згідно спряженого апріорного, що в даному випадку є бета-розподілом B(a, b),відомо, що апріорним розподілом є B(a+x, b+n-x).
This is both because these estimators are optimal under squared-error and linear-error loss respectively-which are more representative of typical loss functions- and because the posterior distribution may not have a simple analytic form: in this case, the distribution can be simulated using Markov chain Monte Carlo techniques, while optimization to find its mode(s) may be difficult or impossible.
В обох випадках причиною є те, що ці оцінки є оптимальними при втратах із квадратичною або лінійною помилкою відповідно,-а вони є характернішими представниками типових функцій втрат,- і те, що апостеріорний розподіл може не мати простої аналітичної форми: в такому випадку цей розподіл може бути симульовано за допомогою методик Монте-Карло марковських ланцюгів, тоді як оптимізація для пошуку цієї моди(мод) може бути складною, або неможливою.
Donald Rubin, when discussing the interpretation of Bayesian statements in 1984[1],described a hypothetical sampling mechanism that yields a sample from the posterior distribution.
Дональд Рубін[en](англ. Donald Rubin), обговорюючи інтерпретацію баєсових викладів у 1984році,[1] описав гіпотетичний механізм вибірки, що дає вибірку з апостеріорного розподілу.
The outcome of the ABC rejection algorithm is a sample ofparameter values approximately distributed according to the desired posterior distribution, and, crucially, obtained without the need of explicitly evaluating the likelihood function(Figure 1).
Виходом алгоритму відхилення ПБО є вибірка значень параметрів,розподілена приблизно відповідно до бажаного апостеріорного розподілу, та, найголовніше, отримана без потреби явного обчислення функції правдоподібності мал.
Although Diggle and Gratton's approach had opened a new frontier, their method was not yet exactly identical to what is now known as ABC,as it aimed at approximating the likelihood rather than the posterior distribution.
Хоча підхід Дігла та Греттона й відкрив нові обрії, їхній метод не був повністю ідентичним тому, що тепер відоме як ПБО,оскільки його спрямовано на наближення правдоподібності, замість апостеріорного розподілу.
A conjugate prior is defined as a prior distribution belonging to some parametric family,for which the resulting posterior distribution also belongs to the same family.
Спряжений апріорний розподіл визначається як апріорний розподіл, що належить до параметричного сімейства,для якого результатний апостеріорний розподіл також належить до цього ж сімейства.
This makes a great deal of intuitive sense: if, for example, there are three possible categories, and category 1 is seen in the observed data 40% of the time, one would expect on average tosee category 1 40% of the time in the posterior distribution as well.
Це підсилює інтуїтивний сенс: Якщо, наприклад, є три можливі категорії, й ми бачили категорію 1 у наших спостережених даних 40% часу, то ми також очікуватимемо в середньомубачити категорію 1 40% часу і в апостеріорному розподілі.
The fourth line is simply a rewriting of the third in a different notation,using the notation farther up for an expectation taken with respect to the posterior distribution of the parameters.
Четвертий рядок є просто переформулюванням третього в іншому записі, іззастосуванням наведеного вище запису математичного сподівання, взятого по відношенню до апостеріорного розподілу параметрів.
Another prescient point was made when Rubin argued that in Bayesian inference, applied statisticians should not settle for analytically tractable models only butinstead consider computational methods that allow them to estimate the posterior distribution of interest.
Інше передбачення було зроблено Рубіним, коли він переконував, що прикладні статистики не повинні обмежуватися в баєсовому висновуванні лише тими моделями, що піддаються аналітичнійобробці, а натомість розглядати обчислювальні методи, що дозволяють їм оцінювати потрібний апостеріорний розподіл.
Now the posterior can be expressed as a normal distribution times an inverse-gamma distribution:.
Тепер апостеріорне може бути виражено як добуток нормального розподілу на обернений гамма-розподіл[en]:.
Результати: 29, Час: 0.038

Переклад слово за словом

Найпопулярніші словникові запити

Англійська - Українська