АПРИОРНОГО РАСПРЕДЕЛЕНИЯ на Английском - Английский перевод

prior distribution
априорного распределения

Примеры использования Априорного распределения на Русском языке и их переводы на Английский язык

{-}
  • Official category close
  • Colloquial category close
Выбор максимально энтропийного закона априорного распределения вероятностей признаков распознавания.
Selection of maximum entropic law of prior distribution of detection signatures probabilities.
Для любого априорного распределения, может не существовать аналитического решения для апостерионого распределения..
For an arbitrary prior distribution, there may be no analytical solution for the posterior distribution..
Готт предложил конкретную формулу для априорного распределения числа людей, которые когда-либо родятся N.
Gott specifically proposes the functional form for the prior distribution of the number of people who will ever be born N.
В то же время, обобщенное Байесовское правило часто не определяет Байесовский риск в случае некорректного априорного распределения..
By contrast, generalized Bayes rules often have undefined Bayes risk in the case of improper priors.
Оценка параметров априорного распределения признаков распознавания по данным ИК- съемок эталонных структур 3- х классов.
Evaluation of detection signatures prior distribution ob the basis of infrared imageries of reference structures of the three classes.
Combinations with other parts of speech
В байесовском подходе данные сопровождаются дополнительной информацией в виде априорного распределения вероятности.
In the Bayesian approach, the data are supplemented with additional information in the form of a prior probability distribution.
В случае некорректного априорного распределения оценка, минимизирующая апостериорное ожидание потерь для каждого x, называется обобщенной байесовской оценкой.
If the prior is improper then an estimator which minimizes the posterior expected loss for each x{\displaystyle x} is called a generalized Bayes estimator.
Фидуциальный вывод может быть интерпретирован как попытка вычислить обратную вероятность без привлечения априорного распределения вероятностей.
Fiducial inference can be interpreted as an attempt to perform inverse probability without calling on prior probability distributions.
В неоднородном случае приводится попытка учесть подобные эффекты при создании более сложного априорного распределения, включающего неоднородности в наблюдаемом распределении..
The inhomogeneous case attempts to correct this by creating a more complicated prior distribution of objects by taking into account structures seen in the observed distribution..
Парадокс Линдли- это контринтуитивная ситуация в статистике, при которой байесовский ичастотный подходы к задаче проверки гипотез дают различные результаты при определенных выборах априорного распределения.
Lindley's paradox is a counterintuitive situation in statistics in which the Bayesian andfrequentist approaches to a hypothesis testing problem give different results for certain choices of the prior distribution.
Как в однородном, так ив неоднородном методах смещение определяется в терминах априорного распределения расстояний, оценки расстояния и функции правдоподобия.
In either the homogeneous or inhomogeneous case,the bias is defined in terms of a prior distribution of distances, the distance estimator, and the likelihood function of these two being the same distribution.
GeoPACS производит определение статических икинематических поправок на основе априорного распределения скоростей и времен горизонтов отраженных( PP и SS) или обменных( PS) волн, задаваемых либо на модельном интервале либо на всех суммарных трассах.
GeoPACS determines static andNMO corrections on the basis of apriori distribution of the horizon velocities and time assigned either on model interval or on all stack traces.
Когда регрессионная модель имеет ошибки, имеющие нормальное распределение, и, еслипринимается определенная форма априорного распределения, доступны явные результаты для апостериорных распределений вероятностей параметров модели.
When the regression model has errors that have a normal distribution, andif a particular form of prior distribution is assumed, explicit results are available for the posterior probability distributions of the model's parameters.
В нем объединяются новые данные об определении возрастов( WG- FSA- 14/ 45), соотношение запас- пополнение Бевертона- Холта, обновленная матрица ошибок( WG- FSA- 14/ 46), обновленная модель роста( WG- FSA- 14/ 45) ивнешние расчеты априорного распределения съемочной уловистости q WG- FSA- 14/ 43.
It incorporated new ageing data(WG-FSA-14/45), a Beverton-Holt stock recruitment relationship, an updated error matrix(WG-FSA-14/46),an updated growth model(WG-FSA-14/45) and an externally estimated prior for survey catchability q WG-FSA-14/43.
Параметры α{\ displaystyle\ alpha} и β{\ displaystyle\ beta}часто называют гиперпараметрами( параметрами априорного распределения), чтобы отличить их от параметров функции правдоподобия в данном случае, q.
Α{\displaystyle\alpha} and β{\displaystyle\beta}are called hyperparameters(parameters of the prior), to distinguish them from parameters of the underlying model here q.
Внешне методы выглядят большей частью эквивалентными, но есть некоторые существенные отличия, особенно в интерпретации: MML полностью субъективный байесовский подход-он начинает с идеи, что имеется некоторая вера о процессе получения данных в виде априорного распределения.
Superficially, the methods appear mostly equivalent, but there are some significant differences, especially in interpretation: MML is a fully subjective Bayesian approach:it starts from the idea that one represents one's beliefs about the data-generating process in the form of a prior distribution.
Скрытое распределение Дирихле- добавляет распределение Дирихле в качестве априорного распределения тематик по документам Данные высшего порядка: Хотя это редко обсуждается в научной литературе, pLSA, естественно, примени́м и для данных более высокого порядка( трехуровневых и выше), то есть он может моделировать совместное поведение трех и более переменных.
Latent Dirichlet allocation- adds a Dirichlet prior on the per-document topic distribution Higher-order data: Although this is rarely discussed in the scientific literature, PLSA extends naturally to higher order data(three modes and higher), i.e. it can model co-occurrences over three or more variables.
В современных условиях для данного распределения вероятностей p( x| θ) наблюдаемой величины х при условии ненаблюдаемой переменной θ," обратной вероятностью" является апостериорное распределение p( θ| x),которое зависит от функции правдоподобия( инверсии распределения вероятностей) и априорного распределения.
In modern terms, given a probability distribution p(x|θ) for an observable quantity x conditional on an unobserved variable θ, the"inverse probability" is the posterior distribution p(θ|x),which depends both on the likelihood function(the inversion of the probability distribution) and a prior distribution.
Сегодня, проблема определения распределения ненаблюдаемой переменной( любыми методами) называется статистическим выводом, метод обратной вероятности( приписывание распределения вероятностей ненаблюдаемой переменной) называется байесовской вероятностью," распределение" ненаблюдаемой переменной при условии наблюдаемых данных как функция правдоподобия( которая не является распределением вероятностей), араспределение ненаблюдаемой переменной при условии наблюдаемых данных и априорного распределения называется апостериорным распределением..
Today, the problem of determining an unobserved variable(by whatever method) is called inferential statistics, the method of inverse probability(assigning a probability distribution to an unobserved variable) is called Bayesian probability, the"distribution" of data given the unobserved variable is rather the likelihood function(which is not a probability distribution), andthe distribution of an unobserved variable, given both data and a prior distribution, is the posterior distribution..
Теперь, предположим, что априорное распределение g{\ displaystyle g} на θ{\ displaystyle\ theta} существует.
Now assume that a prior distribution g{\displaystyle g} over θ{\displaystyle\theta} exists.
Предположим, что неизвестный параметр θ{\ displaystyle\ theta} имеет априорное распределение π{\ displaystyle\ pi.
Suppose an unknown parameter θ{\displaystyle\theta} is known to have a prior distribution π{\displaystyle\pi.
Если смотреть в другую сторону,мы можем видеть, что априорное распределение существенно плоским с дельта функцией в точке θ, 5{\ displaystyle\ theta=, 5.
Looking at it another way,we can see that the prior distribution is essentially flat with a delta function at θ 0.5{\displaystyle\textstyle\theta =0.5.
Для принятия решений статистики, использующие байесовский подход, могут использовать коэффициент Байеса вместе с априорным распределением и функцией потерь.
For decision-making, Bayesian statisticians might use a Bayes factor combined with a prior distribution and a loss function associated with making the wrong choice.
Эмпирические оценки для значений параметров модели могут быть интерпретированы как априорные распределения в терминах Байесовой статистики.
Empirical estimates for model parameter values can be interpreted in Bayesian terms as prior distributions.
С байесовской точки зрения многие методы регуляризации соответствуют добавлению некоторых априорных распределений на параметры модели.
From a Bayesian point of view, many regularization techniques correspond to imposing certain prior distributions on model parameters.
До сих пор предполагалось, что априорное распределение p{\ displaystyle p}- это истинное вероятностное распределение, так как∫ p( θ) d θ 1.{\ displaystyle\ int p(\ theta) d\ theta= 1.} Однако, порой это может быть слишком жестким требованием.
The prior distribution p{\displaystyle p} has thus far been assumed to be a true probability distribution, in that∫ p( θ) d θ 1.{\displaystyle\int p(\theta)d\theta =1.} However, occasionally this can be a restrictive requirement.
Априорное распределение из уровня I может быть разбито на: P( θ j, ϕ) P( θ j∣ ϕ) P( ϕ){\ displaystyle P(\ theta_{ j},\ phi)= P(\ theta_{ j}\ mid\ phi) P(\ phi)} где ϕ{\ displaystyle\ phi} является гиперпараметром с гиперприорным распределением P( ϕ){\ displaystyle P\ phi.
The prior distribution from stage I can be broken down into: P( θ j, ϕ) P( θ j∣ ϕ) P( ϕ){\displaystyle P(\theta_{j},\phi)=P(\theta_{j}\mid\phi)P(\phi)} With ϕ{\displaystyle\phi} as its hyperparameter with hyperprior distribution, P( ϕ){\displaystyle P\phi.
DA по версии Готта использует неопределенное априорное распределение: P( N) k N,{\ displaystyle P( N)={\ frac{ k}{ N}},} где P( N)- это априорная вероятность до того, как станет известно n- то есть полное число людей, которые уже родились к настоящему моменту.
Gott's DA used the vague prior distribution: P( N) k N{\displaystyle P(N)={\frac{k}{N}}}. where P(N) is the probability prior to discovering n, the total number of humans who have yet been born.
Эти результаты могут случиться в одно и то же время, если H{\ displaystyle H_{}} очень специфично, H 1{\ displaystyle H_{ 1}} более размыто,а априорное распределение не дает предпочтения ни одному из них, как показано ниже.
These results can occur at the same time when H 0{\displaystyle\textstyle H_{0}} is very specific, H 1{\displaystyle\textstyle H_{1}} more diffuse,and the prior distribution does not strongly favor one or the other, as seen below.
Рассмотрим результат x{\ displaystyle x} некоторого эксперимента с двумя возможными объяснениями, гипотезами H{\ displaystyle H_{}}и H 1{\ displaystyle H_{ 1}}, и некоторым априорным распределением π{\ displaystyle\ pi}, представляющим неопределенность, какая гипотеза более точна перед рассмотрением x{\ displaystyle x.
Consider the result x{\displaystyle\textstyle x} of some experiment, with two possible explanations, hypotheses H 0{\displaystyle\textstyle H_{0}}and H 1{\displaystyle\textstyle H_{1}}, and some prior distribution π{\displaystyle\textstyle\pi} representing uncertainty as to which hypothesis is more accurate before taking into account x{\displaystyle\textstyle x.
Результатов: 71, Время: 0.0219

Пословный перевод

Лучшие запросы из словаря

Русский - Английский