Що таке ВИПАДКОВОЇ ВЕЛИЧИНИ Англійською - Англійська переклад S

random variable
випадкова змінна
випадкової величини
випадкової змінної

Приклади вживання Випадкової величини Українська мовою та їх переклад на Англійською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Для випадкової величини X, rth населення L-момент[1].
For a random variable X, the rth population L-moment is[1].
Воно визначається як середнє вірогідне значення випадкової величини.
It is defined as the average probabilistic value of a random variable.
Очікувана величина геометричного розподілу випадкової величини X є 1/p і її похибка(1- p)/p2.
The expected value of a geometrically distributed random variable X is 1/p and the variance is(1- p)/p2.
Рівняння, що визначає функцію щільності розподіленої за Бейтсом випадкової величини Х є.
The equation defining theprobability density function of a Bates distribution random variable X is.
Для невід'ємної випадкової величини, це лежить в інтервалі(0,1) і ідентично коефіцієнту Джині.
For a non-negative random variable, this lies in the interval(0,1)[1] and is identical to the Gini coefficient.
Формально, ми починаємо з розгляду деякого сімейства розподілів для випадкової величини X, проіндексованого деякою θ.
Formally, we begin by considering some family of distributions for a random variable X, that is indexed by some θ.
Сучасне визначення: Якщо вихідний простір випадкової величини X є множиною дійсних чисел R{\displaystyle\mathbb{R}}.
Modern definition: If the outcome space of a random variable X is the set of real numbers R{\displaystyle\mathbb{R}}.
Припустимо, що стандартний мартингал, пов'язаний з$\ mathcal{ M}_{(n)},$ збігається майже напевно і в середньому до випадкової величини $W$.
Assume that a natural martingale related to$\ mathcal{ M}_{( n)},$ converges almost surely andin the mean to a random variable$W$.
Інтуїтивно це можливо зрозуміти наступним чином: очікуване значення випадкової величини є середнім по всім значенням, які вона може прийняти;
This is intuitive: the expected value of a random variable is the average of all values it can take;
Біноміальний розподіл для випадкової величини X з параметрами n і p є сумою n незалежних змінних Z, які можуть приймати значення 0 або 1.
The binomial distribution for a random variable X with parameters n and p represents the sum of n independent variables Z which may assume the values 0 or 1.
В статистиці, кожна гіпотеза щодо невідомого розподілу F{\displaystyle F} випадкової величини X{\displaystyle X} називається статистичною гіпотезою.
In statistics,every conjecture concerning the unknown distribution F{\displaystyle F} of a random variable X{\displaystyle X} is called a statistical hypothesis.
Кількість точок процесу знаходяться в інтервалі віднуля до деякого заданого часу Пуассонівської випадкової величини, яка залежить від часу і деяких параметрів.
The number of points of the process that are located in the interval fromzero to some given time is a Poisson random variable that depends on that time and some parameter.
Він отримується шляхом перетворення випадкової величини X, що має нормальний розподіл у випадковувеличину Y= eX.
It is obtained by transforming a random variable X having a normal distribution into randomvariable Y= eX.
Інтуїтивно, якщо ентропія Η(Y) розглядається як міра невизначеності випадкової величини, то Η(Y|X) є мірою того, що X не каже стосовно Y.
Intuitively, if entropy H(Y) is regarded as a measure of uncertainty about a random variable, then H(Y|X) is a measure of what X does not say about Y.
Відповідна формула для неперервної випадкової величини з щільністю ймовірності функції ф(х) на прямий визначається за аналогією, з використанням вищевказаного форму ентропії як очікування.
The corresponding formula for a continuous random variable with probability density function f(x) on the real line is defined by analogy, using the above form of the entropy as an expectation.
Вона задає ймовірність того що значення стандартної нормальної випадкової величини X{\displaystyle X} буде перевищувати значення x{\displaystyle x}: P( X> x){\displaystyle P(X>x)}.
It gives the probability that the value of a standard normal random variable X{\displaystyle X} will exceed x{\displaystyle x}: P( X> x){\displaystyle P(X>x)}.
Арпад Ело думала, що істинногомайстерності гравця як середнє арифметичне продуктивності, що гравця випадкової величини, і показав, як визначити середнє з результатів Ігор гравця.
Arpad Elo thought of a player'strue skill as the average of that player's performance random variable, and showed how to estimate the average from results of player's games.
Припустимо, що необхідно розрахувати Pr(X ≤ 8) для біноміально-розподіленої випадкової величини X. Якщо Y має розподіл заданий у вигляді нормального наближення, тоді Pr(X ≤ 8) можна наблизити за допомогою Pr(Y ≤ 8.5).
Suppose one wishes to calculate Pr(X≤ 8) for a binomial random variable X. If Y has a distribution given by the normal approximation, then Pr(X≤ 8) is approximated by Pr(Y≤ 8.5).
В математичній нотації, ці факти можна виразити наступним чином,де X це спостереження нормально розподіленої випадкової величини, μ це середнім розподілу, а σ- стандартне відхилення.
In mathematical notation, these facts can be expressed as follows,where X is an observation from a normally distributed random variable, μ is the mean of the distribution, and σ is its standard deviation.
Ентропія Шеннона задовольняє наступні властивості, для деяких з яких корисно інтерпретувати ентропію як кількість пізнаної інформації(або усуненої невизначеності)при розкритті значення випадкової величини X.
The Shannon entropy satisfies the following properties, for some of which it is useful to interpret entropy as the amount of information learned(or uncertainty eliminated)by revealing the value of a random variable X.
Поняття взаємної інформації нерозривно пов'язане з ентропією випадкової величини, фундаментальним поняттям теорії інформації, яке визначає«кількість інформації», яка міститься у випадковій величині.
The concept of mutualinformation is intricately linked to that of entropy of a random variable, a fundamental notion in information theory, that defines the"amount of information" held in a random variable..
Термін си́льна ма́рковська власти́вість(англ. strong Markov property) подібний до марковськоївластивості, за винятком того, що розуміння«поточного» визначається в термінах випадкової величини, відомої як момент зупину.
The term strong Markov property is similar to the Markov property,except that the meaning of“present” is defined in terms of a random variable known as a stopping time.
Точніше вони показали асимптотичну нормальність випадкової величини χ= m- N p( N p q),{\displaystyle\chi={m-Np \over{\sqrt{Npq де m- це спостережена кількість успіхів в N спробах, де ймовірність успіху p, а q= 1- pp.
Specifically they showed the asymptotic normality of the random variable χ= m- N p N p q{\displaystyle\chi={m-Np\over{\sqrt{Npq}}}} where m is the observed number of successes in N trials, where the probability of success is p, and q= 1- pp.
Величина, аналогічно коефіцієнту варіації, але на основі L-моментів, також можуть бути визначені: τ= λ 2/ λ 1,{\displaystyle\tau=\lambda_{2}/\lambda_{1},} які називаються"коефіцієнт L-варіації",або"L-CV". Для неотрицательної випадкової величини, це лежить в інтервалі(0,1) і ідентично коефіцієнту Джині.
A quantity analogous to the coefficient of variation, but based on L-moments, can also be defined: τ= λ 2/ λ 1,{\displaystyle\tau=\lambda_{2}/\lambda_{1},} which is called the"coefficient of L-variation",or"L-CV". For a non-negative random variable, this lies in the interval(0,1)[1] and is identical to the Gini coefficient.
Ще одна перевага L-моментів в порівняннізі звичайними моментами є те, що їх існування вимагає тільки випадкової величини, щоб мати кінцеве середнє, так що існують L-моменти, навіть якщо вищі звичайні моменти не існують(наприклад, для розподілу студента з низьким ступенем свободи).
Another advantage L-moments have over conventionalmoments is that their existence only requires the random variable to have finite mean, so the L-moments exist even if the higher conventional moments do not exist(for example, for Student's t distribution with low degrees of freedom).
Після вибору режиму Перемішати,& kmid; створити вибірку випадкової величини з однорідним розподілом, щоб забезпечити справді випадковий порядок відтворення пісень зі збірки. Значення випадкової величини визначатимуть порядок відтворення пісень(нам же ж хочеться, щоб пісні було відтворено у випадковому порядку, але без повторів, крім того, ми бажаємо почути попередню відтворену пісню, коли натиснемо кнопку Попередня пісня, чи не так?:-).
When you select Shuffle mode,& kmid;will generate a random variable with a discrete uniform distribution to really play randomly the songs in the collection. It will give values to that random variable while generating the list in which order the songs will be played(you surely want to play random songs, but do n't want to play twice the same song, and you want to play the last played song when you press on the Previous Song button, do n't you?:-).
Узагальнення сукупності; Узагальнення співвідношення між змінними, використовуючи певний тип регресійного аналізу;Прогнозування результату випадкової величини, обумовленого іншими спорідненими даними; Розглядання можливості зменшення кількості змінних, що розглядаються в межах конкретного завдання(Завдання скорочення розміру).
Summarising populations in the form of a fitted distribution or probability density function Summarising the relationship between variables using some type of regressionanalysis Providing ways of predicting the outcome of a random quantity given other related variables Examining the possibility of reducing the number of variables being considered within a problem(the task of Dimension reduction).
Марков показав, що при певних слабших припущеннях цей закон можна застосувати до випадкової величини, що не має скінченної дисперсії, а Хінчін в 1929 показав, що якщо вибірка складається із незалежних однаково розподілених випадкових величин, для виконання слабкого закону великих чисел достатньо того, що існує математичне сподівання.
Markov showed that the law can apply to a random variable that does not have a finite variance under some other weaker assumption, and Khinchin showed in 1929 that if the series consists of independent identically distributed random variables, it suffices that the expected value exists for the weak law of large numbers to be true.
В математиці, розподіл Ґауса- Кузьміна- це дискретний розподіл ймовірностей, який виникає як межа розподілу ймовірностей коефіцієнтіврозширення безперервного дробу рівномірно розподіленої випадкової величини на(0, 1)[1]. Розподіл названо в честь Карла Фрідріха Ґаусса, який вивів його близько 1800,[2] і Родіона Кузьміна, який дав обмеження на швидкість збіжності в 1929 році.[3][4] Він задається дає функцією ймовірністи.
In mathematics, the Gauss- Kuzmin distribution is a discrete probability distribution that arises as the limit probabilitydistribution of the coefficients in the continued fraction expansion of a random variable uniformly distributed in(0, 1).[4] The distribution is named after Carl Friedrich Gauss, who derived it around 1800,[5] and Rodion Kuzmin, who gave a bound on the rate of convergence in 1929.[6][7] It is given by the probability mass function.
Перевіряє нульову гіпотезу,що вибірка є підвибіркою нормально розподіленої випадкової величини з математичним очікуванням« очікування» і середньоквадратичним відхиленням« сигма». Повернене значення 1 вказує на те, що нульова гіпотеза відхиляється, тобто вибірка не є підвибіркою нормально розподіленої випадкової величини. Якщо« сигма» пропущено, її буде оцінено з вибірки за допомогою STDEV.
Performs a test of the null hypothesis,that sample is a sample of a normal distributed random variable with mean mean and standard deviation sigma. A return value of 1 indicates, that the null hypothesis is rejected, i. e. the sample is not a random sample of the normal distribution. If sigma is omitted, it is estimated from sample, using STDEV.
Результати: 251, Час: 0.0204

Переклад слово за словом

S

Синоніми слова Випадкової величини

випадкова змінна

Найпопулярніші словникові запити

Українська - Англійська