Приклади вживання Розподіл імовірності Українська мовою та їх переклад на Англійською
{-}
-
Colloquial
-
Ecclesiastic
-
Computer
Розподіл імовірності можна розглядати як розбиття множини.
Питання визначає, який розподіл імовірності повинно бути розраховано.
Є збіжним рядом[en],і тому цю функцію правдоподібності може бути унормовано в розподіл імовірності.
Не знаючи цей спільний розподіл імовірності, неможливо обчислити I[ f]{\displaystyle I[f]}.
Тут стратегія(англ. policy) позначає відображення, яке призначає деякий розподіл імовірності над діями всім можливим історіям.
Ця невідповідність показує, що розподіл імовірності завтрашнього кольору залежить не лише від поточного значення, але знаходиться також і під впливом інформації про минуле.
Узагальненням попереднього випадку для двох змінних є спільний розподіл імовірності n{\displaystyle n\,} дискретних випадкових змінних X 1, X 2,….
Тепер розподіл імовірності по цьому всесвіті U це просто функція, яку я буду позначати через Р, і ця функція, що він робить, він привласнює кожному елементу у Всесвіті число між нулем і одиницею.
Здійснений таким чином аналіздовіри є статистично чинним, поки розподіл імовірності виходу залишається незмінним, і не вноситься змін до мережі.
Також зверніть увагу, що«оптимальний розподіл імовірності» тут означає рівномірний розподіл: первинна абетка з n символів має найвищу можливу ентропію(для абетки з n символів), коли розподіл імовірності абетки є рівномірним.
Це вдача, оскільки це означає, що, незважаючи на те, що ми не знаємо σ, ми знаємо розподіл імовірності цієї частки: вона має t-розподіл Стьюдента з n- 1 ступенями вільності.
Там, де нульовагіпотеза являє собою окремий випадок альтернативної гіпотези, розподіл імовірності статистичного критерію є приблизно хі-квадратним розподілом зі ступенямивільності[en], що дорівнюють df2- df1.
Коли застосовується логарифм відношення правдоподібностей,така статистика відома як статистика відношення логарифмічних правдоподібностей, а розподіл імовірності цієї перевірної статистики, за припущення, що нульова модель є істинною, може бути наближено із застосуванням теореми Уїлкса.
Ця функція правдоподібності не є розподілом імовірності, оскільки сума.
Такі системи працюють на векторах розподілів імовірностей, що зберігаються в комірках пам'яті та регістрах.
По-друге, респондентів не просять указувати розподіл імовірностей.
Ну, це розподіл імовірностей.
Будь-який розподіл імовірностей в множині R має принаймні одну медіану, але в окремих випадках може існувати більше ніж одна медіана.
Якщо розглядати функцію від n для фіксованого N, це є розподілом імовірності, але якщо розглядати функцію від N для фіксованого n, це є функцією правдоподібності.
Коли відомий розподіл імовірностей випадкової величини, його можна використати аби розрахувати точний довірчий інтервал;
Будь-який розподіл імовірностей в множині R має принаймні одну медіану, але в окремих випадках може існувати більше ніж одна медіана.
У кібернетиці загальна інформаційна концепція кількісновиражає зміст даного набору символів, використовуючи розподіл імовірностей всіх можливих перестановок символів.
Штучний інтелект може використовуватися для того,щоб ідентифікувати конкретний контекст або дію або формувати розподіл імовірностей конкретних станів системи без людського втручання.
Для деяких розподілів імовірності середнє значення є нескінченним(+∞ або- ∞), тоді як деякі інші не мають середнього значення.
Масовий розподіл імовірностей збалансований довкола математичного сподівання, тут наведено Бета-розподіл Beta(α, β) із математичним сподіванням α/(α+β).
Можна запитати: якщо множину було розбито випадковим чином,яким буде розподіл імовірностей?
Середнє значення не обов'язково повинне існувати або бути скінченним; для деяких розподілів імовірності середнє значення є нескінченним(+∞ або- ∞), тоді як деякі інші не мають середнього значення.
Для будь-якого розподілу імовірностей в множині дійсних чисел R із кумулятивною функцією розподілу F,не залежно від того чи є це будь-яким з неперервних розподілів імовірності, зокрема абсолютно неперервний розподіл(що має функцію густини імовірності), або дискретний розподіл імовірностей, медіаною за визначенням є будь-яке дійсне число m яке задовольняє наступним нерівностям.
Таким чином, ентропія первинної абетки, з її заданим емпіричним розподілом імовірності,- це число, яке дорівнює числу(можливо дробовому) символів«ідеальної абетки», з оптимальним розподілом імовірності, необхідних для кодування кожного символу первинної абетки.
У будь-якій кількості, про яку ми непевні, буде така невизначеність, кодована в розподілі імовірності, квантова механіка в цьому відношенні не відрізняється від будь-якої іншої теорії висновку, вона лише інша, оскільки вона стверджує, що невизначеність є внутрішньою, тоді як інші теорії висновку просто припустимо, що дані можна спостерігати в принципі, але не на практиці.