Приклади вживання Взаємну інформацію Українська мовою та їх переклад на Англійською
{-}
-
Colloquial
-
Ecclesiastic
-
Computer
Формально взаємну інформацію двох дискретних випадкових величин X та Y може бути визначено як.
Іноді корисно виражати взаємну інформацію двох випадкових величин відносно третьої.
Обчислити взаємну інформацію як оцінку між усіма ознаками f i ∈ F{\displaystyle f_{i}\in F}.
В теоремі про вкладення із затримками[en] усереднену взаємну інформацію використовують для визначення параметру вкладальної затримки.
Взаємну інформацію також застосовують в галузі обробки сигналів як міру подібності двох сигналів.
Обумовлювання третьою випадковою величиною може збільшувати або зменшувати взаємну інформацію, але завжди залишається істинним те, що.
Взаємну інформацію між генами в даних експресійних мікрочипів використовує алгоритм ARACNE для відбудови генних мереж.
Запропонували метод обирання ознак, що може використовувати для обирання ознак або взаємну інформацію, кореляцію, або відстань/бали схожості.
Взаємну інформацію використовують у космології, щоби перевіряти вплив великомасштабних середовищ на властивості галактик у Galaxy Zoo.
З допомогою ідей колмогоровської складності можна розглядати взаємну інформацію двох послідовностей незалежно від будь-якого розподілу ймовірностей.
Якщо розглядати взаємну інформацію як окремий випадок повної кореляції[en] або двоїстої повної кореляції[en], то унормованими версіями відповідно є.
В багатьох застосуваннях потрібно максимізувати взаємну інформацію(тим самим збільшуючи взаємозалежність), що часто рівнозначне мінімізації умовної ентропії.
Якщо бажано, щоби перше відношення- яке показує узгодженість за всіма значеннями величин- оцінювалося вище, ніж друге відношення,то можна використовувати наступну зважену взаємну інформацію(Guiasu 1977).
Одна зі схем багатовимірного узагальнення, яка максимізує взаємну інформацію між спільним розподілом та іншими цільовими величинами, виявилася корисною у виборі ознак.[2].
Взаємну інформацію також може бути виражено як відстань Кульбака- Лейблера добутку p(x) × p(y) відособлених розподілів двох випадкових величин x та y від спільного розподілу цих випадкових величин p(x, y).
До прикладів належать: У технології пошукових рушіїв взаємну інформацію між фразами та контекстами використовують як ознаку для кластерування методом k-середніх для виявлення семантичних кластерів(понять).
Алгоритм mRMR є наближенням теоретично оптимального максимально-залежнісного алгоритму обирання ознак,який максимізує взаємну інформацію між спільним розподілом обраних ознак та змінною класифікації.
FMI, feature mutualinformation[3]- це міра продуктивності злиття зображень, яка застосовує взаємну інформацію для вимірювання кількості інформації, яку злите зображення містить про первинні зображення.
Для заданого еталонного зображення(наприклад, результату сканування мозку) та другого зображення, яке потрібно покласти до тієї ж системи координат, що й еталонне зображення, це зображення деформується доти,доки взаємну інформацію між ним та еталонним зображенням не буде максимізовано.
Наприклад, метрика взаємної інформації ознак(англ. FMI, feature mutual information)[3]- це міра продуктивності злиття зображень, яка застосовує взаємну інформацію для вимірювання кількості інформації, яку злите зображення містить про первинні зображення.
Взаємну інформацію використовували в фізиці Сонця для виведення сонячного диференціального ротора, карти відхилень часу руху сонячних плям, часово-відстаннєвої діаграми з вимірювань спокійного Сонця Поточкова взаємна інформація Квантова взаємна інформація Cover, T. M.; Thomas, J. A.(1991).
Фіолетове є взаємною інформацією I(X;Y).
Схожості зі взаємною інформацією.
Варіації взаємної інформації.
Тому пропускна здатністьканалу задається максимально можливою границею взаємної інформації.
Для задоволення різних потреб було запропоновано кілька варіацій взаємної інформації.
Міра взаємної інформації і нормалізованої взаємної інформації є найбільш популярною мірою схожості при співставленні мультимодальних зображень.
Типовими прикладами таких мір схожості зображень є крос-кореляція, взаємна інформація, сума квадратів різниць інтенсивності, і співвідношення однорідності зображення.
Отже, взаємна інформація є єдиною мірою взаємної залежності, яка дотримується певних пов'язаних умов, оскільки її може бути визначено в термінах розходження Кульбака- Лейблера.
На відміну від взаємної інформації(ВІ), що будується на ПВІ, вона стосується одиничних подій, тоді як ВІ стосується усереднення всіх можливих подій.