Що таке ВЗАЄМНА ІНФОРМАЦІЯ Англійською - Англійська переклад

mutual information
взаємна інформація

Приклади вживання Взаємна інформація Українська мовою та їх переклад на Англійською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Крім того, взаємна інформація є невід'ємною(тобто, I(X;Y) ≥ 0; див. нижче) і симетричною(тобто, I(X;Y)= I(Y;X)).
Moreover, mutual information is nonnegative(i.e. I(X;Y)≥ 0; see below) and symmetric(i.e. I(X;Y)= I(Y;X)).
Наприклад, якщо X та Y є незалежними, то знання X не дає жодної інформації про Y, і навпаки,тому їхня взаємна інформація дорівнює нулеві.
For example, if X and Y are independent, then knowing X does not give any information about Y and vice-verse,so their mutual information is zero.
Взаємна інформація відтак вимірює залежність у наступному сенсі: I(X; Y)= 0, якщо і лише якщо X та Y є незалежними випадковими величинами.
Mutual information therefore measures dependence in the following sense: I(X; Y)= 0 if and only if X and Y are independent random variables.
В результаті, в цьому випадку взаємна інформація є тим же, що й невизначеність, яка міститься окремо в Y(або X), а саме, ентропією Y(або X).
As a result, in this case the mutual information is the same as the uncertainty contained in Y(or X) alone, namely the entropy of Y(or X).
Типовими прикладами таких мір схожості зображень є крос-кореляція, взаємна інформація, сума квадратів різниць інтенсивності, і співвідношення однорідності зображення.
Common examples of image similarity measures include cross-correlation, mutual information, sum of squared intensity differences, and ratio image uniformity.
Взаємна інформація є мірою притаманної залежності, вираженої в спільному розподілі X та Y, по відношенню до спільного розподілу X та Y за припущення незалежності.
Mutual information is a measure of the inherent dependence expressed in the joint distribution of X and Y relative to the joint distribution of X and Y under the assumption of independence.
У теорії ймовірностей та теорії інформації взаємна інформація(англ. mutual information, MI) двох випадкових величин- це міра взаємної залежності між цими двома величинами.
In probability theory and information theory, the mutual information(MI) of two random variables is a measure of the mutual dependence between the two variables.
Отже, взаємна інформація є єдиною мірою взаємної залежності, яка дотримується певних пов'язаних умов, оскільки її може бути визначено в термінах розходження Кульбака- Лейблера.
Consequently Mutual Information is the only measure of mutual dependence that satisfies an induced criteria since it is defined in terms of Kullback-Leibler divergence.
Із застосуванням логарифмів за основою 2:(Для довідки, взаємною інформацією I ⁡( X; Y){\displaystyle \operatorname{I}(X;Y)} тоді буде 0.2141709) Поточкова взаємна інформація має багато відношень, однакових зі взаємною інформацією.
Using base-2 logarithms:(For reference, the mutual information I⁡( X; Y){\displaystyle\operatorname{I}(X;Y)} would then be 0.2141709) Pointwise Mutual Information has many of the same relationships as the mutual information.
Отже, взаємна інформація є єдиною мірою взаємної залежності, яка дотримується певних пов'язаних умов, оскільки її може бути визначено в термінах розходження Кульбака- Лейблера.
Consequently, mutual information is the only measure of mutual dependence that obeys certain related conditions, since it can be defined in terms of Kullback- Leibler divergence.
На відміну від коефіцієнтів кореляції, наприклад, коефіцієнту кореляції моменту добутку, взаємна інформація містить інформацію про всю залежність- лінійну і нелінійну,- а не просто про лінійну залежність, як міри коефіцієнтів кореляції.
Unlike correlation coefficients, such as the product moment correlation coefficient, mutual information contains information about all dependence- linear and nonlinear- and not just linear dependence as the correlation coefficient measures.
Інтуїтивно, взаємна інформація вимірює інформацію, яку поділяють X{\displaystyle X} та Y{\displaystyle Y}: вона вимірює, наскільки знання однієї з цих змінних зменшує невизначеність щодо іншої.
Intuitively, mutual information measures the information that X{\displaystyle X} and Y{\displaystyle Y} share: It measures how much knowing one of these variables reduces uncertainty about the other.
Взаємну інформацію використовували в фізиці Сонця для виведення сонячного диференціального ротора, карти відхилень часу руху сонячних плям, часово-відстаннєвої діаграми з вимірювань спокійногоСонця Поточкова взаємна інформація Квантова взаємна інформація Cover, T. M.; Thomas, J. A.(1991).
The mutual information was used in Solar Physics to derive the solar differential rotation profile, a travel-time deviation map for sunspots, and a time-distance diagram from quiet-Sun measurements Pointwise mutual information Quantum mutual information Cover, T.M.; Thomas, J.A.(1991).
І хоча в обох випадках взаємна інформація виражає число бітів інформації, спільне для цих двох джерел, ця аналогія не передбачає однакових властивостей: наприклад, диференціальна ентропія може бути від'ємною.
Although, in both cases, mutual information expresses the number of bits of information common to the two sources in question, the analogy does not imply identical properties; for example, differential entropy may be negative.
Це має додаткову складність в тому, що жоден випадок слова не є випадком для двох різних слів; швидше, рахують випадки, в яких 2 слова трапляються суміжно або в безпосередній близькості; це дещо ускладнює розрахунок, оскількиочікувана ймовірність трапляння одного слова в межах N слів від іншого росте з N. Взаємна інформація застосовується в медичній візуалізації для зіставлення зображень.
This has the added complexity that no word-instance is an instance to two different words; rather, one counts instances where 2 words occur adjacent or in close proximity; this slightly complicates the calculation, since the expectedprobability of one word occurring within N words of another, goes up with N. Mutual information is used in medical imaging for image registration.
Ця зважена взаємна інформація є вираженням зваженої відстані Кульбака- Лейблера, яка, як відомо, може набувати від'ємних значень для деяких входів,[9] і є приклади, де зважена взаємна інформація також набуває від'ємних значень.[10].
This weighted mutual information is a form of weighted KL-Divergence, which is known to take negative values for some inputs,[9] and there are examples where the weighted mutual information also takes negative values.[10].
Двома популярними фільтровимиметриками для задач класифікації є кореляція та взаємна інформація, хоча жодна з них не є справжньою метрикою, або«мірою відстані», в математичному сенсі, оскільки вони не підкоряються нерівності трикутника, і відтак не обчислюють жодної дійсної«відстані»- їх слід було би швидше розглядати як«бали».
Two popular filtermetrics for classification problems are correlation and mutual information, although neither are true metrics or'distance measures' in the mathematical sense, since they fail to obey the triangle inequality and thus do not compute any actual'distance'- they should rather be regarded as'scores'.
Це відбувається тому, що взаємна інформація взагалі не чутлива до жодного природного впорядкування значень величин(Cronbach 1954, Coombs& Dawes 1970, Lockhead 1970), і тому взагалі не чутлива до форми відносного відображення між зв'язаними величинами.
This is because the mutual information is not sensitive at all to any inherent ordering in the variable values(Cronbach 1954, Coombs& Dawes 1970, Lockhead 1970), and is therefore not sensitive at all to the form of the relational mapping between the associated variables.
У технології пошукових рушіїв взаємна інформація між фразами та контекстами використовується як ознака для кластерування методом k-середніх для виявлення семантичних кластерів(понять).[12] У телекомунікаціях пропускна спроможність каналу дорівнює взаємній інформації, максимізованій над усіма вхідними розподілами.
In search engine technology, mutual information between phrases and contexts is used as a feature for k-means clustering to discover semantic clusters(concepts).[12] In telecommunications, the channel capacity is equal to the mutual information, maximized over all input distributions.
Фіолетове є взаємною інформацією I(X;Y).
The violet is the mutual information I(X;Y).
Іноді корисно виражати взаємну інформацію двох випадкових величин відносно третьої.
Sometimes it is useful to express the mutual information of two random variables conditioned on a third.
Схожості зі взаємною інформацією.
Similarities to mutual information.
Варіації взаємної інформації.
Relationship to mutual information.
Тому пропускна здатністьканалу задається максимально можливою границею взаємної інформації:.
Therefore, the channel capacityis given by the highest achievable bound on the mutual information:.
Для задоволення різних потреб було запропоновано кілька варіацій взаємної інформації.
Several variations on mutual information have been proposed to suit various needs.
Взаємну інформацію також застосовують в галузі обробки сигналів як міру подібності двох сигналів.
Mutual information is also used in the area of signal processing as a measure of similarity between two signals.
Міра взаємної інформації і нормалізованої взаємної інформації є найбільш популярною мірою схожості при співставленні мультимодальних зображень.
Mutual information and normalized mutual information are the most popular image similarity measures for registration of multimodality images.
Обчислити взаємну інформацію як оцінку між усіма ознаками f i ∈ F{\displaystyle f_{i}\in F}.
Calculate the mutual information as score for between all features f i∈ F{\displaystyle f_{i}\in F}.
Взаємну інформацію між генами в даних експресійних мікрочипів використовує алгоритм ARACNE для відбудови генних мереж.
Mutual information between genes in expression microarray data is used by the ARACNE algorithm for reconstruction of gene networks.
Результати: 29, Час: 0.0171

Переклад слово за словом

Найпопулярніші словникові запити

Українська - Англійська