Що таке ВЗАЄМНУ ІНФОРМАЦІЮ Англійською - Англійська переклад

Приклади вживання Взаємну інформацію Українська мовою та їх переклад на Англійською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Формально взаємну інформацію двох дискретних випадкових величин X та Y може бути визначено як.
Formally, the mutual information of two discrete random variables X and Y can be defined as.
Іноді корисно виражати взаємну інформацію двох випадкових величин відносно третьої.
Sometimes it is useful to express the mutual information of two random variables conditioned on a third.
Обчислити взаємну інформацію як оцінку між усіма ознаками f i ∈ F{\displaystyle f_{i}\in F}.
Calculate the mutual information as score for between all features f i∈ F{\displaystyle f_{i}\in F}.
В теоремі про вкладення із затримками[en] усереднену взаємну інформацію використовують для визначення параметру вкладальної затримки.
Average mutual information in delay embedding theorem is used for determining the embedding delay parameter.
Взаємну інформацію також застосовують в галузі обробки сигналів як міру подібності двох сигналів.
Mutual information is also used in the area of signal processing as a measure of similarity between two signals.
Обумовлювання третьою випадковою величиною може збільшувати або зменшувати взаємну інформацію, але завжди залишається істинним те, що.
Conditioning on a third random variable may either increase or decrease the mutual information, but it is always true that.
Взаємну інформацію між генами в даних експресійних мікрочипів використовує алгоритм ARACNE для відбудови генних мереж.
Mutual information between genes in expression microarray data is used by the ARACNE algorithm for reconstruction of gene networks.
Запропонували метод обирання ознак, що може використовувати для обирання ознак або взаємну інформацію, кореляцію, або відстань/бали схожості.
Proposed a feature selection method that can use either mutual information, correlation, or distance/similarity scores to select features.
Взаємну інформацію використовують у космології, щоби перевіряти вплив великомасштабних середовищ на властивості галактик у Galaxy Zoo.
The mutual information is used in Cosmology to test the influence of large-scale environments on galaxy properties in the Galaxy Zoo.
З допомогою ідей колмогоровської складності можна розглядати взаємну інформацію двох послідовностей незалежно від будь-якого розподілу ймовірностей.
Using the ideas of Kolmogorov complexity, one can consider the mutual information of two sequences independent of any probability distribution.
Якщо розглядати взаємну інформацію як окремий випадок повної кореляції[en] або двоїстої повної кореляції[en], то унормованими версіями відповідно є.
If we consider mutual information as a special case of the total correlation or dual total correlation, the normalized version are respectively.
В багатьох застосуваннях потрібно максимізувати взаємну інформацію(тим самим збільшуючи взаємозалежність), що часто рівнозначне мінімізації умовної ентропії.
In many applications, one wants to maximize mutual information(thus increasing dependencies), which is often equivalent to minimizing conditional entropy.
Якщо бажано, щоби перше відношення- яке показує узгодженість за всіма значеннями величин- оцінювалося вище, ніж друге відношення,то можна використовувати наступну зважену взаємну інформацію(Guiasu 1977).
If it is desired that the former relation- showing agreement on all variable values- be judged stronger than the later relation,then it is possible to use the following weighted mutual information(Guiasu 1977).
Одна зі схем багатовимірного узагальнення, яка максимізує взаємну інформацію між спільним розподілом та іншими цільовими величинами, виявилася корисною у виборі ознак.[2].
One high-dimensional generalization scheme which maximizes the mutual information between the joint distribution and other target variables is found to be useful in feature selection.[2].
Взаємну інформацію також може бути виражено як відстань Кульбака- Лейблера добутку p(x) × p(y) відособлених розподілів двох випадкових величин x та y від спільного розподілу цих випадкових величин p(x, y).
Mutual information can also be expressed as a Kullback- Leibler divergence of the product p(x)× p(y) of the marginal distributions of the two random variables X and Y, from p(x, y) the random variables' joint distribution.
До прикладів належать: У технології пошукових рушіїв взаємну інформацію між фразами та контекстами використовують як ознаку для кластерування методом k-середніх для виявлення семантичних кластерів(понять).
Examples include: In search engine technology, mutual information between phrases and contexts is used as a feature for k-means clustering to discover semantic clusters(concepts).
Алгоритм mRMR є наближенням теоретично оптимального максимально-залежнісного алгоритму обирання ознак,який максимізує взаємну інформацію між спільним розподілом обраних ознак та змінною класифікації.
The mRMR algorithm is an approximation of the theoretically optimalmaximum-dependency feature selection algorithm that maximizes the mutual information between the joint distribution of the selected features and the classification variable.
FMI, feature mutualinformation[3]- це міра продуктивності злиття зображень, яка застосовує взаємну інформацію для вимірювання кількості інформації, яку злите зображення містить про первинні зображення.
For example, FMI metric[3]is an image fusion performance measure that makes use of mutual information in order to measure the amount of information that the fused image contains about the source images.
Для заданого еталонного зображення(наприклад, результату сканування мозку) та другого зображення, яке потрібно покласти до тієї ж системи координат, що й еталонне зображення, це зображення деформується доти,доки взаємну інформацію між ним та еталонним зображенням не буде максимізовано.
Given a reference image(for example, a brain scan), and a second image which needs to be put into the same coordinate system as the reference image,this image is deformed until the mutual information between it and the reference image is maximized.
Наприклад, метрика взаємної інформаціїознак(англ. FMI, feature mutual information)[3]- це міра продуктивності злиття зображень, яка застосовує взаємну інформацію для вимірювання кількості інформації, яку злите зображення містить про первинні зображення.
For example, FMI metric[3]is an image fusion performance measure that makes use of mutual information in order to measure the amount of information that the fused image contains about the source images.
Взаємну інформацію використовували в фізиці Сонця для виведення сонячного диференціального ротора, карти відхилень часу руху сонячних плям, часово-відстаннєвої діаграми з вимірювань спокійного Сонця Поточкова взаємна інформація Квантова взаємна інформація Cover, T. M.; Thomas, J. A.(1991).
The mutual information was used in Solar Physics to derive the solar differential rotation profile, a travel-time deviation map for sunspots, and a time- distance diagram from quiet-Sun measurements Pointwise mutual information Quantum mutual information Cover, T.M.; Thomas, J.A.(1991).
Фіолетове є взаємною інформацією I(X;Y).
The violet is the mutual information I(X;Y).
Схожості зі взаємною інформацією.
Similarities to mutual information.
Варіації взаємної інформації.
Relationship to mutual information.
Тому пропускна здатністьканалу задається максимально можливою границею взаємної інформації.
Therefore, the channel capacityis given by the highest achievable bound on the mutual information.
Для задоволення різних потреб було запропоновано кілька варіацій взаємної інформації.
Several variations on mutual information have been proposed to suit various needs.
Міра взаємної інформації і нормалізованої взаємної інформації є найбільш популярною мірою схожості при співставленні мультимодальних зображень.
Mutual information and normalized mutual information are the most popular image similarity measures for registration of multimodality images.
Типовими прикладами таких мір схожості зображень є крос-кореляція, взаємна інформація, сума квадратів різниць інтенсивності, і співвідношення однорідності зображення.
Common examples of image similarity measures include cross-correlation, mutual information, sum of squared intensity differences, and ratio image uniformity.
Отже, взаємна інформація є єдиною мірою взаємної залежності, яка дотримується певних пов'язаних умов, оскільки її може бути визначено в термінах розходження Кульбака- Лейблера.
Consequently Mutual Information is the only measure of mutual dependence that satisfies an induced criteria since it is defined in terms of Kullback-Leibler divergence.
На відміну від взаємної інформації(ВІ), що будується на ПВІ, вона стосується одиничних подій, тоді як ВІ стосується усереднення всіх можливих подій.
In contrast of mutual information(MI), PMI refers to single events, whereas MI refers to the average of all events.
Результати: 42, Час: 0.0204

Переклад слово за словом

Найпопулярніші словникові запити

Українська - Англійська