Що таке МАРКОВСЬКИХ Англійською - Англійська переклад S

Приклади вживання Марковських Українська мовою та їх переклад на Англійською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Випадковість у моделі представлена концепцією«гри з природою» з використанням марковських ланцюгів.
Randomness is presented in themodel as a concept of games with nature with the use of Markov chains.
Перша з них,«Теорія марковських процесів», була опублікована в 1959 році і поклала основи теорії.
The first of these,"Theory of Markov Processes", was published in 1959, and laid the foundations of the theory.
Отримано диференціальний аналог основної леми теорії марковських гіллястих процесів$\mu(t),\quad t \geq 0$, неперервного часу.
We obtain a differential analog of the main lemma in the theory of Markov branding processes$\mu(t),\quad t\geq 0$, of continuous time.
Головний поступ у цій області було забезпечено Бурнетасом таКатехакісом в«Оптимальних адаптивних стратегіях для марковських процесів вирішування».
A major advance in this area was provided by Burnetas andKatehakis in"Optimal adaptive policies for Markov decision processes".
Досліджено нові класи марковських систем, які не обов'язково неперервно залежать від часу, але мають так звану властивість втрати пам'яті.
The new classes of Markov systems areinvestigated that do not necessarily continuously depend on time, but have a so-called property of loss of memory.
Зверніть увагу, що немає остаточної даних в літературі з використання деяких термінів,які показують особливі випадки марковських процесів.
Note that there is no definitive agreement in the literature on theuse of some of the terms that signify special cases of Markov processes.
У подальшому теорія Марковських випадкових полів отримала свій розвиток у роботах, пов'язаних із задачами статистичної фізики і квантової теорії поля.
Later, the theory of Markov random fields was further developed in works related to problems of statistical physics and quantum field theory.
Марковські процеси вирішування є розширенням марковських ланцюгів; різниця полягає в доданні дій(що дає вибір) та винагород(що дає мотивацію).
Markov decision processes are an extension of Markov chains; the difference is the addition of actions(allowing choice) and rewards(giving motivation).
У простіших марковських моделях(таких як ланцюги Маркова) стан є безпосередньо видимим спостерігачеві, і тому ймовірності переходу станів є єдиними параметрами.
In simpler Markov Model, the states are clearly visible to the user and thus the state transition probabilities are only the parameters.
Можна підходити до цієї задачі, застосовуючи виявленняточок змін[en], або моделювання часових рядів як складніших систем, таких як лінійні системи марковських стрибків.
One can approach this problem using change-point detection,or by modeling the time-series as a more sophisticated system, such as a Markov jump linear system.
У простіших марковських моделях(таких як ланцюги Маркова) стан є безпосередньо видимим спостерігачеві, і тому ймовірності переходу станів є єдиними параметрами.
In simpler Markov models(like a Markov chain), the state is directly visible to the observer, and therefore the state transition probabilities are the only parameters.
ZipHMMlib бібліотека для звичайних(дискретних) прихованих марковських моделей, що використовує повторення у вхідній послідовності для значного прискорення послідовного алгоритму.
ZipHMMlib a library for general(discrete) hidden Markov models, exploiting repetitions in the input sequence to greatly speed up the forward algorithm.
Результати ДМАТ оброблено за спеціально створеною інформаційною технологією,на основі спільного використання поліноміальних сплайнів, Марковських процесів і штучних нейронних мереж.
ABPM results processed by a specially created information technology,based on the sharing of polynomial splines, Markov processes, and artificial neural networks.
Ми вивчимо як видобувати інформацію з мовлення,як моделювати динаміку мовлення за допомогою прихованих марковських моделей, і як побудувати модель мови відповідно до проблемної області.
We will learn how to extract informative features from speech,how to model speech dynamics with hidden Markov models, and how to build language models corresponding to the task domain.
Методи квазі-Монте-Карло марковських ланцюгів(КМКМЛ, англ. Markov Chain quasi-Monte Carlo, MCQMC).[9][10] Перевага використання малорозбіжних постідовностей[en] замість випадкових чисел для простої незалежної вибірки Монте-Карло є добре відомою.
Markov Chain quasi-Monte Carlo(MCQMC)[9][10] The advantage of low-discrepancy sequences in lieu of random numbers for simple independent Monte Carlo sampling is well-known.
Іншим варіантом є застосовування висновування осередненого поля(англ. mean-field inference) для оцінки залежних від даних очікувань, інаближення очікуваної достатньої статистики моделі застосуванням методів Монте-Карло марковських ланцюгів(МКМЛ).
Another option is to use mean-field inference to estimate data-dependent expectations andapproximate the expected sufficient statistics by using Markov chain Monte Carlo(MCMC).
У розглянутих вище прихованих марковських моделях простір станів прихованих змінних є дискретним, тоді як самі спостереження можуть бути або дискретними(зазвичай згенерованими з категорійного розподілу), або неперервним(зазвичай з нормального розподілу).
In the standard type of hidden Markov model considered here, the state space of the hidden variables is discrete, while the observations themselves can either be discrete(typically generated from a categoricaldistribution) or continuous(typically from a Gaussiandistribution).
Це дозволило йому вирішити ряд важких проблем і побудувати широко відому систему аксіоматичного обгрунтування теорії ймовірностей(1933),закласти основи теорії марковських випадкових процесів з безперервним часом.
This enabled him to solve a number of difficult problems and to construct the widely known axiomatic basis of probability theory(1933)and to lay the foundations of the theory of continuous-time random Markov processes.
Ще одним варіантом є факторіальна прихована марковська модель(англ. factorial hidden Markov model), що дозволяє єдиному спостереженню бути обумовленим відповідними прихованими змінними набору K{\displaystyle K} незалежних марковських ланцюгів, а не єдиного марковського ланцюга.
Yet another variant is the factorial hidden Markov model, which allows for a single observation to be conditioned on the corresponding hidden variables of a set of K{\displaystyle K} independent Markov chains, rather than a single Markov chain.
В обох випадках причиною є те, що ці оцінки є оптимальними при втратах із квадратичною або лінійною помилкою відповідно,- а вони є характернішими представниками типових функцій втрат,- і те, що апостеріорний розподіл може не мати простої аналітичної форми: в такому випадку цей розподіл можебути симульовано за допомогою методик Монте-Карло марковських ланцюгів, тоді як оптимізація для пошуку цієї моди(мод) може бути складною, або неможливою.
This is both because these estimators are optimal under squared-error and linear-error loss respectively- which are more representative of typical loss functions- and because the posterior distribution may not have a simple analytic form: in this case,the distribution can be simulated using Markov chain Monte Carlo techniques, while optimization to find its mode(s) may be difficult or impossible.
Марковський процес вирішування є стохастичною грою з лише одним гравцем.
A Markov decision process is a stochastic game with only one player.
Ця розмова була названа«Марковські процеси і проблеми аналізу».
This talk was titled"Markov processes and problems in analysis".
Приховані марковські моделі(ПММ) є іншою дуже популярною спеціалізацією фільтрів Калмана.
Hidden Markov models(HMMs) are another very popular specialization of Bayesian filters.
Приховані марковські моделі.
Partially Hidden Markov Models.
Називається марковським моментом(часу), якщо для будь-якого n.
A function is called a Markov moment(stopping time) if for.
Базову(не баєсову) приховану марковську модель може бути описано таким чином:.
A basic, non-Bayesian hidden Markov model can be described as follows:.
Марковські процеси та їх застосування у теорії масового обслуговування та надійності;
Markov processes and their application in mass service and reliability theory;
Приховані марковські моделі також може бути узагальнено, щоби дозволяти неперервні простори станів.
Hidden Markov models can also be generalized to allow continuous state spaces.
Марковський процес вирішування.
The Markov Decision Process.
Марковські випадкові процеси з дискретними станами.
Markov processes with discrete state space.
Результати: 31, Час: 0.0156
S

Синоніми слова Марковських

Найпопулярніші словникові запити

Українська - Англійська