Що таке МАРКОВСЬКИЙ Англійською - Англійська переклад S

Іменник
Дієслово
markov
марков
марковський
марківські
markowski
марковський

Приклади вживання Марковський Українська мовою та їх переклад на Англійською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Антон Марковський.
Anton Markovsky.
Марковський також був убитий.
Cassandra was also killed.
Що таке марковський ланцюг?
What is a Markov Chain?
Марковський процес вирішування.
The Markov Decision Process.
Що таке марковський ланцюг?
So what is a Markov chain?
Резервування як марковський процес.
The queue as a Markov process.
Дані як марковський процесРедагувати.
Data as a Markov process.
Найвідомішим марковським процесом є марковський ланцюг.
The most famous Markov process is a Markov chain.
Дані як марковський процесРедагувати.
Data as a Markov processEdit.
Взята разом, ця двійка відтак утворює марковський ланцюг(МЛ).
Taken together, the two then define a Markov chain(MC).
Марковський процес вирішування є стохастичною грою з лише одним гравцем.
A Markov decision process is a stochastic game with only one player.
Найвідомішим марковським процесом є марковський ланцюг.
The simplest Markov model is the Markov chain.
Ключові слова: адитивне поле випромінювання, марковський шум, фазоманіпульований оптичний сигнал.
Keywords: additive radiation field, Markovian noise, phase-keyed optical signal.
Технічним оператором радіостанції,редактором програм і диктором був в одній особі Володимир Марковський.
The technical operator,programme editor and speaker were rolled into one, Wlodzimierz Markowski.
Формальніше, середовище моделюють як марковський процес вирішування(МПВ) зі станами s 1,….
Formally the environment is modeled as a Markov decision process(MDP) with states s 1,….
Стохастичний процес дискретного часу[en], який задовольняє марковську властивість, відомий як марковський ланцюг.
A discrete-time stochastic process satisfying the Markov property is known as a Markov chain.
Юліан Марковський- онук скульптора Йоана-Баптіста Шимзера, львівський скульптор, на Личаківському цвинтарі багато його робіт.
Julian Markowski- sculptor Johann Baptiste Schimser's grandson, a Lviv sculptor; a lot of his works can be seen in Lychakivsky cemetery.
Башельє можна угледіти спробу трактувати броунівський рух як марковський процес, яка отримала обґрунтування після досліджень Вінера 1923 року.
Bachelier it is already possible tofind an attempt to discuss Brownian motion as a Markov process, an attempt which received justification later in the research of N. Wiener(1923).
Крім як через винагороди, марковський процес вирішування( S, A, P){\displaystyle(S, A, P)} можна розуміти і в термінах теорії категорій.
Other than the rewards, a Markov decision process( S, A, P){\displaystyle(S, A, P)} can be understood in terms of Category theory.
Ймовірнісні автомати Квантові скінченні автомати Частково спостережуваний марковський процес вирішування Динамічне програмування Рівняння Беллмана для застосувань в економіці.
Probabilistic automata Quantum finite automata Partially observable Markov decision process Dynamic programming Bellman equation for applications to economics.
Як правило, марковський процес ухвалення рішень використовується для обчислення політики дій, які будуть максимізувати деякі утиліти по відношенню до очікуваних винагородою.
Typically, a Markov decision process is used to compute a policy of actions that will maximize some utility with respect to expected rewards.
Художній керівник фестивалю- професор Міхал Павел Марковський, літературознавець, публіцист і професор Ягеллонського університету та Іллінойського університету в Чикаго.
The festival's artistic director is Prof. Michał Paweł Markowski a literary critic, publicist and professor at the Jagiellonian University and the University of Illinois at Chicago.
І навпаки, якщо для кожного стану існує лише одна дія(наприклад,«чекати») та всі винагороди є однаковими(наприклад,«нуль»),то марковський процес вирішування зводиться до марковського ланцюга.
Conversely, if only one action exists for each state(e.g."wait") and all rewards are the same(e.g."zero"), a Markov decision process reduces to a Markov chain.
Частково спостережуваний марковський процес ухвалення рішень(ЧСМПУР),(англ. POMDP) є марковський процес ухвалення рішень, в якому стан системи тільки частково спостерігається.
A partially observable Markov decision process(POMDP) is a Markov decision process in which the state of the system is only partially observed.
Прихована марковська модель(ПММ, англ. hidden Markov model, HMM)- це статистична марковська модель, у якій модельована система розглядається як марковський процес із неспостережуваними(прихованими) станами.
A Hidden Markov model(HMM) is a statistical Markov model in which the system being modeled is assumed to be a Markov process with unobserved(hidden) states.
ППММ самі по собі не обов'язково є марковськими процесами, оскільки марковський ланцюг або марковський процес, що лежить в основі, спостерігати неможливо, а можливо спостерігати лише пуассонівський сигнал.
PHMMs are not necessarily Markovian processes themselves because the underlying Markov chain or Markov process cannot be observed and only the Poisson signal is observed.
Прикладами таких моделей є ті, де марковський процес над прихованими змінними є лінійною динамічною системою з лінійним зв'язком між пов'язаними змінними, і де всі приховані й спостережувані змінні слідують нормальному розподілові.
Examples of such models are those where the Markov process over hidden variables is a lineardynamicalsystem, with a linear relationship among related variables and where all hidden and observed variables follow a Gaussiandistribution.
Ця розмова була названа«Марковські процеси і проблеми аналізу».
This talk was titled"Markov processes and problems in analysis".
Результати: 28, Час: 0.0181
S

Синоніми слова Марковський

Найпопулярніші словникові запити

Українська - Англійська