Що таке ВИРІШУВАННЯ Англійською - Англійська переклад S

Приклади вживання Вирішування Українська мовою та їх переклад на Англійською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Марковський процес вирішування.
The Markov Decision Process.
Тут правило вирішування залежить від виходу X.
Here the decision rule depends on the outcome of X.
Вирішування дійсних та потенційних проблем пацієнта.
Identifying actual and potential problems of patients.
І ми повинні об'єднуватися для вирішування цих проблем.
We need to become united to solve these problems.
Вирішування дійсних та потенційних проблем пацієнта.
Identify a patient's actual and potential drug-related problems.
Марковський процес вирішування є стохастичною грою з лише одним гравцем.
A Markov decision process is a stochastic game with only one player.
Формальніше, середовище моделюють як марковський процес вирішування(МПВ) зі станами s 1,….
Formally the environment is modeled as a Markov decision process(MDP) with states s 1,….
Ми робимо життя простішим, шляхом вирішування проблем, про які раніше ніхто не замислювався.
We make life easier by solving problems that nobody thought before.
Обирати правило вирішування з найнижчими усередненими втратами(тобто, максимізувати математичне сподівання функції втрат):.
Choose the decision rule with the lowest average loss(i.e. minimize the expected value of the loss function):.
Обирати оптимальне правило вирішування, яке задовольняє вимогу інваріантності.
Invariance: Choose the optimal decision rule which satisfies an invariance requirement.
Мініма́кс: Обирати правило вирішування з найнижчими найгіршими втратами- тобто, мінімізувати втрати в найгіршому випадку(максимально можливі):.
Minimax: Choose the decision rule with the lowest worst loss- that is, minimize the worst-case(maximum possible) loss:.
Головний поступ у цій області було забезпечено Бурнетасом таКатехакісом в«Оптимальних адаптивних стратегіях для марковських процесів вирішування».
A major advance in this area was provided by Burnetas andKatehakis in"Optimal adaptive policies for Markov decision processes".
В марковських процесах вирішування дискретного часу рішення здійснюються через дискретні проміжки часу.
In discrete-time Markov Decision Processes, decisions are made at discrete time intervals.
Ймовірнісні автомати Квантові скінченніавтомати Частково спостережуваний марковський процес вирішування Динамічне програмування Рівняння Беллмана для застосувань в економіці.
Probabilistic automata Quantumfinite automata Partially observable Markov decision process Dynamic programming Bellman equation for applications to economics.
Крім як через винагороди, марковський процес вирішування( S, A, P){\displaystyle(S, A, P)} можна розуміти і в термінах теорії категорій.
Other than the rewards, a Markov decision process( S, A, P){\displaystyle(S, A, P)} can be understood in terms of Category theory.
Марковські процеси вирішування є розширенням марковських ланцюгів; різниця полягає в доданні дій(що дає вибір) та винагород(що дає мотивацію).
Markov decision processes are an extension of Markov chains; the difference is the addition of actions(allowing choice) and rewards(giving motivation).
І навпаки, якщо для кожного стану існує лише одна дія(наприклад,«чекати») та всі винагороди є однаковими(наприклад,«нуль»),то марковський процес вирішування зводиться до марковського ланцюга.
Conversely, if only one action exists for each state(e.g."wait") and all rewards are the same(e.g."zero"),a Markov decision process reduces to a Markov chain.
Світ згуртувався навколо вирішування цих питань, але чи достатньо українцям- загиблим і тим, хто втратив домівки, чи достатньо їм всесвітньої стурбованості та занепокоєння?
The world has rallied around resolving these issues, but is an international concern and worry enough for those Ukrainians dead and who have lost their homes?
Результат( C, F: C → D i s t){\displaystyle({\mathcal{C}}, F:{\mathcal{C}}\to\mathbf{Dist})}можна назвати контекстно-залежним марковським процесом вирішування(англ. context-dependent Markov decision process), оскільки перехід від одного об'єкту до іншого в C{\displaystyle{\mathcal{C}}} змінює множину доступних дій та множину можливих станів.
One can call the result( C, F: C→ D i s t){\displaystyle({\mathcal{C}}, F:{\mathcal{C}}\to\mathbf{Dist})}a context-dependent Markov decision process, because moving from one object to another in C{\displaystyle{\mathcal{C}}} changes the set of available actions and the set of possible states.
У порівнянні з марковськими процесами вирішування дискретного часу, марковські процеси вирішування безперервного часу можуть краще моделювати процес ухвалювання рішень для системи, яка має безперервну динаміку, тобто системи, динаміка якої визначається диференціальними рівняннями з частинними похідними.
In comparison to discrete-time Markov decision processes, continuous-time Markov decision processes can better model the decision making process for a system that has continuous dynamics, i.e., the system dynamics is defined by partial differential equations(PDEs).
Навчання з підкріпленням може розв'язувати марковські процеси вирішування без явного вказання ймовірностей переходів; значення ймовірностей переходів необхідні для ітерації за цінностями та за стратегіями.
Reinforcement learning can solve Markov decision processes without explicit specification of the transition probabilities; the values of the transition probabilities are needed in value and policy iteration.
І хоча це й призведе в результаті до обрання тієї ж дії, яку було би обрано і з застосуванням частотного ризику, акцент баєсового підходу полягає в тому, що цікавить лише обрання оптимальної дії за фактичних спостережуваних даних,тоді як обрання фактичного частотного оптимального правила вирішування, яке є функцією від усіх можливих спостережень, є значно складнішою задачею.
Although this will result in choosing the same action as would be chosen using the frequentist risk, the emphasis of the Bayesian approach is that one is only interested in choosing the optimal action under the actual observed data,whereas choosing the actual frequentist optimal decision rule, which is a function of all possible observations, is a much more difficult problem.
Як і в марковських процесах вирішування дискретного часу, в марковському процесі вирішування безперервного часу ми хочемо знаходити оптимальну стратегію(англ. policy) або керування(англ. control), яке давало би нам оптимальну очікувану проінтегровану винагороду: max E u{\displaystyle\max\quad\mathbb{E}_{u}} Де 0 ≤ γ< 1{\displaystyle 0\leq\gamma<1} Якщо простори станів та дій є скінченними, то для пошуку оптимальної стратегії ми можемо використовувати лінійне програмування, що було одним із найперших застосованих підходів.
Like the discrete-time Markov decision processes, in continuous-time Markov decision processes we want to find the optimal policy or control which could give us the optimal expected integrated reward: max E u⁡{\displaystyle\max\operatorname{E}_{u}\left} where 0≤ γ< 1.{\displaystyle 0\leq\gamma<1.} If the state space and action space are finite, we could use linear programming to find the optimal policy, which was one of the earliest approaches applied.
Президент Південної Кореї просить Папу допомогти у вирішуванні корейської кризи.
South Korean president seeks Pope's help in resolving Korean crisis.
Результати: 24, Час: 0.0186
S

Синоніми слова Вирішування

Найпопулярніші словникові запити

Українська - Англійська