Приклади вживання Вирішування Українська мовою та їх переклад на Англійською
{-}
-
Colloquial
-
Ecclesiastic
-
Computer
Марковський процес вирішування.
Тут правило вирішування залежить від виходу X.
Вирішування дійсних та потенційних проблем пацієнта.
І ми повинні об'єднуватися для вирішування цих проблем.
Вирішування дійсних та потенційних проблем пацієнта.
Марковський процес вирішування є стохастичною грою з лише одним гравцем.
Формальніше, середовище моделюють як марковський процес вирішування(МПВ) зі станами s 1,….
Ми робимо життя простішим, шляхом вирішування проблем, про які раніше ніхто не замислювався.
Обирати правило вирішування з найнижчими усередненими втратами(тобто, максимізувати математичне сподівання функції втрат):.
Обирати оптимальне правило вирішування, яке задовольняє вимогу інваріантності.
Мініма́кс: Обирати правило вирішування з найнижчими найгіршими втратами- тобто, мінімізувати втрати в найгіршому випадку(максимально можливі):.
Головний поступ у цій області було забезпечено Бурнетасом таКатехакісом в«Оптимальних адаптивних стратегіях для марковських процесів вирішування».
В марковських процесах вирішування дискретного часу рішення здійснюються через дискретні проміжки часу.
Ймовірнісні автомати Квантові скінченніавтомати Частково спостережуваний марковський процес вирішування Динамічне програмування Рівняння Беллмана для застосувань в економіці.
Крім як через винагороди, марковський процес вирішування( S, A, P){\displaystyle(S, A, P)} можна розуміти і в термінах теорії категорій.
Марковські процеси вирішування є розширенням марковських ланцюгів; різниця полягає в доданні дій(що дає вибір) та винагород(що дає мотивацію).
І навпаки, якщо для кожного стану існує лише одна дія(наприклад,«чекати») та всі винагороди є однаковими(наприклад,«нуль»),то марковський процес вирішування зводиться до марковського ланцюга.
Світ згуртувався навколо вирішування цих питань, але чи достатньо українцям- загиблим і тим, хто втратив домівки, чи достатньо їм всесвітньої стурбованості та занепокоєння?
Результат( C, F: C → D i s t){\displaystyle({\mathcal{C}}, F:{\mathcal{C}}\to\mathbf{Dist})}можна назвати контекстно-залежним марковським процесом вирішування(англ. context-dependent Markov decision process), оскільки перехід від одного об'єкту до іншого в C{\displaystyle{\mathcal{C}}} змінює множину доступних дій та множину можливих станів.
У порівнянні з марковськими процесами вирішування дискретного часу, марковські процеси вирішування безперервного часу можуть краще моделювати процес ухвалювання рішень для системи, яка має безперервну динаміку, тобто системи, динаміка якої визначається диференціальними рівняннями з частинними похідними.
Навчання з підкріпленням може розв'язувати марковські процеси вирішування без явного вказання ймовірностей переходів; значення ймовірностей переходів необхідні для ітерації за цінностями та за стратегіями.
І хоча це й призведе в результаті до обрання тієї ж дії, яку було би обрано і з застосуванням частотного ризику, акцент баєсового підходу полягає в тому, що цікавить лише обрання оптимальної дії за фактичних спостережуваних даних,тоді як обрання фактичного частотного оптимального правила вирішування, яке є функцією від усіх можливих спостережень, є значно складнішою задачею.
Як і в марковських процесах вирішування дискретного часу, в марковському процесі вирішування безперервного часу ми хочемо знаходити оптимальну стратегію(англ. policy) або керування(англ. control), яке давало би нам оптимальну очікувану проінтегровану винагороду: max E u{\displaystyle\max\quad\mathbb{E}_{u}} Де 0 ≤ γ< 1{\displaystyle 0\leq\gamma<1} Якщо простори станів та дій є скінченними, то для пошуку оптимальної стратегії ми можемо використовувати лінійне програмування, що було одним із найперших застосованих підходів.
Президент Південної Кореї просить Папу допомогти у вирішуванні корейської кризи.