Що таке OPERATORNAME Українською - Українська переклад

operatorname

Приклади вживання Operatorname Англійська мовою та їх переклад на Українською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Welcome! My name is operatorName.
Ласкаво просимо! Мене звуть Ліза.
Displaystyle\operatorname{E}} is the expectation.
Е- оператор, що означає очікування.
How can I help you? Welcome! My name is operatorName.
Можу я чимось допомогти? Ласкаво просимо! Мене звуть Ліза.
Here E{\displaystyle\operatorname{E}} is the expectedvalueoperator, and I is the informationcontent of X.
Тут E{\displaystyle\mathbb{E}} є оператором математичного сподівання(англ. expectation), а I є кількістю інформації X.
It is denoted by Supp⁡( M){\displaystyle\operatorname{Supp}(M)}.
Ця множина позначається Supp ⁡( M){\displaystyle \operatorname{Supp}(M)}.
Here E{\displaystyle\operatorname{E}} is the expected value operator, and I is the information content of X.
Тут E{\displaystyle\mathbb{E}} є оператором математичного сподівання(англ. expectation), а I є кількістю інформації X.
Proposition(extremal property of E⁡){\displaystyle\operatorname{E}}.
Твердження(властивість екстремальності для E ){\displaystyle \operatorname{E}}.
Grad⁡( f)=∇ f{\ displaystyle\operatorname{grad} (f)=\nabla f} Measures the rate and direction of change in a scalar field.
Grad ⁡( f)= ∇ f{\displaystyle \operatorname{grad} (f)=\nabla f} Вимірює швидкість і напрям зміни скалярного поля.
It follows from the definition of Lebesgue integral that E⁡[C]= c{\displaystyle\operatorname{E}[C]=c}.
Віз визначення інтеграла Лебега випливає, що E ⁡[C]= c{\displaystyle \operatorname{E}[C]=c}.
E⁡= p{\displaystyle\operatorname{E}\left={\boldsymbol{p}}} Let X{\displaystyle{\boldsymbol{X}}} be the realisation from a categorical distribution.
E= p{\displaystyle\mathbb{E}\left={\boldsymbol{p}}} Нехай X{\displaystyle{\boldsymbol{X}}} буде реалізацією з категоричного розподілу.
The one-rule program p← not⁡ p{\displaystyle p\leftarrow\operatorname{not} p} has no stable models.
Програма з одного правила p ← not p{\displaystyle p\leftarrow{\hbox{not }}p} не має стійких моделей.
Assume that E⁡[ X]{\displaystyle\operatorname{E}[X]} is defined, i.e. min( E⁡[ X+], E⁡[ X-])<∞{\displaystyle\min\operatorname{E} X\operatorname{E} X\infty}.
Припустимо що E ⁡[ X]{\displaystyle \operatorname{E}[X]} визначена, тобто min( E ⁡[ X+], E ⁡[ X-])< ∞{\displaystyle\min\operatorname{E} X \operatorname{E} X \infty}.
As a counterexample look on the sign function sgn⁡(x){\displaystyle\operatorname{sgn}(x)} which is defined through.
Як контрприклад, подивимося на знакову функцію sgn ⁡(x){\displaystyle \operatorname{sgn}(x)}, яка визначена через.
The hyperbolic trig function\operatorname{sech}\, x appears as one solution to the Korteweg-de Vries equation which describes the motion of a soliton wave in a canal.
Гіперболічна тригонометрична функція sech x{\displaystyle \operatorname{sech}\, x} є одним із рішень рівняння Кортевега- де Фріза, яке описує рух солітонної хвилі в каналі.
There are four cases that can be interpreted as follows: nec⁡(U)= 1{\displaystyle\operatorname{nec}(U)=1} means that U{\displaystyle U} is necessary.
Є чотири випадки, які можна інтерпретувати так: nec ⁡(U)= 1{\displaystyle \operatorname{nec}(U)=1} означає що U{\displaystyle U}- необхідна.
To estimate the compression/expansion work in an isothermal process, it may be assumed that the compressed air obeys the ideal gas law,p V= n R T= constant{\displaystyle pV=nRT=\operatorname{constant}}.
Щоб оцінити роботу стиснення/ розширення в ізотермічному процесі, можна припустити, що стиснене повітря підпорядковується рівнянню ідеального газу,p V= n R T= constant{\displaystyle pV=nRT=\operatorname{constant}}.
Further noting that X+ Y∼ Pois⁡(λ+ μ){\displaystyle X+Y\sim\operatorname{Pois}(\lambda+\mu)}, and computing a lower bound on the unconditional probability gives the result.
Відзначаючи далі, що X+ Y ∼ Poi ⁡(λ+ μ),{\displaystyle X+Y\sim \operatorname{Poi}(\lambda+\mu),} обчислення нижньої межі на безумовній ймовірності дає результат.
Finally, the query s{\displaystyle s} succeeds, because each of the subgoals p{\displaystyle p},not⁡ q{\displaystyle\operatorname{not} q} succeeds.
Нарешті, запит s{\displaystyle s} досягає успіху, оскільки досягає успіху кожна з його підцілей p{\displaystyle p}та not q{\displaystyle{\hbox{not }}q}.
The proof follows from the arithmetic-geometric mean inequality,AM≤ max{\displaystyle\operatorname{AM}\leq\max}, and reciprocal duality( min{\displaystyle\min} and max{\displaystyle\max} are also reciprocal dual to each other).
Доказ випливає з арифметико-геометричної середньої нерівності,AM ≤ max{\displaystyle \operatorname{AM}\leq\max} та взаємної подвійності( min{\displaystyle\min} і max{\displaystyle\max} також взаємні подвійні).
The proposition in probability theory known as the law of total expectation,[1] the law of iterated expectations,[2] the tower rule,[3] Adam's law, and the smoothing theorem,[4] among other names, states that if X{\displaystyle X} is a random variable whose expected value E⁡(X){\displaystyle\operatorname{E}(X)} is defined, and Y{\displaystyle Y} is any random variable on the same probability space.
В теорії ймовірностей тверджeння відоме як закон повного математичного сподівання,[1] закон повторних сподівань[2], правило вежі,[3] закон Адама та теорема згладжування[4] стверджує, що якщо X- випадкова величина, з визначеним матсподіванням E ⁡(X){\displaystyle \operatorname{E}(X)}, а Y- довільна випадкова величина на тому ймовірнісному просторі.
Michael Gelfond proposed to read not⁡ p{\displaystyle\operatorname{not} p} in the body of a rule as" p{\displaystyle p} is not believed", and to understand a rule with negation as the corresponding formula of autoepistemic logic.
Майкл Гельфонд 1987року запропонував читати not p{\displaystyle{\hbox{not}}\ p} в тілі правила як« p{\displaystyle p} немає віри», і розуміти правило із запереченням як відповідну формулу автоепістемної логіки.
Axiom 2 couldbe interpreted as the assumption that the evidence from which pos{\displaystyle\operatorname{pos}} was constructed is free of any contradiction.
Аксіома 2 може інтерпретуватись, як припущення, що доказ, за яким сконструювали pos{\displaystyle \operatorname{pos}}, вільний від суперечності.
Thus I⁡( X; X)≥ I⁡( X; Y){\displaystyle\operatorname{I}(X;X)\geq\operatorname{I}(X;Y)}, and one can formulate the basic principle that a variable contains at least as much information about itself as any other variable can provide.
Таким чином, I ⁡( X; X) ≥ I ⁡( X; Y){\displaystyle \operatorname{I}(X;X)\geq \operatorname{I}(X;Y)}, і можна сформулювати основний принцип, що змінна містить про себе щонайменше стільки ж інформації, скільки могла би забезпечити будь-яка інша змінна.
The moment of inertia of a cloud of n points with a covariance matrix of Σ{\displaystyle\Sigma} is given by I= n( 1 3× 3 tr⁡( Σ)-Σ).{\displaystyle I=n(\mathbf{1}_{3\times 3}\operatorname{tr}(\Sigma)-\Sigma).} This difference between moment of inertia in physics and in statistics is clear for points that are gathered along a line.
Момент інерції хмари з n точок із матрицею коваріацій Σ{\displaystyle\Sigma} визначається наступним чином: I= n(1 3 × 3 tr ( Σ)- Σ).{\displaystyle I=n(\mathbf{1}_{3\times 3}\operatorname{tr}(\Sigma)-\Sigma).} Відмінність між моментом інерції в фізиці і статистиці стає очевидною для точок, що скупчені довкола прямої.
Operators a r g m i n{\displaystyle\operatorname{arg\, min}} and a r g m a x{\displaystyle\operatorname{arg\, max}} are sometimes also written as argmin{\displaystyle\operatorname{argmin}} and argmax{\displaystyle\operatorname{argmax}}, and stand for argument of the minimum and argument of the maximum.
Оператори a r g m i n{\displaystyle \operatorname{arg\, min}} та a r g m a x{\displaystyle \operatorname{arg\, max}} іноді записують як argmin{\displaystyle \operatorname{argmin}} та argmax{\displaystyle \operatorname{argmax}}, що розуміють як аргумент для мінімуму та аргумент для максимуму.
Possibility can be seen as an upper probability: any possibility distribution defines a unique set of admissible probability distributions by{ p:∀ S p( S)≤ pos⁡( S)}.{\displaystyle\left\{\,p:\forall S\ p(S)\leq\operatorname{pos}(S)\,\right\}.} This allows one to study possibility theory using the tools of imprecise probabilities.
Можливість можна розглядати як верхню ймовірність: будь-який розподіл можливості визначає множину допустимих розподілів ймовірності{ p: ∀ S p( S) ≤ pos ⁡( S)}.{\displaystyle\left\{\,p:\forall S\ p(S)\leq \operatorname{pos}(S)\,\right\}.} Це дозволяє вивчати теорію можливостей використовуючи інструменти неточної ймовірності.
Using base-2 logarithms:(For reference, the mutual information I⁡( X;Y){\displaystyle\operatorname{I}(X;Y)} would then be 0.2141709) Pointwise Mutual Information has many of the same relationships as the mutual information.
Із застосуванням логарифмів за основою 2:(Для довідки, взаємною інформацією I ⁡( X;Y){\displaystyle \operatorname{I}(X;Y)} тоді буде 0.2141709) Поточкова взаємна інформація має багато відношень, однакових зі взаємною інформацією.
To sum up, the behavior of SLDNF resolution on the given program can be represented by the following truth assignment: On the other hand, the rules of the given program can be viewed as propositional formulas if we identify the comma with conjunction∧{\displaystyle\land},the symbol not{\displaystyle\operatorname{not}} with negation¬{\displaystyle\neg}, and agree to treat F← G{\displaystyle F\leftarrow G} as the implication G→ F{\displaystyle G\rightarrow F} written backwards.
У підсумку, поведінку ВЛВЗВ-резолюції даної програми може бути представлено таким приписуванням істинності: З іншого боку, правила даної програми можуть розглядатися як предикати, якщо ми ідентифікуємо кому зкон'юнкцією ∧{\displaystyle\land},символ not{\displaystyle{\hbox{not}}}- із запереченням ¬{\displaystyle \neg}, і погодимося розглядати F ← G{\displaystyle F\leftarrow G} як імплікацію G → F{\displaystyle G\rightarrow F}, записану навпаки.
Like the discrete-time Markov decision processes, in continuous-time Markov decision processes we want to find the optimal policy or control which could give us the optimal expected integrated reward:max E u⁡{\displaystyle\max\operatorname{E}_{u}\left} where 0≤ γ< 1.{\displaystyle 0\leq\gamma<1.} If the state space and action space are finite, we could use linear programming to find the optimal policy, which was one of the earliest approaches applied.
Як і в марковських процесах вирішування дискретного часу, в марковському процесі вирішування безперервного часу ми хочемо знаходити оптимальну стратегію(англ. policy) або керування(англ. control), яке давало би нам оптимальну очікувану проінтегровану винагороду:max E u{\displaystyle\max\quad\mathbb{E}_{u}} Де 0 ≤ γ< 1{\displaystyle 0\leq\gamma<1} Якщо простори станів та дій є скінченними, то для пошуку оптимальної стратегії ми можемо використовувати лінійне програмування, що було одним із найперших застосованих підходів.
Результати: 29, Час: 0.0291

Найпопулярніші словникові запити

Англійська - Українська