RANDOM VARIABLE Meaning in Arabic - translations and usage examples

['rændəm 'veəriəbl]

Examples of using Random variable in English and their translations into Arabic

{-}
  • Colloquial category close
  • Political category close
  • Ecclesiastic category close
  • Ecclesiastic category close
  • Computer category close
Random variable value from list.
قيمة متغير عشوائي من القائمة
Now this girl, Keri, she's a random variable.
والآن هذه الفتاة(كيري) تعتبر متغيّر عشوائي
Random variables and probability distributions.
المتغيرات العشوائية والتوزيعات الاحتمالية
Discrete and continuous random variables, and simple linear regression.".
المنفصل والمتصل المتغيرات العشوائيه"والإنحدار الخطى البسيط
Kolmogorov Limit Distributions for Sums of Independent Random Variables.
K olm o g o r ov للحد من عمليات توزيع مبالغ من المتغيرات العشواءيه المستقلة
A discrete random variable takes a set of separate values(such as,,…).
المتغير العشوائي المنفصل يأخذ مجموعة من القيم المنفصلة(مثل،،…
Information theory: Entropy is a measure of the uncertainty associated with a random variable.
نظرية المعلومات: الكون هو مقياس لعدم اليقين المرتبطة متغير عشوائي
The expected value of this random variable is n times p, or sometimes people will write p times n.
القيمة المتوقعة ل هذا المتغير العشوائي عبارة عن n ضرب P(nP
Or what if it's for some population where it'sjust completely impossible to have the data or some random variable.
أو ما إذا كان لبعض السكان حيث أنهمن المستحيل تماما الحصول على البيانات أو بعض المتغيرات العشوائية
So if we say that the random variable, x, is equal to the number of-- we could call it successes.
إذا دعنا نفترض أن المتغير العشوائي X يساوي عدد ما يمكننا تسميته بالنجاحات
Joint differential entropy is alsoused in the definition of the mutual information between continuous random variables.
يستخدم الإنتروبي التفاضلي المشترك أيضًا في تعريف المعلومات المتبادلة بين المتغيرات العشوائية المستمرة
Suppose that we observe a random variable Y i{\displaystyle Y_{i}}, where i ∈ S{\displaystyle i\in S}.
لنفترض أننا نلاحظ المتغير العشوائي Y i {\displaystyle Y_{i}}, حيث i∈ S {\displaystyle i\in S
That's millions of data points, or even data points in the future that you willnever be able to get because it's a random variable.
وتلك ملايين نقاط البيانات، أو نقاط البيانات حتى في المستقبل الذي لنتكون قادر على الحصول عليها لأنها متغير عشوائي
Perplexity of a random variable X may be defined as the perplexity of the distribution over its possible values x.
يمكن تعريف قيمة الارباك للمتغير العشوائي X بأنها قيمة الإرباك للتوزيع على قيمه المحتملة x
The ranges in a uniformly distributed(between 0 and 10) random variable RV that result in different first digits in RV exp(RV).
نطاقات في زعت بشكل موحد(بين 0 و 10) RV المتغيرة العشوائية التي تنتج في مختلف الأرقام الأولى في RV إكسب(RV
But with a random variable, since the population is infinite, you can't take up all of the terms and then average them out.
لكن مع متغير عشوائي، بما أن العينة لا نهائية(غير محددة) لا تستطيع أن تجمع كل القيم و تحسب المتوسط الحسابي
So the first candidate distribution for naturally occurring numbers is something like RV exp(RV),where RV is a uniformly distributed random variable(between zero and ten).
حتى توزيع المرشح الأول للأرقام التي تحدث بشكل طبيعي هو شيء من هذا القبيل RV إكسب(RV),حيث RV هو متغير عشوائي موزعة بشكل متجانس(بين صفر وعشرة
More precisely any family of random variables{xt_ t T}[where] a random variable is… simply a measurable function.
بمزيد من الدقه اي اسرة من المتغيرات العشواءيه(س رر ر)[فيها] هو متغير عشوائي… مجرد وظيفة للقياس
The Shannon entropy satisfies the following properties, for some of which it is useful to interpret entropy as the amount of information learned(or uncertainty eliminated)by revealing the value of a random variable X.
تفي إنتروبيا شانون بالخصائص التالية، بالنسبة لبعضها من المفيد تفسير الإنتروبيا على أنها كمية المعلومات المستفاد منها(أوالتخلص من الريبة)من خلال الكشف عن قيمة المتغير العشوائي
The random variables ΔWn are independent and identically distributed normal random variables with expected value zero and variance Δ t{\displaystyle\Delta t}.
المتغيرات العشوائية Δ W n مستقلة ومتوزعة بشكل عشوائي مع القيمة المتوقعة صفر والتباين Δ t {\displaystyle \Delta t
Where p( x i, y j){\displaystyle p( x{ i}, y{ j})} is the probability that X = x i{\displaystyle X=x_{i}} and Y = y j{\displaystyle Y=y_{j}}. This quantityshould be understood as the amount of randomness in the random variable X{\displaystyle X} given the random variable Y{\displaystyle Y}.
حيث p( x i, y j) {\displaystyle p(x_{i}, y_{j})} هو احتمال ذلك X= x i {\displaystyle X=x_{i}} و Y= y j {\displaystyle Y=y_{j}}. يجبفهم هذه الكمية على أنها مقدار العشوائية في المتغير العشوائي X {\displaystyle X} بالنظر إلى المتغير العشوائي Y {\displaystyle Y
Given a random variable X{\displaystyle X}, with possible outcomes x i{\displaystyle x_{i}}, each with probability P X( x i){\displaystyle P{ X}( x{ i})}, the entropy H( X){\displaystyle H(X)} of X{\displaystyle X} is as follows.
ليكن المتغير العشوائي X {\displaystyle X}، مع النتائج المحتملة x i {\displaystyle x_{i}}، لكل منها احتمال P X( x i) {\displaystyle P_{X}(x_{i})} انتروبي H( X) {\displaystyle H(X)} من X {\displaystyle X} على النحو التالي
T1, T2, T3,…} is a sequence of estimators for parameter θ0, the true value of which is 4. This sequence is consistent: the estimators are getting more and more concentrated near the true value θ0; at the same time, these estimators are biased.The limiting distribution of the sequence is a degenerate random variable which equals θ0 with probability 1.
T 1، T 2، T 3،…} عبارة عن سلسلة من المقدرات للمعلمة θ 0، والتي قيمتها الحقيقية هي 4. هذا التسلسل المتناسق: تزداد المقدرات تركيزًا بالقرب من القيمة الحقيقية θ 0؛ في نفس الوقت، هذه المقدرات فيهاانحياز. التوزيع المحدود للتسلسل هو متغير عشوائي متحلل يساوي θ 0 مع الاحتمالية 1
The posterior probability distribution of one random variable given the value of another can be calculated with Bayes' theorem by multiplying the prior probability distribution by the likelihood function, and then dividing by the normalizing constant, as follows.
يمكن حساب توزيع الاحتمال البعدي لأحد المتغيرات العشوائية وبوجود قيمة أخرى باستخدام نظرية بايز عن طريق ضرب توزيع الاحتمال السابق بدالة الإمكان، ثم القسمة على ثابت التطبيع، على النحو التالي
The entropy is the expected value of the self-information, a related quantity also introduced by Shannon. The self-information quantifies the level of information or surprise associated with one particular outcome or event of a random variable,whereas the entropy quantifies how"informative" or"surprising" the entire random variable is, averaged on all its possible outcomes.
الإنتروبي هي القيمة المتوقعة للمعلومات الذاتية، وهي كمية ذات صلة قدمها شانون أيضًا. يقيس المعلومات الذاتية مستوى المعلومات أو المفاجأة المرتبطة بالنتيجة الواحدة المعينة أو حدث متغير عشوائي، في حين أنتقيس انتروبيا كم هو"مفيد" أو"مدهش" المتغير العشوائي كله، الذي بلغت متوسط كل نتائجه المحتملة
Performs a test of the null hypothesis,that sample is a sample of a normal distributed random variable with mean mean and standard deviation sigma. A return value of 1 indicates, that the null hypothesis is rejected, i. e. the sample is not a random sample of the normal distribution. If sigma is omitted, it is estimated from sample, using STDEV.
تنجز اختبارا لفرضياتمنعدمة، حيث العينة هي عينة متغير عشوائي موزع طبيعيا مع المتوسط الحسابي المتوسط و الانحراف المعياري سيجما. إرجاع القيمة 1 يدل على، أن الفرضيات المنعدمة قد رفضت، أي أن العينة ليست عينة عشوائية من التوزيع الطبيعي. إذا أسقطت سيجما، فإنها تقدر من العينة، باستخدام STDEV
When the data source produces a low-probability value(i.e., when a low-probability event occurs), the event carries more"information" than when the data source produces a high-probability value. This notion of"information" is formally represented by Shannon's self-information quantity, and is also sometimes interpreted as"surprisal". The amount of informationconveyed by each individual event then becomes a random variable whose expected value is the information entropy.
يمكن تفسير الإنتروبيا أيضًا على أنها متوسط معدل إنتاج المعلومات من خلال مصدر احصائي للبيانات. عندما ينتج مصدر البيانات قيمة احتمالية منخفضة(على سبيل المثال، عند وقوع حدث احتمالية منخفضة)، يحمل الحدث"معلومات" أكثر مما ينتج عندما ينتج مصدر البيانات قيمة احتمالية عالية. يتم تمثيل مفهوم"المعلومات" رسميًا من خلال كمية المعلومات الذاتية لشانون، ويتم أيضًاتفسيرها أحيانًا على أنها"مفاجأة". ثم تصبح كمية المعلومات التي ينقلها كل حدث فردي متغيرًا عشوائيًا قيمته المتوقعة هي إنتروبيا المعلومات
In information theory, the conditional entropy(or equivocation)quantifies the amount of information needed to describe the outcome of a random variable Y{\displaystyle Y} given that the value of another random variable X{\displaystyle X} is known. Here, information is measured in shannons, nats, or hartleys. The entropy of Y{\displaystyle Y} conditioned on X{\displaystyle X} is written as H( Y | X){\displaystyle\mathrm{H}(Y|X)}.
في نظرية المعلومات، تحدد الإنتروبيا الشرطية(أوالالتباس equivocation) كمية المعلومات اللازمة لوصف نتيجة متغير عشوائي Y {\displaystyle Y} بالنظر إلى أن قيمة متغير عشوائي آخر X {\displaystyle X} معروف. هنا، يتم قياس المعلومات في شانون، ناتس، أو hartleys. انتروبيا Y {\displaystyle Y} مشروطة X {\displaystyle X} مكتوب مثل H( Y| X) {\displaystyle \mathrm {H}(Y|X)
Variable two-dimensional code Security Labels,each anti-counterfeit labels on the two-dimensional code is not the same, random variable, which allows counterfeit products can not copy production, scanning two-dimensional code can enter the business WeChat public, the official website, Or add each product information encoding, when the consumer scan, quickly match each marked sample, number and business production, production information.
متغير تسميات الأمن رمز ثنائيالأبعاد، كل تسميات مكافحة التزييف على رمز ثنائي الأبعاد ليست هي نفسها، متغير عشوائي، والذي يسمح المنتجات المقلدة لا يمكن نسخ الإنتاج والمسح الضوئي رمز ثنائي الأبعاد يمكن أن تدخل ويشات الأعمال العامة، والمسؤول على شبكة الإنترنت، أو إضافة كل ترميز معلومات المنتج، عند مسح المستهلك، تتطابق بسرعة كل عينة ملحوظ، عدد وإنتاج الأعمال والمعلومات الإنتاج
In information theory and machine learning, information gain is a synonym for Kullback- Leibler divergence;the amount of information gained about a random variable or signal from observing another random variable. However, in the context of decision trees, the term is sometimes used synonymously with mutual information, which is the conditional expected value of the Kullback- Leibler divergence of the univariate probability distribution of one variable from the conditional distribution of this variable given the other one.
في نظرية المعلومات والتعلم الآلي، يعد الحصول على المعلومات مرادفًا لاختلاف مقدار المعلومات المكتسبة Kullback-Leibler.مقدار المعلومات المكتسبة حول متغير عشوائي أو إشارة من مراقبة متغير عشوائي آخر. ومع ذلك، في سياق أشجار القرار، يتم استخدام المصطلح في بعض الأحيان بشكل مترادف مع المعلومات المتبادلة
Results: 30, Time: 0.0456

How to use "random variable" in a sentence

GammaGamma(...): Create a random variable for GammaGamma.
GammaWithSoftplusConcentrationRate(...): Create a random variable for GammaWithSoftplusConcentrationRate.
GaussianProcess(...): Create a random variable for GaussianProcess.
GaussianProcessRegressionModel(...): Create a random variable for GaussianProcessRegressionModel.
Geometric(...): Create a random variable for Geometric.
HalfCauchy(...): Create a random variable for HalfCauchy.
HalfNormal(...): Create a random variable for HalfNormal.
Horseshoe(...): Create a random variable for Horseshoe.
InverseGamma(...): Create a random variable for InverseGamma.
InverseGaussian(...): Create a random variable for InverseGaussian.
Show more

Word-for-word translation

Top dictionary queries

English - Arabic