Що таке ЩО ЕНТРОПІЯ Англійською - Англійська переклад

that entropy
що ентропія

Приклади вживання Що ентропія Українська мовою та їх переклад на Англійською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Але ніхто не вірить, що ентропія діє в цьому напрямку.
But no one believes that entropy actually works that way.
Він вказує, що ентропія, що представляє собою міру безпорядку, чи хаосу, в системі, завжди зростає.
This says that entropy, which is a measure of the disorder of a system, will always increase.
З цієї причини другий закон термодинаміки говорить, що ентропія в замкнутій системі не може зменшуватися.
The Second Law of Thermodynamics says that entropy cannot decrease in a closed system.
А Бекенштейн визначив, що ентропія(інформаційне наповнення) чорної діри пропорційна поверхні її горизонту подій.
Bekenstein wrote that a black hole's entropy is proportional to the area of its event horizon.
Таким чином,з фізики цього процесу слідує ось що: Ентропія системи зростає-- це фундаментальний закон.
So, the lesson from physics is that entropy will always increase; it's a fundamental law.
А Бекенштейн визначив, що ентропія(інформаційне наповнення) чорної діри пропорційна поверхні її горизонту подій.
Beckenstein found that the entropy of a black hole is proportional to the area of its horizon.
Другий закон Термодинаміки стверджує, що ентропія ніколи не може зменшуватися, а час завжди збільшується.
Because the Second Law of Thermodynamics asserts that entropy can never decrease, time always increases.
Цей закон говорить, що ентропія, або рівень дезорганізації інформації, не може з плином часу зменшуватися в системі чорної діри.
This law states that entropy, or the level of disorganization of information, cannot decrease within a black hole system over time.
Пізніше, в 1877 році, Людвіг Больцман(1844-1906) показав, що ентропія пропорційна логарифму ймовірності перебування системи в певному стані.
Later, in 1877, Ludwig Boltzmann(1844- 1906) showed that entropy is proportional to the logarithm of the probability of a system being in a certain state.
Цей закон говорить, що ентропія, або рівень дезорганізації інформації, не може з плином часу зменшуватися в системі чорної діри.
This law states that the entropy, or level of information disorganization, cannot decrease over time in the black hole system.
Встановив зв'язок адіабатичних інваріантів та інваріантів Пуанкаре-Картана, довів, що ентропія стохастичної динамічної системи є адіабатичним інваріантом;
Established the connection between adiabatic invariants and Poincare-Cartan invariants; proved that the entropy of the stochastic dynamic system is an adiabatic invariant.
Цей закон говорить, що ентропія, або рівень дезорганізації інформації, не може з плином часу зменшуватися в системі чорної діри.
The law suggests that entropy, the amount of disorganization of information in the universe, cannot decrease over time within a black hole.
Оскільки спостереження менш імовірних подій трапляється рідше, впідсумку виходить, що ентропія(при розгляді її як усередненої інформації), отримувана від нерівномірно розподілених даних, є меншою за log2(n).
Since observation of less probable events occurs more rarely,the net effect is that the entropy(thought of as the average information) received from non-uniformly distributed data is less than log2(n).
З цієї причини часто говорять, що ентропія є вираженням безладу, або випадковості системи, чи відсутності інформації про неї.
For this reason, it is often said that entropy is an expression of the disorder, or randomness of a system, or of the lack of information about it.
До 2050-го року 10 мільярдів людей на планеті захоче жити ось в таких місцях, мати ось такі речі, займатись ось такими справами, з економікою, що росте ось так, не розуміючи,що ентропія продукує ось такі, такі, такі і ось такі речі.
The 10 billion people on the planet in 2050 want to live in places like this, having things like this, doing things like this, with economies that are growing like this,not realizing that entropy produces things like this, this, this and this.
Другий закон термодинаміки говорить, що ентропія, або кількість безладу, завжди зростає з плином часу в окремих зборах частинок та енергії.
The second law of thermodynamics says that entropy, or the amount of disorder, always increases over time in isolated collections of particles and energy.
Звичайно, в термінах ентропії можна розширити систему, включивши в неї середовище, з якою організм обмінюється матерією та енергією, щоб побачити,що ентропія дійсно збільшується, хоча й за рахунок навколишнього середовища організму.
Of course, in terms of entropy, one may expand the system to include the environment that the organism is exchanging matter andenergy with to see that entropy actually does increase, albeit at the expense of the environment surrounding the organism.
Цей закон говорить, що ентропія(розлад) Всесвіту зростає з плином часу, і дехто вважав, що це є наслідком Прокляття.
This law says that the entropy(disorder) of the Universe increases over time, and some have thought that this was the result of the Curse.
Оскільки спостереження менш імовірних подій трапляється рідше, впідсумку виходить, що ентропія(при розгляданні її як усередненої інформації), отримувана від нерівномірно розподілених даних, є завжди меншою або рівною до log2(n).
Since observation of less probable events occurs more rarely,the net effect is that the entropy(thought of as average information) received from non-uniformly distributed data is always less than or equal to log2(n).
Він зазначає, що якщо ентропія постійно зростає, то Всесвіт в момент Великого Вибуху повинна була перебувати у стані низької ентропії(високої впорядкованості).
He points out that, if entropy constantly increases, then the universe at the time of the big bang must have been in a low-entropy(highly ordered) state.
Але якби цим ваші знання обмежувалися, ви б також говорили, що ентропія Всесвіту вчора була більше, ніж сьогодні, тому що всі засадничі динаміки абсолютно симетричні відносно часу».
But if that was all you knew, you would also say that the entropy of the universe was probably larger yesterday than today- because all the underlying dynamics are completely symmetric with respect to time.”.
В 1905 році Ейнштейн помітив, що ентропія електромагнітного поля в скриньці, яке за Планком зображається квантованими гармонічними осциляторами, для випадку коротких хвиль дорівнює ентропії газу точкових частинок у такій самій скриньці, причому кількість частинок дорівнює кількості квантів.
In 1905, Einstein noted that the entropy of the quantized electromagnetic field oscillators in a box is, for short wavelength, equal to the entropy of a gas of point particles in the same box.
Другий закон термодинаміки говорить, що ентропія, або кількість безладу, завжди зростає з плином часу в окремих зборах частинок і енергії.
The second law of thermodynamics States that the entropy or amount of disorder always increases with time in the individual collections of particles and energy.
Нічого не допомагає аргумент, що ентропія(тенденція до спонтанного inorganization) визначена тільки для закритих систем- навіть не бачачи його вираження відкритих систем!
Nothing does not help the argument that entropy(tendency to spontaneous inorganization) is defined only for closed systems- even seeing its expressions of open systems!
Для ізольованої системи це співвідношення рівноцінне класичному формулюванню, що ентропія ніколи не може зменшуватися, так що в цьому випадку властивості энтропийной функції дають критерій, що дозволяє виявити наявність необоротних процесів.
For isolated systems,this relation is equivalent to the classical statement that entropy can never decrease, so that in this case the behavior of the entropy function provides a criterion that enables us to detect the presence of irreversible processes….
Другий закон термодинаміки стверджує, що ентропія може залишатися незмінною або збільшуватися в замкнутій системі- система не може рухатися від високої ентропії до низької без зовнішнього втручання.
The second law of thermodynamics states that entropy can only remain constant or increase within a closed system- a system cannot move from high entropy to low entropy without outside interference.
Це означає, що диференціальна ентропія не межа ентропії Шеннона для.
This means that the differential entropy is not a limit of the Shannon entropy for.
Його книга Термодинаміка у розділі XII вказує, що термодинамічна ентропія і температура визначаються тільки для оборотних процесів.
His book Thermodynamique points out in Chapter XII, that thermodynamic entropy and temperature are only defined for reversible processes.
Він також продемонстрував, що введена ним ентропія еквівалентна мірі невизначеності інформації в переданому повідомленні.
He also demonstrated that the entropy entered by him is equivalent to the uncertainty of the information in the transmitted message.
Ентропія означає, що все у світі- все-все- перебуває у стані занепаду і руйнування. У стані дуги.
Entropy means that everything in the world-- everything-- is in a state of decline and decay-- the arch.
Результати: 211, Час: 0.0207

Переклад слово за словом

Найпопулярніші словникові запити

Українська - Англійська