Що таке НЕЙРОННИХ МЕРЕЖАХ Англійською - Англійська переклад S

neural networks
нейромережа
нейросеть
нейронна мережа
нейромережевих
нейромережних
нейронний мережевий
з нейронних межей

Приклади вживання Нейронних мережах Українська мовою та їх переклад на Англійською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Про властивості циклів в модульних нейронних мережах/ Куссуль М. Е., Галінська А. О.
About the properties of cycles in modular neural networks/ Kussul M.E., Galinskaya A. O.
У звичних нам нейронних мережах дані зберігаються й обробляються у значною мірою паралельно.
In our usual neural networks, data is stored and processed in a largely parallel.
Імовірнісна інтерпретація призвела до впровадження відсіву як регуляризатора в нейронних мережах.
The probabilistic interpretation led to the introduction of dropout as regularizer in neural networks.
Інформація кодується аналогічно в нейронних мережах мозку, при обробці сигналів аналоговоїелектроніки[en].
Information is encoded analogously in the neural networks of brains, in analog signal processing.
Його використовували для реалізації апаратнихреалізацій потоків даних, подібних тим, що в нейронних мережах.
It has been used to buildhardware implementations for data flows like those found in neural networks.
У штучних нейронних мережах дисперсія збільшується, а зсув зменшується з числом прихованих вузлів.
In artificial neural networks, the variance increases and the bias decreases as the number of hidden units increase.
Інформація кодується аналогічно в нейронних мережах мозку, при обробці сигналів аналоговоїелектроніки[en].
Analog coding[edit] Information is encoded analogously in the neural networks of brains, in analog signal processing.
Починаючи з 2011, Google Brain побудував DistBelief як власну системумашинного навчання, засновану на нейронних мережах глибокого навчання.
Starting in 2011, Google Brain built DistBelief as a proprietary machinelearning system based on deep learning neural networks.
Олександр спеціалізується на спайкінгових та глибоких нейронних мережах, обіймає посаду Machine learning Engineer у GlobalLogic.
Alexander specializes in spiking and deep neural networks, holds the position of Machine Learning Engineer at GlobalLogic.
Dabus раніше прославився тим, що створив сюрреалістичні картини завдяки«шуму» в його нейронних мережах, які генерують незвичні ідеї.
Dabus was previously best known for creating surrealart thanks to the way“noise” is mixed into its neural networks to help generate unusual ideas.
Глибоке навчання(також відоме як глибоке структуроване навчання або ієрархічне навчання) є частиною широкого сімейства методів машинного навчання,заснованого на штучних нейронних мережах.
Deep learning(also known as deep structured learning or hierarchical learning) is part of a broader family ofmachine learning methods based on artificial neural networks.
До того ж Дмитро працює з кодуванням і спеціалізується на гібридній розробці мобільних додатків,глибоких нейронних мережах, машинному навчанні та смарт-контрактах.
Moreover, Dimitri codes and specializes in hybrid mobile app development,deep neural networks, machine learning, and smart contracts.
А тому у 2019 році розробки в методах машинного навчання,які не засновані на нейронних мережах, будуть користуватися особливою популярністю і, ймовірно, виявляться на піку зростаючої популярності.
That is why in 2019 the year of development in methods of machine learning,which are not based on neural networks, will be extremely popular and will probably be at the peak of growing popularity.
Зворотне поширення є критичною частиною більшості штучних нейронних мереж,тоді як в біологічних нейронних мережах такого механізму не існує.
Back propagation is a critical part of most artificial neural networks,although no such mechanism exists in biological neural networks.
В Open AI вважають,завдяки даній технології можна запобігати непередбачуваним проблемам у нейронних мережах- наприклад, коли мережа покладається на хибні кореляціїпід час класифікації зображень.
As reported by Open AI,this technology would prevent unexpected problems in neural networks, for example, in the event if the network uses false correlations when classifying images.
Багато чого з того, що зараз підносять«під соусом» штучного інтелекту,є просто переробленої інформацією про нейронних мережах, які відомі людству з 80-х років.
Much of what is now to be presented“under the sauce” of artificialintelligence is actually a reworked information about neural networks which are known to mankind because the 80s.
Перед тим, як ми подивимось, що вивчає модель, я хочу пояснити чому ми потребуємо мультиплікативних зв'язків іяк ми можемо реалізувати ці мультиплікативні з'єднання продуктивно в реккурентних нейронних мережах.
Before we get to see what the model learns, I want to describe why we need multiplicative connections andhow we can implement those multiplicative connections efficiently in a recurrent neural network.
Багато чого з того, що зараз підносять«під соусом» штучного інтелекту,є просто переробленої інформацією про нейронних мережах, які відомі людству з 80-х років.
Much of what's now becoming introduced“under the sauce” of artificialintelligence is simply a reworked details about neural networks that can be identified to mankind because the 80s.
Хоча багато дослідників квантової нейронної мережі явно обмежують їх обсяги до обчислювальної точки зору,поле тісно пов'язане з дослідженнями потенційних квантових ефектів у біологічних нейронних мережах.
Although many quantum neural network researchers explicitly limit their scope to a computational perspective, the fieldis closely connected to investigations of potential quantum effects in biological neural networks.
Більшість сучасних моделей глибокого навчання ґрунтуються на штучних нейронних мережах, зокрема, конволюційних нейронних мережах(CNN), хоча вони також можуть включати пропозиції формул або прихованих змінних, організованих пошарово, в глибоких генеративних моделях, таких як вузли в мережах глибокої віри і глибокі Машини Больцмана.
Most modern deep learning models are based on artificial neural networks, specifically, Convolutional Neural Networks(CNN)s, although they can also include propositional formulas or latent variables organized layer-wise in deep generative models such as the nodes in deep belief networks and deep Boltzmann machines.
Стівен Тайлер запропонував можливий зв'язок між свідомістю і творчістю в його патенті, під назвою«Пристрій для автономної генерації Корисної інформації»(DAGUI), або так звана«Творча машина»,в якій обчислювальні процеси управляються ін'єкцією синаптичного шуму і деградацією в нейронних мережах для того, щоб викликати помилкові спогади, які можуть бути визначені як потенційні ідеї або стратегії.
Stephen Thaler proposed a possible connection between consciousness and creativity in his 1994 patent, called"Device for the Autonomous Generation of Useful Information"(DAGUI), or the so-called"Creativity Machine",in which computational critics govern the injection of synaptic noise and degradation into neural nets so as to induce false memories or confabulations that may qualify as potential ideas or strategies.
Наприклад, багато робіт по нейронних мережах використовує нейрони, що спілкуються дробними числами, замість дискретних імпульсів активності, і ми знаємо, що нейрони кори ведуть себе не так, але це досі більш зрозумілі системи і на практиці вони можуть бути корисні для машинного навчання. перший тип нейрону, про який я хочу розказати, це найпростіший, лінійний нейрон.
So for example, a lot of work on neural networks uses neurons that communicate real values rather than discrete spikes of activity, and we know cortical neurons don't behave like that, but it's still worth understanding systems like that, and in practice they can be very useful for machine learning. The first kind of neuron I want to tell you about is the simplest, it's a linear neuron.
Ключові слова хаотична нейронна мережа; кластеризація; антитромботичні лікарські препарати.
Keywords Chaotic neural networks; Clustering; Antithrombotic medicines.
Нейронна мережа навчилася переносити стиль одного фото на інше.
Deep neural networks can now transfer the style of one photo to another.
Вони були першими, хто описав те, що дослідники згодом назвуть нейронною мережею.
They were the first to describe what later researchers would call a neural network.
Google і Stanford будують нейронну мережу, здатну описувати фотографії.
Google, Stanford build hybrid neural networks that can explain photos.
Інше завдання в якому нейронні мережі зараз дуже добрі, це розпізнавання мови.
Another task that neural nets are now very good at, is speech recognition.
Ми всі знаємо, що може спричинити упередження в нейронній мережі- психопати.
We all know what bias can lead to in a neural network- psychopaths.
Нейронна мережа як асоціативна пам'ять.
Neural Nets as Associative Memories.
Назва: Динаміка багатошарової оптичної нейронної мережи: чисельна реалізація для складних патернів.
Title: Dynamics of multi-layers optical neural networks: numerical realization for complex patterns.
Результати: 30, Час: 0.0262

Переклад слово за словом

S

Синоніми слова Нейронних мережах

Найпопулярніші словникові запити

Українська - Англійська