Що таке PERCEPTRONS Українською - Українська переклад

Іменник
перцептрони
perceptrons

Приклади вживання Perceptrons Англійська мовою та їх переклад на Українською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Perceptrons with Seymour Papert.
Перцептрониen співавторстві Сеймуром Папертом.
The main simulated structural unit in perceptrons(as in most other variants of brain modeling) is a neuron.
Головною моделюючою структурною одиницею в перцептронах(як і в більшості інших варіантах моделювання мозку) є нейрон.
Perceptrons with Seymour Papert.
Перцептрони у співавторстві з Сеймуром Папертом.
But perceptron models were made very unpopular by the book Perceptrons by Marvin Minsky and Seymour Papert, published in 1969.
Але моделі персептрона стали менш популярними через книгу«Перцептрони» Марвіна Мінського і Сеймура Паперта, опублікованого в 1969 році.
Perceptrons, with Seymour Papert, MIT Press, 1969(Enlarged edition, 1988).
Перцептрони, разом з Сеймуром Папертом, MIT Press, 1969(доповнене видання, 1988).
It suggested that there were severe limitations to what perceptrons could do and that Frank Rosenblatt's predictions had been grossly exaggerated.
В ній стверджувалося, що існують значні обмеження на можливості перцептронів, і що передбачення Розенблата були надмірним перебільшенням.
See also: Perceptrons and Frank Rosenblatt Some of the earliest work in AI used networks or circuits of connected units to simulate intelligent behavior.
Див. також: Перцептрон та Френк Розенблат Деякі з найбільш ранніх робіт у сфері ШІ використовували мережі або схеми з'єднаних блоків для імітації розумної поведінки.
Some classification models, such as naive Bayes,logistic regression and multilayer perceptrons(when trained under an appropriate loss function) are naturally probabilistic.
Деякі моделі класифікації, такі як наївний баєсів класифікатор,логістична регресія та багатошарові перцептрони(при тренуванні за відповідної функції втрат) є природно ймовірнісними.
Rosenblatt's perceptrons were initially simulated on an IBM 704 computer at Cornell Aeronautical Laboratory in 1957.
Персептрон Розенблата був спочатку програмно змодельований на комп'ютері IBM 704 в Корнельській лабораторії аеронавтики в 1957.
Minimizing this cost using gradient descent for theclass of neural networks called multilayer perceptrons(MLP), produces the backpropagation algorithm for training neural networks.
Зведення до мінімуму цих витрат за допомогою градієнтногоспуску для класу нейронних мереж, званого багатошаровими перцептронами(БШП), дає алгоритм зворотного поширення для тренування нейронних мереж.
See also: Perceptrons and Frank Rosenblatt.
Див. Також: Перцептрони і Френк Розенблат.
When one tries to minimise this cost using gradient descent for theclass of neural networks called Multi-Layer Perceptrons, one obtains the well-known backpropagation algorithm for training neural networks.
Зведення до мінімуму цих витрат за допомогою градієнтного спуску длякласу нейронних мереж, званого багатошаровими перцептронами(БШП), дає алгоритм зворотного поширення для тренування нейронних мереж.
These were mostly perceptrons and other models that were later found to be reinventions of the generalized linear models of statistics.
Це були здебільшого перцептрони та інші моделі, які згодом виявились переосмисленням узагальнених лінійних моделей статистики.
They attempted to approach the problem with various symbolic methods, as well as what werethen termed"neural networks these were mostly perceptrons and other models that were later found to be reinventions of the generalized linear models of statistics.
Вони намагалися підійти до проблеми різними символічними методами, а також тим, що тоді називали"нейронними мережами";це були здебільшого перцептрони та інші моделі, які згодом виявились переосмисленням узагальнених лінійних моделей статистики.
These were mostly perceptrons and other models that were later found to be reinventions of the generalized linear models of statistics.
Це були здебільшого перцептрони та інші моделі, які згодом виявилися повторними винаходами узагальнених лінійних моделей[en] статистики.
They attempted to approach the problem with various symbolic methods, as well as what were then termed"neural networks";these were mostly perceptrons and other models that were later found to be reinventions of the generalized linear models of statistics.
Вони намагалися наблизитися до розв'язання цієї задачі різними символьними методами, а також тим, що згодом було названо«нейронними мережами»;це були здебільшого перцептрони та інші моделі, які згодом виявилися повторними винаходами узагальнених лінійних моделей статистики.
In 1969 Minsky wrote the book Perceptrons(with Seymour Papert), which became the foundational work in the analysis of artificial neural networks.
Мінський написав книгу Перцептрони[en](у співавторстві з Сеймуром Папертом), яка стала основоположною роботою у аналізі штучних нейронних мереж.
It demonstrated the limitson the sorts of functions that single-layered(no hidden layer) perceptrons can calculate, showing that even simple functions like the exclusive disjunction(XOR) could not be handled properly.
Він продемонстрував обмеженість функцій,які можуть розраховувати одношарові(без прихованого шару) перцептрони, показуючи, що навіть прості функції, такі як виключна диз'юнкція(XOR), не можуть бути належним чином оброблені.
An active research program into perceptrons was carried out throughout the 1960s but came to a sudden halt with the publication of Minsky and Papert's book Perceptrons.
Активна досліджувальна програма в цій області була розпочата в 60-х роках, але вона була раптово перервана незабаром після публікації Мінські таПаперт в 1969 році книги«Перцептрони».
The first was that basic perceptrons were incapable of processing the exclusive-or circuit.
Першою було те, що базові перцептрони були нездатні обробляти схему виключного«або».
However, one type of connectionist work continued: the study of perceptrons, invented by Frank Rosenblatt, who kept the field alive with his salesmanship and the sheer force of his personality.[11] He optimistically predicted that the perceptron"may eventually be able to learn, make decisions, and translate languages".[12] Mainstream research into perceptrons came to an abrupt end in 1969, when Marvin Minsky and Seymour Papert published the book Perceptrons, which was perceived as outlining the limits of what perceptrons could do.
Проте один тип роботи конекціоніста продовжував існувати: вивчення перцептронів, винайдених Френком Розенблаттом, який зберігав галузь за допомогою його"задачі комівояжера" та сили своєї особистості.[1] Він оптимістично прогнозував, що перцептрон"з часом може навчатися, приймати рішення і перекладати мови".[2] Основні дослідження перцептронів прийшли до різкого кінця у 1969 році, коли Марвін Мінський і Сеймур Пейперт опублікували книгу« Перцептрони», яка сприймалася як та, яка окреслила межі того,що могли робити перцептрони.
Perceptron Quadratic.
Лінійна Перцептрон Квадратичний.
Rosenblatt(1958) created the perceptron, an algorithm for pattern recognition.
Розенблат(1958) створив перцептрон, алгоритм для розпізнавання образів.
Introduction to the neural network. single-layer perceptron.
Введення в нейромережі. одношаровий персептрон.
One of the first such attempts was Frank Rosenblatt's perceptron.
Однією з перших таких спроб був перцептрон Френка Розенблатта.
Backpropagation Linear regression Perceptron Quadratic classifier Support vector machines Winnow(algorithm) Guo-Xun Yuan; Chia-Hua Ho; Chih-Jen Lin(2012).
Зворотне поширення Лінійна регресія Перцептрон Квадратичний класифікатор Опорно-векторні машини Winnow(алгоритм) Guo-Xun Yuan; Chia-Hua Ho; Chih-Jen Lin(2012).
Generally, a Recurrent Multi-Layer Perceptron(RMLP) network consists of cascaded subnetworks, each of which contains multiple layers of nodes.
Як правило, рекурентний багатошаровий перцептрон(РБШП, англ. RecurrentMulti-Layer Perceptron, RMLP) складається з ряду каскадованих підмереж, кожна з яких складається з декількох шарів вузлів.
He optimistically predicted that the perceptron"may eventually be able to learn, make decisions, and translate languages".
Він оптимістично прогнозував, що перцептрон«з часом може навчатися, приймати рішення і перекладати мови».
Результати: 28, Час: 0.0266

Найпопулярніші словникові запити

Англійська - Українська