Що таке PERCEPTRON Українською - Українська переклад

Іменник
перцептрон
perceptron
персептрон
perceptron

Приклади вживання Perceptron Англійська мовою та їх переклад на Українською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Perceptron Quadratic.
Лінійна Перцептрон Квадратичний.
Introduction to the neural network. single-layer perceptron.
Введення в нейромережі. одношаровий персептрон.
Perceptrons with Seymour Papert.
Перцептрониen співавторстві Сеймуром Папертом.
One of the first such attempts was Frank Rosenblatt's perceptron.
Однією з перших таких спроб був перцептрон Френка Розенблатта.
Perceptrons with Seymour Papert.
Перцептрони у співавторстві з Сеймуром Папертом.
Rosenblatt(1958) created the perceptron, an algorithm for pattern recognition.
Розенблат(1958) створив перцептрон, алгоритм для розпізнавання образів.
Perceptron- an algorithm that attempts to fix all errors encountered in the training set.
Перцептрон- алгоритм, який намагається виправити всі помилки, що зустрілися в тренувальному наборі.
He optimistically predicted that the perceptron"may eventually be able to learn, make decisions, and translate languages".
Він оптимістично прогнозував, що перцептрон«з часом може навчатися, приймати рішення і перекладати мови».
Perceptron has gained popularity- it used for pattern recognition, weather forecasting, etc.
Перцептрон набуває популярності- його використовують для розпізнавання образів, прогнозування погоди і т. д.
Like most other techniques for training linear classifiers, the perceptron generalizes naturally to multiclass classification.
Як і більшість інших методик для тренування лінійних класифікаторів, перцептрон природно узагальнюється до багатокласової класифікації.
Rosenblatt's perceptrons were initially simulated on an IBM 704 computer at Cornell Aeronautical Laboratory in 1957.
Персептрон Розенблата був спочатку програмно змодельований на комп'ютері IBM 704 в Корнельській лабораторії аеронавтики в 1957.
Ivakhnenko's 1971 paperdescribes the learning of a deep feedforward multilayer perceptron with eight layers, already much deeper than many later networks.
Праця Івахненка 1971року[26] описує навчання глибинного багатошарового перцептрону прямого поширення з вісьмома шарами, вже набагато глибшого за багато пізніших мереж.
See also: Perceptrons and Frank Rosenblatt.
Див. Також: Перцептрони і Френк Розенблат.
The existence of this linear solution means that unlike multi-layer perceptron(MLP) networks, RBF networks have an explicit minimizer(when the centers are fixed).
Існування цього лінійного рішення означає, що на відміну від багатошарових персептронних(MLP) мереж, RBF мережі мають унікальний локальний мінімум(коли центри фіксуються).
But perceptron models were made very unpopular by the book Perceptrons by Marvin Minsky and Seymour Papert, published in 1969.
Але моделі персептрона стали менш популярними через книгу«Перцептрони» Марвіна Мінського і Сеймура Паперта, опублікованого в 1969 році.
It suggested that there were severe limitations to what perceptrons could do and that Frank Rosenblatt's predictions had been grossly exaggerated.
В ній стверджувалося, що існують значні обмеження на можливості перцептронів, і що передбачення Розенблата були надмірним перебільшенням.
See also: Perceptrons and Frank Rosenblatt Some of the earliest work in AI used networks or circuits of connected units to simulate intelligent behavior.
Див. також: Перцептрон та Френк Розенблат Деякі з найбільш ранніх робіт у сфері ШІ використовували мережі або схеми з'єднаних блоків для імітації розумної поведінки.
The first was that basic perceptrons were incapable of processing the exclusive-or circuit.
Першою було те, що базові перцептрони були нездатні обробляти схему виключного«або».
For example, multilayer perceptron(MLPs) and time delay neural network(TDNNs) have limitations on the input data flexibility, as they require their input data to be fixed.
Наприклад, багатошаровий персептрон(MLP) та Нейронна мережа з часовою затримкою(TDNNs) мають обмеження на гнучкість вхідних даних, оскільки вони вимагають фіксування вхідних даних.
PDP's direct roots were the perceptron theories of researchers such as Frank Rosenblatt from the 1950s and 1960s.
PDP були теоріями перцептронів дослідників, таких як Френк Розенблат з 1950-х і 1960-х років.
At the trainable layer, the perceptron associates current inputs with the signals that reverberate in the dynamical system; the latter were said to provide a dynamic"context" for the inputs.
У тренованому шарі перцептрон пов'язує поточний вхід із сигналами, які реверберують у динамічній системі; про останню казали, що вона забезпечує динамічний«контекст» для входів.
Generally, a Recurrent Multi-Layer Perceptron(RMLP) network consists of cascaded subnetworks, each of which contains multiple layers of nodes.
Як правило, рекурентний багатошаровий перцептрон(РБШП, англ. RecurrentMulti-Layer Perceptron, RMLP) складається з ряду каскадованих підмереж, кожна з яких складається з декількох шарів вузлів.
This algorithm combines the perceptron algorithm for learning linear classifiers with an inference algorithm(classically the Viterbi algorithm when used on sequence data) and can be described abstractly as follows.
Цей алгоритм поєднує алгоритм перцептрону для навчання лінійних класифікаторів з алгоритмом висновування(класично при застосуванні на послідовнісних даних- алгоритм Вітербі), і його може бути абстрактно описано наступним чином.
In 1969, M. Minsky published a formal proof of the perceptron limitations and showed that the perceptron is unable to solve some problems associated with the invariance of representations.
У 1969 роціМінський публікує формальний доказ обмеженості перцептрона і показує, що він нездатний вирішувати деякі завдання, пов'язані з інваріантністю представлень.
However, one type of connectionist work continued: the study of perceptrons, invented by Frank Rosenblatt, who kept the field alive with his salesmanship and the sheer force of his personality.[11] He optimistically predicted that the perceptron"may eventually be able to learn, make decisions, and translate languages".[12] Mainstream research into perceptrons came to an abrupt end in 1969, when Marvin Minsky and Seymour Papert published the book Perceptrons, which was perceived as outlining the limits of what perceptrons could do.
Проте один тип роботи конекціоніста продовжував існувати: вивчення перцептронів, винайдених Френком Розенблаттом, який зберігав галузь за допомогою його"задачі комівояжера" та сили своєї особистості.[1] Він оптимістично прогнозував, що перцептрон"з часом може навчатися, приймати рішення і перекладати мови".[2] Основні дослідження перцептронів прийшли до різкого кінця у 1969 році, коли Марвін Мінський і Сеймур Пейперт опублікували книгу« Перцептрони», яка сприймалася як та, яка окреслила межі того, що могли робити перцептрони.
Backpropagation Linear regression Perceptron Quadratic classifier Support vector machines Winnow(algorithm) Guo-Xun Yuan; Chia-Hua Ho; Chih-Jen Lin(2012).
Зворотне поширення Лінійна регресія Перцептрон Квадратичний класифікатор Опорно-векторні машини Winnow(алгоритм) Guo-Xun Yuan; Chia-Hua Ho; Chih-Jen Lin(2012).
In 1969 Minsky wrote the book Perceptrons(with Seymour Papert), which became the foundational work in the analysis of artificial neural networks.
Мінський написав книгу Перцептрони[en](у співавторстві з Сеймуром Папертом), яка стала основоположною роботою у аналізі штучних нейронних мереж.
Результати: 27, Час: 0.031

Найпопулярніші словникові запити

Англійська - Українська