ACTIVATION FUNCTION на Русском - Русский перевод

[ˌækti'veiʃn 'fʌŋkʃn]
[ˌækti'veiʃn 'fʌŋkʃn]
функция активации
activation function

Примеры использования Activation function на Английском языке и их переводы на Русский язык

{-}
  • Official category close
  • Colloquial category close
Graph of the activation function at 1 2.
График активационной функции при 1 2.
Unable to train with the selected activation function.
Обучение с заданной функцией активации невозможно.
Graph of the activation function at =2 and 1 3.
График активационной функции при= 2 и 1 3.
These are 2 functions:normalization of an input vector and activation function.
Это будут 2 функции:нормализация входного вектора и функция активации.
The identity activation function does not satisfy this property.
Тождественная функция активации не удовлетворяет этому свойству.
Unable to use the selected activation function.
Невозможно использовать заданную функцию активации.
Activation function calculates the output signal, received after passing the accumulator.
Функция активации вычисляет выходной сигнал, получаемый после прохождения сумматора.
All problems mentioned above can be handled by using a normalizable sigmoid activation function.
Все проблемы, упомянутые выше, можно решить с помощью нормализуемой сигмоидной функции активации.
Fast(sigmoid like) activation function defined by David Elliott.
Быстрая( похожая на сигмоиду) функция активации, описанная Дэвидом Эллиотом.
For a fully connected network layer, the condition of K C should be set and the sigmoid activation function applied.
Для полносвязного слоя сети следует установить K= C и сигмоидную функцию активации.
This activation function is not recommended for cascade training and incremental training.
Эта функция ошибки не рекомендована для использования в каскадном и инкрементальном обучении.
This algorithm imposes the only requirement on the activation function- it must be differentiated.
Этот алгоритм накладывает единственное требование на активационную функцию- она должна быть дифференцируемой.
This activation function is linear, and therefore has the same problems as the binary function..
Эта функция активации линейна, а потому имеет те же проблемы, что и двоичная функция..
The final model, then, that is used in multilayer perceptrons is a sigmoidal activation function in the form of a hyperbolic tangent.
Последняя модель, которая используется в многослойных перцептронах- сигмоидная функция активации в форме гиперболического тангенса.
When the activation function does not approximate identity near the origin, special care must be used when initializing the weights.
Если функция активации не аппроксимирует тождество около начала координат, нужно быть осторожным при инициализации весов.
Annotation: This study develops neural models using fuzzy activation functions to solve the problems of time series predictions.
Аннотация: Разрабатываются модели нейронов с нечеткими функциями активации для решения проблемы прогнозирования временных рядов.
Monotonic- When the activation function is monotonic, the error surface associated with a single-layer model is guaranteed to be convex.
Монотонность- Если функция активации монотонна, поверхность ошибок, ассоциированная с одноуровневой моделью, гарантированно будет выпуклой.
The value for each node of the network will be calculated according to the formula:,where f(x)- activation function, and n the number of nodes in previous layer.
Значения для каждого узла сети будем вычислять по формуле:,где f( x)- функция активации, а n- число узлов в предыдущем слое.
However, only nonlinear activation functions allow such networks to compute nontrivial problems using only a small number of nodes.
Однако только нелинейные функции активации позволяют таким сетям решать нетривиальные задачи с использованием малого числа узлов.
A radial basis function network is an artificial neural network that uses radial basis functions as activation functions.
Сеть радиально- базисных функций- искусственная нейронная сеть, которая использует радиальные базисные функции как функции активации.
When multiple layers use the identity activation function, the entire network is equivalent to a single-layer model.
Если несколько уровней используют тождественную функцию активации, вся сеть эквивалентна одноуровневой модели.
The activation function for the hidden layer of these machines is referred to as the inner product kernel, K( v i, x) ϕ( v i){\displaystyle K(v_{i}, x)=\phi v_{i.
О функции активации для закрытого уровня этих машин говорят как о ядре скалярного произведения( англ. inner product kernel), K( v i, x) ϕ( v i){\ displaystyle K( v_{ i}, x)=\ phi v_{ i.
Usage of these inputs provides the capability of our network to shift activation function along the x-axis, thus not only can the network change the steepness of the activation function but provide its linear shift.
Использование этих входов обеспечивает возможность нашей сети по сдвигу активационной функции вдоль оси абсцисс, тем самым сеть может не только изменять крутизну активационных функций, но и обеспечивать ее линейное смещение.
This is the basic structure used for artificial neurons, which in a neural network often looks like y i ϕ(∑ j w i j x j){\displaystyle y_{i}=\phi\left(\sum_{ j} w_{ ij} x_{ j}\ right)} where yi is the output of the i th neuron, xj is the jth input neuron signal, wij is the synaptic weight(or strength of connection)between the neurons i and j, and φ is the activation function.
Подобная модель может быть описана следующей формулой: y j ϕ(∑ i w i j x i){\ displaystyle y_{ j}=\ phi\ left(\ sum_{ i} w_{ ij} x_{ i}\ right)} где yj- выход j- го нейрона, xi- i- й вход( входные данные) нейрона, wij- синаптический вес наi- м входе j- го нейрона, а φ- активационная функция.
In artificial neural networks, the activation function of a node defines the output of that node, or"neuron," given an input or set of inputs.
В искусственных нейронных сетях функция активации нейрона определяет выходной сигнал, который определяется входным сигналом или набором входных сигналов.
A multi-layered feedforward neural network is represented in PMML by a"NeuralNetwork" element which contains attributes such as: Model Name(attribute modelName) Function Name(attribute functionName)Algorithm Name(attribute algorithmName) Activation Function(attribute activationFunction) Number of Layers(attribute numberOfLayers) This information is then followed by three kinds of neural layers which specify the architecture of the neural network model being represented in the PMML document.
Такая сеть представлена в PMML элементом« NeuralNetwork», содержащим следующие атрибуты: Название модели( атрибут modelName) Название функции( атрибут functionName)Название алгоритма( атрибут algorithmName) Функция активации( атрибут activationFunction) Количество слоев( атрибут numberOfLayers) За этой информацией следуют три вида нейронных слоев, которые определяют архитектуру модели нейронной сети, представленной документом PMML.
The binary step activation function is not differentiable at 0, and it differentiates to 0 for all other values, so gradient-based methods can make no progress with it.
Двоичная ступенчатая функция активации не дифференцируема в точке и ее производная равна во всех других точках, так что методы градиентного спуска не дают никакого успеха для нее.
In biologically inspired neural networks, the activation function is usually an abstraction representing the rate of action potential firing in the cell.
В биологических нейронных сетях функция активации обычно является абстракцией, представляющей скорость возбуждения потенциала действия в клетке.
The hypothesis on activation, functioning and regulation of phospholipase D on lipid-water, lipid-lipid and lipid-protein interfaces, formation of clusters, rafts or microdomains from products of hydrolysis or their synthetic analogues in the presence of bivalent metal ions has been developed and discussed in the review on the basis of the results obtained.
На основании полуchенных резултатов выдвинута гипотеза об активации, функционировании и регуляции фосфолипазы Д на границе раздела фаз липид- вода, липид- липид и липид- белок при образовании кластера, рафта или микродомена из продуктов гидролиза или их синтетиchеских аналогов в присутствии ионов двухвалентных металлов.
Approximates identity near the origin- When activation functions have this property, the neural network will learn efficiently when its weights are initialized with small random values.
Аппроксимирует тождественную функцию около начала координат- Если функции активации имеют это свойство, нейронная сеть будет обучаться эффективно, если ее веса инициализированы малыми случайными значениями.
Результатов: 205, Время: 0.0352

Пословный перевод

Лучшие запросы из словаря

Английский - Русский