What is the translation of " ACTIVATION FUNCTION " in Serbian?

[ˌækti'veiʃn 'fʌŋkʃn]
[ˌækti'veiʃn 'fʌŋkʃn]
активациона функција
activation function
функције активације
activation function

Examples of using Activation function in English and their translations into Serbian

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
  • Latin category close
  • Cyrillic category close
The activation function is.
Активација функције зависи од.
For this, we can use an activation function.
За то можемо употребити функцију input.
This activation function is illustrated in the figure at the start of this article.
Ова активациона функција је илустрована на слици која се налази на почетку овог чланка.
All problems mentioned above can be handled by using a normalizable sigmoid activation function.
Сви наведени проблеми могу се обрадити коришћењем нормализоване сигмоидне активационе функције.
This activation function is linear, and therefore has the same problems as the binary function..
Ова активациона функција је линеарна и стога има исте проблеме као и бинарна функција..
The rectifier is,as of 2017[update],the most popular activation function for deep neural networks.[9].
Исправљач је, од 2017.године, најпопуларнија активациона функција за дубоке неуронске мреже.[ 6].
This activation function is a linear curve in nature, and therefore has the same problems as the binary function..
Ова активациона функција је линеарна и стога има исте проблеме као и бинарна функција..
The final model, then, that is used in multilayer perceptrons is a sigmoidal activation function in the form of a hyperbolic tangent.
Коначни модел, који се користи у вишеслојним перцептронима, је сигмоидна активациона функција у облику хиперболичног тангенса.
The LBD also contains the activation function 2(AF-2) whose action is dependent on the presence of bound ligand.
LBD sadrži aktivacionu funkciju 2( AF-2), čije dejstvo je zavisno od prisustva vezanog liganda.
In the context of neural networks,a perceptron is an artificial neuron using the Heaviside step function as the activation function.
У контексту неуронских мрежа,перцептрон је вештачки неурон који користи Хевисајдову функцију као активациону функцију.
The following table lists activation functions that are not functions of a single fold x from the previous layer or layers.
Следећа табела садржи активационе функције које нису функције једног сложеног x из претходног слоја или слојева.
The choice of the cost function depends on factors such as the learning type(supervised, unsupervised,reinforcement, etc.) and the activation function.
Избор функције цена зависи од фактора као што су врста учења( надгледано, ненадгледано,појачано…) и функције активације.
When the activation function does not approximate identity near the origin, special care must be used when initializing the weights.
Када активациона функција не апроксимира идентитет приближан оригиналу, приликом иницијализације тежина мора се обратити посебна пажња.
A standard integrated circuit can be seen as a digital network of activation functions that can be"ON"(1) or"OFF"(0), depending on input.
Стандардно коло компјутерског чипа може се гледати као дигитална мрежа активационих функција које могу имати вредност„ укључено”( 1) или„ искључено”( 0), у зависности од улаза.
Monotonic- When the activation function is monotonic, the error surface associated with a single-layer model is guaranteed to be convex.[8].
Монотоност- Када је активациона функција монотона, површина грешке која је повезана са једнослојним моделом гарантовано је конвексна.[ 4].
Cross entropy is defined as where represents the target probability for output unit andis the probability output for after applying the activation function.[118].
Сross entropy се одређује као, где представља циљану вероватноћу за излазну јединицу аје вероватноћа излаза за после примене функције активације.[ 118].
In biologically taken neural networks, the activation function is usually an abstract concept representing the rate of action firing on the cell.
У биолошки инспирисаним неуронским мрежама, активациона функција је обично апстракција која представља стопу акционог потенцијала који се појављује у ћелији.
Gers& Schmidhuber& Cummins added peephole connections(connections from the cell to the gates) into the architecture.[1] Additionally,the output activation function was omitted.[2].
Герс, Шмидубер и Каминс су додали шпијунске везе( везе од ћелије до капија)у архитектуру.[ 1] Поред тога, функција активације излаза је изостављена.[ 2].
In biologically inspired neural networks, the activation function is usually an abstraction representing the rate of action potential firing in the cell.
У биолошки инспирисаним неуронским мрежама, активациона функција је обично апстракција која представља стопу акционог потенцијала који се појављује у ћелији.
AlexNet contained eight layers; the first five were convolutional layers, some of them followed by max-pooling layers, and the last three were fully connected layers.[1]It used the non-saturating ReLU activation function, which showed improved training performance over tanh and sigmoid.[2].
AlexNet је садржавао осам слојева; првих пет су били слојеви конволуције, неки од њих праћени слојевима максималног обједињавања( макс-пулинг), а последња три су била потпуно повезани слојеви.[ 1]Користио је незасићену функцију ReLU активације, која је показала побољшане перформансе тренинга у односу на танх и сигмоид.[ 1].
In 1989, the first proof was published by George Cybenko for sigmoid activation functions and was generalised to feed-forward multi-layer architectures in 1991 by Kurt Hornik.
Је Цибенко објавио први доказ за функције сигмуидне активације и генерализован је за дистрибуцију вишеслојних архитектура 1991. године од стране Хорника.
The activation functions of the network nodes are Kolmogorov-Gabor polynomials that permit additions and multiplications. Ivakhnenko's 1971 paper[25] describes the learning of a deep feedforward multilayer perceptron with eight layers, already much deeper than many later networks.
Функције активирање мрежних чворова су Колмогоров-Габор полинома који дозвољавају допуне и множења. vakhnenko рад[ 25] описује учење дубоке феедфорвард вишеслојне перцепције са 8 слојева, већ много дубље него многе касније мреже.
In 1989, the first proof was published by George Cybenko for sigmoid activation functions[18] and was generalised to feed-forward multi-layer architectures in 1991 by Kurt Hornik.[19].
Први доказ објавио је 1989. год. George Cybenko за сигмоидне функције активације[ 18] а 1991. год. Kurt Hornik је то уопштио за напредне вишеслојне архитектуре[ 19].
Rectifying activation functions were used to separate specific excitation and unspecific inhibition in the neural abstraction pyramid, which was trained in a supervised way to learn several computer vision tasks.[15] In 2011,[2] the use of the rectifier as a non-linearity has been shown to enable training deep supervised neural networks without requiring unsupervised pre-training.
Активационе функције за исправљање су коришћене за раздвајање специфичне ексцитације и неспецифичних инхибиција у неурално апстрактној пирамиди, која је обучена на надгледајући начин да научи неколико задатака компјутерске визије.[ 1] У 2011. години,[ 2] показало се да употреба исправљача као нелинеарности омогућава обуку дубоко надгледаних неуронских мрежа без потребе за претходном обуком без надзора.
Meanwhile, Imagine Products has redesigned its website and activation functions to be both easier to use and more agile, giving customers more control over their licenses.
У међувремену, Имагине Продуцтс је редизајнирао своју веб страницу и активацијске функције како би биле једноставније за кориштење и прилагодљивије, дајући корисницима већу контролу над својим лиценцама.
This activation function started showing up in the context of visual feature extraction in hierarchical neural networks starting in the late 1960s.[3][4] It was later argued that it has strong biological motivations and mathematical justifications.[5][6] In 2011 it was found to enable better training of deeper networks,[7] compared to the widely used activation functions prior to 2011, e.g., the logistic sigmoid(which is inspired by probability theory; see logistic regression) and its more practical[8] counterpart, the hyperbolic tangent.
Ова активациона функција се почела појављивати у контексту екстракције визуелних карактеристика у хијерархијским неуронским мрежама почевши од краја 1960-их година.[ 1][ 2] Касније се тврдило да има јаке биолошке мотиве и математичка оправдања.[ 3] 2011. године је откривено да омогућава бољу обуку дубљих мрежа,[ 4] у поређењу са широко коришћеним активационим функцијама од пре 2011. године, на пример, логистички сигмоид( који је инспирисан теоријом вероватноће; погледајте и логистичку регресију) и његов практичнији[ 5] еквивалент, хиперболичка тангента.
In the context of artificial neural networks, the rectifier orReLU(Rectified Linear Unit) activation function[1][2] is an activation function defined as the positive part of its argument.
У контексту вештачких неуронских мрежа, функција активације исправљача илиReLU( Rectified Linear Unit)[ 1][ 2] је активациона функција дефинисана као позитиван део свог аргумента.
The binary step activation function is not differentiable at 0, and it differentiates to 0 for all other values, so gradient-based methods can make no progress with it.[7].
Активациона бинарна одскочна функција није диференцијабилна у нули, а извод јој је 0 за све остале вредности, тако да методе засноване на градијенту немају напретка са овом функцијом.[ 3].
Better gradient propagation:Fewer vanishing gradient problems compared to sigmoidal activation functions that saturate in both directions.[1] Efficient computation: Only comparison, addition and multiplication.
Боље ширење градијента:Мање проблема са нестајајућим градијентом у поређењу са функцијама сигмоидалне активације које се засићују у оба смера.[ 1] Ефикасно рачунање: Само поређење, сабирање и множење.
A problem is that nonlinear activation functions do not immediately correspond to the mathematical structure of quantum theory, since a quantum evolution is described by linear operations and leads to probabilistic observation.
Problem je u tome što nelinearne aktivacione funkcije ne odgovaraju matematičkoj strukturi kvantne teorije, pošto je kvantna evolucija opisana linearnim operacijama i vodi do probabilističkih posmatranja.
Results: 88, Time: 0.0364

Word-for-word translation

Top dictionary queries

English - Serbian