What is the translation of " HYPERPLANE " in Serbian?

Adjective
Noun
хиперравнину

Examples of using Hyperplane in English and their translations into Serbian

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
  • Latin category close
  • Cyrillic category close
The best such hyperplane has two components.
Програм“ Лозница најбољима” има две компоненте.
Hyperplane It is a subspace with one fewer dimensions than its surrounding area.
Хиперраван је подпростор са једном димензијом мање од димензије целог простора.
Where w{\displaystyle\mathbf{w}} is the(not necessarily normalized)normal vector to the hyperplane.
Где је w{\ displaystyle\ mathbf{w}}( не нужно нормализован) вектор нормале на хиперраван.
A hyperplane is a subspace having dimension one less than the embedding dimension.
Хиперраван је подпростор са једном димензијом мање од димензије целог простора.
This allows the algorithm to fit the maximum-margin hyperplane in a transformed feature space.
Ово омогућава алгоритму да уклопи хиперраван максималне маргине у трансформисани простор обележја.
A hyperplane is a subspace of one dimension less than the dimension of the full space.
Хиперраван је подпростор са једном димензијом мање од димензије целог простора.
Thus a general hypersurface in a small dimension space is turned into a hyperplane in a space with much larger dimensions.
Тако се општа хиперраван у простору мале димензије претвара у хиперравнину у простору много већих димензија.
Maximum-margin hyperplane and margins for an SVM trained with samples from two classes.
Хиперраван максималне маргине и маргине за МПВ обучен са узорцима из две класе.
Given any label of v,it is possible to drop that label by moving to a vertex adjacent to v that does not contain the hyperplane associated with that label.
Za bilo koju zadatu oznaku v,moguće je odbaciti datu oznaku pomeranjem na teme susedno v koje ne sadrži hiperravan povezanu sa tom oznakom.
Any hyperplane can be written as the set of points x{\displaystyle\mathbf{x}} satisfying.
Било која хиперраван се може написати као скуп тачака x{\ displaystyle\ mathbf{ x}} уколико испуњава.
The solutions of a linear equation in n variables form a hyperplane(of dimension n- 1) in the Euclidean space of dimension n.
Решења линеарне једначине у променљивим n формирају хиперраван( димензије n- 1) у Еуклидовом простору димензије n.
So we choose the hyperplane so that the distance from it to the nearest data point on each side is maximized.
Зато бирамо хиперраван тако да је растојање од ње до најближе тачке података на свакој страни максимизирано.
The parameter b‖ w‖{\displaystyle{\tfrac{b}{\|\mathbf{w}\|}}} determines the offset of the hyperplane from the origin along the normal vector w{\displaystyle\mathbf{w}}.
Параметар b‖ w‖{\ displaystyle{\ tfrac{ b}{\|\ mathbf{ w}\|}}} одређује помак хиперравни од почетка дуж вектора нормале w{\ displaystyle\ mathbf{ w}}.
In such a case, the hyperplane would be set by the x-value of the point, and its normal would be the unit x-axis.
U tom slučaju, hiperravan ce biti postavljana od strane x-vrednosti tačke, a njena normala ce biti x-osa.
The transformation may be nonlinear and the transformed space high-dimensional;although the classifier is a hyperplane in the transformed feature space, it may be nonlinear in the original input space.
Трансформација може бити нелинеарна, а трансформисани простор вишедимензионалан; иакоје класификатор хиперравна у трансформисаном простору обележја, он може бити нелинеаран у оригиналном улазном простору.
If the decision surface is a hyperplane, then the classification problem is linear, and the classes are linearly separable.
Ако је површина одлучивања хиперраван, онда је проблем класификације линеаран, а класе су линеарно одвојиве.
In the case of support-vector machines, a data point is viewed as a p{\displaystyle p}-dimensional vector(a list of p{\displaystyle p} numbers), andwe want to know whether we can separate such points with a( p- 1){\displaystyle(p-1)}-dimensional hyperplane.
У случају методе потпорних вектора, тачка података се посматра као p{\ displaystyle p}- димензионални вектор( листа p{\ displaystyle p} бројева), и желимо да знамо да ли можемо даодвојимо такве тачке са а( p- 1){\ displaystyle( p-1)}- димензионалном хиперравни.
In particular, support vector machines find a hyperplane that separates the feature space into two classes with the maximum margin.
Конкретно, машине са векторима подршке проналазе хиперраван који раздваја простор у две класе са максималном маргином.
The hyperplane direction is chosen in the following way: every node in the tree is associated with one of the k dimensions, with the hyperplane perpendicular to that dimension's axis.
Pravac hiperravni je izabran na sledeci nacin: svaki čvor u stablu je povezan sa jednom od K dimenzija, sa heperravni koja je normalna na osu te dimenzije.
An important consequence of this geometric description is that the max-margin hyperplane is completely determined by those x→ i{\displaystyle{\vec{x}}_{i}} that lie nearest to it.
Важна последица овог геометријског описа је да је хиперраван максималне маргине потпуно одређена векотром x→ i{\ displaystyle{\ vec{ x}}_{ i}} који му је најближи.
If such a hyperplane exists, it is known as the maximum-margin hyperplane and the linear classifier it defines is known as a maximum-margin classifier; or equivalently, the perceptron of optimal stability.
Ако таква хиперраван постоји, позната је као хиперраван максималне маргине, а линеарни класификатор који он дефинише је познат као класификатор максималне маргине; или еквивалентно, перцептрон оптималне стабилности.
Note the fact that theset of points x{\displaystyle x} mapped into any hyperplane can be quite convoluted as a result, allowing much more complex discrimination between sets that are not convex at all in the original space.
Обратите пажњу на чињеницу даје скуп тачака x{\ displaystyle x} пресликан у било коју хиперравнину може бити прилично замршен као резултат, омогућавајући много сложенију дискриминацију између скупова који уопште нису конвексни у оригиналном простору.
We want to find the"maximum-margin hyperplane" that divides the group of points x i{\displaystyle\mathbf{x}_{i}} for which y i= 1{\displaystyle y_{i}=1} from the group of points for whichy i=- 1{\displaystyle y_{i}=-1}, which is defined so that the distance between the hyperplane and the nearest point x i{\displaystyle\mathbf{x}_{i}} from either group is maximized.
Желимо да пронађемо" хиперраван максималне маргине" која дели групу тачака x i{\ displaystyle\ mathbf{ x}_{ i}} за које y i= 1{\ displaystyle y_{ i} =1} из групе бодова за које y i=- 1{\ displaystyle y_{ i}=-1}, који је дефинисан тако да растојање између хиперравни и најближе тачке x i{\ displaystyle\ mathbf{ x}_{ i}} из било које групе буде максимизиран.
It is sometimes represented as a hyperplane in space-time, typically called"now", although modern physics demonstrates that such a hyperplane cannot be defined uniquely for observers in relative motion.
Садашњост се понекад представља као хиперраван у простор-времену, која се типично назива„ сад“, мада модерна физика показује да се таква хиперраван не може једиствено дефинисати за посматраче у релативном кретању.
A support-vector machine constructs a hyperplane or set of hyperplanes in a high- or infinite-dimensional space, which can be used for classification, regression, or other tasks like outliers detection.[3] Intuitively, a good separation is achieved by the hyperplane that has the largest distance to the nearest training-data point of any class(so-called functional margin), since in general the larger the margin, the lower the generalization error of the classifier.[4].
Модел потпорних векотра конструише хиперраван или скуп хиперравни у високо- или бесконачно-димензионалном простору, који се може користити за класификацију, регресију или друге задатке као што је откривање одступања.[ 1] Добро раздвајање се постиже хиперравнином која има највећу удаљеност до најближе тачке података за обуку било које класе( функционална маргина), пошто генерално што је већа маргина, то је мања грешка генерализације класификатора.[ 2].
Results: 25, Time: 0.0287

Top dictionary queries

English - Serbian