СОБСТВЕННЫХ ВЕКТОРОВ на Английском - Английский перевод

Существительное
eigenvectors
собственный вектор
собственным вектор-функциям

Примеры использования Собственных векторов на Русском языке и их переводы на Английский язык

{-}
  • Official category close
  • Colloquial category close
Наибольших собственных векторов используются для описания.
The 128 largest eigenvectors are used for description.
Основные параметры волнового процесса описываются с помощью собственных векторов переходной матрицы.
The main parameters of the wave process are described by eigenvectors of the transition matrix.
Последовательности собственных векторов выражаются через соответствующие матрицы подобия.
The eigenvector sequences are expressed as the corresponding similarity matrices.
Следовательно, требуется постобработка собственных векторов, чтобы задачи были эквивалентными.
Hence, post-processing of the eigenvectors is required for the equivalence between the problems.
Более того, первые несколько собственных векторов часто можно интерпретировать в терминах крупномасштабного физического поведения системы.
Moreover, the first few eigenvectors can often be interpreted in terms of the large-scale physical behavior of the system.
Дородницына приближенного вычисления собственных чисел и собственных векторов симметричных матриц на случай самосопряженных дискретных операторов.
Dorodnicyn Close Calculation of Eigenvalues and Eigenvectors of Symmetric Matrices on Case of Self-Conjugate Discrete Operators.
Метод Якоби для собственных значений- итерационный алгоритм для вычисления собственных значений и собственных векторов вещественной симметричной матрицы.
The Jacobi eigenvalue algorithm is an iterative method for the calculation of the eigenvalues and eigenvectors of a real symmetric matrix a process known as diagonalization.
Точно так же как в обычной теории собственных векторов линейного оператора,собственные бивекторы тензора Вейля могут быть кратными.
Just as in the theory of the eigenvectors of an ordinary linear operator, the eigenbivectors of the Weyl tensor can occur with various multiplicities.
Для любой нормальной матрицы AC n имеет ортонормальный базис, состоящий из собственных векторов матрицы A. Соответствующая матрица собственных векторов является унитарной.
For any normal matrix A,C n has an orthonormal basis consisting of eigenvectors of A. The corresponding matrix of eigenvectors is unitary.
Получены асимптотики собственных значений, собственных векторов, оценки равносходимости спектральных разложений для исследуемого оператора и оператора умножения на последовательность a: Z→ C.
The asymptotic estimates of eigenvalue, eigenvectors, spectral estimation of equiconvergence applications for the test operator and the operator of multiplication by a sequence a: Z→ C.
Если также нужны исобственные векторы, матрица подобия необходима для преобразования собственных векторов матрицы Хессенберга к собственным векторам исходной матрицы.
If eigenvectors are needed as well,the similarity matrix may be needed to transform the eigenvectors of the Hessenberg matrix back into eigenvectors of the original matrix.
Для любого собственного значения λ матрицы A ядро ker( A- λE)состоит из всех собственных векторов, соответствующих λ,( вместе с) и называется собственным подпространством числа λ, а векторное подпространство ker(( A- λE) n) состоит из всех корневых векторов( дополненное нулевым вектором) и называется корневым подпространством.
For each eigenvalue λ of A, the kernel ker(A- λI)consists of all eigenvectors associated with λ(along with 0), called the eigenspace of λ, while the vector space ker((A- λI)n) consists of all generalized eigenvectors, and is called the generalized eigenspace.
В их методе вершины заданного планарного графа сортируются по второй координате собственных векторов матрицы Кирхгофа графа, и этот порядок разбивается в точке, минимизирующей отношение числа удаляемых ребер к числу вершин меньшей части разбиения.
In their method, the vertices of a given planar graph are sorted by the second coordinates of the eigenvectors of the Laplacian matrix of the graph, and this sorted order is partitioned at the point that minimizes the ratio of the number of edges cut by the partition to the number of vertices on the smaller side of the partition.
Собственные значения и собственные вектора квадратной положительной матрицы описываются теоремой Фробениуса- Перрона.
Eigenvalues and eigenvectors of square positive matrices are described by the Perron-Frobenius theorem.
Собственные векторы можно получить, используя теорему Гамильтона- Кэли.
Eigenvectors can be found by exploiting the Cayley-Hamilton theorem.
Некоторые алгоритмы дают также последовательности векторов, сходящихся к собственным векторам.
Some algorithms also produce sequences of vectors that converge to the eigenvectors.
Эти алгоритмы вычисления собственных значений могут также находить собственные векторы.
These eigenvalue algorithms may also find eigenvectors.
Здесь вы обладаете своим Собственным Вектором Силы, представляющим собой совокупность всех присущих вам Сил.
Here you have your own Vector Forces, represents a collection of all of you.
Общий принцип спектральной кластеризации- использование стандартного метода кластеризации( существует много таких методов,метод k- средних обсуждается ниже) на значимых собственных векторах матрицы Кирхгофа матрицы A{\ displaystyle A.
The general approach to spectral clustering is to use a standardclustering method(there are many such methods, k-means is discussed below) on relevant eigenvectors of a Laplacian matrix of A{\displaystyle A.
Это дает новые собственные векторы, которые мы можем назвать K1, который является суммой двух состояний с противоположной странностью, и K2, который является разностью.
This gives new eigenvectors, which we can call K1 which is the sum of the two states of opposite strangeness, and K2, which is the difference.
Собственные вектора, соответствующие наибольшим собственным значениям( главные компоненты) теперь можно использовать для восстановления большей части дисперсии исходных данных.
The eigenvectors that correspond to the largest eigenvalues(the principal components) can now be used to reconstruct a large fraction of the variance of the original data.
Эквивалентно, эти сингулярные вектора являются собственными векторами, соответствующие p наибольшим собственным значениям выборочной ковариантной матрицы входных векторов..
Equivalently, these singular vectors are the eigenvectors corresponding to the p largest eigenvalues of the sample covariance matrix of the input vectors.
В этом частном случае столбцы матрицы U∗ являются собственными векторами, как A, так и B, и образуют ортонормальный базис в Cn.
In this special case, the columns of U∗ are eigenvectors of both A and B and form an orthonormal basis in Cn.
Тем не менее, в практических реализациях методов поиска собственных чисел, собственные векторы обычно получаются другим путем, как вторичный продукт вычисления собственных чисел.
However, in practical large-scale eigenvalue methods, the eigenvectors are usually computed in other ways, as a byproduct of the eigenvalue computation.
Обратимость P также предполагает, что собственные вектора линейно независимы и образуют базис в Fn.
The invertibility of P{\displaystyle P} also suggests that the eigenvectors are linearly independent and form a basis of F n{\displaystyle F^{n.
Значимые собственные вектора- это те, которые соответствуют наименьшим нескольким собственным значениям матрицы Кирхгофа, за исключением собственных значений.
The eigenvectors that are relevant are the ones that correspond to smallest several eigenvalues of the Laplacian except for the smallest eigenvalue which will have a value of 0.
Для обеспечения вычислительной эффективности эти собственные вектора часто вычисляются как собственные вектора, соответствующие некоторым наибольшим собственным значениям функции от матрицы Кирхгофа.
For computational efficiency, these eigenvectors are often computed as the eigenvectors corresponding to the largest several eigenvalues of a function of the Laplacian.
На практике строится матрица ковариации( а иногда корреляции) данных и вычисляются собственные вектора этой матрицы.
In practice, the covariance(and sometimes the correlation) matrix of the data is constructed and the eigenvectors on this matrix are computed.
Для матриц общего вида QR алгоритм сначала использует разложение Шура, из которого собственные векторы можно получить процедурой обратной подстановки.
For more general matrices, the QR algorithm yields the Schur decomposition first, from which the eigenvectors can be obtained by a backsubstitution procedure.
Без предположения о компактности становитсяневерным утверждение о том, что всякий самосопряженный оператор имеет собственный вектор.
If the compactness assumption is removed,it is not true that every self-adjoint operator has eigenvectors.
Результатов: 30, Время: 0.0186

Пословный перевод

Лучшие запросы из словаря

Русский - Английский