Примеры использования Собственных векторов на Русском языке и их переводы на Английский язык
{-}
-
Official
-
Colloquial
Наибольших собственных векторов используются для описания.
Основные параметры волнового процесса описываются с помощью собственных векторов переходной матрицы.
Последовательности собственных векторов выражаются через соответствующие матрицы подобия.
Следовательно, требуется постобработка собственных векторов, чтобы задачи были эквивалентными.
Более того, первые несколько собственных векторов часто можно интерпретировать в терминах крупномасштабного физического поведения системы.
Combinations with other parts of speech
Использование с прилагательными
бесплатные векторыопорных векторовосновные векторыновый векторглавный векторвирусные векторыевропейский векторсобственных векторов
Больше
Использование с существительными
Дородницына приближенного вычисления собственных чисел и собственных векторов симметричных матриц на случай самосопряженных дискретных операторов.
Метод Якоби для собственных значений- итерационный алгоритм для вычисления собственных значений и собственных векторов вещественной симметричной матрицы.
Точно так же как в обычной теории собственных векторов линейного оператора,собственные бивекторы тензора Вейля могут быть кратными.
Для любой нормальной матрицы AC n имеет ортонормальный базис, состоящий из собственных векторов матрицы A. Соответствующая матрица собственных векторов является унитарной.
Получены асимптотики собственных значений, собственных векторов, оценки равносходимости спектральных разложений для исследуемого оператора и оператора умножения на последовательность a: Z→ C.
Если также нужны исобственные векторы, матрица подобия необходима для преобразования собственных векторов матрицы Хессенберга к собственным векторам исходной матрицы.
Для любого собственного значения λ матрицы A ядро ker( A- λE)состоит из всех собственных векторов, соответствующих λ,( вместе с) и называется собственным подпространством числа λ, а векторное подпространство ker(( A- λE) n) состоит из всех корневых векторов( дополненное нулевым вектором) и называется корневым подпространством.
В их методе вершины заданного планарного графа сортируются по второй координате собственных векторов матрицы Кирхгофа графа, и этот порядок разбивается в точке, минимизирующей отношение числа удаляемых ребер к числу вершин меньшей части разбиения.
Собственные векторы можно получить, используя теорему Гамильтона- Кэли.
Некоторые алгоритмы дают также последовательности векторов, сходящихся к собственным векторам.
Эти алгоритмы вычисления собственных значений могут также находить собственные векторы.
Здесь вы обладаете своим Собственным Вектором Силы, представляющим собой совокупность всех присущих вам Сил.
Общий принцип спектральной кластеризации- использование стандартного метода кластеризации( существует много таких методов,метод k- средних обсуждается ниже) на значимых собственных векторах матрицы Кирхгофа матрицы A{\ displaystyle A.
Это дает новые собственные векторы, которые мы можем назвать K1, который является суммой двух состояний с противоположной странностью, и K2, который является разностью.
Собственные вектора, соответствующие наибольшим собственным значениям( главные компоненты) теперь можно использовать для восстановления большей части дисперсии исходных данных.
Эквивалентно, эти сингулярные вектора являются собственными векторами, соответствующие p наибольшим собственным значениям выборочной ковариантной матрицы входных векторов. .
В этом частном случае столбцы матрицы U∗ являются собственными векторами, как A, так и B, и образуют ортонормальный базис в Cn.
Тем не менее, в практических реализациях методов поиска собственных чисел, собственные векторы обычно получаются другим путем, как вторичный продукт вычисления собственных чисел.
Обратимость P также предполагает, что собственные вектора линейно независимы и образуют базис в Fn.
Значимые собственные вектора- это те, которые соответствуют наименьшим нескольким собственным значениям матрицы Кирхгофа, за исключением собственных значений.
Для обеспечения вычислительной эффективности эти собственные вектора часто вычисляются как собственные вектора, соответствующие некоторым наибольшим собственным значениям функции от матрицы Кирхгофа.
На практике строится матрица ковариации( а иногда корреляции) данных и вычисляются собственные вектора этой матрицы.
Для матриц общего вида QR алгоритм сначала использует разложение Шура, из которого собственные векторы можно получить процедурой обратной подстановки.
Без предположения о компактности становитсяневерным утверждение о том, что всякий самосопряженный оператор имеет собственный вектор.