WikiDer > Собственные значения и собственные векторы

Eigenvalues and eigenvectors

В линейная алгебра, собственный вектор (/ˈаɪɡəпˌvɛkтər/) или же характеристический вектор из линейное преобразование ненулевой вектор это меняется на скаляр коэффициент, когда к нему применяется это линейное преобразование. Соответствующие собственное значение, часто обозначаемый ,[1] - коэффициент масштабирования собственного вектора.

Геометрически, собственный вектор, соответствующий настоящий ненулевое собственное значение, указывает в направлении, в котором оно растянутый преобразованием, а собственное значение - коэффициент, на который он растягивается. Если собственное значение отрицательное, направление меняется на противоположное.[2] Грубо говоря, в многомерном векторное пространство, собственный вектор не поворачивается.

Формальное определение

Если Т является линейным преобразованием из векторного пространства V через поле F в себя и v это ненулевой вектор в V, тогда v является собственным вектором Т если Т(v) является скалярным кратным v. Это можно записать как

куда λ является скаляром в F, известный как собственное значение, характеристическое значение, или же характерный корень связана с v.

Существует прямая переписка между п-к-п квадратные матрицы и линейные преобразования из п-размерный векторное пространство в себя при любом основа векторного пространства. Следовательно, в конечномерном векторном пространстве это эквивалентно определять собственные значения и собственные векторы, используя любой язык матрицы, или язык линейных преобразований.[3][4]

Если V конечномерно, приведенное выше уравнение эквивалентно[5]

куда А является матричным представлением Т и ты - координатный вектор v.

Обзор

Собственные значения и собственные векторы занимают важное место при анализе линейных преобразований. Префикс собственный- взят из Немецкий слово собственный (соотносится с английский слово собственный) для «собственного», «характерного», «собственного».[6][7] Первоначально использовался для учебы главные оси вращательного движения твердые тела, собственные значения и собственные векторы имеют широкий спектр приложений, например, в анализ устойчивости, анализ вибрации, атомные орбитали, распознавание лиц, и диагонализация матрицы.

По сути, собственный вектор v линейного преобразования Т - ненулевой вектор, который при Т наносится на него, не меняет направления. Применение Т к собственному вектору масштабирует только собственный вектор на скалярное значение λ, называемое собственным значением. Это условие можно записать в виде уравнения

называется уравнение на собственные значения или же собственное уравнение. В целом, λ может быть любой скаляр. Например, λ может быть отрицательным, и в этом случае собственный вектор меняет направление на противоположное как часть масштабирования, или он может быть нулевым или сложный.

В этом картирование сдвига красная стрелка меняет направление, а синяя - нет. Синяя стрелка является собственным вектором этого отображения сдвига, потому что он не меняет направления, а поскольку его длина не изменяется, его собственное значение равно 1.

В Мона Лиза Пример, изображенный здесь, представляет собой простую иллюстрацию. Каждую точку на картине можно представить как вектор, указывающий от центра картины к этой точке. Линейное преобразование в этом примере называется картирование сдвига. Точки в верхней половине перемещаются вправо, а точки в нижней половине - влево, пропорционально тому, насколько они удалены от горизонтальной оси, проходящей через середину рисунка. Поэтому векторы, указывающие на каждую точку исходного изображения, наклоняются вправо или влево, а в результате преобразования становятся длиннее или короче. Точки вдоль горизонтальная ось вообще не перемещается при применении этого преобразования. Следовательно, любой вектор, который указывает прямо вправо или влево без вертикального компонента, является собственным вектором этого преобразования, поскольку отображение не меняет своего направления. Более того, все эти собственные векторы имеют собственное значение, равное единице, потому что отображение также не меняет их длину.

Линейные преобразования могут принимать множество различных форм, отображая векторы в различных векторных пространствах, поэтому собственные векторы также могут принимать разные формы. Например, линейное преобразование может быть дифференциальный оператор подобно , в этом случае собственные векторы являются функциями, называемыми собственные функции которые масштабируются этим дифференциальным оператором, например

В качестве альтернативы линейное преобразование может иметь форму п к п матрица, и в этом случае собственные векторы п на 1 матрицу. Если линейное преобразование выразить в виде п к п матрица А, то уравнение на собственные значения для линейного преобразования выше может быть переписано как матричное умножение

где собственный вектор v является п на 1 матрицу. Для матрицы собственные значения и собственные векторы могут использоваться для разложить матрицу- например, диагонализация Это.

Собственные значения и собственные векторы порождают множество тесно связанных математических понятий, и префикс собственный- широко применяется при их именовании:

  • Набор всех собственных векторов линейного преобразования, каждый из которых спарен со своим соответствующим собственным значением, называется собственная система этой трансформации.[8][9]
  • Множество всех собственных векторов Т соответствующая одному и тому же собственному значению вместе с нулевым вектором называется собственное подпространство, или характерное пространство из Т связанное с этим собственным значением.[10]
  • Если набор собственных векторов Т образует основа области Т, то этот базис называется собственный базис.

История

Собственные значения часто вводятся в контексте линейная алгебра или же матричная теория. Однако исторически они возникли при изучении квадратичные формы и дифференциальные уравнения.

В 18 веке Леонард Эйлер изучал вращательное движение жесткое тело, и обнаружил важность главные оси.[а] Жозеф-Луи Лагранж понял, что главные оси - это собственные векторы матрицы инерции.[11]

В начале 19 века Огюстен-Луи Коши увидел, как их работу можно использовать для классификации квадратичные поверхности, и обобщил его до произвольных размеров.[12] Коши также ввел термин racine caractéristique (характерный корень), для того, что сейчас называется собственное значение; его срок выживает в характеристическое уравнение.[b]

Потом, Жозеф Фурье использовал работы Лагранжа и Пьер-Симон Лаплас решить уравнение теплопроводности к разделение переменных в его знаменитой книге 1822 года Теория аналитик де ля шалёр.[13] Шарль-Франсуа Штурм развил идеи Фурье и привлек к ним внимание Коши, который объединил их со своими собственными идеями и пришел к тому факту, что реальные симметричные матрицы имеют действительные собственные значения.[12] Это было продлено Чарльз Эрмит в 1855 г. до того, что сейчас называется Эрмитовы матрицы.[14]

Примерно в то же время Франческо Бриоски доказал, что собственные значения ортогональные матрицы лежать на единичный круг,[12] и Альфред Клебш нашел соответствующий результат для кососимметричные матрицы.[14] Ну наконец то, Карл Вейерштрасс прояснил важный аспект в теория устойчивости начал Лаплас, осознав, что дефектные матрицы может вызвать нестабильность.[12]

В это время, Джозеф Лиувиль изучал проблемы собственных значений, аналогичные задачам Штурма; дисциплина, выросшая из их работы, теперь называется Теория Штурма – Лиувилля.[15] Шварц изучил первое собственное значение Уравнение Лапласа на общих владениях ближе к концу 19 века, а Пуанкаре учился Уравнение Пуассона несколькими годами позже.[16]

В начале 20 века Дэвид Гильберт изучил собственные значения интегральные операторы рассматривая операторы как бесконечные матрицы.[17] Он был первым, кто использовал Немецкий слово собственный, что означает "собственный",[7] для обозначения собственных значений и собственных векторов в 1904 году,[c] хотя он, возможно, следил за подобным использованием Герман фон Гельмгольц. Некоторое время стандартным термином на английском языке было «собственное значение», но сегодня стандартом является более характерный термин «собственное значение».[18]

Первый численный алгоритм вычисления собственных значений и собственных векторов появился в 1929 году, когда Рихард фон Мизес опубликовал силовой метод. Один из самых популярных сегодня методов - QR-алгоритм, был предложен независимо Джон Г. Фрэнсис[19] и Вера Кублановская[20] в 1961 г.[21][22]

Собственные значения и собственные векторы матриц

Собственные значения и собственные векторы часто знакомятся со студентами в контексте курсов линейной алгебры, посвященных матрицам.[23][24]Кроме того, линейные преобразования в конечномерном векторном пространстве могут быть представлены с помощью матриц,[25][4] что особенно часто встречается в численных и вычислительных приложениях.[26]

Матрица А действует, растягивая вектор Икс, не меняя своего направления, поэтому Икс является собственным вектором А.

Учитывать п-мерные векторы, которые формируются в виде списка п скаляры, такие как трехмерные векторы

Эти векторы называются скалярные кратные друг друга, или параллельно или же коллинеарен, если есть скаляр λ такой, что

В этом случае .

Теперь рассмотрим линейное преобразование п-мерные векторы, определяемые п к п матрица А,

или же

где для каждой строки

.

Если это произойдет, v и ш являются скалярными кратными, то есть если

 

 

 

 

(1)

тогда v является собственный вектор линейного преобразования А и масштабный коэффициент λ это собственное значение соответствующий этому собственному вектору. Уравнение (1) это уравнение на собственные значения для матрицы А.

Уравнение (1) можно эквивалентно сформулировать как

 

 

 

 

(2)

куда я это п к п единичная матрица а 0 - нулевой вектор.

Собственные значения и характеристический многочлен

Уравнение (2) имеет ненулевое решение v если и только если в детерминант матрицы (АλI) равно нулю. Следовательно, собственные значения А ценности λ которые удовлетворяют уравнению

 

 

 

 

(3)

С помощью Правило Лейбница для определителя левая часть уравнения (3) это многочлен функция переменной λ и степень этого полинома п, порядок матрицы А. Его коэффициенты зависят от записей А, за исключением того, что срок его степени п всегда (−1)пλп. Этот многочлен называется характеристический многочлен из А. Уравнение (3) называется характеристическое уравнение или светское уравнение из А.

В основная теорема алгебры следует, что характеристический многочлен п-к-п матрица А, будучи полиномом степени п, возможно учтенный в продукт п линейные члены,

 

 

 

 

(4)

где каждый λя может быть реальным, но в целом это комплексное число. Цифры λ1, λ2, ... λп, которые могут не иметь различных значений, являются корнями многочлена и собственными значениями А.

В качестве краткого примера, который более подробно описан в разделе примеров ниже, рассмотрим матрицу

Принимая определитель (АλI), характеристический многочлен А является

Если положить характеристический полином равным нулю, он будет иметь корни в λ = 1 и λ = 3, которые являются двумя собственными значениями А. Собственные векторы, соответствующие каждому собственному значению, могут быть найдены путем решения для компонентов v в уравнении . В этом примере собственные векторы представляют собой любые ненулевые скалярные числа, кратные

Если элементы матрицы А все являются действительными числами, то коэффициенты характеристического полинома также будут действительными числами, но собственные значения могут по-прежнему иметь ненулевые мнимые части. Поэтому элементы соответствующих собственных векторов также могут иметь ненулевые мнимые части. Точно так же собственные значения могут быть иррациональные числа даже если все записи А находятся рациональное число или даже если все они целые. Однако если записи А все алгебраические числа, которые включают рациональные числа, собственные значения - комплексные алгебраические числа.

Неверные корни действительного многочлена с действительными коэффициентами можно сгруппировать в пары комплексные конъюгаты, а именно с двумя членами каждой пары, имеющими мнимые части, которые отличаются только знаком, и одинаковую действительную часть. Если степень нечетная, то по теорема о промежуточном значении по крайней мере, один из корней настоящий. Поэтому любой вещественная матрица с нечетным порядком имеет по крайней мере одно действительное собственное значение, тогда как вещественная матрица с четным порядком может не иметь никаких действительных собственных значений. Собственные векторы, связанные с этими комплексными собственными значениями, также являются комплексными и также входят в комплексно сопряженные пары.

Алгебраическая множественность

Позволять λя быть собственным значением п к п матрица А. В алгебраическая кратность μА(λя) собственного значения является его множественность как корень характеристического полинома, т. е. наибольшего целого числа k такой, что (λλя)k делится равномерно этот многочлен.[10][27][28]

Предположим матрицу А имеет размер п и dп различные собственные значения. Принимая во внимание, что уравнение (4) множит характеристический многочлен А в продукт п линейные члены с потенциально повторяющимися членами, характеристический многочлен может быть записан как произведение d члены, каждый из которых соответствует отдельному собственному значению и возведен в степень алгебраической кратности,

Если d = п то правая часть - произведение п линейные члены, и это то же самое, что и Уравнение (4). Размер алгебраической кратности каждого собственного значения связан с размерностью п в качестве

Если μА(λя) = 1, то λя считается простое собственное значение.[28] Если μА(λя) равна геометрической кратности λя, γА(λя), определенный в следующем разделе, то λя считается полупростое собственное значение.

Собственные подпространства, геометрическая кратность и собственный базис матриц

Учитывая конкретное собственное значение λ из п к п матрица Аопределить набор E быть всеми векторами v которые удовлетворяют уравнению (2),

С одной стороны, этот набор и есть ядро или пустое пространство матрицы (АλI). С другой стороны, по определению, любой ненулевой вектор, удовлетворяющий этому условию, является собственным вектором А связана с λ. Итак, набор E это союз нулевого вектора с множеством всех собственных векторов А связана с λ, и E равно нулевому пространству (АλI). E называется собственное подпространство или же характерное пространство из А связана с λ.[29][10] В целом λ - комплексное число, а собственные векторы - комплексные п на 1 матрицу. Свойство нулевого пространства состоит в том, что это линейное подпространство, так E является линейным подпространством в ℂп.

Потому что собственное подпространство E - линейное подпространство, это закрыто под дополнением. То есть, если два вектора ты и v принадлежат к множеству E, написано ты, vE, тогда (ты + v) ∈ E или эквивалентно А(ты + v) = λ(ты + v). Это можно проверить с помощью распределительное свойство матричного умножения. Точно так же, потому что E - линейное подпространство, замкнутое относительно скалярного умножения. То есть, если vE а α - комплексное число, (αv) ∈ E или эквивалентно Аv) = λ(αv). Это можно проверить, отметив, что умножение комплексных матриц на комплексные числа коммутативный. Так долго как ты + v и αv не равны нулю, они также являются собственными векторами А связана с λ.

Размерность собственного подпространства E связана с λ, или, что то же самое, максимальное количество линейно независимых собственных векторов, связанных с λ, называется собственным значением геометрическая кратность γА(λ). Потому что E также является нулевым пространством (АλI) геометрическая кратность λ - размерность нулевого пространства (АλI), также называемый ничтожность из (АλI), который относится к размерности и рангу (АλI) в качестве

Из-за определения собственных значений и собственных векторов геометрическая кратность собственного значения должна быть не менее единицы, то есть каждое собственное значение имеет по крайней мере один связанный собственный вектор. Кроме того, геометрическая кратность собственного значения не может превышать его алгебраическую кратность. Кроме того, напомним, что алгебраическая кратность собственного значения не может превышать п.

Чтобы доказать неравенство рассмотрим, как из определения геометрической кратности следует существование ортонормированные собственные векторы , так что . Таким образом, мы можем найти (унитарную) матрицу чей первый столбцы являются этими собственными векторами, а оставшиеся столбцы могут быть любым ортонормированным набором векторы, ортогональные этим собственным векторам . потом имеет полный ранг и, следовательно, обратим, и с матрица, верхний левый блок которой является диагональной матрицей . Отсюда следует, что . Другими словами, похоже на , откуда следует, что . Но из определения мы знаем это содержит фактор , что означает, что алгебраическая кратность должен удовлетворить .

Предполагать имеет различные собственные значения , где геометрическая кратность является . Общая геометрическая кратность ,

это размер сумма всех собственных подпространств собственных значений, или, что то же самое, максимальное количество линейно независимых собственных векторов . Если , тогда

  • Прямая сумма собственных подпространств всех собственные значения - это все векторное пространство .
  • Основа может быть сформирован из линейно независимые собственные векторы ; такая основа называется собственный базис
  • Любой вектор в можно записать как линейную комбинацию собственных векторов .

Дополнительные свойства собственных значений

Позволять быть произвольным матрица комплексных чисел с собственными значениями . Каждое собственное значение появляется раз в этом списке, где - алгебраическая кратность собственного значения. Ниже приведены свойства этой матрицы и ее собственных значений:

  • В след из , определяемая как сумма его диагональных элементов, также является суммой всех собственных значений,
    [30][31][32]
  • В детерминант из является произведением всех собственных значений,
    [30][33][34]
  • Собственные значения th сила ; т.е. собственные значения , для любого положительного целого числа , находятся .
  • Матрица является обратимый тогда и только тогда, когда каждое собственное значение ненулевое.
  • Если обратима, то собственные значения находятся и геометрическая кратность каждого собственного значения совпадает. Более того, поскольку характеристический многочлен обратного обратный многочлен оригинала собственные значения имеют одинаковую алгебраическую кратность.
  • Если равен своему сопряженный транспонировать , или эквивалентно, если является Эрмитский, то каждое собственное значение вещественно. То же самое и с любым симметричный вещественная матрица.
  • Если не только эрмитский, но и положительно определенный, положительно-полуопределенный, отрицательно-определенный или отрицательно-полуопределенный, то каждое собственное значение будет положительным, неотрицательным, отрицательным или неположительным соответственно.
  • Если является унитарный, каждое собственное значение имеет модуль .
  • если это матрица и являются ее собственными значениями, то собственные значения матрицы (куда - единичная матрица) являются . Более того, если , собственные значения находятся . В более общем смысле, для полинома собственные значения матрицы находятся .

Левый и правый собственные векторы

Многие дисциплины традиционно представляют векторы как матрицы с одним столбцом, а не как матрицы с одной строкой. По этой причине слово «собственный вектор» в контексте матриц почти всегда относится к правый собственный вектор, а именно столбец вектор, который верно умножает матрица в определяющем уравнении Уравнение (1),

Задача на собственные значения и собственные векторы также может быть определена для ряд векторы, которые оставили матрица умножения . В этой формулировке определяющим уравнением является

куда скаляр и это матрица. Любой вектор-строка удовлетворяющий этому уравнению, называется левый собственный вектор из и ассоциированное с ним собственное значение. Транспонируя это уравнение,

Сравнивая это уравнение с уравнением (1), сразу следует, что левый собственный вектор то же самое, что транспонирование правого собственного вектора , с тем же собственным значением. Кроме того, поскольку характеристический многочлен совпадает с характеристическим полиномом , собственные значения левых собственных векторов такие же, как собственные значения правых собственных векторов .

Диагонализация и собственное разложение

Предположим, что собственные векторы А составляют основу, или что то же самое А имеет п линейно независимые собственные векторы v1, v2, ..., vп с соответствующими собственными значениями λ1, λ2, ..., λп. Собственные значения не обязательно должны быть разными. Определите квадратную матрицу Q чьи столбцы п линейно независимые собственные векторы А,

Поскольку каждый столбец Q является собственным вектором А, умножение вправо А к Q масштабирует каждый столбец Q по собственному значению,

Имея это в виду, определим диагональную матрицу Λ, где каждый диагональный элемент Λii - собственное значение, связанное с я-й столбец Q. потом

Поскольку столбцы Q линейно независимы, Q обратима. Справа, умножив обе части уравнения на Q−1,

или вместо этого умножая обе стороны слева на Q−1,

А поэтому может быть разложена на матрицу, состоящую из собственных векторов, диагональную матрицу с собственными значениями по диагонали и матрицу, обратную матрице собственных векторов. Это называется собственное разложение и это преобразование подобия. Такая матрица А как говорят похожий диагональной матрице Λ или диагонализуемый. Матрица Q - изменение базисной матрицы преобразования подобия. По сути, матрицы А и Λ представляют собой одно и то же линейное преобразование, выраженное в двух разных базах. Собственные векторы используются в качестве основы при представлении линейного преобразования как Λ.

Наоборот, предположим, что матрица А диагонализуема. Позволять п - невырожденная квадратная матрица такая, что п−1AP это некоторая диагональная матрица D. Осталось умножить оба на п, AP = PD. Каждый столбец п поэтому должен быть собственным вектором А собственное значение которого является соответствующим диагональным элементом D. Поскольку столбцы п должен быть линейно независимым для п быть обратимым, существуют п линейно независимые собственные векторы А. Отсюда следует, что собственные векторы матрицы А составляют основу тогда и только тогда, когда А диагонализуема.

Матрица, которая не диагонализуема, называется дефектный. Для дефектных матриц понятие собственных векторов обобщается на обобщенные собственные векторы а диагональная матрица собственных значений обобщается на Нормальная форма Джордана. Над алгебраически замкнутым полем любая матрица А имеет Нормальная форма Джордана и поэтому допускает базис из обобщенных собственных векторов и разложение на обобщенные собственные подпространства.

Вариационная характеристика

в Эрмитский В этом случае собственным значениям можно дать вариационную характеристику. Наибольшее собственное значение это максимальное значение квадратичная форма . Ценность который реализует этот максимум, является собственным вектором.

Примеры матриц

Пример двумерной матрицы

Матрица преобразования А = сохраняет направление фиолетовых векторов параллельно vλ=1 = [1 −1]Т и синие векторы, параллельные vλ=3 = [1 1]Т. Красные векторы не параллельны ни одному из собственных векторов, поэтому их направления изменяются преобразованием. Длины фиолетовых векторов не изменяются после преобразования (из-за их собственного значения 1), в то время как синие векторы в три раза больше длины оригинала (из-за их собственного значения 3). Смотрите также: Расширенная версия, показывающая все четыре квадранта.

Рассмотрим матрицу

На рисунке справа показано влияние этого преобразования на координаты точки на плоскости. v этого преобразования удовлетворяют уравнению (1), а значения λ для которого определитель матрицы (А − λI) равны нулю - собственные значения.

Взяв определитель, чтобы найти характеристический многочлен А,

Если положить характеристический полином равным нулю, он будет иметь корни в λ=1 и λ=3, которые являются двумя собственными значениями А.

За λ=1, Уравнение (2) становится,

;

Любой ненулевой вектор с v1 = −v2 решает это уравнение. Следовательно,

является собственным вектором А соответствующий λ = 1, как и любое скалярное кратное этого вектора.

За λ=3, Уравнение (2) становится

;

Любой ненулевой вектор с v1 = v2 решает это уравнение. Следовательно,

является собственным вектором А соответствующий λ = 3, как и любое скалярное кратное этого вектора.

Таким образом, векторы vλ=1 и vλ=3 являются собственными векторами А связанные с собственными значениями λ=1 и λ=3, соответственно.

Пример трехмерной матрицы

Рассмотрим матрицу

Характеристический многочлен А является

Корни характеристического полинома равны 2, 1 и 11, которые являются единственными тремя собственными значениями А. Эти собственные значения соответствуют собственным векторам и , или любое ненулевое кратное ему.

Пример трехмерной матрицы с комплексными собственными значениями

Рассмотрим матрица циклической перестановки

Эта матрица сдвигает координаты вектора вверх на одну позицию и перемещает первую координату вниз. Его характеристический полином равен 1 -λ3, чьи корни

куда мнимая единица с

Для действительного собственного значения λ1 = 1, любой вектор с тремя равными ненулевыми элементами является собственным вектором. Например,

Для комплексно сопряженной пары мнимых собственных значений

потом

и

Следовательно, два других собственных вектора матрицы А сложные и и с собственными значениями λ2 и λ3, соответственно. Два комплексных собственных вектора также входят в комплексно сопряженную пару:

Пример диагональной матрицы

Матрицы с элементами только по главной диагонали называются диагональные матрицы. Собственные значения диагональной матрицы - это сами диагональные элементы. Рассмотрим матрицу

Характеристический многочлен А является

имеющий корни λ1=1, λ2=2, и λ3=3. Эти корни являются диагональными элементами, а также собственными значениямиА.

Каждый диагональный элемент соответствует собственному вектору, единственный ненулевой компонент которого находится в той же строке, что и этот диагональный элемент. В этом примере собственные значения соответствуют собственным векторам,

соответственно, а также скалярные кратные этих векторов.

Пример треугольной матрицы

Матрица, у которой все элементы над главной диагональю равны нулю, называется ниже треугольная матрица, а матрица, все элементы которой ниже главной диагонали равны нулю, называется верхнетреугольная матрица. Как и в случае диагональных матриц, собственные значения треугольных матриц являются элементами главной диагонали.

Рассмотрим нижнюю треугольную матрицу,

Характеристический многочлен А является

имеющий корни λ1=1, λ2=2, и λ3=3. Эти корни являются диагональными элементами, а также собственными значениямиА.

Эти собственные значения соответствуют собственным векторам,

соответственно, а также скалярные кратные этих векторов.

Пример матрицы с повторяющимися собственными значениями

Как и в предыдущем примере, нижняя треугольная матрица

имеет характеристический многочлен, который является произведением его диагональных элементов,

Корни этого многочлена, а следовательно, и собственные значения, равны 2 и 3. алгебраическая кратность каждого собственного значения 2; другими словами, они оба являются двойными корнями. Сумма алгебраических кратностей всех различных собственных значений равна μА = 4 = п, порядок характеристического полинома и размерность А.

С другой стороны, геометрическая кратность собственного значения 2 составляет всего 1, потому что его собственное подпространство охватывает только один вектор и поэтому одномерный. Точно так же геометрическая кратность собственного значения 3 равна 1, потому что его собственное подпространство натянуто только на один вектор . Общая геометрическая кратность γА равно 2, что является наименьшим значением для матрицы с двумя различными собственными значениями. Геометрические множественности определены в следующем разделе.

Тождество собственного вектора и собственного значения

Для Эрмитова матрица, квадрат нормы j-й компонент нормализованного собственного вектора может быть вычислен с использованием только собственных значений матрицы и собственных значений соответствующих малая матрица,

куда это подматрица сформированный путем удаления j-я строка и столбец исходной матрицы.[35][36][37]

Собственные значения и собственные функции дифференциальных операторов

Определения собственного значения и собственных векторов линейного преобразования Т остается в силе, даже если лежащее в основе векторное пространство является бесконечномерным Гильберта или же Банахово пространство. Широко используемым классом линейных преобразований, действующих на бесконечномерные пространства, являются дифференциальные операторы на функциональные пространства. Позволять D - линейный дифференциальный оператор в пространстве C бесконечно дифференцируемый реальные функции реального аргумента т. Уравнение на собственные значения для D это дифференциальное уравнение

Функции, удовлетворяющие этому уравнению, являются собственными векторами D и обычно называются собственные функции.

Пример производного оператора

Рассмотрим производный оператор с уравнением на собственные значения

Это дифференциальное уравнение можно решить, умножив обе части на dt/ж(т) и интегрируя. Его решение, экспоненциальная функция

- собственная функция производного оператора.В этом случае собственная функция сама является функцией связанного с ней собственного значения. В частности, для λ = 0 собственная функция ж(т) - постоянная.

Главный собственная функция В статье приведены другие примеры.

Общее определение

Понятие собственных значений и собственных векторов естественным образом распространяется на произвольные линейные преобразования на произвольных векторных пространствах. Позволять V любое векторное пространство над некоторым поле K из скаляры, и разреши Т отображение линейного преобразования V в V,

Мы говорим, что ненулевой вектор vV является собственный вектор из Т тогда и только тогда, когда существует скаляр λK такой, что

 

 

 

 

(5)

Это уравнение называется уравнением на собственные значения для Т, а скаляр λ это собственное значение из Т соответствующий собственному вектору v. Т(v) является результатом применения преобразования Т к вектору v, пока λv это произведение скаляра λ с v.[38][39]

Собственные подпространства, геометрическая кратность и собственный базис

Учитывая собственное значение λ, рассмотрим множество

который представляет собой объединение нулевого вектора с множеством всех собственных векторов, связанных сλ. E называется собственное подпространство или же характерное пространство из Т связана сλ.

По определению линейного преобразования

за (Икс,у) ∈ V и α ∈ K. Следовательно, если ты и v являются собственными векторами Т связанный с собственным значением λ, а именно ты,vE, тогда

Итак, оба ты + v и αv являются либо нулевыми, либо собственными векторами Т связана с λ, а именно ты + v, αvE, и E замкнуто относительно сложения и скалярного умножения. Собственное подпространство E связана с λ поэтому является линейным подпространством в V.[40]Если это подпространство имеет размерность 1, его иногда называют собственная линия.[41]

В геометрическая кратность γТ(λ) собственного значения λ размерность собственного подпространства, связанного с λ, то есть максимальное количество линейно независимых собственных векторов, связанных с этим собственным значением.[10][28] По определению собственных значений и собственных векторов γТ(λ) ≥ 1, поскольку каждое собственное значение имеет хотя бы один собственный вектор.

Собственные подпространства Т всегда составлять прямая сумма. Как следствие, собственные векторы разные собственные значения всегда линейно независимы. Следовательно, сумма размеров собственных подпространств не может превышать размерности п векторного пространства, на котором Т действует, и не может быть больше, чем п различные собственные значения.[d]

Любое подпространство, порожденное собственными векторами Т является инвариантное подпространство из Т, а ограничение Т в такое подпространство диагонализуемо. Более того, если все векторное пространство V можно натянуть на собственные векторы Т, или, что то же самое, если прямая сумма собственных подпространств, связанных со всеми собственными значениями Т это все векторное пространство V, то основа V называется собственный базис могут быть сформированы из линейно независимых собственных векторов Т. Когда Т допускает собственный базис, Т диагонализуема.

Нулевой вектор как собственный вектор

Хотя определение собственного вектора, используемое в этой статье, исключает нулевой вектор, можно определить собственные значения и собственные векторы так, чтобы нулевой вектор был собственным вектором.[42]

Снова рассмотрим уравнение на собственные значения, Уравнение (5). Определить собственное значение быть любым скаляром λK такой, что существует ненулевой вектор vV удовлетворяющее уравнению (5). Важно, чтобы в этой версии определения собственного значения указывается, что вектор не равен нулю, иначе по этому определению нулевой вектор допускает любой скаляр в K быть собственным значением. Определить собственный вектор v связанный с собственным значением λ быть любым вектором, который, учитывая λ, удовлетворяет уравнению (5). Учитывая собственное значение, нулевой вектор находится среди векторов, которые удовлетворяют уравнению (5), поэтому нулевой вектор включается в число собственных векторов этим альтернативным определением.

Спектральная теория

Если λ является собственным значением Т, то оператор (ТλI) не взаимно однозначно, поэтому обратное (ТλI)−1 не существует. Обратное верно для конечномерных векторных пространств, но не для бесконечномерных векторных пространств. В общем, оператор (ТλI) может не иметь обратного, даже если λ не является собственным значением.

По этой причине в функциональный анализ собственные значения могут быть обобщены на спектр линейного оператора Т как набор всех скаляров λ для которого оператор (ТλI) не имеет ограниченный обратный. Спектр оператора всегда содержит все его собственные значения, но не ограничивается ими.

Ассоциативные алгебры и теория представлений

Можно обобщить алгебраический объект, действующий в векторном пространстве, заменив единственный оператор, действующий в векторном пространстве, на представление алгебры - ан ассоциативная алгебра действуя на модуль. Изучение таких действий - область теория представлений.

В теоретико-репрезентативное понятие веса является аналогом собственных значений, а весовые векторы и весовые пространства являются аналогами собственных векторов и собственных подпространств соответственно.

Динамические уравнения

Простейший разностные уравнения иметь форму

Решение этого уравнения для Икс с точки зрения т находится с помощью его характеристического уравнения

которые можно найти, сложив в матрицу систему уравнений, состоящую из приведенного выше разностного уравнения и k - 1 уравнение давая k-мерная система первого порядка в векторе суммированных переменных в терминах его однократно запаздывающего значения и взятия характеристического уравнения матрицы этой системы. Это уравнение дает k характерные корни для использования в решении уравнения

Аналогичная процедура используется для решения дифференциальное уравнение формы

Расчет

Вычисление собственных значений и собственных векторов - это тема, в которой теория, представленная в учебниках элементарной линейной алгебры, часто очень далека от практики.

Классический метод

Классический метод состоит в том, чтобы сначала найти собственные значения, а затем вычислить собственные векторы для каждого собственного значения. Во многих отношениях он плохо подходит для неточной арифметики, такой как плавающая точка.

Собственные значения

Собственные значения матрицы можно определить, найдя корни характеристического многочлена. Это легко для матрицы, но сложность быстро увеличивается с увеличением размера матрицы.

Теоретически коэффициенты характеристического полинома можно вычислить точно, поскольку они являются суммами произведений матричных элементов; и есть алгоритмы, которые могут найти все корни многочлена произвольной степени до любой требуемой точность.[43] Однако на практике этот подход нежизнеспособен, поскольку коэффициенты будут загрязнены неизбежными ошибки округления, а корни полинома могут быть чрезвычайно чувствительной функцией коэффициентов (как показано на примере Полином Уилкинсона).[43] Даже для матриц, элементы которых являются целыми числами, вычисление становится нетривиальным, поскольку суммы очень велики; постоянный член - это детерминант, что для это сумма разные продукты.[e]

Явный алгебраические формулы так как корни многочлена существуют, только если степень 4 или меньше. Согласно Теорема Абеля – Руффини не существует общей, явной и точной алгебраической формулы для корней многочлена степени 5 или выше. (Общность имеет значение, потому что любой многочлен со степенью - характеристический многочлен некоторого сопутствующая матрица порядка .) Следовательно, для матриц порядка 5 и более собственные значения и собственные векторы не могут быть получены с помощью явной алгебраической формулы и, следовательно, должны быть вычислены с помощью приближенного численные методы. Даже точная формула для корней многочлена степени 3 численно нецелесообразно.

Собственные векторы

Как только (точное) значение собственного значения известно, соответствующие собственные векторы могут быть найдены путем нахождения ненулевых решений уравнения для собственных значений, которое становится система линейных уравнений с известными коэффициентами. Например, если известно, что 6 - собственное значение матрицы

мы можем найти его собственные векторы, решив уравнение , то есть

Это матричное уравнение эквивалентно двум линейные уравнения

     то есть     

Оба уравнения сводятся к одному линейному уравнению . Следовательно, любой вектор вида , для любого ненулевого действительного числа , является собственным вектором с собственным значением .

Матрица выше имеет другое собственное значение . Аналогичный расчет показывает, что соответствующие собственные векторы являются ненулевыми решениями , то есть любой вектор вида , для любого ненулевого действительного числа .

Простые итерационные методы

Обратный подход, когда сначала ищут собственные векторы, а затем определяют каждое собственное значение по собственному вектору, оказывается гораздо более приемлемым для компьютеров. Самый простой алгоритм здесь состоит из выбора произвольного начального вектора и последующего многократного умножения его на матрицу (при необходимости нормализация вектора для сохранения его элементов разумного размера); это заставляет вектор сходиться к собственному вектору. Вариант вместо этого умножить вектор на ; это заставляет его сходиться к собственному вектору собственного значения, ближайшего к .

Если является (хорошим приближением) собственным вектором , то соответствующее собственное значение может быть вычислено как

куда обозначает сопряженный транспонировать из .

Современные методы

Эффективные и точные методы вычисления собственных значений и собственных векторов произвольных матриц не были известны до QR-алгоритм был разработан в 1961 году.[43] Объединение Преобразование домохозяина с разложением LU приводит к алгоритму с лучшей сходимостью, чем алгоритм QR.[нужна цитата] Для больших Эрмитский разреженные матрицы, то Алгоритм Ланцоша является одним из примеров эффективного итерационный метод для вычисления собственных значений и собственных векторов, среди нескольких других возможностей.[43]

Большинство численных методов, которые вычисляют собственные значения матрицы, также определяют набор соответствующих собственных векторов как побочный продукт вычисления, хотя иногда разработчики предпочитают отбрасывать информацию о собственном векторе, как только она больше не нужна.

Приложения

Собственные значения геометрических преобразований

В следующей таблице представлены некоторые примеры преобразований на плоскости вместе с их матрицами 2 × 2, собственными значениями и собственными векторами.

МасштабированиеНеравномерное масштабированиеВращениеГоризонтальный сдвигГиперболическое вращение
ИллюстрацияРавное масштабирование (гомотетия)Вертикальная усадка и горизонтальная растяжка единичного квадрата.Поворот на 50 градусов
Картирование горизонтального сдвига
Сжать r = 1.5.svg
Матрица



Характеристика
многочлен
Собственные значения,


,
Алгебраический мульт.,



Геометрический мульт.,



Собственные векторыВсе ненулевые векторы

Характеристическое уравнение вращения - это квадратное уровненеие с дискриминант , которое является отрицательным числом всякий раз, когда θ не является целым числом, кратным 180 °. Следовательно, за исключением этих частных случаев, два собственных значения являются комплексными числами, ; и все собственные векторы имеют ненастоящие элементы. В самом деле, за исключением этих частных случаев, поворот изменяет направление любого ненулевого вектора на плоскости.

Линейное преобразование, превращающее квадрат в прямоугольник той же площади ( сжатие) имеет обратные собственные значения.

Уравнение Шредингера

В волновые функции связанный с связанные состояния из электрон в атом водорода можно рассматривать как собственные векторы гамильтониан атома водорода а также оператор углового момента. Они связаны с собственными значениями, интерпретируемыми как их энергии (возрастающие вниз: ) и угловой момент (увеличивается по горизонтали: s, p, d, ...). На рисунке показан квадрат абсолютного значения волновых функций. Более яркие области соответствуют более высоким плотность вероятности на должность измерение. В центре каждой фигуры находится атомное ядро, а протон.

Пример уравнения на собственные значения, в котором преобразование представлена ​​в терминах дифференциального оператора. Уравнение Шредингера в квантовая механика:

куда , то Гамильтониан, является вторым порядком дифференциальный оператор и , то волновая функция, - одна из его собственных функций, соответствующая собственному значению , интерпретируется как его энергия.

Однако в случае, когда вас интересует только связанное состояние решения уравнения Шредингера, ищем в пространстве квадратично интегрируемый функции. Поскольку это пространство Гильбертово пространство с четко определенным скалярное произведениеможно ввести базисный набор в котором и может быть представлен как одномерный массив (т.е. вектор) и матрица соответственно. Это позволяет представить уравнение Шредингера в матричной форме.

В обозначение бюстгальтера часто используется в этом контексте. Вектор, который представляет состояние системы, в гильбертовом пространстве функций, интегрируемых с квадратом, представлен как . В этих обозначениях уравнение Шредингера имеет вид:

куда является собственное состояние из и представляет собственное значение. является наблюдаемый самосопряженный оператор, бесконечномерный аналог эрмитовых матриц. Как и в матричном случае, в приведенном выше уравнении под вектором, полученным преобразованием к .

Молекулярные орбитали

В квантовая механика, и в частности в атомный и молекулярная физика, в пределах Хартри – Фок теория, атомный и молекулярные орбитали можно определить собственными векторами Оператор Фока. Соответствующие собственные значения интерпретируются как потенциалы ионизации через Теорема Купманса. В этом случае термин собственный вектор используется в несколько более общем смысле, поскольку оператор Фока явно зависит от орбиталей и их собственных значений. Таким образом, если кто-то хочет подчеркнуть этот аспект, говорят о нелинейных задачах на собственные значения. Такие уравнения обычно решаются итерация процедура, вызываемая в этом случае самосогласованное поле метод. В квантовая химия, часто представляют уравнение Хартри – Фока в не-ортогональный базисный набор. Это конкретное представление является обобщенная задача на собственные значения называется Уравнения Рутана.

Геология и гляциология

В геология, особенно при изучении ледниковый до, собственные векторы и собственные значения используются в качестве метода, с помощью которого масса информации об ориентации и падении составляющих обломочной ткани может быть суммирована в трехмерном пространстве шестью числами. В полевых условиях геолог может собрать такие данные для сотен или тысяч Clasts в образце почвы, который можно сравнить только графически, например, на диаграмме Tri-Plot (Sneed and Folk),[44][45] или как стереосеть в сети Wulff.[46]

Выходные данные тензора ориентации находятся в трех ортогональных (перпендикулярных) осях пространства. Три собственных вектора упорядочены по собственным значениям ;[47] тогда это первичная ориентация / наклон обломка, вторичный и является высшим по силе. Ориентация кластера определяется как направление собственного вектора на картушка из 360°. Углубление измеряется как собственное значение, модуль тензора: он оценивается от 0 ° (без наклона) до 90 ° (по вертикали). Относительные значения , , и продиктованы природой ткани осадка. Если ткань называется изотропной. Если ткань называется плоской. Если ткань называется линейной.[48]

Анализ главных компонентов

СПС многомерное распределение Гаусса сосредоточен на со стандартным отклонением 3 примерно в направлении и 1 в ортогональном направлении. Показанные векторы являются единичными собственными векторами (симметричной, положительно-полуопределенной) ковариационная матрица масштабируется на квадратный корень из соответствующего собственного значения. (Как и в одномерном случае, квадратный корень берется, потому что стандартное отклонение легче визуализировать, чем отклонение.

В собственное разложение из симметричный положительно полуопределенный (PSD) матрица дает ортогональный базис собственных векторов, каждый из которых имеет неотрицательное собственное значение. Ортогональное разложение матрицы PSD используется в многомерный анализ, где образец ковариационные матрицы являются PSD. Это ортогональное разложение называется Анализ главных компонентов (PCA) в статистике. Исследования PCA линейные отношения среди переменных. PCA выполняется на ковариационная матрица или корреляционная матрица (в котором каждая переменная масштабируется, чтобы иметь выборочная дисперсия равно единице). Для ковариационной или корреляционной матрицы собственные векторы соответствуют основные компоненты и собственные значения объяснение расхождения по основным компонентам. Анализ главных компонент корреляционной матрицы дает ортогональный базис для пространства наблюдаемых данных: в этом базисе наибольшие собственные значения соответствуют основным компонентам, которые связаны с большей частью ковариабельности среди ряда наблюдаемых данных.

Анализ главных компонентов используется как средство уменьшение размерности в изучении больших наборы данных, например, встречающиеся в биоинформатика. В Q методология, собственные значения корреляционной матрицы определяют суждение Q-методиста о практичный значение (которое отличается от Статистическая значимость из проверка гипотезы; ср. критерии определения количества факторов). В более общем смысле, анализ главных компонентов можно использовать как метод факторный анализ в структурное моделирование уравнение.

Анализ вибрации

Форма колебаний камертона на собственной частоте 440,09 Гц

Проблемы собственных значений возникают естественным образом при анализе вибрации механических конструкций со многими степени свободы. Собственные значения - это собственные частоты (или собственные частоты) колебания, а собственные векторы - формы этих колебательных мод. В частности, незатухающая вибрация регулируется

или же

то есть ускорение пропорционально положению (т.е. мы ожидаем быть синусоидальной по времени).

В размеры, становится матрица масс и а матрица жесткости. Допустимые решения представляют собой линейную комбинацию решений обобщенная задача на собственные значения

куда - собственное значение и это (воображаемый) угловая частота. Основные моды колебаний отличаются от основных мод податливости, которые являются собственными векторами один. Более того, затухающая вибрация, регулируется

приводит к так называемому квадратичная задача на собственные значения,

Это можно свести к обобщенной проблеме собственных значений с помощью алгебраические манипуляции ценой решения более крупной системы.

Свойства ортогональности собственных векторов позволяют разделить дифференциальные уравнения, так что система может быть представлена ​​как линейное суммирование собственных векторов. Проблема собственных значений сложных структур часто решается с использованием анализ методом конечных элементов, но аккуратно обобщают решение задач вибрации со скалярными значениями.

Eigenfaces

Eigenfaces как примеры собственных векторов

В обработка изображенийобработанные изображения лиц можно рассматривать как векторы, компонентами которых являются яркость каждого пиксель.[49] Размерность этого векторного пространства - это количество пикселей. Собственные векторы ковариационная матрица связанные с большим набором нормализованных изображений лиц, называются собственные лица; это пример Анализ главных компонентов. Они очень полезны для выражения любого изображения лица в виде линейная комбинация некоторых из них. в распознавание лиц филиал биометрия, собственные грани позволяют применять Сжатие данных к лицам для идентификация целей. Также были проведены исследования, связанные с системами собственного зрения, определяющими жесты рук.

Подобно этой концепции, собственные голоса представляют собой общее направление вариабельности человеческого произношения определенного высказывания, например слова на языке. На основе линейной комбинации таких собственных голосов можно построить новое голосовое произношение слова. Эти концепции оказались полезными в системах автоматического распознавания речи для адаптации говорящего.

Тензор момента инерции

В механика, собственные векторы тензор момента инерции определить главные оси из жесткое тело. В тензор момента инерция - ключевая величина, необходимая для определения вращения твердого тела вокруг его центр массы.

Тензор напряжения

В механика твердого тела, то стресс тензор симметричен и поэтому может быть разложен на диагональ тензор с собственными числами на диагонали и собственными векторами в качестве основы. Поскольку он диагонален, в этой ориентации тензор напряжений не имеет срезать составные части; компоненты, которые он имеет, являются основными компонентами.

Графики

В спектральная теория графов, собственное значение график определяется как собственное значение графа матрица смежности , или (все чаще) графа Матрица лапласа из-за его дискретный оператор Лапласа, который либо (иногда называют комбинаторный лапласиан) или же (иногда называют нормализованный лапласиан), куда диагональная матрица с равный степени вершины , И в , то й диагональный вход . В -й главный собственный вектор графа определяется как собственный вектор, соответствующий th по величине или -е наименьшее собственное значение лапласиана. Первый главный собственный вектор графа также называется просто главным собственным вектором.

Главный собственный вектор используется для измерения центральность его вершин. Примером является Googleс PageRank алгоритм. Главный собственный вектор модифицированного матрица смежности графа World Wide Web дает странице ранги в качестве ее компонентов. Этот вектор соответствует стационарное распределение из Цепь Маркова представлен нормализованной по строкам матрицей смежности; однако сначала необходимо изменить матрицу смежности, чтобы гарантировать существование стационарного распределения. Второй наименьший собственный вектор можно использовать для разделения графа на кластеры с помощью спектральная кластеризация. Также доступны другие методы кластеризации.

Базовый номер репродукции

Базовый номер репродукции () является фундаментальным числом в изучении распространения инфекционных заболеваний. Если поместить одного инфекционного человека в группу полностью восприимчивых людей, то это среднее количество людей, которых заразит один типичный инфекционный человек. Время зарождения инфекции - это время, , от заражения одного человека к другому. В неоднородной популяции матрица следующего поколения определяет, сколько человек в популяции заразится через некоторое время. прошел. тогда является наибольшим собственным значением матрицы следующего поколения.[50][51]

Смотрите также

Примечания

  1. ^ Примечание:
    • В 1751 году Леонард Эйлер доказал, что любое тело имеет главную ось вращения: Леонард Эйлер (представлено: октябрь 1751; опубликовано: 1760) "Du mouvement d'un corps solide quelconque lorsqu'il tourne autour d'un ax mobile" (О движении любого твердого тела при его вращении вокруг движущейся оси), Histoire de l'Académie Royale des Sciences et des Belles Lettres de BerlinС. 176–227. На стр. 212, Эйлер доказывает, что любое тело содержит главную ось вращения: "Теорема. 44. De quelque figure que soit le corps, on y peut toujours assigner un tel ax, qui pas par son center de gravité, autour duquel le corps peut tourner librement & d'un mouvement uniforme". (Теорема 44. Какой бы ни была форма тела, ему всегда можно присвоить такую ​​ось, которая проходит через его центр тяжести, вокруг которого оно может вращаться свободно и равномерно.)
    • В 1755 г. Иоганн Андреас Сегнер доказал, что любое тело имеет три главные оси вращения: Иоганн Андреас Сегнер, Образец theoriae turbinum [Очерк теории вершин (т. Е. Вращающихся тел)] (Halle («Halae»), (Германия): Gebauer, 1755). (https://books.google.com/books?id=29 п. xxviiii [29]), Сегнер выводит уравнение третьей степени в т, что доказывает наличие у тела трех главных осей вращения. Затем он заявляет (на той же странице): «Non autem repugnat tres esse eiusmodi positiones plani HM, quia in aequatione cubica radices tres esse Possunt, et tres tangentis t valores». (Однако это не противоречит [наличие] трех таких положений плоскости HM, потому что в кубических уравнениях [там] может быть три корня и три значения касательной t.)
    • Соответствующий отрывок из работы Сегнера был кратко обсужден Артур Кэли. См .: А. Кэли (1862 г.) «Отчет о ходе решения некоторых специальных задач динамики». Отчет о тридцать втором заседании Британской ассоциации содействия развитию науки; состоялась в Кембридже в октябре 1862 г., 32: 184–252; особенно видеть С. 225–226.
  2. ^ Клайн 1972, стр. 807–808 Огюстен Коши (1839) "Mémoire sur l'intégration des équations linéaires" (Мемуар об интегрировании линейных уравнений), Comptes rendus, 8: 827–830, 845–865, 889–907, 931–937. С п. 827: "On sait d'ailleurs qu'en suivant la méthode de Lagrange, on obtient pour valeur générale de la variable prinicipale une fonction dans laquelle entrent avec la variable Principale les racines d'une sure équation que j'appellerai l 'équation caractéristique, le degré de cette équation étant précisément l'order de l'équation différentielle qu'il s'agit d'intégrer ". (Более того, известно, что следуя методу Лагранжа, для общего значения главной переменной получают функцию, в которой вместе с главной переменной появляются корни определенного уравнения, которое я назову «характеристическим уравнением». (степень этого уравнения является в точности порядком дифференциального уравнения, которое необходимо проинтегрировать.)
  3. ^ Видеть:
    • Дэвид Гильберт (1904) "Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen. (Erste Mitteilung)" (Основы общей теории линейных интегральных уравнений. (Первое сообщение)), Nachrichten von der Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse (Новости Философского общества в Геттингене, математико-физический раздел), стр. 49–91. С п. 51: "Insbesondere in dieser ersten Mitteilung gelange ich zu Formeln, die Entwickelung einer willkürlichen Funktion nach gewissen ausgezeichneten Funktionen, die ich 'Eigenfunktionen' nenne, liefern: ..." (В частности, в этом первом отчете я прихожу к формулам, которые обеспечивают [последовательное] развитие произвольной функции в терминах некоторых отличительных функций, которые я называю собственные функции:…) Позже на той же странице: «Dieser Erfolg ist wesentlich durch den Umstand bedingt, daß ich nicht, wie es bisher geschah, in erster Linie auf den Beweis für die Existenz der Eigenwerte ausgehe,…» (Этот успех в основном объясняется тем фактом, что я, как это происходило до сих пор, не ставлю своей целью прежде всего доказательство существования собственных значений, ...)
    • О происхождении и эволюции терминов собственное значение, характеристическое значение и т. Д. См .: Самые ранние известные варианты использования некоторых слов математики (E)
  4. ^ Доказательство этой леммы см. Роман 2008, Теорема 8.2 на с. 186; Шилов 1977, п. 109; Хефферон 2001, п. 364; Beezer 2006, Теорема EDELI на с. 469; и Лемма о линейной независимости собственных векторов
  5. ^ При выполнении Гауссово исключение над формальный степенной ряд усечено до условия, которые можно избежать операции, но это не требует комбинаторный взрыв в учетную запись.

Цитаты

  1. ^ «Исчерпывающий список символов алгебры». Математическое хранилище. 25 марта 2020 г.. Получено 19 августа 2020.
  2. ^ Бремя и ярмарки 1993, п. 401.
  3. ^ Герштейн 1964С. 228, 229.
  4. ^ а б Неринг 1970, п. 38.
  5. ^ Вайсштейн, Эрик В. «Собственное значение». mathworld.wolfram.com. Получено 19 августа 2020.
  6. ^ Беттеридж 1965.
  7. ^ а б «Собственный вектор и собственное значение». www.mathsisfun.com. Получено 19 августа 2020.
  8. ^ Press et al. 2007 г., п. 536.
  9. ^ Wolfram.com: собственный вектор.
  10. ^ а б c d Неринг 1970, п. 107.
  11. ^ Хокинс 1975, §2.
  12. ^ а б c d Хокинс 1975, §3.
  13. ^ Клайн 1972, п. 673.
  14. ^ а б Клайн 1972С. 807–808.
  15. ^ Клайн 1972С. 715–716.
  16. ^ Клайн 1972С. 706–707.
  17. ^ Клайн 1972, п. 1063, стр ..
  18. ^ Олдрич 2006.
  19. ^ Фрэнсис 1961С. 265–271.
  20. ^ Кублановская 1961С. 637–657.
  21. ^ Голуб и Ван Лоан 1996, §7.3.
  22. ^ Мейер 2000, §7.3.
  23. ^ Математический факультет Корнельского университета (2016) Курсы начального уровня для первокурсников и второкурсников. Проверено 27 марта 2016 г.
  24. ^ Математический университет Мичигана (2016) Каталог курсов математики В архиве 2015-11-01 на Wayback Machine. Проверено 27 марта 2016 г.
  25. ^ Герштейн 1964, pp. 228, 229.
  26. ^ Press et al. 2007 г., п. 38.
  27. ^ Фрали 1976, п. 358.
  28. ^ а б c Голуб и Ван Лоан 1996, п. 316.
  29. ^ Антон 1987, pp. 305,307.
  30. ^ а б Борегар и Фрали 1973, п. 307.
  31. ^ Герштейн 1964, п. 272.
  32. ^ Неринг 1970С. 115–116.
  33. ^ Герштейн 1964, п. 290.
  34. ^ Неринг 1970, п. 116.
  35. ^ Волчонок 2019.
  36. ^ Denton et al. 2019 г..
  37. ^ Ван Мигем 2014.
  38. ^ Korn & Korn 2000, Раздел 14.3.5a.
  39. ^ Фридберг, Инзель и Спенс 1989, п. 217.
  40. ^ Неринг 1970, п. 107; Шилов 1977, п. 109 Лемма для собственного подпространства
  41. ^ Липшуц и Липсон 2002, п. 111.
  42. ^ Axler, п. 77.
  43. ^ а б c d Trefethen & Bau 1997.
  44. ^ Грэм и Мидгли 2000С. 1473–1477.
  45. ^ Снид и Фолк 1958С. 114–150.
  46. ^ Нокс-Робинсон и Гардолл 1998, п. 243.
  47. ^ Программное обеспечение Stereo32
  48. ^ Бенн и Эванс 2004С. 103–107.
  49. ^ Xirouhakis, Votsis & Delopoulus 2004.
  50. ^ Журнал математической биологии 1990С. 365–382.
  51. ^ Хестербик и Дикманн 2000.

Источники

дальнейшее чтение

внешняя ссылка

Теория

Демонстрационные апплеты