مقالات

7.4: وجود القيم الذاتية - الرياضيات


فيما يلي ، نريد دراسة السؤال عن وقت وجود قيم eigenvalues ​​لعامل معين (T ). للإجابة على هذا السؤال ، سنستخدم كثيرات الحدود (p (z) in mathbb {F} [z] ) التي تم تقييمها على عوامل التشغيل (T in mathcal {L} (V، V) ) (أو ، بشكل مكافئ ، على المصفوفات المربعة (A in mathbb {F} ^ {n times n} ). بشكل أكثر وضوحًا ، بالنظر إلى كثير الحدود

[p (z) = a_0 + a_1 z + cdots + a_k z ^ k ]

يمكننا ربط المشغل

[p (T) = a_0 I_V + a_1 T + cdots + a_k T ^ k. ]

لاحظ أنه بالنسبة إلى (p (z)، q (z) in mathbb {F} [z] ) ، لدينا

ابدأ {المعادلة *}
(pq) (T) = p (T) q (T) = q (T) p (T).
نهاية {المعادلة *}

ستكون نتائج هذا القسم لمساحات متجهية معقدة. هذا لأن إثبات وجود قيم eigenvalues ​​يعتمد على النظرية الأساسية للجبر من الفصل 3 ، والتي تقدم بيانًا حول وجود أصفار لكثيرات الحدود فوق ( mathbb {C} ).

نظرية 7.4.1: وجود

يترك (V neq {0 } ) تكون مساحة متجهة ذات أبعاد محدودة ( mathbb {C} ) ، واسمحوا (T in mathcal {L} (V، V) ). ثم (T ) لديه واحد على الأقل القيمة الذاتية.

دليل

دع (v in V ) مع (v neq 0 ) ، واعتبر قائمة المتجهات

ابدأ {المعادلة *}
(v ، Tv ، T ^ 2v ، ldots ، T ^ nv) ،
نهاية {المعادلة *}

حيث (n = dim (V) ). نظرًا لأن القائمة تحتوي على (n + 1 ) متجهات ، يجب أن تكون تابعة خطيًا. ومن ثم ، توجد مقاييس (a_0، a_1، ldots، a_n in mathbb {C} ) ، وليس كل الصفر ، مثل

ابدأ {المعادلة *}
0 = a_0 v + a_1 Tv + a_2 T ^ 2 v + cdots + a_n T ^ n v.
نهاية {المعادلة *}

لنفترض أن (m ) هو أكبر فهرس له (a_m neq 0 ). منذ (v neq 0 ) ، يجب أن يكون لدينا (m> 0 ) (لكن ربما (m = n ). ضع في اعتبارك كثير الحدود

ابدأ {المعادلة *}
ع (ض) = أ_0 + أ_1 ض + cdots + أ_ م ض ^ م.
نهاية {المعادلة *}

من خلال النظرية 3.2.3 (3) يمكن تحليلها إلى عوامل
ابدأ {المعادلة *}
ع (ض) = ج (ض- lambda_1) cdots (ض- lambda_m) ​​،
نهاية {المعادلة *}

حيث (c، lambda_1، ldots، lambda_m in mathbb {C} ) و (c neq 0 ).

لذلك،
ابدأ {المعادلة *}
ابدأ {تقسيم}
0 & = a_0 v + a_1 Tv + a_2 T ^ 2 v + cdots + a_n T ^ n v = p (T) v
& = c (T- lambda_1 I) (T- lambda_2 I) cdots (T- lambda_m I) v ،
نهاية {تقسيم}
نهاية {المعادلة *}
ولذا يجب أن يكون أحد العوامل على الأقل (T- lambda_j I ) غير موضوعي. بمعنى آخر ، هذا ( lambda_j ) هو قيمة ذاتية لـ (T ).

لاحظ أن إثبات النظرية 7.4.1 يستخدم فقط المفاهيم الأساسية حول الخرائط الخطية ، وهو نفس النهج المستخدم في كتاب مدرسي شائع يسمى تم إجراء الجبر الخطي بشكل صحيح بواسطة شيلدون أكسلر. تعتمد العديد من الكتب المدرسية الأخرى على براهين أكثر صعوبة بشكل ملحوظ باستخدام مفاهيم مثل المحدد وخاصية كثير الحدود للمصفوفة. في الوقت نفسه ، غالبًا ما يكون من الأفضل استخدام كثير الحدود المميز لمصفوفة من أجل حساب معلومات eigen لمشغل ؛ نناقش هذا النهج في الفصل 8.

لاحظ أيضًا أن النظرية 7.4.1 لا تنطبق على المساحات المتجهة الحقيقية. على سبيل المثال ، كما رأينا في المثال 7.2.2 ، لا يحتوي عامل الاستدارة (R ) على ( mathbb {R} ^ 2 ) على قيم eigenvalues.


الجواب "لا". لن يكون للزوج العام $ A $ و B $ من $ 4 $ -by- $ 4 $ المصفوفات المتماثلة Hermitian أي تركيبة خطية حقيقية غير صفرية لها قيمة ذاتية مزدوجة.

للحصول على مثال محدد ، خذ $ A = begin-1 & amp0 & amp0 & amp0 0 & amp1 & amp0 & amp0 0 & amp0 & amp-2 & amp0 0 & amp0 & amp0 & amp2 end رباعي نص quad B = start0 & amp0 & amp0 & amp0 - i & amp0 & amp0 & amp0 0 & amp0 & amp0 & amp2i 0 & amp0 & amp-2i & amp0 end. $ ثم $ det (aA + bB - tI_4) = (t ^ 2-a ^ 2-b ^ 2) (t ^ 2-4a ^ 2-4b ^ 2) ، $ وجذور هذه كثيرة الحدود في $ t $ مميزة ما لم يكن $ a = b = 0 $. (تذكر أننا نفترض أن $ a $ و $ b $ حقيقيان ، وهذا يعني بالطبع أن $ t $ حقيقي.)

إضافة ملاحظة: للاطلاع على الادعاء بأن هذه الخاصية تخص أ نوعي زوج مستقل خطيًا من المصفوفات المتماثلة Hermitian $ 4 $ -by- $ 4 $ $ A $ و $ B $ ، من الضروري فقط ملاحظة ما يلي: السؤال هو ما إذا كان ، بالنسبة لمثل هذا الزوج العام $ A $ و $ B $ في 16 $ فضاء متجه حقيقي الأبعاد $ mathcal_4 $ تتكون من 4 $ -by- $ 4 $ المصفوفات المتماثلة Hermitian ، المدى (الحقيقي) من $ A $ ، $ B $ ، و $ I_4 $ يحتوي على عنصر غير صفري في الرتبة بحد أقصى $ 2 $. الآن ، ليس من الصعب إظهار أن المخروط $ C_2 $ للعناصر في $ mathcal_4 $ التي حصلت على 2 $ كحد أقصى هي مخروط جبري مغلق أبعاده $ 12 $ (مخروط فريد على امتداد موضع عناصر الرتبة $ 7 $ على الأكثر). ومن هنا فإن الفضاء الجزئي العام ذو الأبعاد $ 3 $ لـ $ mathcal_4 $ سيقابل هذا المخروط عند مصفوفة الصفر فقط. وهو أيضًا شرط مفتوح (على الرغم من أنه ليس كثيفًا) على فضاء فرعي أبعاده 3 دولارات يحتوي على عنصر محدد موجب. منذ المعيار $ mathrm(4، mathbb) $ - عمل على $ mathcal_4 $ يعمل بشكل انتقالي على مساحة العناصر المحددة الموجبة ، ويترتب على ذلك أن الزوج العام $ A $ ، $ B $ ، مع $ I_4 $ سيمتد على مستوى $ 3 $ الذي يلبي $ C_2 $ فقط في الأصل ، وهو ما كان سيتم عرضه.


سيكون من الأفضل أن تكتب تعريف المصفوفة بطريقة أكثر قابلية للقراءة. مما كتبته ، يبدو أن المصفوفة الخاصة بك تحقق $ M (k، k + 1) M (k + 1، k) geq 0 $. مع هذا الشرط ، تكون جميع القيم الذاتية حقيقية.

بشكل عام ، لن تتغير قيم eigenvalues ​​لمصفوفة جاكوبي (3 أقطار) إذا قمت باستبدال كل من العناصر غير القطرية $ M (k، k + 1) $ و $ M (k + 1، k) $ بالجذر التربيعي لمنتجهم . لذا إذا كان حاصل ضرب العناصر خارج القطر موجبًا ، تحصل على مصفوفة متماثلة.

المرجع. R. Gantmakher و M. Kerin ، مصفوفات التذبذب. MR1908601.

تعديل. طريقة واحدة لإثبات ذلك موضحة في التعليق أدناه بواسطة Anthony Quas. هناك طريقة أخرى (مستخدمة في Gantmakher و Kerin) وهي الكتابة صراحةً كثير الحدود المميز ، وملاحظة أن العناصر خارج القطر تدخل فقط في شكل منتجات $ M (k، k + 1) M (k + 1، k) $ .

ملاحظة أخرى. توضح هذه الحجة أنه يوجد دائمًا شكل تربيعي مكتوب بشكل صريح والذي يعتبر عاملنا Hermitean فيما يتعلق به. إذا كانت نواتج العناصر غير القطرية كلها موجبة ، فإن هذا الشكل التربيعي يكون موجبًا محددًا ، ولدينا جميع القيم الذاتية الحقيقية. ولكن حتى لو لم تكن المنتجات كلها إيجابية ، وكان الشكل التربيعي غير محدد ، يمكن للمرء أحيانًا الحصول على بعض قيم eigenvalues ​​الحقيقية باستخدام نظرية Pontryagin على المشغلين Hermitean فيما يتعلق بالشكل غير المحدد.


7.4: وجود القيم الذاتية - الرياضيات

يتم توفير جميع المقالات المنشورة بواسطة MDPI على الفور في جميع أنحاء العالم بموجب ترخيص وصول مفتوح. لا يلزم الحصول على إذن خاص لإعادة استخدام كل أو جزء من المقالة المنشورة بواسطة MDPI ، بما في ذلك الأشكال والجداول. بالنسبة للمقالات المنشورة بموجب ترخيص Creative Common CC BY ذي الوصول المفتوح ، يمكن إعادة استخدام أي جزء من المقالة دون إذن بشرط الاستشهاد بالمقال الأصلي بوضوح.

تمثل الأوراق الرئيسية أكثر الأبحاث تقدمًا مع إمكانات كبيرة للتأثير الكبير في هذا المجال. يتم تقديم الأوراق الرئيسية بناءً على دعوة فردية أو توصية من قبل المحررين العلميين وتخضع لمراجعة الأقران قبل النشر.

يمكن أن تكون ورقة الميزات إما مقالة بحثية أصلية ، أو دراسة بحثية جديدة جوهرية غالبًا ما تتضمن العديد من التقنيات أو المناهج ، أو ورقة مراجعة شاملة مع تحديثات موجزة ودقيقة عن آخر التقدم في المجال الذي يراجع بشكل منهجي التطورات الأكثر إثارة في العلم. المؤلفات. يوفر هذا النوع من الأوراق نظرة عامة على الاتجاهات المستقبلية للبحث أو التطبيقات الممكنة.

تستند مقالات اختيار المحرر على توصيات المحررين العلميين لمجلات MDPI من جميع أنحاء العالم. يختار المحررون عددًا صغيرًا من المقالات المنشورة مؤخرًا في المجلة ويعتقدون أنها ستكون مثيرة للاهتمام بشكل خاص للمؤلفين أو مهمة في هذا المجال. الهدف هو تقديم لمحة سريعة عن بعض الأعمال الأكثر إثارة المنشورة في مجالات البحث المختلفة بالمجلة.


1 إجابة 1

يحتوي lemma شور على نفس الدليل في فئة أبليانية خطية $ k $ $ C $ كالمعتاد: إذا كان $ T: M to M $ هو تشابه غير صفري لكائن بسيط ، فببساطته يجب أن يحتوي على نواة تافهة ونواة ، لذلك هو تماثل. ومن ثم $ text(M) $ هو جبر القسمة على $ k $. إذا كان علاوة على ذلك $ k $ مغلق جبريًا و $ text(M) $ ذو أبعاد محدودة (على سبيل المثال ، إذا كان $ C $ له أبعاد محدودة) ثم $ text(م) = ك دولار.

وبالمثل ، إذا كان $ k $ مغلقًا جبريًا و $ text(M) $ هو أبعاد محدودة ، فإن كل شكل من الأشكال $ T: M to M $ له على الأقل قيمة ذاتية واحدة (إذا كان $ M $ غير صفري) ، لأن الخريطة الطبيعية

$ k [x] ni f (x) mapsto f (T) in text(م) $

لديه نواة غير بديهية (تم إنشاؤها بواسطة كثير الحدود الأدنى من $ T $). العمل بعناية أكبر قليلاً للتحقق من أن جميع التفاصيل لا تزال تعمل كالمعتاد بدون عناصر: إذا كان $ m (t) = prod (t - lambda_i) ^$ هو الحد الأدنى من كثير الحدود لـ $ T $ ، ثم $ m (T) = 0 $ يعني أنه (إذا كان $ M neq 0 $) على الأقل أحد العوامل $ (T - lambda_i) ^$ ليس monomorphism ، وبالتالي لديه نواة غير بديهية.

بالنسبة للحالة غير القابلة للتحلل ، مع نفس الفرضيات الموضحة أعلاه ، فإن $ M $ هو بطبيعة الحال وحدة تزيد عن $ k [x] / m (x) cong prod k [x] / (x - lambda_i) ^$. قسّمت العناصر النمطية البدائية لهذا المنتج $ M $ إلى المجموع المباشر لمساحات eigenspaces المعممة لـ $ T $ (هذه سمة عامة للتشابهات المتجانسة في فئات أبيلية كما أنها لا تتطلب عناصر) ، لذلك إذا كان $ M $ غير قابل للتحلل ثم $ يحتوي T $ على قيمة eigenvalue واحدة بالضبط $ lambda $ و $ T - lambda $ صفري كالمعتاد.


دورة أولى في الجبر الخطي: (نسخة تجريبية)

في هذا القسم ، سوف نحدد القيم الذاتية والمتجهات الذاتية لمصفوفة ، ونرى كيفية حسابها. سيتم تناول المزيد من الخصائص النظرية في القسم التالي.

القسم الفرعي EEM القيم الذاتية والمتجهات الذاتية لمصفوفة

نبدأ بالتعريف الرئيسي لهذا الفصل.

تعريف EEM. القيم الذاتية والمتجهات الذاتية لمصفوفة.

افترض أن (A ) عبارة عن مصفوفة مربعة الحجم (n text <،> ) ( vect neq zerovector ) متجه في ( complex text <،> ) و ( lambda ) هو عدد قياسي في ( مجمعات نص <.> ) ثم نقول ( vect) هو من (A ) مع ( lambda ) إذا

قبل المضي قدمًا ، ربما ينبغي أن نقنعك أن مثل هذه الأشياء تحدث على الإطلاق. افهم المثال التالي ، لكن لا تشغل نفسك بمصدر القطع. سيكون لدينا أساليب في القريب العاجل لنكون قادرين على اكتشاف هذه المتجهات الذاتية بأنفسنا.

مثال 1 . بعض القيم الذاتية والمتجهات الذاتية.

لذلك ( vect) هو المتجه الذاتي لـ (A ) مع القيمة الذاتية ( لامدا = 4 نص <.> )

لذلك ( vect) هو المتجه الذاتي لـ (A ) مع القيمة الذاتية ( لامدا = 0 نص <.> )

لذلك ( vect) هو المتجه الذاتي لـ (A ) مع القيمة الذاتية ( لامدا = 2 نص <.> )

لذلك ( vect) هو المتجه الذاتي لـ (A ) مع القيمة الذاتية ( لامدا = 2 نص <.> )

لذلك أظهرنا أربعة متجهات ذاتية لـ (A text <.> ) هل هناك المزيد؟ نعم ، أي مضاعف عددي غير صفري من eigenvector هو مرة أخرى ناقل eigenvector. في هذا المثال ، قم بتعيين ( vect= 30 vect text <.> ) ثم

بحيث ( vect) هو أيضًا متجه eigenvector لـ (A ) لنفس القيمة الذاتية ، ( lambda = 4 text <.> )

النواقل ( vect) و ( vect) كلا المتجهين eigenvalue لـ (A ) لنفس القيمة الذاتية ( lambda = 2 text <،> ) ومع ذلك ، فإن هذا ليس بسيطًا مثل المتجهين فقط كونهما مضاعفات عددية لبعضهما البعض (ليست كذلك) . انظر ماذا يحدث عندما نجمعهم معًا ، لتشكيل ( vect= vect+ vect text <،> ) والضرب في (A text <،> )

بحيث ( vect) هو أيضًا متجه eigenvector لـ (A ) لـ eigenvalue ( lambda = 2 text <.> ) لذلك يبدو أن مجموعة المتجهات الذاتية المرتبطة بقيمة eigenvalue ثابتة مغلقة تحت مساحة المتجه عمليات ( complex نص <.> ) هممم.

المتجه ( vect) هو متجه eigenvector لـ (A ) لقيمة eigenvalue ( lambda = 0 text <،> ) حتى نتمكن من استخدام Theorem ZSSM لكتابة (A vect= 0 vect= zerovector text <.> ) ولكن هذا يعني أيضًا أن ( vect in nsp text <.> ) يبدو أنه يوجد اتصال هنا أيضًا.

سيج إي. القيم الذاتية والمتجهات الذاتية.

يمكن لـ Sage حساب القيم الذاتية والمتجهات الذاتية للمصفوفات. سنرى قريبًا أن هناك بعض التفاصيل الدقيقة التي ينطوي عليها استخدام هذه الإجراءات ، ولكن إليك مثال سريع للبدء. يجب أن يكون هذان الأمران كافيين لتبدأ بمعظم الأمثلة المبكرة في هذا القسم. راجع نهاية القسم للحصول على مزيد من النصائح الشاملة.

بالنسبة للمصفوفة المربعة ، ستنتج الطرق .eigenvalues ​​() و .eigenvectors_right () ما تتوقعه ، على الرغم من أن تنسيق خرج eigenvector يتطلب بعض الشرح. هنا مثال انظر من بداية هذا الفصل.

تم تضمين قيم eigenvalues ​​الثلاثة التي نعرفها في إخراج قيم eigenvalues ​​() ، على الرغم من أن القيمة الذاتية ( lambda = 2 ) تظهر مرتين لسبب ما.

ناتج طريقة eigenvectors_right () عبارة عن قائمة ثلاثية. كل ثلاثية تبدأ بقيمة ذاتية. يتبع ذلك قائمة من المتجهات الذاتية لتلك القيمة الذاتية. لاحظ أن أول eigenvector مطابق لتلك التي وصفناها في مثال SEE. متجه eigenvector لـ ( lambda = 0 ) مختلف ، لكنه مجرد مضاعف عددي للواحد من مثال SEE. بالنسبة إلى ( lambda = 2 text <،> ) ، نحصل الآن على متجهين eigenvectors ، ولا يشبه أي منهما أيًا من المتجهين في المثال SEE. (تلميح: حاول كتابة كل من المتجهات الذاتية لـ ( lambda = 2 ) من المثال كمجموعات خطية من المتجهين الذاتيين اللذين توفرهما Sage.) سيتعين على شرح للجزء الثالث من كل ثلاثي (عدد صحيح) الانتظار ، على الرغم من أنه يمكن قمعه اختياريًا إذا رغبت في ذلك.

ملاحظة تحذيرية واحدة: كلمة lambda لها غرض خاص في Sage ، لذلك لا تحاول استخدام هذا كاسم لقيم eigenvalues ​​الخاصة بك.

مثال SEE يلمح إلى عدد من الخصائص المثيرة للاهتمام ، وهناك المزيد. سوف نستكشف الخصائص العامة للقيم الذاتية والمتجهات الذاتية في القسم PEE ، ولكن في هذا القسم سنهتم بمسألة حساب القيم الذاتية والمتجهات الذاتية. نحتاج أولاً إلى القليل من المواد الأساسية حول كثيرات الحدود والمصفوفات.

القسم الفرعي PM كثيرات الحدود والمصفوفات

كثير الحدود هو مزيج من القوى والضرب في المعاملات العددية والجمع (مع كون الطرح هو فقط معكوس الجمع). ليس لدينا أبدًا فرصة للقسمة عند حساب قيمة كثير الحدود. هذا هو الحال مع المصفوفات. يمكننا جمع وطرح المصفوفات ، ويمكننا ضرب المصفوفات في الحجم ، ويمكننا تكوين قوى المصفوفات المربعة بالتطبيقات المتكررة لضرب المصفوفات. نحن لا نقسم المصفوفات عادة (على الرغم من أننا في بعض الأحيان يمكننا الضرب في معكوس). إذا كانت المصفوفة مربعة ، فإن جميع العمليات التي تشكل كثير الحدود ستحافظ على حجم المصفوفة. لذلك من الطبيعي التفكير في تقييم كثير الحدود باستخدام مصفوفة ، والاستعاضة بشكل فعال عن متغير كثير الحدود بمصفوفة. سوف نظهر بمثال.

مثال 2. متعدد حدود المصفوفة.

وسوف نحسب (p (D) text <.> )

أولاً ، القوى الضرورية لـ (D text <.> ) لاحظ أن (D ^ 0 ) مُعرَّف على أنه الهوية المضاعفة ، (I_3 text <،> ) كما هو الحال بشكل عام . نحن لدينا

لاحظ أن (p (x) ) عوامل مثل

نظرًا لأن (D ) يتنقل مع نفسه ( (DD = DD )) ، يمكننا استخدام توزيع ضرب المصفوفة عبر إضافة المصفوفة (Theorem MMDAA) دون توخي الحذر مع أي من منتجات المصفوفة ، وبنفس السهولة تقييم ( p (D) ) باستخدام الصيغة المحللة إلى عوامل (p (x) text <،> )

لا يُقصد بهذا المثال أن يكون عميقًا جدًا. هو - هي هو يُقصد به توضيح أنه من الطبيعي تقييم كثير الحدود باستخدام مصفوفة ، وأن الشكل المُحلل إلى عوامل لكثير الحدود جيد مثل (أو ربما أفضل من) النموذج الموسع. ولا تنس أن الحدود الثابتة في كثيرات الحدود هي في الحقيقة مضاعفات مصفوفة الوحدة عندما نقيم كثير الحدود باستخدام مصفوفة.

القسم الفرعي EEE وجود القيم الذاتية والمتجهات الذاتية

قبل الشروع في حساب قيم eigenvalues ​​والمتجهات الذاتية ، سوف نثبت أن كل مصفوفة لها على الأقل قيمة ذاتية واحدة (و eigenvector يتماشى معها). لاحقًا ، في Theorem MNEM ، سنحدد الحد الأقصى لعدد القيم الذاتية التي قد تحتويها المصفوفة.

المحدد (تعريف DM) سيكون أداة قوية في القسم الفرعي EE.CEE عندما يحين وقت حساب القيم الذاتية. ومع ذلك ، من الممكن ، مع بعض الآلات الأكثر تقدمًا ، حساب قيم eigenvalues ​​دون استخدام المحدد على الإطلاق. شيلدون أكسلر يفعل ذلك بالضبط في كتابه ، الجبر الخطي تم بشكل صحيح. هنا والآن ، نقدم دليل أكسلر "الخالي من المحددات" على أن كل مصفوفة لها قيمة ذاتية. النتيجة ليست مذهلة للغاية ، لكن الدليل هو الأكثر إمتاعًا.

نظرية EMHE. كل مصفوفة لها قيمة ذاتية.

افترض أن (A ) مصفوفة مربعة. ثم (A ) له قيمة ذاتية واحدة على الأقل.

دليل.

افترض أن (A ) له حجم (n text <،> ) واختر ( vect) مثل أي متجه غير صفري من ( complex text <.> ) (لاحظ مقدار خط العرض الذي لدينا في اختيارنا لـ ( vect text <.> ) فقط المتجه الصفري هو خارج الحدود.) ضع في اعتبارك المجموعة

هذه مجموعة من (n + 1 ) متجهات من ( complex text <،> ) لذلك من خلال Theorem MVSLD ، (S ) يعتمد خطيًا. لنفترض أن (a_0، ، a_1، ، a_2، ، ldots، ، a_n ) مجموعة من (n + 1 ) الحجميات من ( مجمعات نص <،> ) ليست كلها صفراً ، التي توفر علاقة اعتماد خطي على (S text <.> ) وبعبارة أخرى ،

بعض من (a_i ) ليست صفرية. افترض أنه فقط (a_0 neq 0 text <،> ) و (a_1 = a_2 = a_3 = cdots = a_n = 0 text <.> ) ثم (a_0 vect= zerovector ) وبواسطة نظرية SMEZV ، إما (a_0 = 0 ) أو ( vect= zerovector text <،> ) وكلاهما متناقضان. لذلك (a_i neq 0 ) بالنسبة للبعض (i geq 1 text <.> ) لنكن (m ) أكبر عدد صحيح مثل (a_m neq 0 text <.> ) من نعلم في هذه المناقشة أن (m geq 1 text <.> ) يمكننا أيضًا افتراض أن (a_m = 1 text <،> ) إذا لم يكن الأمر كذلك ، فاستبدل كل (a_i ) بـ (a_i / a_m ) للحصول على الحجميات التي تعمل بشكل جيد على قدم المساواة في توفير علاقة الاعتماد الخطي على (S text <.> )

نظرًا لأننا استخدمنا باستمرار ( complexes ) كمجموعتنا من الحجميات (بدلاً من (< mathbb R> )) ، فإننا نعلم أنه يمكننا تحليل (p (x) ) في عوامل خطية من النموذج ((x-b_i) text <،> ) حيث (b_i in complexes text <.> ) إذن هناك مقاييس ، ( scalarlist text <،> ) from ( complexes ) بحيث ،

دع (ك ) يكون أصغر عدد صحيح من هذا القبيل

من المعادلة السابقة ، نعلم أن (k leq m text <.> ) حدد المتجه ( vect) بواسطة

لاحظ أنه من خلال تعريف (k text <،> ) المتجه ( vect) يجب أن تكون غير صفرية. في الحالة التي يكون فيها (k = 1 text <،> ) نفهم أن ( vect) يتم تعريفه بواسطة ( vect= vect text <،> ) و ( vect) لا يزال غير صفري. الآن

منذ ( vect neq zerovector text <،> ) تقول هذه المعادلة أن ( vect) هو متجه eigenvector لـ (A ) لقيمة eigenvalue ( lambda = b_k ) (تعريف EEM) ، لذلك أظهرنا أن أي مصفوفة مربعة (A ) لها قيمة ذاتية واحدة على الأقل.

إن إثبات نظرية EMHE بنّاء (يحتوي على إجراء لا لبس فيه يؤدي إلى قيمة ذاتية) ، ولكن لا يُقصد منه أن يكون عمليًا. سنقوم بتوضيح النظرية بمثال ، والغرض من ذلك هو توفير رفيق لدراسة الإثبات وليس اقتراح هذا هو أفضل إجراء لحساب قيمة eigenvalue.

مثال 3. حساب قيمة eigenvalue بالطريقة الصعبة.

يوضح هذا المثال إثبات نظرية EMHE ، وبالتالي سيستخدم نفس الترميز مثل الإثبات - ابحث هناك للحصول على تفسيرات كاملة. أنه ليس يُقصد به أن يكون مثالاً على نهج حسابي معقول لإيجاد قيم eigenvalues ​​والمتجهات الذاتية. حسنًا ، التحذيرات في مكانها ، ها نحن ذا.

ضع في اعتبارك المصفوفة (A text <،> ) واختر المتجه ( vect نص <،> )

من المهم ملاحظة أن اختيار ( vect) ممكن ان يكون اى شى، طالما هي كذلك ليس المتجه الصفري. لم نختار ( vect) عشوائيًا تمامًا ، ولكن لجعل توضيحنا للنظرية عامًا قدر الإمكان. يمكنك تكرار هذا المثال باختيارك الخاص ، ويضمن لك أن تكون الحسابات معقولة ، بشرط أن يكون لديك أداة حسابية ستعمل على تحليل متعدد الحدود من الدرجة الخامسة لك.

مضمون أن يكون تابعًا خطيًا ، لأنه يحتوي على ستة متجهات من ( complex <5> ) (نظرية MVSLD).

سنبحث عن علاقة غير بديهية للاعتماد الخطي من خلال حل نظام متجانس من المعادلات التي تحتوي مصفوفة معاملها على متجهات (S ) كأعمدة من خلال عمليات الصف ،

هناك أربعة متغيرات مجانية لوصف حلول لهذا النظام المتجانس ، لذلك لدينا اختيار الحلول. سيكون الخيار الأكثر ملاءمة هو تعيين (x_3 = 1 ) و (x_4 = x_5 = x_6 = 0 text <.> ) ومع ذلك ، سنختار مرة أخرى زيادة عمومية توضيحنا لنظرية EMHE واختيار (x_3 = -8 text <،> ) (x_4 = -3 text <،> ) (x_5 = 1 ) و (x_6 = 0 text <.> ) وهذا يؤدي إلى الحل بـ (x_1 = 16 ) و (x_2 = 12 text <.> )

هذه العلاقة من الاعتماد الخطي تقول ذلك

لذلك نحدد (p (x) = 16 + 12x-8x ^ 2-3x ^ 3 + x ^ 4 text <،> ) وكما هو معلن في إثبات نظرية EMHE ، لدينا كثير الحدود من الدرجة ( م = 4 جي تي 1 ) بحيث (ع (أ) فيكت= zerovector text <.> ) الآن نحن بحاجة إلى تحليل (p (x) ) over ( complexes text <.> ) إذا قمت باختيارك الخاص لـ ( vect) في البداية ، هذا هو المكان الذي قد يكون لديك كثير حدود من الدرجة الخامسة ، وحيث قد تحتاج إلى استخدام أداة حسابية للعثور على الجذور والعوامل. نحن لدينا

نطبق عاملًا واحدًا في كل مرة ، حتى نحصل على المتجه الصفري ، وذلك لتحديد قيمة (k ) الموصوفة في إثبات نظرية EMHE ،

هو متجه ذاتي لـ (A ) لـ eigenvalue ( lambda = -2 text <،> ) حيث يمكنك التحقق من خلال إجراء الحساب (A vect text <.> ) إذا كنت تعمل من خلال هذا المثال باختيارك الخاص للناقل ( vect) (موصى به بشدة) فقد تكون القيمة الذاتية التي ستجدها مختلفة ، ولكنها ستكون في المجموعة ( مجموعة <3 ، ، 0 ، ، 1 ، ، - 1 ، ، - 2> نص < .> ) راجع التمرين EE.M60 لمعرفة متجه البداية المقترح.

قسم أوروبا الوسطى والشرقية حساب القيم الذاتية والمتجهات الذاتية

لحسن الحظ ، لا نحتاج إلى الاعتماد على إجراء نظرية EMHE في كل مرة نحتاج فيها إلى قيمة ذاتية. إنه المحدد ، وعلى وجه التحديد Theorem SMZD ، الذي يوفر الأداة الرئيسية لحساب قيم eigenvalues. فيما يلي تسلسل غير رسمي من التكافؤات وهو المفتاح لتحديد قيم eigenvalues ​​والمتجهات الذاتية لمصفوفة ،

لذلك ، من أجل eigenvalue ( lambda ) وما يرتبط بها من eigenvector ( vect neq zerovector text <،> ) المتجه ( vectسيكون ) عنصرًا غير صفري في الفضاء الفارغ (A- lambda I_n text <،> ) بينما المصفوفة (A- lambda I_n ) ستكون مفردة وبالتالي لها محدد صفري. تم وضع هذه الأفكار بدقة في نظرية EMRCP ونظرية EMNS ، ولكن في الوقت الحالي يجب أن تكون هذه المناقشة الموجزة كافية كحافز للتعريف والمثال التاليين.

تعريف CP. متعدد الحدود المميز.

لنفترض أن (A ) عبارة عن مصفوفة مربعة الحجم (n text <.> ) ثم إن (A ) هو متعدد الحدود ( charpoly) المعرفة من قبل

مثال 4. كثير الحدود المميز لمصفوفة ، حجم 3.

تعد كثيرة الحدود المميزة هي أداتنا الحسابية الرئيسية لإيجاد قيم eigenvalues ​​، وستستخدم أحيانًا لمساعدتنا في تحديد خصائص القيم الذاتية.

نظرية EMRCP. القيم الذاتية للمصفوفة هي جذور متعددات الحدود المميزة.

افترض أن (A ) مصفوفة مربعة. إذن ( lambda ) هي قيمة ذاتية لـ (A ) إذا وفقط إذا ( charpoly < lambda> = 0 text <.> )

دليل.

افترض أن (A ) له حجم (n text <.> ) ثم

مثال 5. القيم الذاتية لمصفوفة ، الحجم 3.

في المثال CPMS3 وجدنا كثير الحدود المميز لـ

ليكون ( charpoly= - (x-3) (x + 1) ^ 2 text <.> ) بعد تحليلها ، يمكننا إيجاد كل جذورها بسهولة ، فهي (x = 3 ) و (x = -1 نص <.> ) بواسطة نظرية EMRCP ، ( lambda = 3 ) و ( lambda = -1 ) كلاهما قيم ذاتية لـ (F text <،> ) وهذه هي القيم الذاتية الوحيدة لـ ( F text <.> ) وجدناها كلها.

دعونا الآن نوجه انتباهنا إلى حساب المتجهات الذاتية.

تعريف EM. Eigenspace لمصفوفة.

ألمح مثال انظر إلى أن مجموعة المتجهات الذاتية لقيمة eigenvalue واحدة قد يكون لها بعض خصائص الإغلاق ، ومع إضافة المتجه الذاتي الذي لا يمثل أبدًا متجهًا ذاتيًا ، ( zerovector text <،> ) نحصل بالفعل على مساحة فرعية كاملة.

نظرية EMS. Eigenspace للمصفوفة هو فضاء فرعي.

افترض أن (A ) مصفوفة مربعة الحجم (n ) و ( lambda ) هي قيمة ذاتية لـ (A text <.> ) ثم eigenspace ( eigenspace < lambda> ) هو فضاء فرعي لمساحة المتجه ( مجمع نص <.> )

دليل.

سوف نتحقق من الشروط الثلاثة لـ Theorem TSS. أولاً ، يتضمن التعريف EM بشكل صريح المتجه الصفري في ( eigenspace < lambda> text <،> ) بحيث تكون المجموعة غير فارغة.

لذلك إما ( vect+ vect= zerovector text <،> ) أو ( vect+ vect) هو المتجه الذاتي لـ (A ) لـ ( lambda ) (تعريف EEM). لذلك ، في كلا الحالتين ، ( vect+ vect in eigenspace < lambda> text <،> ) ولدينا إغلاق مضاف.

لذلك إما ( alpha vect= zerovector text <،> ) أو ( alpha vect) هو المتجه الذاتي لـ (A ) لـ ( lambda ) (تعريف EEM). لذلك ، في كلا الحالتين ، ( alpha vect in eigenspace < lambda> text <،> ) ولدينا إغلاق عددي.

مع استيفاء الشروط الثلاثة لنظرية TSS ، نعلم أن ( eigenspace < lambda> ) هو فضاء فرعي.

تخبرنا نظرية EMS أن الفضاء eigenspace هو فضاء فرعي (وبالتالي فضاء متجه في حد ذاته). تخبرنا نظريتنا التالية عن كيفية بناء هذا الفضاء الجزئي بسرعة.

نظرية EMNS. Eigenspace لمصفوفة هو فراغ فارغ.

افترض أن (A ) مصفوفة مربعة الحجم (n ) و ( lambda ) هي قيمة ذاتية لـ (A text <.> ) ثم

دليل.

استنتاج هذه النظرية هو المساواة في المجموعات ، لذلك عادة ما نتبع نصيحة التعريف SE. ومع ذلك ، في هذه الحالة يمكننا بناء سلسلة من التكافؤات التي ستوفر معًا شوائب المجموعة الفرعية التي نحتاجها. أولاً ، لاحظ أن ( zerovector in eigenspace < lambda> ) حسب التعريف EM و ( zerovector in nsp) بواسطة نظرية HSC. الآن ضع في اعتبارك أي متجه غير صفري ( vect في مجمع نص <،> )

قد تلاحظ أوجه التشابه (والاختلافات) القريبة بين براهين نظرية EMRCP ونظرية EMNS. نظرًا لأن Theorem EMNS تصف مجموعة جميع المتجهات الذاتية لـ (A ) كمساحة فارغة ، يمكننا استخدام تقنيات مثل Theorem BNS لتقديم أوصاف موجزة لمساحات eigenspaces. توفر نظرية EMNS أيضًا دليلًا بسيطًا على نظرية EMS.

مثال 6. فضاءات مصفوفة ، حجم 3.

يصف مثال CPMS3 ومثال EMS3 خصائص متعددة الحدود وقيم eigenvalues ​​للمصفوفة (3 times 3 )

سنأخذ الآن كل قيمة ذاتية بدورها ونحسب مساحة eigenspace الخاصة بها. للقيام بذلك ، نقوم بتقليل المصفوفة (F- lambda I_3 ) من أجل تحديد حلول للنظام المتجانس ( homosystem) ثم قم بالتعبير عن eigenspace كمساحة فارغة لـ (F- lambda I_3 ) (Theorem EMNS). تخبرنا نظرية BNS بعد ذلك بكيفية كتابة الفراغ الفارغ على أنه امتداد الأساس. نحن لدينا

فضاءات Eigens في متناول اليد ، يمكننا بسهولة حساب المتجهات الذاتية عن طريق تكوين مجموعات خطية غير بديهية من المتجهات الأساسية التي تصف كل فضاء eigenspace. على وجه الخصوص ، لاحظ أنه يمكننا "تحسين" المتجهات الأساسية باستخدام المضاعفات العددية لإزالة الكسور.

القسم الفرعي ECEE أمثلة لحساب القيم الذاتية والمتجهات الذاتية

لا توجد نظريات في هذا القسم ، فقط مجموعة مختارة من الأمثلة التي تهدف إلى توضيح نطاق الاحتمالات لقيم eigenvalues ​​والمتجهات الذاتية لمصفوفة. يمكن إجراء جميع هذه الأمثلة يدويًا ، على الرغم من أن حساب كثير الحدود المميز سيكون مضيعة للوقت للغاية وعرضة للخطأ. قد يكون من الصعب أيضًا تحليل كثير الحدود التعسفي ، على الرغم من أننا إذا اقترحنا أن معظم قيمنا الذاتية ستكون أعدادًا صحيحة ، فقد يكون من الأسهل البحث عن الجذور. من المفترض أن تبدو هذه الأمثلة مشابهة لسلسلة مثال CPMS3 ومثال EMS3 ومثال ESMS3. أولاً ، سوف نتسلل في زوج من التعريفات حتى نتمكن من توضيحها خلال هذه السلسلة من الأمثلة.

تعريف AME. التعدد الجبري لقيمة ذاتية.

نظرًا لأن قيمة eigenvalue ( lambda ) هي جذر متعدد الحدود المميز ، فهناك دائمًا عامل ((x- lambda) text <،> ) والتعددية الجبرية هي مجرد قوة هذا العامل في عامل من ( charpoly text <.> ) على وجه الخصوص ، ( algmult < lambda> geq 1 text <.> ) قارن تعريف التعددية الجبرية بالتعريف التالي.

تعريف GME. التعددية الهندسية لقيمة ذاتية.

افترض أن (A ) عبارة عن مصفوفة مربعة و ( lambda ) هي قيمة ذاتية لـ (A text <.> ) ثم من ( lambda text <،> ) ( geomult < lambda> text <،> ) هو بُعد eigenspace ( eigenspace < lambda> text <.> )

يجب أن يكون لكل قيمة eigenvector واحد على الأقل ، لذلك لا يمكن أن تكون مساحة eigenspace المرتبطة تافهة ، وبالتالي ( geomult < lambda> geq 1 text <.> )

مثال 7. مضاعفات القيمة الذاتية ، مصفوفة بحجم 4.

لذا فإن القيم الذاتية هي ( lambda = 1، ، 2 ) مع تعدد جبري ( algmult<1> = 1 ) و ( algmult<2> = 3 نص <.> )

لذا فإن كل مساحة eigenspace لها البعد 1 وهكذا ( geomult<1> = 1 ) و ( geomult<2> = 1 text <.> ) هذا المثال مهم بسبب التناقض بين مضاعفتين لـ ( lambda = 2 text <.> ) في العديد من الأمثلة لدينا ، فإن التعددية الجبرية والهندسية كن متساويًا لجميع قيم eigenvalues ​​(كما كان الحال مع ( lambda = 1 ) في هذا المثال) ، لذا ضع هذا المثال في الاعتبار. سيكون لدينا بعض التفسيرات لهذه الظاهرة لاحقًا (انظر مثال NDMS4).

المثال 8. القيم الذاتية ، مصفوفة متماثلة بحجم 4.

لذا فإن القيم الذاتية هي ( lambda = 3 ، ، 1 ، ، - 1 ) مع تعدد جبري ( algmult<3> = 1 نص <،> ) ( algmult<1> = 2 ) و ( algmult<-1> = 1 نص <.> )

لذا فإن أبعاد فضاء eigenspace تنتج تعدد هندسي ( geomult<3> = 1 text <،> ) ( geomult<1> = 2 ) و ( geomult<-1> = 1 text <،> ) كما هو الحال بالنسبة للمضاعفات الجبرية. هذا المثال مهم لأن (A ) عبارة عن مصفوفة متماثلة ، وستكون موضوع Theorem HMRE.

المثال 9. قيم ذاتية تعددية عالية ، مصفوفة بحجم 5.

لذا فإن القيم الذاتية هي ( lambda = 2 ، ، - 1 ) مع تعدد جبري ( algmult<2> = 4 ) و ( algmult<-1> = 1 نص <.> )

لذا فإن أبعاد فضاء eigenspace تنتج تعدد هندسي ( geomult<2> = 2 ) و ( geomult<-1> = 1 نص <.> ) هذا المثال مهم لأن ( lambda = 2 ) به تعدد جبري كبير ، والذي لا يساوي أيضًا تعدده الهندسي.

المثال 10. قيم eigenvalues ​​المعقدة ، مصفوفة بحجم 6.

لذا فإن القيم الذاتية هي ( lambda = 2، ، - 1،2 + i، ، 2-i ) مع تعدد جبري ( algmult<2> = 1 text <،> ) ( algmult<-1> = 1 text <،> ) ( algmult<2 + i> = 2 ) و ( algmult<2-i> = 2 نص <.> )

نحسب المتجهات الذاتية ، مع ملاحظة أن المتجهين الأساسيين الأخيرين هما مضاعف عددي لما ستوفره نظرية BNS ،

تنتج أبعاد مساحة Eigenspace تعددًا هندسيًا لـ ( geomult<2> = 1 text <،> ) ( geomult<-1> = 1 text <،> ) ( geomult<2 + i> = 1 ) و ( geomult<2-i> = 1 text <.> ) يوضح هذا المثال بعض الاحتمالات لظهور قيم eigenvalues ​​المعقدة ، حتى عندما تكون جميع إدخالات المصفوفة حقيقية. لاحظ كيف أن جميع الأرقام في تحليل ( lambda = 2-i ) هي اتحادات للرقم المقابل في تحليل ( lambda = 2 + i text <.> ) هذا هو محتوى النظرية القادمة ERMCP.

المثال 11. قيم ذاتية مميزة ، مصفوفة بحجم 5.

لذا فإن القيم الذاتية هي ( lambda = 2، ، 1، ، 0، ، - 1، ، - 3 ) مع مضاعفات جبرية ( algmult<2> = 1 text <،> ) ( algmult<1> = 1 text <،> ) ( algmult<0> = 1 text <،> ) ( algmult<-1> = 1 ) و ( algmult<-3> = 1 نص <.> )

لذا فإن أبعاد فضاء eigenspace تنتج تعدد هندسي ( geomult<2> = 1 text <،> ) ( geomult<1> = 1 text <،> ) ( geomult<0> = 1 text <،> ) ( geomult<-1> = 1 ) و ( geomult<-3> = 1 text <،> ) مطابق للمضاعفات الجبرية. هذا المثال مهم لسببين. أولاً ، ( lambda = 0 ) هي قيمة ذاتية توضح النظرية القادمة SMZE. ثانيًا ، جميع قيم eigenvalues ​​متميزة ، مما ينتج عنه تعدد جبري وهندسي لـ 1 لكل قيمة ذاتية ، مما يوضح نظرية DED.

سيج سيفال. حساب القيم الذاتية.

يمكننا الآن تقديم شرح أكثر دقة حول القيم الذاتية في Sage. سيحسب Sage كثير الحدود المميز للمصفوفة ، بسهولة مذهلة (بمعنى آخر ، بسرعة كبيرة ، حتى بالنسبة للمصفوفات الكبيرة). طريقتا المصفوفة .charpoly () و .characteristic_polynomial () تفعل الشيء نفسه تمامًا. سنستخدم الاسم الأطول فقط لنكون أكثر قابلية للقراءة ، وقد تفضل الأقصر.

يمكننا الآن تقدير عقبة أساسية للغاية أمام تحديد القيم الذاتية لمصفوفة ، وهو موضوع سيتم تشغيله من خلال أي دراسة متقدمة للجبر الخطي. ادرس هذا المثال بعناية قبل قراءة المناقشة التالية.

نعلم من خلال Theorem EMRCP أنه لحساب قيم eigenvalues ​​، نحتاج إلى جذور كثير الحدود المميز ، ومن الجبر الأساسي ، نعلم أن هذه تتوافق مع العوامل الخطية. ومع ذلك ، مع المصفوفة الخاصة بنا المحددة بإدخالات من QQ ، فإن تحليل عوامل كثيرة الحدود المميزة لا "يترك" نظام الأرقام هذا ، بل يأخذ فقط "بعيدًا بما يكفي" للاحتفاظ بالعوامل ذات المعاملات المنطقية. حلول ​​(x ^ 2 - 2 = 0 ) واضحة إلى حد ما ( ( pm sqrt <2> almost pm 1.414213 )) ، لكن جذور العامل التكعيبي أكثر غموضًا.

ولكن بعد ذلك لدينا QQbar للإنقاذ. نظرًا لأن نظام الأرقام هذا يحتوي على جذور كل متعدد الحدود الممكنة مع معاملات عدد صحيح ، فيمكننا تحليل أي كثير حدود مميز ينتج عن مصفوفة بإدخالات من QQbar. سيكون الموقف الشائع هو البدء بمصفوفة لها مدخلات عقلانية ، ومع ذلك فإن المصفوفة لها كثير حدود مميز بجذور هي أرقام معقدة.

We can demonstrate this behavior with the extend keyword option, which tells Sage whether or not to expand the number system to contain the eigenvalues.

For matrices with entries from QQ , the default behavior is to extend to QQbar when necessary. But for other number systems, you may need to explicitly use the extend=True option.

From a factorization of the characteristic polynomial, we can see the algebraic multiplicity of each eigenvalue as the second entry of the each pair returned in the list. We demonstrate with Example SEE, extending to QQbar , which is not strictly necessary for this simple matrix.

One more example, which illustrates the behavior when we use floating-point approximations as entries (in other words, we use CDF as our number system). This is Example EMMS4, both as an exact matrix with entries from QQbar and as an approximate matrix with entries from CDF .

So, we see (lambda=2) as an eigenvalue with algebraic multiplicity 3, while the numerical results contain three complex numbers, each very, very close to 2. The approximate nature of these eigenvalues may be disturbing (or alarming). However, their computation, as floating-point numbers, can be incredibly fast with sophisticated algorithms allowing the analysis of huge matrices with millions of entries. And perhaps your original matrix includes data from an experiment, and is not even exact in the first place. Designing and analyzing algorithms to perform these computations quickly and accurately is part of the field known as numerical linear algebra.

One cautionary note: Sage uses a definition of the characteristic polynomial slightly different than ours, namely (detname ext<.>) This has the advantage that the (x^n) term always has a positive one as the leading coefficient. For even values of (n) the two definitions create the identical polynomial, and for odd values of (n ext<,>) the two polynomials differ only by a multiple of (-1 ext<.>) The reason this is not very critical is that Theorem EMRCP is true in either case, and this is a principal use of the characteristic polynomial. Our definition is more amenable to computations by hand.

Sage CEVEC . Computing Eigenvectors.

There are three ways to get eigenvectors in Sage. For each eigenvalue, the method .eigenvectors_right() will return a list of eigenvectors that is a basis for the associated eigenspace. The method .eigenspaces_right() will return an eigenspace (in other words, a vector space, rather than a list of vectors) for each eigenvalue. There are also eigenmatrix methods which we will describe at the end of the chapter in Sage MD.

The matrix method .eigenvectors_right() (or equivalently the matrix method .right_eigenvectors() ) produces a list of triples, one triple per eigenvalue. Each triple has an eigenvalue, a list, and then the algebraic multiplicity of the eigenvalue. The list contains vectors forming a basis for the eigenspace. Notice that the length of the list of eigenvectors will be the geometric multiplicity (and there is no easier way to get this information).

Note that this is a good place to practice burrowing down into Sage output that is full of lists (and lists of lists). See if you can extract just the second eigenvector for (lambda=3) using a single statement. Or perhaps try obtaining the geometric multiplicity of (lambda=-2i ext<.>) Notice, too, that Sage has automatically upgraded to QQbar to get the complex eigenvalues.

The matrix method .eigenspaces_right() (equal to .right_eigenspaces() ) produces a list of pairs, one pair per eigenvalue. Each pair has an eigenvalue, followed by the eigenvalue's eigenspace. Notice that the basis matrix of the eigenspace may not have the same eigenvectors you might get from other methods. Similar to the eigenvectors method, the dimension of the eigenspace will yield the geometric multiplicity (and there is no easier way to get this information). If you need the algebraic multiplicities, you can supply the keyword option algebraic_multiplicity=True to get back triples with the algebraic multiplicity in the third entry of the triple. We will recycle the example above, and not demonstrate the algebraic multiplicity option. (We have formatted the one-row basis matrices over QQbar across several lines.)

Notice how the output includes a subspace of dimension two over the rationals, and two subspaces of dimension one over the algebraic numbers.

The upcoming Subsection EE.ECEE has many examples, which mostly reflect techniques that might be possible to verify by hand. Here is the same matrix as above, analyzed in a similar way. Practicing the examples in this subsection, either directly with the higher-level Sage commands, and/or with more primitive commands (as below) would be an extremely good exercise at this point.

Notice how we changed the number system to the algebraic numbers before working with the complex eigenvalues. Also, we are using the basis='pivot' keyword option so that bases for the eigenspaces look more like the bases described in Theorem BNS.

By now, it should be clear why we keep using the “right” variants of these methods. Eigenvectors can be defined “on the right”, (Avect=lambdavect) as we have done, or “on the left,” (vectA=lambdavect ext<.>) So use the “right” versions of the eigenvalue and eigenvector commands to stay consistent with the text. Recognize, too, that eigenspaces may be computed with different bases than those given in the text (typically like those for null spaces with the basis='echelon' option).

Why does the .eigenvalues() method not come in left and right versions? The upcoming Theorem ETM can be used to show that the two versions would have identical output, so there is no need.

Reading Questions EE Reading Questions

Suppose (A) is the (2 imes 2) matrix

Find the eigenvalues of (A ext<.>)

For each eigenvalue of (A ext<,>) find the corresponding eigenspace.

For the polynomial (p(x)=3x^2-x+2) and (A) from above, compute (p(A) ext<.>)

Exercises EE Exercises

Find the characteristic polynomial of the matrix

Find the characteristic polynomial of the matrix

Find the characteristic polynomial of the matrix

Find the eigenvalues, eigenspaces, algebraic multiplicities and geometric multiplicities for the matrix below. It is possible to do all these computations by hand, and it would be instructive to do so.

First compute the characteristic polynomial,

So the eigenvalues of (C) are the solutions to (charpoly=0 ext<,>) namely, (lambda=2) and (lambda=3 ext<.>) Each eigenvalue has a factor that appears just once in the characteristic polynomial, so (algmult<2>=1) and (algmult<3>=1 ext<.>)

To obtain the eigenspaces, construct the appropriate singular matrices and find expressions for the null spaces of these matrices.

Each eigenspace has a single basis vector, so the dimensions are both (1) and the geometric multiplicities are (geomult<2>=1) and (geomult<3>=1 ext<.>)

Find the eigenvalues, eigenspaces, algebraic multiplicities and geometric multiplicities for the matrix below. It is possible to do all these computations by hand, and it would be instructive to do so.

The characteristic polynomial of (B) is

From this we find eigenvalues (lambda=3,,-2) with algebraic multiplicities (algmult<3>=1) and (algmult<-2>=1 ext<.>)

For eigenvectors and geometric multiplicities, we study the null spaces of (B-lambda I_2) (Theorem EMNS).

Each eigenspace has dimension one, so we have geometric multiplicities (geomult<3>=1) and (geomult<-2>=1 ext<.>)

The matrix (A) below has (lambda=2) as an eigenvalue. Find the geometric multiplicity of (lambda=2) using your calculator only for row-reducing matrices.

If (lambda=2) is an eigenvalue of (A ext<,>) the matrix (A-2I_4) will be singular, and its null space will be the eigenspace of (A ext<.>) So we form this matrix and row-reduce,

With two free variables, we know a basis of the null space (Theorem BNS) will contain two vectors. Thus the null space of (A-2I_4) has dimension two, and so the eigenspace of (lambda=2) has dimension two also (Theorem EMNS), (geomult<2>=2 ext<.>)

Without using a calculator, find the eigenvalues of the matrix (B ext<.>)

The characteristic polynomial (Definition CP) is

where the factorization can be obtained by finding the roots of (charpoly=0) with the quadratic equation. By Theorem EMRCP the eigenvalues of (B) are the complex numbers (lambda_1=frac<3+sqrt<3>i><2>) and (lambda_2=frac<3-sqrt<3>i><2> ext<.>)

Find the eigenvalues, eigenspaces, algebraic and geometric multiplicities for

Find the eigenvalues, eigenspaces, algebraic and geometric multiplicities for

Find the eigenvalues, eigenspaces, algebraic and geometric multiplicities for the (3 imes 3) identity matrix (I_3 ext<.>) Do your results make sense?

The characteristic polynomial for (A = I_3) is (charpoly = (1-x)^3 ext<,>) which has eigenvalue (lambda = 1) with algebraic multiplicity (algmult <1>= 3 ext<.>)Looking for eigenvectors, we find that

The nullspace of this matrix is all of (complex<3> ext<,>) so that the eigenspace is (eigenspace <1>= spn,colvector<01>, colvector<01>>> ext<,>) and the geometric multiplicity is (gamma_A(1) = 3 ext<.>)

Does this make sense? Yes! Every vector (vect) is a solution to (I_3vect = 1vect ext<,>) so every nonzero vector is an eigenvector with eigenvalue 1. Since every vector is unchanged when multiplied by (I_3 ext<,>) it makes sense that (lambda = 1) is the only eigenvalue.


Orthogonal matrix

Real symmetric matrices not only have real eigenvalues, they are always diagonalizable. In fact, more can be said about the diagonalization.

We say that (U in mathbb^) is متعامد if (U^mathsfU = UU^mathsf = I_n). In other words, (U) is orthogonal if (U^ <-1>= U^mathsf).

If we denote column (j) of (U) by (u_j), then the ((i,j))-entry of (U^mathsfU) is given by (u_icdot u_j). Since (U^mathsfU = I), we must have (u_jcdot u_j = 1) for all (j = 1,ldots n) and (u_icdot u_j = 0) for all (i eq j). Therefore, the columns of (U) are pairwise orthogonal and each column has norm 1. We say that the columns of (U) are متعامد. A vector in (mathbb^n) having norm 1 is called a وحدة vector.

أمثلة

The identity matrix is trivially orthogonal. Here are two nontrivial orthogonal matrices: (displaystylefrac<1>>egin 1 & 1 1 & -1 end), (displaystylefrac<1><9>egin -7 & 4 & 4 4 & -1 & 8 4 & 8 & -1 end)


Maximum Principles and Principal Eigenvalues

1 Introduction

It is the main purpose of this paper to study maximum principles for linear second order cooperative elliptic systems under general linear first order cooperative boundary conditions. We are particularly interested in weak settings, in view of applications to nonlinear systems in situations where higher regularity either cannot be expected or does not constitute a convenient frame to deal with such problems.

Maximum principles for cooperative systems have already been discussed by several authors under various assumptions (cf. [20] , [22] , [32] , [36] , [43] , [56] , [60] , [63] , [71] , [77] ). However, in all these references, with the exception of [63] , the case of Dirichlet boundary conditions is studied only. Furthermore, in almost all cases maximum principles in the strong sense are considered, that is, for C 2 functions, or, at least, for W q 2 functions where ف is sufficiently large.

It is well-known that maximum principles are of great importance for the study of existence and qualitative properties of nonlinear equations. For example, one of the most useful techniques in the theory of second order scalar elliptic (and parabolic) boundary value problems, the method of sub- and supersolutions, is based on maximum principles (cf. [1] , [62] , [64] , [67] ). This is true for systems as well, as has already been observed in [1 , Sections 5 and 10 ] and has since been worked out by several authors under various hypotheses (cf. [59] , [62] , [66] , and the references therein). However, in all those papers either Dirichlet conditions are considered only or, if Neumann boundary conditions are studied at all, it is assumed that either the boundary conditions decouple, a rather particular situation (e.g., [40] , [41] ), or that very strong regularity conditions are satisfied (e.g., [62] ). It is one of the advantages of our work that our maximum principles allow, among other things, comparison theorems for semilinear problems with nonlinear boundary conditions, the latter depending on all components of the unknown vector function, in a weak setting.

The validity of maximum principles is closely related to the existence of a principal eigenvalue, that is, of a least real eigenvalue determining the position of the smallest closed right half plane containing the spectrum. This eigenvalue plays a predominant rôle in the qualitative study of nonlinear boundary value problems via bifurcation theory and in the method of sub- and supersolutions (cf. [37] , [51] , [53] , [54] , [57] , [58] , and the references therein). Consequently, we investigate in some detail questions of existence and continuous dependence on the data of the principal eigenvalue.

It should be noted that our results on maximum principles in weak settings are new, even in the scalar case. The same is true for our continuity results for the principal eigenvalue, since we allow perturbations of the Robin boundary as well.

To give a flavor of the content of this paper we describe now some of our results in a simple setting. Here we restrict ourselves to a 2 × 2 system with the diagonal Laplace operator as principal part. The general case is studied in the main body of this work.

Throughout this paper Ω is a C 2 domain in ℝ ن ، أين ن ≥ 1, with a nonempty compact boundary Γ. We denote by الخامس: = (الخامس 1 , …, v n ) the outer unit normal on Γ.

However, to illustrate some of the main results by means of prototypical examples, we assume throughout the rest of this introduction that Ω is bounded.

يترك ش be a superharmonic distribution in Ω, which means

Then it is known that ش is a regular distribution, in other words: شإل1, loc(Ω). If, moreover, for some point-wise defined representative u ˜ of ش,

ومن بعد ش ≥ 0, that is, ش(x) ≥ 0 for a.a. x ∈ Ω (e.g., [30 , Propositions II.4.20 and II.4.21]). It is clear that from (1) alone nothing can be said about the boundary behavior of شإل1, loc(Ω) since every test function φ ∈ D ( Ω ) vanishes near Γ. Thus (1) , without the additional information of (2) , does not imply that ش ≥ 0.

The situation is different if we require the validity of the inequalities in (1) for a larger class of test functions and a little more regularity for ش. For this, given ف ∈ (1, ∞), we put

and γ is the trace operator. We also denote by 〈·, ·〉 the usual إلف duality pairing. Then it is a consequence of our much more general results that the following very weak maximum principle (rather: minimum principle) is valid:

Very weak maximum principles are of importance in nonlinear problems involving low regularity data, for example (e.g., [12] ). The maximum principles studied below are valid for cooperative systems also. To illustrate this we consider the model system ( A , ℬ ) on Ω, defined as follows: we put ش : = (ش 1 , ش 2 ) and assume that there are two decompositions Γ:

such that Γ 0 1 and Γ 0 2 are open, hence closed, submanifolds of Γ. Then we define


7.4: Existence of Eigenvalues - Mathematics

It’s now time to start solving systems of differential equations. We’ve seen that solutions to the system,

where (lambda) and (vec eta )are eigenvalues and eigenvectors of the matrix (A). We will be working with (2 imes 2) systems so this means that we are going to be looking for two solutions, (left( t ight)) and (left( t ight)), where the determinant of the matrix,

We are going to start by looking at the case where our two eigenvalues, (>) and (>) are real and distinct. In other words, they will be real, simple eigenvalues. Recall as well that the eigenvectors for simple eigenvalues are linearly independent. This means that the solutions we get from these will also be linearly independent. If the solutions are linearly independent the matrix (X) must be nonsingular and hence these two solutions will be a fundamental set of solutions. The general solution in this case will then be,

Note that each of our examples will actually be broken into two examples. The first example will be solving the system and the second example will be sketching the phase portrait for the system. Phase portraits are not always taught in a differential equations course and so we’ll strip those out of the solution process so that if you haven’t covered them in your class you can ignore the phase portrait example for the system.

So, the first thing that we need to do is find the eigenvalues for the matrix.

Now let’s find the eigenvectors for each of these.

The eigenvector in this case is,

The eigenvector in this case is,

Then general solution is then,

Now, we need to find the constants. To do this we simply need to apply the initial conditions.

All we need to do now is multiply the constants through and we then get two equations (one for each row) that we can solve for the constants. This gives,

Now, let’s take a look at the phase portrait for the system.

From the last example we know that the eigenvalues and eigenvectors for this system are,

It turns out that this is all the information that we will need to sketch the direction field. We will relate things back to our solution however so that we can see that things are going correctly.

We’ll start by sketching lines that follow the direction of the two eigenvectors. This gives,

Now, from the first example our general solution is

If we have ( = 0) then the solution is an exponential times a vector and all that the exponential does is affect the magnitude of the vector and the constant (c_<1>) will affect both the sign and the magnitude of the vector. In other words, the trajectory in this case will be a straight line that is parallel to the vector, (>). Also notice that as (t) increases the exponential will get smaller and smaller and hence the trajectory will be moving in towards the origin. If ( > 0) the trajectory will be in Quadrant II and if ( < 0) the trajectory will be in Quadrant IV.

So, the line in the graph above marked with (>) will be a sketch of the trajectory corresponding to ( = 0) and this trajectory will approach the origin as (t) increases.

If we now turn things around and look at the solution corresponding to having ( = 0) we will have a trajectory that is parallel to (>). Also, since the exponential will increase as (t) increases and so in this case the trajectory will now move away from the origin as (t) increases. We will denote this with arrows on the lines in the graph above.

Notice that we could have gotten this information without actually going to the solution. All we really need to do is look at the eigenvalues. Eigenvalues that are negative will correspond to solutions that will move towards the origin as (t) increases in a direction that is parallel to its eigenvector. Likewise, eigenvalues that are positive move away from the origin as (t) increases in a direction that will be parallel to its eigenvector.

If both constants are in the solution we will have a combination of these behaviors. For large negative (t)’s the solution will be dominated by the portion that has the negative eigenvalue since in these cases the exponent will be large and positive. Trajectories for large negative (t)’s will be parallel to (>) and moving in the same direction.

Solutions for large positive (t)’s will be dominated by the portion with the positive eigenvalue. Trajectories in this case will be parallel to (>) and moving in the same direction.

In general, it looks like trajectories will start “near” (>), move in towards the origin and then as they get closer to the origin they will start moving towards (>) and then continue up along this vector. Sketching some of these in will give the following phase portrait. Here is a sketch of this with the trajectories corresponding to the eigenvectors marked in blue.

In this case the equilibrium solution (left( <0,0> ight)) is called a saddle point and is unstable. In this case unstable means that solutions move away from it as (t) increases.

So, we’ve solved a system in matrix form, but remember that we started out without the systems in matrix form. Now let’s take a quick look at an example of a system that isn’t in matrix form initially.

We first need to convert this into matrix form. This is easy enough. Here is the matrix form of the system.

This is just the system from the first example and so we’ve already got the solution to this system. Here it is.

Now, since we want the solution to the system not in matrix form let’s go one step farther here. Let’s multiply the constants and exponentials into the vectors and then add up the two vectors.

So, the solution to the system is then,

Let’s work another example.

So, the first thing that we need to do is find the eigenvalues for the matrix.

Now let’s find the eigenvectors for each of these.

The eigenvector in this case is,

The eigenvector in this case is,

Then general solution is then,

Now, we need to find the constants. To do this we simply need to apply the initial conditions.

Now solve the system for the constants.

Now let’s find the phase portrait for this system.

From the last example we know that the eigenvalues and eigenvectors for this system are,

This one is a little different from the first one. However, it starts in the same way. We’ll first sketch the trajectories corresponding to the eigenvectors. Notice as well that both of the eigenvalues are negative and so trajectories for these will move in towards the origin as (t) increases. When we sketch the trajectories we’ll add in arrows to denote the direction they take as (t) increases. Here is the sketch of these trajectories.

Now, here is where the slight difference from the first phase portrait comes up. All of the trajectories will move in towards the origin as (t) increases since both of the eigenvalues are negative. The issue that we need to decide upon is just how they do this. This is actually easier than it might appear to be at first.

The second eigenvalue is larger than the first. For large and positive (t)’s this means that the solution for this eigenvalue will be smaller than the solution for the first eigenvalue. Therefore, as (t) increases the trajectory will move in towards the origin and do so parallel to (>). Likewise, since the second eigenvalue is larger than the first this solution will dominate for large and negative (t)’s. Therefore, as we decrease (t) the trajectory will move away from the origin and do so parallel to (>).

Adding in some trajectories gives the following sketch.

In these cases we call the equilibrium solution (left( <0,0> ight)) a node and it is asymptotically stable. Equilibrium solutions are asymptotically stable if all the trajectories move in towards it as (t) increases.

Note that nodes can also be unstable. In the last example if both of the eigenvalues had been positive all the trajectories would have moved away from the origin and in this case the equilibrium solution would have been unstable.

Before moving on to the next section we need to do one more example. When we first started talking about systems it was mentioned that we can convert a higher order differential equation into a system. We need to do an example like this so we can see how to solve higher order differential equations using systems.

So, we first need to convert this into a system. Here’s the change of variables,

Now we need to find the eigenvalues for the matrix.

Now let’s find the eigenvectors.

The eigenvector in this case is,

The eigenvector in this case is,

الحل العام إذن ،

Apply the initial condition.

This gives the system of equations that we can solve for the constants.

The actual solution to the system is then,

we can see that the solution to the original differential equation is just the top row of the solution to the matrix system. The solution to the original differential equation is then,

Notice that as a check, in this case, the bottom row should be the derivative of the top row.


Department of Mathematics Syllabus

This syllabus is advisory only. For details on a particular instructor's syllabus (including books), consult the instructor's course page. For a list of what courses are being taught each quarter, refer to the Courses page.

MAT 22B: Differential Equations

Introduction and terminology, direction fields, discussion and solution of some ODE

Linear equations integrating factors

Modeling, mechanics Linear versus non-linear equations

Autonomous equations Population dynamics

Numerical approximation Euler’s method

Existence and uniqueness theorem

First order difference equations

Homogeneous 2 nd order equations with constant coefficients

Fundamental solutions, linear independence, Wronskian

Repeated roots Reduction of order

Nonhomogeneous equations Method of undetermined coefficients

Applications to oscillating systems

Laplace Transform, definition

Solution of initial value problems with Laplace Transform

Systems of linear ODE, introduction

Review of related linear algebra

Basic theory of first order linear systems

Homogeneous linear systems with constant coefficients

Nonhomogeneous linear systems

This syllabus is based on 27 50-minute lectures. This usually leaves two lectures for midterms, e.g. midterm one covering the material of Chapters 1 and 2, and midterm two covering the material of Chapters 3 and 6. Alternatively, one can hold one midterm and have a lecture on applications (and/or review) at the end.

There are several interesting options to extend and/or modify this material:


شاهد الفيديو: روائع ابن القيم - أقوال العظماء (كانون الثاني 2022).