مقالات

7: القيم الذاتية والمتجهات الذاتية - الرياضيات


في هذا الفصل ندرس العوامل الخطية (T: V to V ) على فضاء متجه ذي أبعاد محدودة (V ). على سبيل المثال ، تعتمد ميكانيكا الكم إلى حد كبير على دراسة القيم الذاتية والمتجهات الذاتية للمشغلين على مساحات متجهة محدودة وغير محدودة الأبعاد.


القيم الذاتية والمتجهات الذاتية

نراجع هنا أساسيات حساب القيم الذاتية والمتجهات الذاتية. تلعب القيم الذاتية والمتجهات الذاتية دورًا بارزًا في دراسة المعادلات التفاضلية العادية وفي العديد من التطبيقات في العلوم الفيزيائية. توقع رؤيتها تأتي في مجموعة متنوعة من السياقات!

تعريفات

لنفترض أن $ A $ يكون مصفوفة $ n times n $. الرقم $ lambda $ هو القيمة الذاتية من $ A $ إذا كان هناك متجه غير صفري $ < bf v> $ مثل $ A < bf v> = lambda < bf v>. $ في هذه الحالة ، المتجه $ < bf v> $ يسمى ناقل eigenvector من $ A $ المقابل لـ $ lambda $.

حساب القيم الذاتية والمتجهات الذاتية

يمكننا إعادة كتابة الشرط $ A < bf v> = lambda < bf v> $ كـ $ (A- lambda I) < bf v> = < bf 0>. $ حيث $ I $ هي مصفوفة الهوية $ n times n $. الآن ، من أجل ملف غير صفرية المتجه $ < bf v> $ لتلبية هذه المعادلة ، يجب أن يكون $ A & # 8211 lambda $ I $ ليس تكون قابلة للعكس.

وإلا ، إذا كان لدى $ A & # 8211 lambda I $ معكوس ، ابدأ (A & # 8211 lambda I) ^ <-1> (A & # 8211 lambda I) < bf v> & amp = & amp (A & # 8211 lambda I) ^ <-1> < bf 0> < bf v> & amp = & amp < bf 0>. نهاية لكننا نبحث عن متجه غير صفري $ < bf v> $. أي أن محدد $ A & # 8211 lambda I $ يجب أن يساوي 0. نسمي $ p ( lambda) = det (A & # 8211 lambda I) $ the صفة مميزة
متعدد الحدود
من $ A $. إن القيم الذاتية لـ $ A $ هي ببساطة جذور كثير الحدود المميز لـ $ A $.

مثال

دع $ A = left [ start 2 & amp -4 -1 & amp -1 end حق] $. ثم $ start p ( lambda) & amp = & amp det left [ start 2- lambda & amp -4 -1 & amp -1- lambda end right] & amp = & amp (2- lambda) (- 1- lambda) - (- 4) (- 1) & amp = & amp lambda ^ <2> - lambda -6 & amp = & أمبير ( لامدا -3) ( لامدا +2). نهايةوبالتالي ، فإن $ lambda_1 = 3 $ و $ lambda_2 = -2 $ هي القيم الذاتية لـ $ A $.

للعثور على المتجهات الذاتية $ < bf v> = left [ begin v_1 v_2 vdots v_n end right] $ المطابق لقيمة eigenvalue $ lambda $ ، نحن ببساطة نحل نظام المعادلات الخطية المعطاة بواسطة $ (A- lambda I) < bf v> = < bf 0>. $

مثال

المصفوفة $ A = left [ begin 2 & amp -4 -1 & amp -1 end right] للمثال السابق قيم eigenvalues ​​$ lambda_1 = 3 $ و $ lambda_2 = -2 $. لنجد & # 8217s المتجهات الذاتية المقابلة لـ $ lambda_1 = 3 $. دع $ < bf v> = left [ حق] $. ثم $ (A-3I) < bf v> = < bf 0> $ يعطينا $ left [ begin 2-3 & amp -4 -1 & amp -1-3 النهاية يمين] يسار [ ابدأ v_1 v_2 end right] = left [ start 0 0 نهاية right] ، الذي نحصل منه على المعادلات المكررة start -v_1-4v_2 & amp = & amp 0 -v_1-4v_2 & amp = & amp 0. end إذا تركنا $ v_2 = t $ ، فإن $ v_1 = -4t $. جميع المتجهات الذاتية المقابلة لـ $ lambda_1 = 3 $ هي مضاعفات $ left [<- 4 atop 1> right] $ وبالتالي فإن مساحة eigenspace المقابلة لـ $ lambda_1 = 3 $ تُعطى بمدى $ left [ <-4 فوق 1> right] $. وهذا يعني أن $ left < left [<- 4 atop 1> right] right > $ هو أساس من مساحة eigenspace المقابلة لـ $ lambda_1 = 3 $.

بتكرار هذه العملية مع $ lambda_2 = -2 $ ، نجد أن start 4v_1 -4V_2 & amp = & amp 0 -v_1 + v_2 & amp = & amp 0 end إذا تركنا $ v_2 = t $ ثم $ v_1 = t $ أيضًا. وبالتالي ، فإن المتجه الذاتي المقابل لـ $ lambda_2 = -2 $ هو $ left [<1 atop 1> right] $ و eigenspace المطابق لـ $ lambda_2 = -2 $ يُعطى بمدى $ left [ <1 فوق 1> right] $. $ left < left [<1 atop 1> right] right > $ هو أساس مساحة eigenspace المقابلة لـ $ lambda_2 = -2 $.

في المثال التالي ، نرى فضاء eigenspace ثنائي الأبعاد.

مثال

دع $ A = left [ start 5 & ​​amp 8 & amp 16 4 & amp 1 & amp 8 -4 & amp -4 & amp -11 end حق] $. ثم $ p ( lambda) = det left [ begin 5- لامدا & أمبير 8 أمبير 16 4 & أمبير 1 لامدا & أمبير 8 -4 & أمبير -4 & أمبير -11- لامدا نهاية right] = ( lambda-1) ( lambda + 3) ^ <2> $ بعد بعض الجبر! وبالتالي ، فإن $ lambda_1 = 1 $ و $ lambda_2 = -3 $ هي القيم الذاتية لـ $ A $. المتجهات الذاتية $ < bf v> = left [ begin v_1 v_2 v_3 end right] $ المقابل لـ $ lambda_1 = 1 $ يجب أن يرضي

عند ترك $ v_3 = t $ ، نجد من المعادلة الثانية أن $ v_1 = -2t $ ، ثم $ v_2 = -t $. جميع المتجهات الذاتية المقابلة لـ $ lambda_1 = 1 $ هي مضاعفات $ left [ begin -2 -1 1 نهاية right] $ ، وبالتالي فإن مساحة eigenspace المقابلة لـ $ lambda_1 = 1 $ تُعطى بمدى $ left [ start -2 -1 1 نهاية حق] $. $ left < left [ start -2 -1 1 نهاية right] right > $ هو أساس مسافة eigenspace المقابلة لـ $ lambda_1 = 1 $.

المتجهات الذاتية المقابلة لـ $ lambda_2 = -3 $ يجب أن تفي

المعادلات هنا هي مجرد مضاعفات لبعضها البعض! إذا تركنا $ v_3 = t $ و $ v_2 = s $ ، فإن $ v_1 = -s -2t $. المتجهات الذاتية المقابلة لـ $ lambda_2 = -3 $ لها الشكل $ left [ begin -1 1 0 نهاية right] s + left [ start -2 0 1 نهاية الحق] ر. $ وهكذا ، فإن eigenspace المقابل لـ $ lambda_2 = -3 $ ثنائي الأبعاد ويمتد بمقدار $ left [ begin -1 1 0 نهاية right] $ و $ left [ start -2 0 1 نهاية حق] $. $ left < left [ start -1 1 0 نهاية يمين] ، يسار [ ابدأ -2 0 1 نهاية right] right > $ هو أساس مسافة eigenspace المقابلة لـ $ lambda_2 = -3 $.

ملاحظات

  • يمكن أن تكون القيم الذاتية والمتجهات الذاتية ذات قيمة معقدة وكذلك ذات قيمة حقيقية.
  • أبعاد فضاء eigens المقابل لقيمة eigenvalue أقل من أو تساوي تعدد تلك القيمة الذاتية.
  • التقنيات المستخدمة هنا عملية لمصفوفات $ 2 مرات 2 $ و 3 $ مرة 3 $. غالبًا ما يتم العثور على القيم الذاتية والمتجهات الذاتية للمصفوفات الأكبر باستخدام تقنيات أخرى ، مثل الطرق التكرارية.

المفاهيم الرئيسية

لنفترض أن $ A $ يكون مصفوفة $ n times n $. قيم eigenvalues ​​$ A $ هي جذور كثير الحدود المميز $ p ( lambda) = det (A & # 8211 lambda I). لكل قيمة eigenvalue $ lambda $ ، نجد المتجهات الذاتية $ < bf v> = left [ begin v_1 v_2 vdots v_n end right] $ عن طريق حل النظام الخطي $ (A & # 8211 lambda I) < bf v> = < bf 0>. مجموعة جميع المتجهات $ < bf v> $ مرضية $ A < bf v> = lambda < bf v> $ تسمى eigenspace من $ A $ المقابل لـ $ lambda $.


7: القيم الذاتية والمتجهات الذاتية - الرياضيات

إذا لم تحصل على أي شيء من هذه المراجعة السريعة للجبر الخطي ، فيجب أن تحصل على هذا القسم. بدون هذا القسم لن تتمكن من عمل أي من المعادلات التفاضلية الموجودة في هذا الفصل.

لذا ، فلنبدأ بما يلي. إذا ضربنا (n times n ) مصفوفة في (n times 1 ) متجه ، فسنحصل على متجه جديد (n times 1 ) للخلف. بعبارات أخرى،

ما نريد معرفته هو ما إذا كان من الممكن حدوث ما يلي. بدلاً من مجرد الحصول على متجه جديد تمامًا من عملية الضرب ، يمكن بدلاً من ذلك الحصول على ما يلي ،

بمعنى آخر ، هل من الممكن ، على الأقل بالنسبة لبعض ( lambda ) و ( vec eta ) ، أن يكون ضرب المصفوفة هو نفسه مجرد ضرب المتجه بثابت؟ بالطبع ، ربما لن نتحدث عن هذا إذا كانت الإجابة بالنفي. لذلك ، من الممكن أن يحدث هذا ، ومع ذلك ، فإنه لن يحدث لأي قيمة من ( lambda ) أو ( vec eta ). إذا صادف أن لدينا ( lambda ) و ( vec eta ) يعمل من أجلهما (وسيأتيان دائمًا في أزواج) ، فإننا نسمي ( lambda ) القيمة الذاتية من (A ) و ( vec eta ) أ ناقل eigenvector من (أ ).

إذن ، كيف نبدأ في إيجاد القيم الذاتية والمتجهات الذاتية لمصفوفة؟ حسنًا ، لاحظ أولاً أنه إذا ( vec eta = vec 0 ) ثم ( eqref) سيكون صحيحًا لأي قيمة لـ ( lambda ) ولذا سنقوم بافتراض أن ( vec eta ne vec 0 ). بهذه الطريقة دعونا نعيد كتابة ( eqref) قليل.

[يبدأA vec eta - lambda vec eta & = vec 0 A vec eta - lambda vec eta & = vec 0 يسار ( > right) vec eta & = vec 0 end]

لاحظ أنه قبل أن نأخذ في الحسبان ( vec eta ) أضفنا في مصفوفة الهوية ذات الحجم المناسب. هذا يعادل ضرب الأشياء في واحد وبالتالي لا يغير قيمة أي شيء. احتجنا إلى القيام بذلك لأنه بدونه كان لدينا الفرق في المصفوفة ، (A ) ، والثابت ، ( lambda ) ، وهذا لا يمكن القيام به. لدينا الآن الفرق بين مصفوفتين لهما نفس الحجم والذي يمكن القيام به.

لذلك ، مع إعادة الكتابة هذه ، نرى ذلك

يعادل ( eqref). لإيجاد المتجهات الذاتية لمصفوفة ، سنحتاج إلى حل نظام متجانس. تذكر حقيقة من القسم السابق أننا نعلم أنه سيكون لدينا إما حل واحد بالضبط ( ( vec eta = vec 0 )) أو سيكون لدينا عدد لا نهائي من الحلول غير الصفرية. نظرًا لأننا قلنا بالفعل أننا لا نريد ( vec eta = vec 0 ) ، فهذا يعني أننا نريد الحالة الثانية.

ستسمح لنا معرفة ذلك بإيجاد القيم الذاتية لمصفوفة. تذكر من هذه الحقيقة أننا سنحصل على الحالة الثانية فقط إذا كانت المصفوفة في النظام مفردة. لذلك ، سنحتاج إلى تحديد قيم ( lambda ) التي نحصل عليها ،

بمجرد أن نحصل على قيم eigenvalue ، يمكننا بعد ذلك العودة وتحديد المتجهات الذاتية لكل قيمة ذاتية. دعونا نلقي نظرة على بضع حقائق سريعة حول القيم الذاتية والمتجهات الذاتية.

إذا كان (A ) عبارة (n مرات n ) مصفوفة ثم ( det left ( right) = 0 ) هو (n ^ < text> ) درجة كثيرة الحدود. هذا كثير الحدود يسمى كثير الحدود المميزة.

لإيجاد القيم الذاتية لمصفوفة ، كل ما علينا فعله هو حل كثير الحدود. هذا بشكل عام ليس سيئًا للغاية بشرط أن نحافظ على (n ) صغيرًا. وبالمثل ، تخبرنا هذه الحقيقة أيضًا أنه بالنسبة للمصفوفة (n times n ) ، (A ) ، سيكون لدينا (n ) قيم eigenvalues ​​إذا قمنا بتضمين جميع القيم الذاتية المتكررة.

إذا كانت (< lambda _ <، 1 >>، < lambda _ <، 2 >>، ldots، < lambda _ <، n >> ) هي القائمة الكاملة لقيم eigenvalues ​​لـ (A ) (بما في ذلك جميع القيم الذاتية المتكررة) ثم ،

    إذا حدث ( lambda ) مرة واحدة فقط في القائمة ، فإننا نطلب ( lambda ) بسيط.

ستصبح فائدة هذه الحقائق واضحة عندما نعود إلى المعادلات التفاضلية لأننا في هذا العمل نريد حلولًا مستقلة خطيًا.

دعونا نعمل على بعض الأمثلة الآن لنرى كيف نبدأ بالفعل في إيجاد قيم eigenvalues ​​ومتجهات eigenvectors.

أول شيء علينا فعله هو إيجاد قيم eigenvalues. هذا يعني أننا بحاجة إلى المصفوفة التالية ،

على وجه الخصوص ، نحتاج إلى تحديد مكان محدد هذه المصفوفة يساوي صفرًا.

لذلك ، يبدو أننا سنحصل على قيمتين متماثلتين بسيطتين لهذه المصفوفة ، (< lambda _ < ، 1 >> = - 5 ) و (< lambda _ < ، 2 >> = 1 ). سنحتاج الآن إلى إيجاد المتجهات الذاتية لكل من هذه. لاحظ أيضًا أنه وفقًا للحقيقة أعلاه ، يجب أن يكون المتجهان الذاتيان مستقلين خطيًا.

للعثور على المتجهات الذاتية ، نقوم ببساطة بتوصيل كل قيمة ذاتية في GOTOBUTTON ZEqnNum594711 * MERGEFORMAT REF ZEqnNum594711 ! * MERGEFORMAT (2) وحلها. لذا ، دعونا نفعل ذلك.

(< لامدا _ < ، 1 >> = - 5 ):
في هذه الحالة نحتاج إلى حل النظام التالي.

تذكر أنه رسميًا لحل هذا النظام ، نستخدم المصفوفة المعززة التالية.

عند الاختزال ، نرى أننا نحصل على معادلة واحدة

من شأنها أن تسفر عن عدد لا حصر له من الحلول. هذا هو السلوك المتوقع. تذكر أننا اخترنا قيم eigenvalues ​​بحيث تكون المصفوفة مفردة وبالتالي سنحصل على عدد لا نهائي من الحلول.

لاحظ أيضًا أنه كان بإمكاننا تحديد هذا من النظام الأصلي. لن يكون هذا هو الحال دائمًا ، ولكن في حالة (2 times 2 ) يمكننا أن نرى من النظام أن أحد الصفوف سيكون مضاعفًا للآخر ، وبالتالي سنحصل على حلول لا نهائية. من الآن فصاعدًا ، لن نتمكن من حل الأنظمة في هذه الحالات. سننتقل مباشرة إلى المعادلة ويمكننا استخدام أي من الصفين لهذه المعادلة.

الآن ، دعونا نعود إلى eigenvector ، لأن هذا ما كنا بعده. بشكل عام ، فإن eigenvector سيكون أي ناقل يفي بما يلي ،

للحصول على هذا استخدمنا حل المعادلة التي وجدناها أعلاه.

نحن حقًا لا نريد متجهًا شخصيًا عامًا ، ولكننا سنختار قيمة لـ (< eta _ < ، 2 >> ) للحصول على متجه محدد. يمكننا اختيار أي شيء (باستثناء (< eta _ < ، 2 >> = 0 )) ، لذا اختر شيئًا يجعل من eigenvector "لطيفًا". لاحظ أيضًا أنه نظرًا لأننا افترضنا بالفعل أن eigenvector ليس صفرًا ، فيجب علينا اختيار قيمة لن تعطينا صفرًا ، ولهذا السبب نريد تجنب (< eta _ < ، 2 >> = 0 ) في هذه الحالة. إليك المتحول الذاتي لهذه القيمة الذاتية.

الآن علينا القيام بذلك مرة أخرى للقيمة الذاتية الثانية.

(< لامدا _ < ، 2 >> = 1 ):
سنقوم بعمل أقل بكثير مع هذا الجزء مما فعلناه في الجزء السابق. سنحتاج إلى حل النظام التالي.

من الواضح أن كلا الصفين عبارة عن مضاعفات لبعضهما البعض ، وبالتالي سنحصل على عدد لا نهائي من الحلول. يمكننا اختيار العمل مع أي من الصفوف. سنجري مع الأول لأنه لتجنب وجود عدد كبير جدًا من علامات الطرح. القيام بهذا يعطينا ،

لاحظ أنه يمكننا حل هذا لأي من المتغيرين. ومع ذلك ، مع التركيز على العمل معها لاحقًا ، فلنحاول تجنب أكبر عدد ممكن من الكسور. ومن ثم فإن المتجه الذاتي ،

لاحظ أن المتجهين الذاتيين مستقلان خطيًا كما هو متوقع.

هذه المصفوفة بها كسور. هذه هي الحياة ، لذا لا تتحمس لها. أولاً ، نحتاج إلى قيم eigenvalues.

لذا ، يبدو أننا حصلنا على قيمة ذاتية للتعددية 2 هنا. تذكر أن القوة الموجودة على الحد ستكون تعددية.

الآن ، دعونا نعثر على المتجه (المتجهات) الذاتية. سيكون هذا مختلفًا قليلاً عن المثال الأول. هناك قيمة ذاتية واحدة فقط ، لذلك دعونا نقوم بالعمل لتلك القيمة. سنحتاج إلى حل النظام التالي ،

إذن ، الصفوف هي مضاعفات بعضها البعض. سنعمل مع المعادلة الأولى في هذا المثال لإيجاد المتغير الذاتي.

تذكر في المثال الأخير أننا قررنا أننا نريد أن نجعلها "لطيفة" قدر الإمكان ولذا يجب تجنب الكسور إذا استطعنا. في بعض الأحيان ، كما هو الحال في هذه الحالة ، لا يمكننا ببساطة ، لذا سنضطر للتعامل معها. في هذه الحالة سيكون المتجه الذاتي ،

لاحظ أنه من خلال الاختيار الدقيق للمتغير في هذه الحالة ، تمكنا من التخلص من الكسر الذي كان لدينا. هذا شيء بشكل عام لا يهم كثيرًا إذا كنا نفعله أم لا. ومع ذلك ، عندما نعود إلى المعادلات التفاضلية ، سيكون الأمر أسهل علينا إذا لم يكن لدينا أي كسور ، لذلك سنحاول عادةً حذفها في هذه الخطوة.

أيضًا ، في هذه الحالة ، سنحصل فقط على ناقل eigenvector واحد (مستقل خطيًا). يمكننا الحصول على متجهات ذاتية أخرى ، باختيار قيم مختلفة لـ (< eta _ < ، 1 >> ). ومع ذلك ، فإن كل من هؤلاء سيعتمد خطيًا على المتجه الذاتي الأول. إذا لم تكن مقتنعًا بهذا ، جربه. اختر بعض القيم لـ (< eta _ <، 1 >> ) واحصل على متجه مختلف وتحقق لمعرفة ما إذا كان الاثنان يعتمدان خطيًا.

تذكر من الحقيقة أعلاه أن القيمة الذاتية للتعددية (ك ) سيكون لها في أي مكان من 1 إلى (ك ) متجهات ذاتية مستقلة خطيًا. في هذه الحالة حصلنا على واحد. بالنسبة لمعظم المصفوفات (2 times 2 ) التي سنعمل معها ستكون كذلك ، على الرغم من أنه ليس من الضروري أن تكون كذلك. يمكننا ، في بعض الأحيان ، الحصول على اثنين.

لذلك ، سنبدأ بالقيم الذاتية.

هذا لا يؤثر ، لذلك عند استخدام الصيغة التربيعية التي توصلنا إليها ،

في هذه الحالة نحصل على قيم ذاتية معقدة والتي هي بالتأكيد حقيقة من حقائق الحياة مع مشاكل eigenvalue / eigenvector لذا تعتاد عليها.

إن العثور على المتجهات الذاتية لقيم eigenvalues ​​المعقدة مطابق للمثالين السابقين ، ولكنه سيكون أكثر فوضوية إلى حد ما. لذا ، دعونا نفعل ذلك.

(< لامدا _ < ، 1 >> = - 1 + 5 ، أنا ):
النظام الذي نحتاج إلى حله هذه المرة هو

الآن ، ليس من الواضح تمامًا أن الصفوف هي مضاعفات بعضها البعض ، لكنها كذلك. في هذه الحالة لدينا ،

هذا ليس شيئًا يجب أن تقلق بشأنه ، لقد أردنا فقط توضيح هذه النقطة. بالنسبة إلى العمل الذي سنقوم به لاحقًا مع المعادلات التفاضلية ، سنفترض أننا قمنا بكل شيء بشكل صحيح ولدينا صفان يتضاعف كل منهما الآخر. لذلك ، كل ما علينا القيام به هنا هو اختيار أحد الصفوف والعمل معه.

سنعمل مع الصف الثاني هذه المرة.

يمكننا الآن إيجاد أي من المتغيرين. ومع ذلك ، نتطلع مرة أخرى إلى المعادلات التفاضلية ، سنحتاج إلى " (i )" في البسط ، لذا نحل المعادلة بطريقة تحدث هذا. القيام بهذا يعطي ،

إذن ، المتجه الذاتي في هذه الحالة هو

كما في المثال السابق ، نختار قيمة المتغير لمسح الكسر.

الآن ، العمل الخاص بـ eigenvector الثاني متطابق تقريبًا ولذا لن نتطرق إلى هذا كثيرًا.

(< لامدا _ < ، 2 >> = - 1-5 ، أنا ):
النظام الذي نحتاج إلى حله هنا هو

العمل مع الصف الثاني مرة أخرى يعطي ،

المتجه الذاتي في هذه الحالة هو

هناك حقيقة لطيفة يمكننا استخدامها لتبسيط العمل عندما نحصل على قيم ذاتية معقدة. نحن بحاجة إلى القليل من المصطلحات أولاً.

إذا بدأنا برقم مركب ،

ثم المكورات معقدة من (ض ) هو

لحساب الاتحاد المركب لعدد مركب ، نقوم ببساطة بتغيير العلامة الموجودة على المصطلح الذي يحتوي على " (i )". الاتحاد المعقد للمتجه هو مجرد اتحاد لكل مكون من مكونات المتجه.

لدينا الآن الحقيقة التالية حول قيم eigenvalues ​​المعقدة والمتجهات الذاتية.

إذا كانت (A ) (n times n ) مصفوفة تحتوي على أرقام حقيقية فقط وإذا كانت (< lambda _ <، 1 >> = a + bi ) قيمة ذاتية مع eigenvector (< vec eta ^ < left (1 right) >> ). ثم (< lambda _ <، 2 >> = overline << lambda _ <، 1 >>> = a - bi ) هي أيضًا قيمة ذاتية ومتجه eigenvector الخاص بها هو اتحاد (< vec eta ^ < left (1 right) >> ).

هذه الحقيقة شيء يجب أن لا تتردد في استخدامه كما تريد في عملنا.

الآن ، نحن بحاجة إلى حل مشكلة واحدة نهائية في قيمة eigenvalue / eigenvector. حتى هذه اللحظة ، عملنا فقط مع (2 times 2 ) المصفوفات ويجب أن نعمل على الأقل مصفوفة واحدة ليست (2 times 2 ). أيضًا ، نحتاج إلى عمل واحد نحصل فيه على قيمة ذاتية للتعددية أكبر من واحدة تحتوي على أكثر من ناقل ذاتي مستقل خطيًا.

على الرغم من حقيقة أن هذه مصفوفة (3 مرات 3 ) ، إلا أنها لا تزال تعمل بنفس المصفوفات (2 مرات 2 ) التي كنا نعمل معها. لذا ، ابدأ بالقيم الذاتية

لذلك ، لدينا قيمة ذاتية بسيطة وقيمة ذاتية للتعدد 2. لاحظ أننا استخدمنا نفس الطريقة لحساب محدد المصفوفة (3 مرات 3 ) التي استخدمناها في القسم السابق. نحن فقط لم نعرض العمل.

دعونا الآن نحصل على المتجهات الذاتية. سنبدأ مع eigenvector البسيط.

هذه المرة ، على عكس حالات (2 times 2 ) التي عملناها سابقًا ، نحتاج بالفعل إلى حل النظام. لذلك دعونا نفعل ذلك.

العودة إلى المعادلات يعطي ،

لذا ، مرة أخرى ، نحصل على عدد لا نهائي من الحلول كما يجب أن نحصل على المتجهات الذاتية. ومن ثم فإن المتجه الذاتي ،

الآن ، دعونا نفعل القيمة الذاتية الأخرى.

حسنًا ، في هذه الحالة ، من الواضح أن الصفوف الثلاثة جميعها متشابهة وبالتالي لا يوجد أي سبب لحل النظام بالفعل حيث يمكننا مسح الصفين السفليين لجميع الأصفار في خطوة واحدة. المعادلة التي نحصل عليها هي

لذلك ، في هذه الحالة ، سنختار اثنين من القيم مجانًا وسنظل نحصل على عدد لا نهائي من الحلول. هنا هو المتجه الذاتي العام لهذه الحالة ،

لاحظ التقييد هذه المرة. تذكر أننا نطلب فقط ألا يكون المتجه الذاتي هو المتجه الصفري. هذا يعني أنه يمكننا السماح لأحد المتغيرين أن يكون صفراً ، ولا يمكننا السماح لكليهما أن يكونا صفراً في نفس الوقت!

ما يعنيه هذا بالنسبة لنا هو أننا سنحصل على متجهين ذاتيين مستقلين خطيًا هذه المرة. ها هم.

الآن عندما تحدثنا عن المتجهات المستقلة الخطية في القسم الأخير ، نظرنا فقط إلى (n ) المتجهات التي تحتوي على (n ) مكونات. ومع ذلك ، لا يزال بإمكاننا الحديث عن الاستقلال الخطي في هذه الحالة. تذكر مرة أخرى مع قيامنا بالاستقلال الخطي للوظائف التي رأيناها في ذلك الوقت أنه إذا كانت وظيفتان تعتمدان خطيًا ، فإنهما كانا مضاعفات لبعضهما البعض. حسنًا ، نفس الشيء ينطبق على المتجهات. سيكون متجهان معتمدين خطيًا إذا كانا من مضاعفات بعضهما البعض. في هذه الحالة لا توجد طريقة للحصول على (< vec eta ^ < left (2 right) >> ) بضرب (< vec eta ^ < left (3 right) >> ) بواسطة ثابت. لذلك ، يجب أن يكون هذان المتجهان مستقلين خطيًا.

إذن ، بإيجاز ، إليك القيم الذاتية والمتجهات الذاتية لهذه المصفوفة


هنا هو التعريف الأكثر أهمية في هذا النص.

تعريف

تترجم البادئة الألمانية "eigen" تقريبًا إلى "self" أو "own". إن المتجه الذاتي لـ

هو متجه يؤخذ إلى مضاعف نفسه بواسطة تحويل المصفوفة

الذي ربما يفسر المصطلحات. من ناحية أخرى ، غالبًا ما تتم ترجمة "eigen" على أنها "مميزة" قد نفكر في المتجه الذاتي على أنه يصف خاصية جوهرية أو مميزة لـ

القيم الذاتية والمتجهات الذاتية هي فقط للمصفوفات المربعة.

المتجهات الذاتية بحكم التعريف غير صفري. قد تكون القيم الذاتية مساوية للصفر.

نحن لا نعتبر المتجه الصفري متجهًا ذاتيًا: منذ ذلك الحين

ستكون القيمة الذاتية المرتبطة غير محددة.

إذا سلمك أحدهم مصفوفة

من ناحية أخرى ، بالنظر إلى المصفوفة فقط

ليس من الواضح على الإطلاق كيفية العثور على المتجهات الذاتية. سنتعلم كيفية القيام بذلك في القسم 5.2.

مثال (التحقق من المتجهات الذاتية)
مثال (التحقق من المتجهات الذاتية)
مثال (متجه ذاتي مع قيمة ذاتية

نكون علاقة خطية متداخلة مع الأصل. لذا ، فإن عامل eigenvector لـ

تقع على نفس الخط من خلال الأصل. في هذه الحالة،

قيمة eigenvalue هي عامل التحجيم.

بالنسبة للمصفوفات التي تظهر كمصفوفة قياسية للتحول الخطي ، فمن الأفضل غالبًا رسم صورة ، ثم العثور على المتجهات الذاتية والقيم الذاتية هندسيًا من خلال دراسة المتجهات التي لم يتم نقلها بعيدًا عن خطها. بالنسبة للتحويل الذي يتم تعريفه هندسيًا ، ليس من الضروري حتى حساب المصفوفة الخاصة به للعثور على المتجهات الذاتية والقيم الذاتية.


محتويات

إذا كان T هو تحويل خطي من فضاء متجه V فوق حقل F في نفسه و الخامس هو متجه غير صفري في V ، إذن الخامس هو ناقل eigenvector لـ T إذا تي(الخامس) هو مضاعف عددي لـ الخامس . يمكن كتابة هذا كـ

حيث λ هو عدد قياسي في F ، والمعروف باسم القيمة الذاتية, قيمة مميزة، أو جذر مميز مرتبط ب الخامس .

هناك مراسلات مباشرة بين ن-بواسطة-ن المصفوفات المربعة والتحويلات الخطية من ن-فضاء متجه الأبعاد في نفسه ، بالنظر إلى أي أساس لمساحة المتجه. ومن ثم ، في فضاء متجه ذي أبعاد محدودة ، فإنه يكافئ تعريف القيم الذاتية والمتجهات الذاتية باستخدام إما لغة المصفوفات ، أو لغة التحولات الخطية. [3] [4]

إذا كانت V ذات أبعاد محدودة ، فإن المعادلة أعلاه تعادل [5]

حيث A هو تمثيل المصفوفة لـ T و ش هو متجه إحداثيات الخامس .

تبرز القيم الذاتية والمتجهات الذاتية بشكل بارز في تحليل التحولات الخطية. البادئة إيجن- مأخوذ من الكلمة الألمانية إيجن (مشابه للكلمة الإنجليزية خاصة) لكلمة "مناسب" ، "مميز" ، "خاص". [6] [7] تستخدم في الأصل لدراسة المحاور الرئيسية للحركة الدورانية للأجسام الصلبة ، للقيم الذاتية والمتجهات الذاتية مجموعة واسعة من التطبيقات ، على سبيل المثال في تحليل الاستقرار ، وتحليل الاهتزاز ، والمدارات الذرية ، والتعرف على الوجه ، وقطر المصفوفة.

في جوهرها ، المتجه الذاتي الخامس من التحول الخطي تي هو متجه غير صفري عندما تي يتم تطبيقه عليه ، لا يغير الاتجاه. التقديم تي إلى eigenvector فقط يقيس eigenvector بالقيمة العددية λ، تسمى قيمة eigenvalue. يمكن كتابة هذا الشرط على أنه المعادلة

يشار إليها باسم معادلة القيمة الذاتية أو المعادلة الذاتية. على العموم، λ قد يكون أي عدد. على سبيل المثال، λ قد يكون سالبًا ، وفي هذه الحالة يقوم المتجه الذاتي بعكس اتجاهه كجزء من القياس ، أو قد يكون صفريًا أو معقدًا.

يقدم مثال الموناليزا المصور هنا توضيحًا بسيطًا. يمكن تمثيل كل نقطة على اللوحة كمتجه يشير من مركز اللوحة إلى تلك النقطة. يسمى التحويل الخطي في هذا المثال تعيين القص. يتم نقل النقاط الموجودة في النصف العلوي إلى اليمين ، ويتم نقل النقاط الموجودة في النصف السفلي إلى اليسار ، بما يتناسب مع بُعدها عن المحور الأفقي الذي يمر عبر منتصف اللوحة. وبالتالي ، فإن المتجهات التي تشير إلى كل نقطة في الصورة الأصلية مائلة إلى اليمين أو اليسار ، وتصبح أطول أو أقصر من خلال التحويل. نقاط على امتداد لا يتحرك المحور الأفقي على الإطلاق عند تطبيق هذا التحويل. لذلك ، فإن أي متجه يشير مباشرة إلى اليمين أو اليسار بدون مكون رأسي هو متجه ذاتي لهذا التحول ، لأن التعيين لا يغير اتجاهه. علاوة على ذلك ، فإن كل هذه المتجهات الذاتية لها قيمة ذاتية تساوي واحدًا ، لأن التعيين لا يغير طولها أيضًا.

يمكن أن تتخذ التحويلات الخطية أشكالًا مختلفة ، ترسم المتجهات في مجموعة متنوعة من المساحات المتجهية ، وبالتالي يمكن أن تتخذ المتجهات الذاتية أيضًا أشكالًا عديدة. على سبيل المثال ، يمكن أن يكون التحويل الخطي عاملًا تفاضليًا مثل d d x < displaystyle < tfrac >> ، في هذه الحالة ، تكون المتجهات الذاتية وظائف تسمى eigenfunctions التي يتم تحجيمها بواسطة عامل التشغيل التفاضلي ، مثل

بدلاً من ذلك ، يمكن أن يأخذ التحويل الخطي شكل ن بواسطة ن المصفوفة ، وفي هذه الحالة تكون المتجهات الذاتية ن من خلال 1 مصفوفات. إذا تم التعبير عن التحويل الخطي في شكل ن بواسطة ن مصفوفة أ، ثم يمكن إعادة كتابة معادلة eigenvalue للتحويل الخطي أعلاه كضرب المصفوفة

حيث المتجه الذاتي الخامس هو ن بنسبة 1 مصفوفة. بالنسبة للمصفوفة ، يمكن استخدام القيم الذاتية والمتجهات الذاتية لتحليل المصفوفة - على سبيل المثال عن طريق قطريها.

تؤدي القيم الذاتية والمتجهات الذاتية إلى ظهور العديد من المفاهيم الرياضية ذات الصلة الوثيقة والبادئة إيجن- يتم تطبيقها بحرية عند تسميتها:

  • تسمى مجموعة جميع المتجهات الذاتية للتحول الخطي ، كل منها مقترنة بقيمتها الذاتية المقابلة ، نظام eigensystem من هذا التحول. [8] [9]
  • مجموعة جميع المتجهات الذاتية لـ تي المقابلة لنفس القيمة الذاتية ، جنبًا إلى جنب مع المتجه الصفري ، يسمى eigenspace، أو ال مساحة مميزة من تي المرتبطة بتلك القيمة الذاتية. [10]
  • إذا كانت مجموعة من المتجهات الذاتية من تي يشكل أساس مجال تي، ثم يسمى هذا الأساس eigenbasis.

غالبًا ما يتم تقديم القيم الذاتية في سياق الجبر الخطي أو نظرية المصفوفة. تاريخياً ، نشأت في دراسة الأشكال التربيعية والمعادلات التفاضلية.

في القرن الثامن عشر ، درس ليونارد أويلر الحركة الدورانية لجسم صلب ، واكتشف أهمية المحاور الرئيسية. [أ] أدرك جوزيف لويس لاغرانج أن المحاور الرئيسية هي المتجهات الذاتية لمصفوفة القصور الذاتي. [11]

في أوائل القرن التاسع عشر ، رأى Augustin-Louis Cauchy كيف يمكن استخدام عملهم لتصنيف الأسطح الرباعية ، وتعميمها على أبعاد عشوائية. [12] كما صاغ كوشي المصطلح راسين caractéristique (جذر مميز) ، لما يسمى الآن القيمة الذاتية فترة حكمه في معادلة مميزة. [ب]

في وقت لاحق ، استخدم جوزيف فورييه عمل لاغرانج وبيير سيمون لابلاس لحل معادلة الحرارة بفصل المتغيرات في كتابه الشهير عام 1822. Théorie analytique de la chaleur. [13] طور تشارلز-فرانسوا ستورم أفكار فورييه أكثر ، ولفت انتباه كوشي إليها ، الذي جمعها مع أفكاره الخاصة وتوصل إلى حقيقة أن المصفوفات المتماثلة الحقيقية لها قيم ذاتية حقيقية. [12] وسع تشارلز هيرميت هذا في عام 1855 إلى ما يسمى الآن المصفوفات الهرميتية. [14]

في نفس الوقت تقريبًا ، أثبت Francesco Brioschi أن القيم الذاتية للمصفوفات المتعامدة تقع على دائرة الوحدة ، [12] ووجد ألفريد كليبش النتيجة المقابلة للمصفوفات المنحرفة المتماثلة. [14] أخيرًا ، أوضح كارل وييرستراس جانبًا مهمًا في نظرية الاستقرار التي بدأها لابلاس ، من خلال إدراك أن المصفوفات المعيبة يمكن أن تسبب عدم الاستقرار. [12]

في غضون ذلك ، درس جوزيف ليوفيل مشاكل eigenvalue المشابهة لتلك الخاصة بـ Sturm ، يسمى الانضباط الذي نشأ من عملهم الآن نظرية شتورم ليوفيل. [15] درس شوارتز أول قيمة ذاتية لمعادلة لابلاس على المجالات العامة في نهاية القرن التاسع عشر ، بينما درس بوانكاريه معادلة بواسون بعد سنوات قليلة. [16]

في بداية القرن العشرين ، درس ديفيد هيلبرت القيم الذاتية للمشغلين المتكاملين من خلال عرض المشغلين على أنهم مصفوفات لا نهائية. [17] كان أول من استخدم الكلمة الألمانية إيجن، والتي تعني "تملك" ، [7] للدلالة على القيم الذاتية والمتجهات الذاتية في عام 1904 ، [ج] على الرغم من أنه ربما كان يتبع استخدامًا ذا صلة من قبل هيرمان فون هيلمهولتز. لبعض الوقت ، كان المصطلح القياسي في اللغة الإنجليزية هو "القيمة المناسبة" ، ولكن المصطلح الأكثر تميزًا "eigenvalue" هو المعيار اليوم. [18]

ظهرت أول خوارزمية عددية لحساب القيم الذاتية والمتجهات الذاتية في عام 1929 ، عندما نشر ريتشارد فون ميزس طريقة الطاقة. إحدى الطرق الأكثر شيوعًا اليوم ، وهي خوارزمية QR ، تم اقتراحها بشكل مستقل من قبل جون جي إف فرانسيس [19] وفيرا كوبلانوفسكايا [20] في عام 1961. [21] [22]

غالبًا ما يتم تقديم القيم الذاتية والمتجهات الذاتية للطلاب في سياق دورات الجبر الخطي التي تركز على المصفوفات. [23] [24] علاوة على ذلك ، يمكن تمثيل التحويلات الخطية عبر فضاء متجه ذي أبعاد محدودة باستخدام المصفوفات ، [25] [4] وهي شائعة بشكل خاص في التطبيقات العددية والحاسوبية. [26]

ضع في اعتبارك المتجهات ذات الأبعاد n التي تم تشكيلها كقائمة من n العددية ، مثل المتجهات ثلاثية الأبعاد

يقال أن هذه المتجهات هي مضاعفات عددية لبعضها البعض ، أو متوازية أو خطية ، إذا كان هناك عدد بحيث

الآن ضع في اعتبارك التحويل الخطي للمتجهات ذات الأبعاد n المحددة بواسطة n بواسطة n مصفوفة A ،

إذا حدث أن v و w عبارة عن مضاعفات عددية ، فهذا إذا

ومن بعد الخامس هو ناقل eigenvector للتحول الخطي A وعامل القياس λ هو القيمة الذاتية المقابلة لذلك eigenvector. المعادلة (1) هل معادلة القيمة الذاتية للمصفوفة أ.

المعادلة (1) يمكن التعبير عنها بالتساوي

حيث أنا مصفوفة هوية n على n و 0 هو المتجه الصفري.

القيم الذاتية وتحرير متعدد الحدود المميز

المعادلة (2) يحتوي على حل غير صفري الخامس إذا وفقط إذا كان محدد المصفوفة (أλأنا) تساوي صفرًا. لذلك ، فإن قيم eigenvalues ​​لـ أ هي قيم λ التي تفي بالمعادلة

باستخدام قاعدة لايبنيز للمحدد ، الجانب الأيسر من المعادلة (3) هي دالة كثيرة الحدود للمتغير λ ودرجة هذا كثير الحدود ن، ترتيب المصفوفة أ. معاملاتها تعتمد على إدخالات أ، ما عدا أن مدتها من الدرجة ن دائما (−1) ن λ ن . هذا كثير الحدود يسمى كثير الحدود المميزة من أ. المعادلة (3) يسمى معادلة مميزة أو ال معادلة علمانية من أ.

تشير النظرية الأساسية في الجبر إلى أن كثير الحدود المميز لـ an ن-بواسطة-ن مصفوفة أ، كونها متعددة الحدود من الدرجة ن، يمكن وضعها كعامل في منتج ن شروط خطية ،

حيث كل λأنا قد يكون حقيقيًا ولكن بشكل عام هو رقم مركب. الارقام λ1, λ2, …, λن، والتي قد لا تحتوي جميعها على قيم مميزة ، فهي جذور كثيرة الحدود وهي القيم الذاتية لـ أ.

كمثال موجز ، سيتم وصفه بمزيد من التفصيل في قسم الأمثلة لاحقًا ، ضع في اعتبارك المصفوفة

أخذ محددات (أλأنا) ، كثير الحدود المميز لـ أ هو

عند تعيين كثير الحدود المميز يساوي صفرًا ، يكون له جذور عند λ = 1 و λ = 3 ، وهما قيمتا eigenvalues ​​لـ أ. يمكن إيجاد المتجهات الذاتية المقابلة لكل قيمة ذاتية من خلال حل مكونات الخامس في المعادلة (A - λ I) v = 0 = mathbf <0>>. في هذا المثال ، المتجهات الذاتية هي أي مضاعفات عددية غير صفرية لـ

إذا كانت مداخل المصفوفة أ كلها أرقام حقيقية ، فإن معاملات كثير الحدود المميز ستكون أيضًا أرقامًا حقيقية ، لكن القيم الذاتية قد لا تزال تحتوي على أجزاء خيالية غير صفرية. لذلك قد تحتوي إدخالات المتجهات الذاتية المقابلة أيضًا على أجزاء خيالية غير صفرية. وبالمثل ، قد تكون قيم eigenvalues ​​أرقامًا غير منطقية حتى لو كانت جميع إدخالات أ هي أعداد منطقية أو حتى لو كانت جميعها أعدادًا صحيحة. ومع ذلك ، إذا كانت إدخالات أ جميع الأعداد الجبرية ، والتي تشمل الأسباب المنطقية ، والقيم الذاتية هي أعداد جبرية معقدة.

The non-real roots of a real polynomial with real coefficients can be grouped into pairs of complex conjugates, namely with the two members of each pair having imaginary parts that differ only in sign and the same real part. If the degree is odd, then by the intermediate value theorem at least one of the roots is real. Therefore, any real matrix with odd order has at least one real eigenvalue, whereas a real matrix with even order may not have any real eigenvalues. The eigenvectors associated with these complex eigenvalues are also complex and also appear in complex conjugate pairs.

Algebraic multiplicity Edit

يترك λأنا be an eigenvalue of an ن بواسطة ن matrix أ. ال algebraic multiplicity μأ(λأنا) of the eigenvalue is its multiplicity as a root of the characteristic polynomial, that is, the largest integer ك مثل ذلك (λλأنا) ك divides evenly that polynomial. [10] [27] [28]

Suppose a matrix أ has dimension ن و دن distinct eigenvalues. Whereas Equation (4) factors the characteristic polynomial of أ into the product of ن linear terms with some terms potentially repeating, the characteristic polynomial can instead be written as the product of د terms each corresponding to a distinct eigenvalue and raised to the power of the algebraic multiplicity,

إذا د = ن then the right-hand side is the product of ن linear terms and this is the same as Equation (4). The size of each eigenvalue's algebraic multiplicity is related to the dimension ن مثل

إذا μأ(λأنا) = 1, then λأنا is said to be a simple eigenvalue. [28] If μأ(λأنا) equals the geometric multiplicity of λأنا, γأ(λأنا), defined in the next section, then λأنا is said to be a semisimple eigenvalue.

Eigenspaces, geometric multiplicity, and the eigenbasis for matrices Edit

Given a particular eigenvalue λ of the ن بواسطة ن matrix أ, define the set ه to be all vectors الخامس that satisfy Equation (2),

On one hand, this set is precisely the kernel or nullspace of the matrix (أλI). On the other hand, by definition, any nonzero vector that satisfies this condition is an eigenvector of أ associated with λ. So, the set ه is the union of the zero vector with the set of all eigenvectors of أ associated with λ، و ه equals the nullspace of (أλI). ه is called the eigenspace أو characteristic space من أ associated with λ. [29] [10] In general λ is a complex number and the eigenvectors are complex ن by 1 matrices. A property of the nullspace is that it is a linear subspace, so ه is a linear subspace of ℂ ن .

Because the eigenspace ه is a linear subspace, it is closed under addition. That is, if two vectors ش و الخامس belong to the set ه, written ش, الخامسه , then (ش + الخامس) ∈ ه or equivalently أ(ش + الخامس) = λ(ش + الخامس). This can be checked using the distributive property of matrix multiplication. Similarly, because ه is a linear subspace, it is closed under scalar multiplication. That is, if الخامسه و α is a complex number, (αالخامس) ∈ ه or equivalently أ(αالخامس) = λ(αالخامس). This can be checked by noting that multiplication of complex matrices by complex numbers is commutative. As long as ش + الخامس و αالخامس are not zero, they are also eigenvectors of أ associated with λ.

The dimension of the eigenspace ه associated with λ, or equivalently the maximum number of linearly independent eigenvectors associated with λ, is referred to as the eigenvalue's geometric multiplicity γأ(λ). لأن ه is also the nullspace of (أλI), the geometric multiplicity of λ is the dimension of the nullspace of (أλI), also called the nullity of (أλI), which relates to the dimension and rank of (أλI) as

Because of the definition of eigenvalues and eigenvectors, an eigenvalue's geometric multiplicity must be at least one, that is, each eigenvalue has at least one associated eigenvector. Furthermore, an eigenvalue's geometric multiplicity cannot exceed its algebraic multiplicity. Additionally, recall that an eigenvalue's algebraic multiplicity cannot exceed ن.

Additional properties of eigenvalues Edit

Left and right eigenvectors Edit

Many disciplines traditionally represent vectors as matrices with a single column rather than as matrices with a single row. For that reason, the word "eigenvector" in the context of matrices almost always refers to a right eigenvector, namely a عمودي vector that حق multiplies the n × n matrix A in the defining equation, Equation (1),

The eigenvalue and eigenvector problem can also be defined for صف vectors that غادر multiply matrix A . In this formulation, the defining equation is

Diagonalization and the eigendecomposition Edit

Suppose the eigenvectors of أ form a basis, or equivalently أ لديها ن linearly independent eigenvectors الخامس1, الخامس2, …, الخامسن with associated eigenvalues λ1, λ2, …, λن. The eigenvalues need not be distinct. Define a square matrix س whose columns are the ن linearly independent eigenvectors of أ,

Since each column of س is an eigenvector of أ, right multiplying أ بواسطة س scales each column of س by its associated eigenvalue,

With this in mind, define a diagonal matrix Λ where each diagonal element Λii is the eigenvalue associated with the أناth column of س. ثم

Because the columns of س are linearly independent, Q is invertible. Right multiplying both sides of the equation by س −1 ,

or by instead left multiplying both sides by س −1 ,

أ can therefore be decomposed into a matrix composed of its eigenvectors, a diagonal matrix with its eigenvalues along the diagonal, and the inverse of the matrix of eigenvectors. This is called the eigendecomposition and it is a similarity transformation. Such a matrix أ is said to be مماثل to the diagonal matrix Λ or diagonalizable. المصفوفة س is the change of basis matrix of the similarity transformation. Essentially, the matrices أ and Λ represent the same linear transformation expressed in two different bases. The eigenvectors are used as the basis when representing the linear transformation as Λ.

Conversely, suppose a matrix أ is diagonalizable. يترك ص be a non-singular square matrix such that ص −1 AP is some diagonal matrix د. Left multiplying both by ص, AP = PD . Each column of ص must therefore be an eigenvector of أ whose eigenvalue is the corresponding diagonal element of د. Since the columns of ص must be linearly independent for ص to be invertible, there exist ن linearly independent eigenvectors of أ. It then follows that the eigenvectors of أ form a basis if and only if أ is diagonalizable.

A matrix that is not diagonalizable is said to be defective. For defective matrices, the notion of eigenvectors generalizes to generalized eigenvectors and the diagonal matrix of eigenvalues generalizes to the Jordan normal form. Over an algebraically closed field, any matrix أ has a Jordan normal form and therefore admits a basis of generalized eigenvectors and a decomposition into generalized eigenspaces.


هذه واحدة من أكثر من 2400 دورة تدريبية في OCW. استكشف المواد الخاصة بهذه الدورة التدريبية في الصفحات المرتبطة على اليسار.

معهد ماساتشوستس للتكنولوجيا OpenCourseWare هو منشور مجاني ومفتوح لمواد من آلاف دورات معهد ماساتشوستس للتكنولوجيا ، يغطي منهج معهد ماساتشوستس للتكنولوجيا بأكمله.

لا تسجيل أو تسجيل. تصفح واستخدام مواد OCW بحرية وفقًا لسرعتك الخاصة. لا يوجد اشتراك ولا تواريخ بدء أو انتهاء.

المعرفة هي مكافأتك. استخدم OCW لتوجيه التعلم مدى الحياة ، أو لتعليم الآخرين. لا نقدم ائتمانًا أو شهادة لاستخدام OCW.

صنع للمشاركة. تنزيل الملفات لوقت لاحق. أرسل إلى الأصدقاء والزملاء. قم بالتعديل وإعادة المزج وإعادة الاستخدام (تذكر فقط ذكر OCW كمصدر.)


Chapter 5 Eigenvalues and Eigenvectors ¶ permalink

This chapter constitutes the core of any first course on linear algebra: eigenvalues and eigenvectors play a crucial role in most real-world applications of the subject.

مثال

In a population of rabbits,

  1. half of the newborn rabbits survive their first year
  2. of those, half survive their second year
  3. the maximum life span is three years
  4. rabbits produce 0, 6, 8 baby rabbits in their first, second, and third years, respectively.

What is the asymptotic behavior of this system? What will the rabbit population look like in 100 years?

In Section 5.1, we will define eigenvalues and eigenvectors, and show how to compute the latter in Section 5.2 we will learn to compute the former. In Section 5.4 we will use eigenvalues and eigenvectors to determine when a matrix is “similar” to a diagonal matrix, and we will see that the algebra and geometry of such a matrix is much simpler to understand. Finally, we spend Section 5.6 presenting a common kind of application of eigenvalues and eigenvectors to real-world problems, including searching the Internet using Google’s PageRank algorithm.


Mathematics Prelims

Now since is a change of basis matrix, each of its columns gives the coordinates to a basis vector of some basis. Let’s call that basis and let through be the elements of that basis. Now, if we take the above equation and multiply by on the right, notice that

That is, the -th column of is equal to the -th column of , which is just times the -th column of . Since each column of is just a linear combination of the columns of , though, we have

This means that when we plug in the -th column of to the linear transformation represented by , we get back a multiple of that column. Calling the linear transformation , we have that

Vectors such as whose image under is just a multiple of the vector are called eigenvectors من . That multiple, the above, is called an eigenvalue من . These eigenvectors and eigenvalues are associated with a particular linear transformation, so when we talk about the eigenvectors and eigenvalues of a matrix, we really mean the eigenvectors and eigenvalues of the transformation represented by that matrix. Notice that this means that eigenvalues are independent of the chosen basis since similar matrices represent the same transformation just with respect to different bases, similar matrices have the same eigenvalues.

We assumed that was similar to a diagonal matrix above, but this isn’t always true. If is similar to a diagonal matrix, say , then as we’ve just shown, the columns of are eigenvectors of . Since these form the columns of a non-singular matrix, the eigenvectors of form a basis for the vector space. Also, if the eigenvectors of form a basis, let’s take those basis vectors as columns of .

So a matrix is diagonalizable (similar to a diagonal matrix) if and only if its eigenvectors form a basis for the vector space.


Computing Eigenvalues and Eigenvectors

It is not too difficult to compute eigenvalues and their corresponding eigenvectors when the matrix transformation at hand has a clear geometric interpretation. For examples, consider the diagonal matrix discussed above and the reflection matrix below:

For arbitrary matrices, however, a more general procedure is necessary.

In computations, the characteristic polynomial is extremely useful. To determine the eigenvalues of a matrix A A A , one solves for the roots of p A ( x ) p_ (x) p A ​ ( x ) , and then checks if each root is an eigenvalue.


المتجهات الذاتية

Geometrically, the equation $Avec=lambdavec$ means that the vectors $vec$ and $Avec$ lie on the same line. Take a look at the applet below. The default matrix, as in the previous applet, is $ A = egin 0 & 2 2 & 0 end. $ Leave $A$ set as it is for now. Notice that there are two vectors on the screen, the red vector is $vec$ and the blue is $Avec$. You can interact with this applet by moving the red arrow around. (You can click and drag. Or, if you want more control, click first to highlight the arrow (it will glow slightly), and then use the arrow buttons on the keyboard. If you're using the keyboard, holding down the shift button will allow finer-scale movement.)

If you move the red arrow around for a while, you'll notice that usually the red and blue arrows do not lie on the same line. (The line through the red arrow is shown to help you see this better.) However, if you set $vec=(1,1)$, you'll see that the blue arrow يفعل lie on the same line as the red. Moreover, the blue arrow points in the same direction as the red one and is twice as long. This shows graphically that $(1,1)$ is an eigenvector for the eigenvalue $lambda=2$. Notice that $(1,1)$ is not unique. Try $(2,2)$ and $(-0.5,-0.5)$. In fact, for any vector of the form $vec=(s,s)$ the blue arrow will point in the same direction as the red and be twice as long. Algebraically, this is because of the following fact. If $Avec=lambdavec$, then $ A(svec) = s(Avec) = s(lambdavec) = lambda(svec). $

Similarly, if you set the red arrow to $(1,-1)$, you'll see that now the blue arrow is on the same line as the red, is twice as long as the red, and points in the opposite direction. This shows that $(1,-1)$ is an eigenvector for the eigenvalue $lambda=-2$. (The minus sign signifies "opposite direction.")

In Exercise 2, we saw that the eigenvalues of $ A = egin 2 & 0 1 & 1 end. $ are $lambda=1$ and $lambda=2$. Use the applet above to find the eigenvectors. (You may want to use the arrows on the keyboard along with the shift button when you get close.) Be sure to say which eigenvalue each of the eigenvectors corresponds to.

Now use the applet above to try to find the eigenvectors for the two matrices in Exercise 3. Describe what you find. (Since this isn't a linear algebra class, you might not yet have the tools or vocabulary necessary to do this perfectly. Just give it your best shot.)

Now put the matrix from Exercise 4 into the applet. Describe the relationship between $vec$ and $Avec$ as you move $vec$ around. Why does this mean that $A$ can't have any real eigenvalues?


شاهد الفيديو: Linear Algebra - Solving data science challenges with mathematics (ديسمبر 2021).