مقالات

5.1: المعادلات الخطية المتجانسة - الرياضيات


ويقال أن المعادلة التفاضلية من الدرجة الثانية هي خطي إذا كان يمكن كتابته كـ

[ label {eq: 5.1.1} y '+ p (x) y' + q (x) y = f (x). ]

نسمي الوظيفة (f ) على اليمين أ وظيفة الإجبار، نظرًا لأنه في التطبيقات الفيزيائية غالبًا ما يرتبط بقوة تعمل على بعض الأنظمة على غرار المعادلة التفاضلية. نقول أن المعادلة المرجع {eq: 5.1.1} هي متجانس إذا (f equiv0 ) أو غير متجانسة إذا (و لا equiv0 ). نظرًا لأن هذه التعريفات تشبه التعاريف المقابلة في القسم 2.1 للمعادلة الخطية من الدرجة الأولى

[ label {eq: 5.1.2} y '+ p (x) y = f (x)، ]

من الطبيعي توقع أوجه التشابه بين طرق حل المعادلة المرجع {eq: 5.1.1} والمعادلة المرجع {eq: 5.1.2}. ومع ذلك ، فإن حل المعادلة المرجع {eq: 5.1.1} أكثر صعوبة من حل المعادلة المرجع {eq: 5.1.2}. على سبيل المثال ، بينما تعطي Theorem ( PageIndex {1} ) صيغة للحل العام للمعادلة ref {eq: 5.1.2} في الحالة حيث (f equiv0 ) والنظرية ( PageIndex { 2} ) يعطي صيغة للحالة حيث (f not equiv0 ) ، لا توجد صيغ للحل العام للمعادلة ref {eq: 5.1.1} في كلتا الحالتين. لذلك يجب أن نكون راضين عن حل معادلات الدرجة الثانية الخطية للصيغ الخاصة.

في القسم 2.1 درسنا المعادلة المتجانسة (y '+ p (x) y = 0 ) أولاً ، ثم استخدمنا حلاً غير بديهي لهذه المعادلة لإيجاد الحل العام للمعادلة غير المتجانسة (y' + p (x) ) ص = و (س) ). على الرغم من أن التقدم من الحالة المتجانسة إلى الحالة غير المتجانسة ليس بهذه البساطة بالنسبة لمعادلة الدرجة الثانية الخطية ، إلا أنه لا يزال من الضروري حل المعادلة المتجانسة

[ label {eq: 5.1.3} y '+ p (x) y' + q (x) y = 0 ]

لحل المعادلة غير المتجانسة المرجع {eq: 5.1.1}. هذا القسم مخصص للمعادلة المرجع {eq: 5.1.3}.

تعطي النظرية التالية شروطًا كافية لوجود وتفرد حلول مشاكل القيمة الأولية للمعادلة المرجع {eq: 5.1.3}. نحذف الدليل.

نظرية ( PageIndex {1} )

افترض أن (p ) و (q ) مستمرين على فاصل زمني مفتوح ((أ ، ب) ، ) دع (x_0 ) يكون أي نقطة في ((أ ، ب) ، ) واسمحوا (k_0 ) و (k_1 ) أرقام حقيقية عشوائية (. ) ثم مشكلة القيمة الأولية

[y '' + p (x) y '+ q (x) y = 0، y (x_0) = k_0، y' (x_0) = k_1 nonumber ]

لديه حل فريد في ((أ ، ب). )

نظرًا لأن (y equiv0 ) من الواضح أنه حل المعادلة المرجع {eq: 5.1.3} نسميها تافه المحلول. أي حل آخر هو غير بديهي. في ظل افتراضات النظرية ( PageIndex {1} ) ، الحل الوحيد لمشكلة القيمة الأولية

[y '' + p (x) y '+ q (x) y = 0، y (x_0) = 0، y' (x_0) = 0 nonumber ]

على ((أ ، ب) ) هو الحل التافه (تمرين 5.1.24).

توضح الأمثلة الثلاثة التالية المفاهيم التي سنطورها لاحقًا في هذا القسم. لا يجب أن تهتم بكيفية القيام بذلك تجد الحلول المعطاة للمعادلات في هذه الأمثلة. سيتم شرح ذلك في أقسام لاحقة.

مثال ( PageIndex {1} )

معاملات (ص ') و (ص ) في

[ label {eq: 5.1.4} y '- y = 0 ]

هي الدوال الثابتة (p equiv0 ) و (q equiv-1 ) ، وهي متصلة على ((- infty، infty) ). لذلك فإن النظرية ( PageIndex {1} ) تشير إلى أن كل مشكلة قيمة أولية للمعادلة ref {eq: 5.1.4} لها حل فريد في ((- infty، infty) ).

  1. تحقق من أن (y_1 = e ^ x ) و (y_2 = e ^ {- x} ) حلان للمعادلة المرجع {eq: 5.1.4} في ((- infty، infty) ) .
  2. تحقق من أن (c_1 ) و (c_2 ) ثوابت عشوائية ، (y = c_1e ^ x + c_2e ^ {- x} ) هو حل المعادلة المرجع {eq: 5.1.4} في ((- infty، infty)).
  3. حل مشكلة القيمة الأولية [ label {eq: 5.1.5} y '' - y = 0، quad y (0) = 1، quad y '(0) = 3. ]

حل:

أ. إذا كان (y_1 = e ^ x ) ثم (y_1 '= e ^ x ) و (y_1' '= e ^ x = y_1 ) ، لذلك (y_1' '- y_1 = 0 ). إذا (y_2 = e ^ {- x} ) ، إذن (y_2 '= - e ^ {- x} ) و (y_2' '= e ^ {- x} = y_2 ) ، لذلك ( y_2 '' - y_2 = 0 ).

ب. إذا [ label {eq: 5.1.6} y = c_1e ^ x + c_2e ^ {- x} ] ثم [ label {eq: 5.1.7} y '= c_1e ^ x-c_2e ^ {- x } ] و [y '= c_1e ^ x + c_2e ^ {- x} ، nonumber ]

لذا [ begin {align} y '' - y & = (c_1e ^ x + c_2e ^ {- x}) - (c_1e ^ x + c_2e ^ {- x}) & = c_1 (e ^ xe ^ x ) + c_2 (e ^ {- x} -e ^ {- x}) = 0 end {align} nonumber ] للجميع (x ). لذلك (y = c_1e ^ x + c_2e ^ {- x} ) هو حل المعادلة ref {eq: 5.1.4} on ((- infty، infty) ).

ج.

يمكننا حل المعادلة المرجع {eq: 5.1.5} باختيار (c_1 ) و (c_2 ) في المعادلة المرجع {eq: 5.1.6} بحيث يكون (y (0) = 1 ) و (ص '(0) = 3 ). يوضح الإعداد (x = 0 ) في المعادلة المرجع {eq: 5.1.6} والمعادلة المرجع {eq: 5.1.7} أن هذا يعادل

[ start {align} c_1 + c_2 & = 1 c_1-c_2 & = 3. end {align} nonumber ]

ينتج عن حل هذه المعادلات (c_1 = 2 ) و (c_2 = -1 ). لذلك (y = 2e ^ x-e ^ {- x} ) هو الحل الفريد للمعادلة ref {eq: 5.1.5} on ((- infty، infty) ).

مثال ( PageIndex {2} )

لنكن ( omega ) ثابتًا موجبًا. معاملات (ص ') و (ص ) في

[ label {eq: 5.1.8} y '+ omega ^ 2y = 0 ]

هي الدوال الثابتة (p equiv0 ) و (q equiv omega ^ 2 ) ، وهي مستمرة على ((- infty، infty) ). لذلك تشير النظرية ( PageIndex {1} ) إلى أن كل مشكلة قيمة أولية للمعادلة ref {eq: 5.1.8} لها حل فريد في ((- infty، infty) ).

  1. تحقق من أن (y_1 = cos omega x ) و (y_2 = sin omega x ) هما حلان للمعادلة ref {eq: 5.1.8} on ((- infty، infty) ).
  2. تحقق من أنه إذا كان (c_1 ) و (c_2 ) ثوابت تعسفية ، فإن (y = c_1 cos omega x + c_2 sin omega x ) هو حل المعادلة المرجع {eq: 5.1.8 } في ((- infty، infty) ).
  3. حل مشكلة القيمة الأولية [ label {eq: 5.1.9} y '' + omega ^ 2y = 0، quad y (0) = 1، quad y '(0) = 3. ]

حل:

أ. إذا (y_1 = cos omega x ) ثم (y_1 '= - omega sin omega x ) و (y_1' '= - omega ^ 2 cos omega x = - omega ^ 2y_1 ) ، لذلك (y_1 '' + omega ^ 2y_1 = 0 ). إذا (y_2 = sin omega x ) إذن ، (y_2 '= omega cos omega x ) و (y_2' '= - omega ^ 2 sin omega x = - omega ^ 2y_2 ) ، لذلك (y_2 '' + omega ^ 2y_2 = 0 ).

ب. إذا [ label {eq: 5.1.10} y = c_1 cos omega x + c_2 sin omega x ] فإن [ label {eq: 5.1.11} y '= omega (-c_1 الخطيئة omega x + c_2 cos omega x) ] و [y '= - omega ^ 2 (c_1 cos omega x + c_2 sin omega x)، nonumber ] لذا [ ابدأ {محاذاة} y '' + omega ^ 2y & = - omega ^ 2 (c_1 cos omega x + c_2 sin omega x) + omega ^ 2 (c_1 cos omega x + c_2 sin omega x) & = c_1 omega ^ 2 (- cos omega x + cos omega x) + c_2 omega ^ 2 (- sin omega x + sin omega x) = 0 end {محاذاة } nonumber ] للجميع (x ). لذلك (y = c_1 cos omega x + c_2 sin omega x ) هو حل المعادلة ref {eq: 5.1.8} on ((- infty، infty) ).

ج. لحل المعادلة المرجع {eq: 5.1.9} ، يجب أن نختار (c_1 ) و (c_2 ) في المعادلة المرجع {eq: 5.1.10} بحيث (y (0) = 1 ) و (ص '(0) = 3 ). يوضح الإعداد (x = 0 ) في المعادلة المرجع {eq: 5.1.10} والمعادلة المرجع {eq: 5.1.11} أن (c_1 = 1 ) و (c_2 = 3 / omega ) . لذلك

[y = cos omega x + {3 over omega} sin omega x nonumber ]

هو الحل الفريد للمعادلة المرجع {eq: 5.1.9} في ((- infty، infty) ).

تشير النظرية ( PageIndex {1} ) إلى أنه إذا كان (k_0 ) و (k_1 ) أرقامًا حقيقية عشوائية ، فإن مشكلة القيمة الأولية

[ label {eq: 5.1.12} P_0 (x) y '' + P_1 (x) y '+ P_2 (x) y = 0، quad y (x_0) = k_0، quad y' (x_0) = k_1 ]

لديه حل فريد على فاصل زمني ((أ ، ب) ) يحتوي على (س_0 ) ، بشرط أن (P_0 ) ، (P_1 ) ، و (P_2 ) مستمر و (P_0 ) لا يحتوي على أصفار في ((أ ، ب) ). لرؤية هذا ، نعيد كتابة المعادلة التفاضلية في المعادلة المرجع {eq: 5.1.12} على النحو التالي

[y '' + {P_1 (x) over P_0 (x)} y '+ {P_2 (x) over P_0 (x)} y = 0 nonumber ]

وتطبيق النظرية ( PageIndex {1} ) مع (p = P_1 / P_0 ) و (q = P_2 / P_0 ).

مثال ( PageIndex {3} )

المعادلة

[ label {eq: 5.1.13} x ^ 2y '+ xy'-4y = 0 ]

لها شكل المعادلة التفاضلية في المعادلة المرجع {eq: 5.1.12} ، مع (P_0 (x) = x ^ 2 ) ، (P_1 (x) = x ) ، و (P_2 (x) ) = - 4 ) ، وكلها متصلة على ((- infty ، infty) ). ومع ذلك ، نظرًا لأن (P (0) = 0 ) يجب أن نأخذ في الاعتبار حلول المعادلة المرجع {eq: 5.1.13} في ((- infty ، 0) ) و ((0 ، infty) ). نظرًا لعدم احتواء (P_0 ) على أصفار في هذه الفواصل الزمنية ، فإن النظرية ( PageIndex {1} ) تشير إلى أن مشكلة القيمة الأولية

[x ^ 2y '' + xy'-4y = 0، quad y (x_0) = k_0، quad y '(x_0) = k_1 nonumber ]

لديه حل فريد في ((0 ، infty) ) إذا (x_0> 0 ) ، أو على ((- infty ، 0) ) إذا (x_0 <0 ).

  1. تحقق من أن (y_1 = x ^ 2 ) هو حل المعادلة المرجع {eq: 5.1.13} في ((- infty، infty) ) و (y_2 = 1 / x ^ 2 ) هو حل المعادلة المرجع {eq: 5.1.13} في ((- infty، 0) ) و ((0، infty) ).
  2. تحقق من أنه إذا كان (c_1 ) و (c_2 ) أي ثوابت ، فإن (y = c_1x ^ 2 + c_2 / x ^ 2 ) هو حل المعادلة المرجع {eq: 5.1.13} في ( (- infty، 0) ) و ((0، infty) ).
  3. حل مشكلة القيمة الأولية [ label {eq: 5.1.14} x ^ 2y '' + xy'-4y = 0، quad y (1) = 2، quad y '(1) = 0. ]
  4. حل مشكلة القيمة الأولية [ label {eq: 5.1.15} x ^ 2y '' + xy'-4y = 0، quad y (-1) = 2، quad y '(- 1) = 0. ]

حل:

أ. إذا (y_1 = x ^ 2 ) ثم (y_1 '= 2x ) و (y_1' '= 2 ) ، لذلك [x ^ 2y_1' '+ xy_1'-4y_1 = x ^ 2 (2) + x (2x) -4x ^ 2 = 0 nonumber ] لـ (x ) in ((- infty، infty) ). إذا كان (y_2 = 1 / x ^ 2 ) ، إذن (y_2 '= - 2 / x ^ 3 ) و (y_2' = 6 / x ^ 4 ) ، لذلك [x ^ 2y_2 " + xy_2'-4y_2 = x ^ 2 left (6 over x ^ 4 right) -x left (2 over x ^ 3 right) - {4 over x ^ 2} = 0 nonumber ] لـ (x ) في ((- infty، 0) ) أو ((0، infty) ).

ب. إذا [ label {eq: 5.1.16} y = c_1x ^ 2 + {c_2 over x ^ 2} ] ثم [ label {eq: 5.1.17} y '= 2c_1x- {2c_2 over x ^ 3} ] و [y '' = 2c_1 + {6c_2 over x ^ 4}، nonumber ] لذا [ begin {align} x ^ {2} y '' + xy'-4y & = x ^ {2} left (2c_ {1} + frac {6c_ {2}} {x ^ {4}} right) + x left (2c_ {1} x- frac {2c_ {2}} {x ^ {3}} right) -4 left (c_ {1} x ^ {2} + frac {c_ {2}} {x ^ {2}} right) & = c_ {1} ( 2x ^ {2} + 2x ^ {2} -4x ^ {2}) + c_ {2} left ( frac {6} {x ^ {2}} - frac {2} {x ^ {2} } - frac {4} {x ^ {2}} right) & = c_ {1} cdot 0 + c_ {2} cdot 0 = 0 end {align} nonumber ] لـ ( x ) في ((- infty، 0) ) أو ((0، infty) ).

ج. لحل المعادلة المرجع {eq: 5.1.14} ، نختار (c_1 ) و (c_2 ) في المعادلة المرجع {eq: 5.1.16} بحيث يكون (y (1) = 2 ) و (ص '(1) = 0 ). يوضح الإعداد (x = 1 ) في المعادلة المرجع {eq: 5.1.16} والمعادلة المرجع {eq: 5.1.17} أن هذا يعادل

[ start {align} phantom {2} c_1 + phantom {2} c_2 & = 2 2c_1-2c_2 & = 0. end {align} nonumber ]

ينتج عن حل هذه المعادلات (c_1 = 1 ) و (c_2 = 1 ). لذلك (y = x ^ 2 + 1 / x ^ 2 ) هو الحل الفريد للمعادلة ref {eq: 5.1.14} on ((0، infty) ).

د. يمكننا حل المعادلة المرجع {eq: 5.1.15} باختيار (c_1 ) و (c_2 ) في المعادلة المرجع {eq: 5.1.16} بحيث (y (-1) = 2 ) و (ص '(- 1) = 0 ). يوضح الإعداد (x = -1 ) في المعادلة المرجع {eq: 5.1.16} والمعادلة المرجع {eq: 5.1.17} أن هذا يعادل

[ begin {align} phantom {-2} c_1 + phantom {2} c_2 & = 2 -2c_1 + 2c_2 & = 0. end {align} nonumber ]

ينتج عن حل هذه المعادلات (c_1 = 1 ) و (c_2 = 1 ). لذلك (y = x ^ 2 + 1 / x ^ 2 ) هو الحل الفريد للمعادلة ref {eq: 5.1.15} on ((- infty، 0) ).

على الرغم من أن الصيغ بالنسبة إلى حلول المعادلة المرجع {eq: 5.1.14} والمعادلة المرجع {eq: 5.1.15} كلاهما (y = x ^ 2 + 1 / x ^ 2 ) ، يجب ألا تستنتج أن هذين الأمرين مشاكل القيمة الأولية لها نفس الحل. تذكر أنه تم تحديد حل لمشكلة القيمة الأولية في فترة تحتوي على النقطة الأولية؛ لذلك ، فإن حل المعادلة ref {eq: 5.1.14} هو (y = x ^ 2 + 1 / x ^ 2 ) في الفترة الفاصلة ((0، infty) ) ، والتي تحتوي على النقطة الأولية (x_0 = 1 ) ، بينما حل المعادلة المرجع {eq: 5.1.15} هو (y = x ^ 2 + 1 / x ^ 2 ) في الفترة الفاصلة ((- infty، 0) ) الذي يحتوي على النقطة الأولية (x_0 = -1 ).

الحل العام لمعادلة الدرجة الثانية الخطية المتجانسة

إذا تم تعريف (y_1 ) و (y_2 ) على فاصل زمني ((أ ، ب) ) و (c_1 ) و (c_2 ) ثوابت ، إذن

[y = c_1y_1 + c_2y_2 nonumber ]

هو تركيبة خطية من (y_1 ) و (ص_2 ). على سبيل المثال ، (y = 2 cos x + 7 sin x ) هو مزيج خطي من (y_1 = cos x ) و (y_2 = sin x ) ، مع (c_1 = 2 ) ) و (c_2 = 7 ).

تنص النظرية التالية على حقيقة تم التحقق منها بالفعل في الأمثلة ( PageIndex {1} ) ، ( PageIndex {2} ) ، ( PageIndex {3} ).

نظرية ( PageIndex {2} )

إذا كان (y_1 ) و (y_2 ) حلولاً للمعادلة المتجانسة

[ label {eq: 5.1.18} y '+ p (x) y' + q (x) y = 0 ]

في ((أ ، ب) ، ) ثم أي تركيبة خطية

[ label {eq: 5.1.19} y = c_1y_1 + c_2y_2 ]

من (y_1 ) و (y_2 ) هو أيضًا حل لـ ( eqref {eq: 5.1.18} ) في ((أ ، ب). )

دليل

إذا [y = c_1y_1 + c_2y_2 nonumber ] إذن [y '= c_1y_1' + c_2y_2 ' quad text {and} quad y' '= c_1y_1' '+ c_2y_2' '. nonumber ]

لذلك

[ start {align} y '' + p (x) y '+ q (x) y & = (c_1y_1' '+ c_2y_2' ') + p (x) (c_1y_1' + c_2y_2 ') + q (x) (c_1y_1 + c_2y_2) & = c_1 left (y_1 '' + p (x) y_1 '+ q (x) y_1 right) + c_2 left (y_2' '+ p (x) y_2' + q ( x) y_2 right) & = c_1 cdot0 + c_2 cdot0 = 0 ، end {align} nonumber ]

بما أن (y_1 ) و (y_2 ) هما حلان للمعادلة المرجع {eq: 5.1.18}.

نقول أن ( {y_1، y_2 } ) ملف مجموعة أساسية من حلول ​​( eqref {eq: 5.1.18} ) في ((أ ، ب) ) إذا كان كل حل من حل المعادلة المرجع {eq: 5.1.18} في ((أ ، ب) ) يمكن كتابته كمجموعة خطية من (y_1 ) و ( y_2 ) كما في المعادلة المرجع {eq: 5.1.19}. في هذه الحالة نقول أن المعادلة المرجع {eq: 5.1.19} هي الحل العام لـ ( eqref {eq: 5.1.18} ) في ((أ ، ب) ).

الاستقلال الخطي

نحتاج إلى طريقة لتحديد ما إذا كانت مجموعة معينة ( {y_1، y_2 } ) من حلول المعادلة المرجع {eq: 5.1.18} مجموعة أساسية. التعريف التالي سيمكننا من تحديد الشروط الضرورية والكافية لذلك.

نقول أن وظيفتين (y_1 ) و (y_2 ) محددتين في فاصل زمني ((أ ، ب) ) هما مستقل خطيًا عن ((أ ، ب) ) إذا لم يكن أي منهما مضاعفًا ثابتًا للآخر في ((أ ، ب) ). (على وجه الخصوص ، هذا يعني أنه لا يمكن أن يكون أي منهما هو الحل البسيط للمعادلة المرجع {eq: 5.1.18} ، لأنه ، على سبيل المثال ، إذا كان (y_1 equiv0 ) يمكننا كتابة (y_1 = 0y_2 ).) سنقول أيضًا أن المجموعة ( {y_1، y_2 } ) مستقل خطيًا عن ((أ ، ب) ).

نظرية ( PageIndex {3} )

لنفترض أن (p ) و (q ) متواصلين على ((أ ، ب). ) ثم مجموعة ( {y_1، y_2 } ) من الحلول

[ label {eq: 5.1.20} y '+ p (x) y' + q (x) y = 0 ]

on ((a، b) ) هي مجموعة أساسية إذا وفقط إذا كان ( {y_1، y_2 } ) مستقلًا خطيًا عن ((أ ، ب). )

دليل

سنقدم إثبات النظرية ( PageIndex {3} ) في خطوات تستحق اعتبارها نظريات في حد ذاتها. ومع ذلك ، دعونا أولاً نفسر النظرية ( PageIndex {3} ) من حيث الأمثلة ( PageIndex {1} ) ، ( PageIndex {2} ) ، ( PageIndex {3} ).

مثال ( PageIndex {4} )

بما أن (e ^ x / e ^ {- x} = e ^ {2x} ) غير ثابت ، فإن النظرية ( PageIndex {3} ) تعني أن (y = c_1e ^ x + c_2e ^ {- x} ) هو الحل العام لـ (y '' - y = 0 ) في ((- infty، infty) ).

بما أن ( cos omega x / sin omega x = cot omega x ) غير ثابت ، فإن النظرية ( PageIndex {3} ) تعني أن (y = c_1 cos omega x + c_2 sin omega x ) هو الحل العام لـ (y '+ omega ^ 2y = 0 ) على ((- infty، infty) ).

نظرًا لأن (x ^ 2 / x ^ {- 2} = x ^ 4 ) غير ثابت ، فإن النظرية ( PageIndex {3} ) تشير إلى أن (y = c_1x ^ 2 + c_2 / x ^ 2 ) الحل العام لـ (x ^ 2y '' + xy'-4y = 0 ) في ((- infty، 0) ) و ((0، infty) ).

صيغة Wronskian و Abel

لتحفيز النتيجة التي نحتاجها لإثبات النظرية ( PageIndex {3} ) ، دعنا نرى ما هو مطلوب لإثبات أن ( {y_1، y_2 } ) مجموعة أساسية من حلول المعادلة المرجع {eq: 5.1.20} في ((أ ، ب) ). لنفترض أن (x_0 ) نقطة عشوائية في ((أ ، ب) ) ، وافترض أن (ص ) هو حل تعسفي للمعادلة المرجع {eq: 5.1.20} في ((أ ، ب ) ). ثم (y ) هو الحل الفريد لمشكلة القيمة الأولية

[ label {eq: 5.1.21} y '+ p (x) y' + q (x) y = 0، quad y (x_0) = k_0، quad y '(x_0) = k_1؛ ]

أي ، (k_0 ) و (k_1 ) هي الأرقام التي تم الحصول عليها من خلال تقييم (y ) و (y ') في (x_0 ). علاوة على ذلك ، يمكن أن يكون (k_0 ) و (k_1 ) أي أرقام حقيقية ، نظرًا لأن النظرية ( PageIndex {1} ) تشير إلى أن المعادلة المرجع {eq: 5.1.21} لها حل بغض النظر عن كيفية ( تم اختيار k_0 ) و (k_1 ). لذلك ( {y_1، y_2 } ) هي مجموعة أساسية من حلول المعادلة المرجع {eq: 5.1.20} في ((أ ، ب) ) إذا وفقط إذا كان من الممكن كتابة الحل من مشكلة القيمة الأولية التعسفية المعادلة المرجع {eq: 5.1.21} كـ (y = c_1y_1 + c_2y_2 ). هذا يعادل اشتراط أن النظام

[ label {eq: 5.1.22} start {array} {rcl} c_1y_1 (x_0) + c_2y_2 (x_0) & = k_0 c_1y_1 '(x_0) + c_2y_2' (x_0) & = k_1 end { مجموعة مصفوفة}]

لديه حل ((c_1، c_2) ) لكل اختيار من ((k_0، k_1) ). دعونا نحاول حل المعادلة المرجع {eq: 5.1.22}.

ضرب المعادلة الأولى في المعادلة المرجع {eq: 5.1.22} في (y_2 '(x_0) ) والثانية في الناتج (y_2 (x_0) )

[ start {align} c_1y_1 (x_0) y_2 '(x_0) + c_2y_2 (x_0) y_2' (x_0) & = y_2 '(x_0) k_0 c_1y_1' (x_0) y_2 (x_0) + c_2y_2 '(x_0 ) y_2 (x_0) & = y_2 (x_0) k_1، end {align} ]

وطرح المعادلة الثانية هنا من العوائد الأولى

[ label {eq: 5.1.23} left (y_1 (x_0) y_2 '(x_0) -y_1' (x_0) y_2 (x_0) right) c_1 = y_2 '(x_0) k_0-y_2 (x_0) k_1 . ]

ضرب المعادلة الأولى في المعادلة المرجع {eq: 5.1.22} في (y_1 '(x_0) ) والثانية في الناتج (y_1 (x_0) )

[ start {align} c_1y_1 (x_0) y_1 '(x_0) + c_2y_2 (x_0) y_1' (x_0) & = y_1 '(x_0) k_0 c_1y_1' (x_0) y_1 (x_0) + c_2y_2 '(x_0 ) y_1 (x_0) & = y_1 (x_0) k_1، end {align} ]

وطرح المعادلة الأولى هنا من الناتج الثاني

[ label {eq: 5.1.24} left (y_1 (x_0) y_2 '(x_0) -y_1' (x_0) y_2 (x_0) right) c_2 = y_1 (x_0) k_1-y_1 '(x_0) k_0 . ]

إذا

[y_1 (x_0) y_2 '(x_0) -y_1' (x_0) y_2 (x_0) = 0 ، nonumber ]

من المستحيل تلبية المعادلة المرجع {eq: 5.1.23} والمعادلة المرجع {eq: 5.1.24} (وبالتالي المعادلة المرجع {eq: 5.1.22}) ما لم (k_0 ) و (k_1 ) يرضي

[ begin {align} y_1 (x_0) k_1-y_1 '(x_0) k_0 & = 0 y_2' (x_0) k_0-y_2 (x_0) k_1 & = 0. end {align} ]

من ناحية أخرى ، إذا

[ label {eq: 5.1.25} y_1 (x_0) y_2 '(x_0) -y_1' (x_0) y_2 (x_0) ne0 ]

يمكننا قسمة المعادلة المرجع {eq: 5.1.23} والمعادلة المرجع {eq: 5.1.24} من خلال الكمية الموجودة على اليسار للحصول على

[ label {eq: 5.1.26} start {array} {rcl} c_1 & = {y_2 '(x_0) k_0-y_2 (x_0) k_1 over y_1 (x_0) y_2' (x_0) -y_1 '(x_0 ) y_2 (x_0)} c_2 & = {y_1 (x_0) k_1-y_1 '(x_0) k_0 over y_1 (x_0) y_2' (x_0) -y_1 '(x_0) y_2 (x_0)} ، نهاية {مجموعة } ]

بغض النظر عن كيفية اختيار (k_0 ) و (k_1 ). هذا يحفزنا على النظر في الشروط على (y_1 ) و (y_2 ) التي تشير إلى المعادلة المرجع {eq: 5.1.25}.

نظرية ( PageIndex {4} )

لنفترض أن (p ) و (q ) مستمران في ((أ ، ب) ، ) دعنا (y_1 ) و (y_2 ) من الحلول

[ label {eq: 5.1.27} y '+ p (x) y' + q (x) y = 0 ]

في ((أ ، ب) ) ، وحدد

[ label {eq: 5.1.28} W = y_1y_2'-y_1'y_2. ]

دع (x_0 ) أي نقطة في ((أ ، ب). ) ثم

[ label {eq: 5.1.29} W (x) = W (x_0) e ^ {- int ^ x_ {x_0} p (t) : dt}، quad a

لذلك إما (W ) لا يحتوي على أصفار في ((أ ، ب) ) أو (W equiv0 ) في ((أ ، ب). )

دليل

تفريق المعادلة المرجع {eq: 5.1.28} ينتج

[ label {eq: 5.1.30} W '= y'_1y'_2 + y_1y' _ 2-y'_1y'_2-y '_ 1y_2 = y_1y' '_ 2-y' _ 1y_2. ]

بما أن (y_1 ) و (y_2 ) كلاهما يفي بالمعادلة المرجع {eq: 5.1.27} ،

[y '' _ 1 = -py'_1-qy_1 quad text {and} quad y '_ 2 = -py'_2-qy_2. nonumber ]

استبدال هذه في المعادلة ref {eq: 5.1.30}

[ start {align} W '& = -y_1 bigl (py'_2 + qy_2 bigr) + y_2 bigl (py'_1 + qy_1 bigr) & = -p (y_1y'_2-y_2y' _1) -q (y_1y_2-y_2y_1) & = -p (y_1y'_2-y_2y'_1) = - pW. end {align} nonumber ]

لذلك (W '+ p (x) W = 0 ) ؛ وهذا يعني أن (W ) هو حل مشكلة القيمة الأولية

[y '+ p (x) y = 0، quad y (x_0) = W (x_0). nonumber ]

نترك الأمر لك للتحقق من خلال فصل المتغيرات من أن هذا يعني المعادلة المرجع {eq: 5.1.29}. إذا كان (W (x_0) ne0 ) ، فإن المعادلة ref {eq: 5.1.29} تعني أن (W ) لا يحتوي على أصفار في ((a، b) ) ، لأن الأسي ليس صفرًا أبدًا. من ناحية أخرى ، إذا كان (W (x_0) = 0 ) ، فإن المعادلة المرجع {eq: 5.1.29} تعني أن (W (x) = 0 ) لجميع (x ) في (( أ ، ب) ).

الوظيفة (W ) المحددة في المعادلة المرجع {eq: 5.1.28} هي Wronskian لـ ( {y_1، y_2 } ). معادلة الصيغة المرجع {eq: 5.1.29} هي صيغة هابيل.

عادةً ما تتم كتابة Wronskian لـ ( {y_1، y_2 } ) كمحدد

[W = يسار | start {array} {cc} y_1 & y_2 y'_1 & y'_2 end {array} right |. nonumber ]

يمكن كتابة التعبيرات في المعادلة المرجع {eq: 5.1.26} لـ (c_1 ) و (c_2 ) من حيث المحددات

[c_1 = {1 over W (x_0)} اليسار | ابدأ {مجموعة} {cc} k_0 & y_2 (x_0) k_1 & y'_2 (x_0) نهاية {مجموعة} حق | quad text {and} quad c_2 = {1 over W (x_0)} left | start {array} {cc} y_1 (x_0) & k_0 y'_1 (x_0) & k_1 end {array} right |. nonumber ]

إذا كنت قد درست الجبر الخطي ، فقد تتعرف على هذا على أنه حكم كريمر.

مثال ( PageIndex {5} )

تحقق من صيغة Abel للمعادلات التفاضلية التالية والحلول المقابلة لها ، من الأمثلة ( PageIndex {1} )، ( PageIndex {2} )، ( PageIndex {3} ).

  1. (y '' - y = 0؛ quad y_1 = e ^ x، ؛ y_2 = e ^ {- x} )
  2. (y '+ omega ^ 2y = 0 ؛ quad y_1 = cos omega x ، ؛ y_2 = sin omega x )
  3. (x ^ 2y '' + xy'-4y = 0 ؛ quad y_1 = x ^ 2 ، ؛ y_2 = 1 / x ^ 2 )

حل:

أ. منذ (p equiv0 ) ، يمكننا التحقق من صيغة هابيل من خلال إظهار أن (W ) ثابت ، وهذا صحيح ، حيث

[W (x) = يسار | start {array} {rr} e ^ x & e ^ {- x} e ^ x & -e ^ {- x} end {array} right | = e ^ x (-e ^ {- x }) - e ^ xe ^ {- x} = - 2 nonumber ]

للجميع (س ).

ب. مرة أخرى ، منذ (p equiv0 ) ، يمكننا التحقق من صيغة هابيل من خلال إظهار أن (W ) ثابت ، وهذا صحيح ، حيث

[ start {align} W (x) & = { left | start {array} {cc} cos omega x & sin omega x - omega sin omega x & omega cos omega x end {array} right |} & = cos omega x ( omega cos omega x) - (- omega sin omega x) sin omega x & = omega ( cos ^ 2 omega x + sin ^ 2 omega x) = omega end {align} nonumber ]

للجميع (س ).

ج. حساب Wronskian لـ (y_1 = x ^ 2 ) و (y_2 = 1 / x ^ 2 ) ينتج عنه نتائج مباشرة

[ label {eq: 5.1.31} W = left | ابدأ {مجموعة} {cc} x ^ 2 & 1 / x ^ 2 2x & -2 / x ^ 3 end {array} right | = x ^ 2 left (- {2 over x ^ 3 } right) -2x left (1 over x ^ 2 right) = - {4 over x}. ]

للتحقق من صيغة Abel ، نعيد كتابة المعادلة التفاضلية كـ

[y '' + {1 over x} y '- {4 over x ^ 2} y = 0 nonumber ]

لنرى أن (p (x) = 1 / x ). إذا كان (x_0 ) و (x ) إما في ((- infty ، 0) ) أو كليهما في ((0 ، infty) ) إذن

[ int_ {x_0} ^ x p (t) ، dt = int_ {x_0} ^ x {dt over t} = ln left (x over x_0 right)، nonumber ]

هكذا تصبح صيغة هابيل

[ start {align} W (x) & = W (x_0) e ^ {- ln (x / x_0)} = W (x_0) {x_0 over x} & = - left (4 فوق x_0 right) left (x_0 over x right) quad text {from} eqref {eq: 5.1.31} & = - {4 over x}، end {align} nonumber ]

وهو ما يتوافق مع المعادلة المرجع {eq: 5.1.31}.

ستمكننا النظرية التالية من إكمال إثبات النظرية ( PageIndex {3} ).

نظرية ( PageIndex {5} )

لنفترض أن (p ) و (q ) مستمران على فاصل مفتوح ((أ ، ب) ، ) دعنا (y_1 ) و (y_2 ) من الحلول

[ label {eq: 5.1.32} y '+ p (x) y' + q (x) y = 0 ]

على ((أ ، ب) ، ) ودع (W = y_1y_2'-y_1'y_2. ) ثم (y_1 ) و (y_2 ) مستقلان خطيًا في ((أ ، ب) ) فقط إذا كان (W ) لا يحتوي على أصفار على ((أ ، ب). )

دليل

نوضح أولاً أنه إذا (W (x_0) = 0 ) بالنسبة للبعض (x_0 ) في ((أ ، ب) ) ، فإن (y_1 ) و (y_2 ) يعتمدان خطيًا على ((أ ، ب) ). لنفترض (I ) أن يكون فاصلًا فرعيًا لـ ((أ ، ب) ) لا يحتوي (y_1 ) على أصفار. (إذا لم يكن هناك مثل هذا الفاصل الزمني الفرعي ، (y_1 equiv0 ) في ((أ ، ب) ) ، لذلك (y_1 ) و (y_2 ) مستقلان خطيًا ، وقد انتهينا من هذا الجزء من إثبات.) ثم يتم تعريف (y_2 / y_1 ) في (I ) و

[ label {eq: 5.1.33} left (y_2 over y_1 right) '= {y_1y_2'-y_1'y_2 over y_1 ^ 2} = {W over y_1 ^ 2}. ]

ومع ذلك ، إذا كان (W (x_0) = 0 ) ، فإن النظرية ( PageIndex {4} ) تعني أن (W equiv0 ) على ((a، b) ). لذلك فإن المعادلة المرجع {eq: 5.1.33} تعني أن ((y_2 / y_1) ' equiv0 ) ، لذلك (y_2 / y_1 = c ) (ثابت) على (I ). يوضح هذا أن (y_2 (x) = cy_1 (x) ) للجميع (x ) في (I ). ومع ذلك ، نريد أن نظهر أن (y_2 = cy_1 (x) ) للجميع (x ) في ((أ ، ب) ). دعونا (Y = y_2-cy_1 ). إذن (Y ) هو حل المعادلة المرجع {eq: 5.1.32} في ((أ ، ب) ) بحيث يكون (Y equiv0 ) على (I ) ، وبالتالي ( Y 'equiv0 ) في (I ). وبالتالي ، إذا تم اختيار (x_0 ) بشكل تعسفي في (I ) ، فإن (Y ) هو حل لمشكلة القيمة الأولية

[y '' + p (x) y '+ q (x) y = 0، quad y (x_0) = 0، quad y' (x_0) = 0، nonumber ]

مما يعني أن (Y equiv0 ) في ((a، b) ) ، بالفقرة التالية ( PageIndex {1} ). (أنظر أيضا تمرين 5.1.24). ومن ثم ، (y_2-cy_1 equiv0 ) في ((أ ، ب) ) ، مما يعني أن (y_1 ) و (y_2 ) ليسا مستقلين خطيًا عن ((أ ، ب) ) .

افترض الآن أن (W ) لا يحتوي على أصفار في ((أ ، ب) ). إذن (y_1 ) لا يمكن أن يكون صفرًا تمامًا في ((أ ، ب) ) (لماذا لا؟) ، وبالتالي هناك فاصل زمني (أنا ) من ((أ ، ب) ) في التي (y_1 ) لا تحتوي على أصفار. نظرًا لأن المعادلة المرجع {eq: 5.1.33} تشير إلى أن (y_2 / y_1 ) غير ثابت في (I ) ، فإن (y_2 ) ليس مضاعفًا ثابتًا لـ (y_1 ) في (( أ ، ب) ). تظهر حجة مماثلة أن (y_1 ) ليس مضاعفًا ثابتًا لـ (y_2 ) في ((أ ، ب) ) ، منذ

[ left (y_1 over y_2 right) '= {y_1'y_2-y_1y_2' over y_2 ^ 2} = - {W over y_2 ^ 2} nonumber ]

على أي فاصل فرعي من ((أ ، ب) ) حيث لا يحتوي (y_2 ) على أصفار.

يمكننا الآن إكمال إثبات النظرية ( PageIndex {3} ). من النظرية ( PageIndex {5} ) ، يكون حلين (y_1 ) و (y_2 ) للمعادلة المرجع {eq: 5.1.32} مستقلين خطيًا في ((a، b) ) إذا وفقط إذا كان (W ) لا يحتوي على أصفار في ((أ ، ب) ). من النظرية ( PageIndex {4} ) والتعليقات المحفزة التي سبقتها ، ( {y_1، y_2 } ) هي مجموعة أساسية من حلول المعادلة المرجع {eq: 5.1.32} إذا وفقط إذا (W ) ليس به أصفار في ((أ ، ب) ). لذلك ( {y_1، y_2 } ) هي مجموعة أساسية للمعادلة المرجع {eq: 5.1.32} في ((a، b) ) إذا وفقط إذا ( {y_1، y_2 } ) مستقل خطيًا في ((أ ، ب) ).

تلخص النظرية التالية العلاقات بين المفاهيم التي تمت مناقشتها في هذا القسم.

نظرية ( PageIndex {6} )

افترض أن (p ) و (q ) متواصلين على فاصل مفتوح ((أ ، ب) ) وليكن (y_1 ) و (y_2 ) من الحلول

[ label {eq: 5.1.34} y '+ p (x) y' + q (x) y = 0 ]

على ((أ ، ب). ) ثم العبارات التالية متكافئة (؛ ) أي (، ) إما أنها كلها صحيحة أو كلها خطأ (. )

  1. الحل العام لـ ( eqref {eq: 5.1.34} ) على ((a، b) ) هو (y = c_1y_1 + c_2y_2 ).
  2. ( {y_1، y_2 } ) مجموعة أساسية من حلول ​​( eqref {eq: 5.1.34} ) في ((a، b). )
  3. ( {y_1، y_2 } ) مستقل خطيًا عن ((أ ، ب). )
  4. الخطأ الخاطئ لـ ( {y_1، y_2 } ) ليس صفريًا في مرحلة ما في ((أ ، ب). )
  5. الخطأ الخاطئ لـ ( {y_1، y_2 } ) ليس صفريًا في جميع النقاط في ((أ ، ب). )

يمكننا تطبيق هذه النظرية على معادلة مكتوبة كـ

[P_0 (x) y '' + P_1 (x) y '+ P_2 (x) y = 0 nonumber ]

في الفاصل الزمني ((أ ، ب) ) حيث (P_0 ) ، (P_1 ) ، و (P_2 ) مستمر و (P_0 ) لا يحتوي على أصفار. dd هنا وسيظهر تلقائيًا كن مخفيا

نظرية ( PageIndex {7} )

لنفترض أن (c ) موجود في ((أ ، ب) ) و ( ألفا ) و ( بيتا ) أرقام حقيقية ، وليست كلاهما صفرًا. في ظل افتراضات النظرية ( PageIndex {7} ) ، افترض أن (y_ {1} ) و (y_ {2} ) حلان للمعادلة المرجع {eq: 5.1.34} بحيث

[ label {eq: 5.1.35} alpha y_ {1} (c) + beta y_ {1} '(c) = 0 quad text {and} quad alpha y_ {2} (c ) + beta y_ {2} '(c) = 0. ]

إذن ، ( {y_ {1}، y_ {2} } ) غير مستقل خطيًا عن ((أ ، ب). )

دليل

بما أن ( alpha ) و ( beta ) ليسا كلاهما صفرًا ، فإن المعادلة ref {eq: 5.1.35} تعني أن

[ left | begin {array} {ccccccc} y_ {1} (c) & y_ {1} '(c) y_ {2} (c) & y_ {2}' (c) end {array } right | = 0، quad text {so} quad left | begin {array} {cccccc} y_ {1} (c) & y_ {2} (c) y_ {1} '(c ) & y_ {2} '(c) end {array} right | = 0 nonumber ]

والنظرية ( PageIndex {6} ) تشير إلى الاستنتاج المذكور.


5.1: المعادلات الخطية المتجانسة - الرياضيات

أنت على وشك امسح عملك في هذا النشاط. هل انت متأكد من أنك تريد أن تفعل هذا؟

نسخة محدثة متوفرة

هناك نسخة محدثة من هذا النشاط. إذا قمت بالتحديث إلى أحدث إصدار من هذا النشاط ، فسيتم مسح تقدمك الحالي في هذا النشاط. بغض النظر ، سيبقى سجل الإنجاز الخاص بك. كيف تريد المتابعة؟

محرر التعبير الرياضي

تحويل المعادلات المتجانسة إلى معادلات قابلة للفصل

المعادلات غير الخطية التي يمكن تحويلها إلى معادلات قابلة للفصل

لقد رأينا أن معادلة برنولي غير الخطية يمكن تحويلها إلى معادلة قابلة للفصل عن طريق الاستبدال إذا تم اختيارها بشكل مناسب. دعنا الآن نكتشف شرطًا كافيًا لمعادلة تفاضلية غير خطية من الدرجة الأولى

لتكون قابلة للتحويل إلى معادلة منفصلة بنفس الطريقة. الاستبدال بـ (eq: 2.4.4) عوائد تعادل If بالنسبة لبعض الوظائف ، يصبح (eq: 2.4.5) قابلاً للفصل. بعد التحقق من وجود حلول ثابتة ، يمكننا فصل المتغيرات للحصول عليها

معادلات غير خطية متجانسة

في النص ، سننظر فقط في فئة المعادلات التي تمت دراستها على نطاق واسع والتي تعمل بها طريقة الفقرة السابقة. تظهر أنواع أخرى من المعادلات في التمارين الرياضية: 2.4.44 – exer: 2.4.51.

يقال أن المعادلة التفاضلية (مكافئ: 2.4.4) متجانس إذا وحدث بطريقة تعتمد فقط على النسبة ، (مكافئ: 2.4.4) يمكن كتابتها على أنها

أين هي دالة لمتغير واحد. على سبيل المثال ، وهي من النموذج (مكافئ: 2.4.7) ، مع على التوالي. يمكن تطبيق الطريقة العامة التي تمت مناقشتها أعلاه على (eq: 2.4.7) مع (وبالتالي. وبالتالي ، الاستعاضة في (eq: 2.4.7) العوائد وفصل المتغيرات (بعد التحقق من الحلول الثابتة مثل ذلك) ينتج

قبل الانتقال إلى الأمثلة ، نشير إلى شيء ربما تكون قد لاحظته بالفعل: تعريف معادلة متجانسة المعطى هنا ليس هو نفسه التعريف الوارد في القسم 2.1 ، حيث قلنا أن المعادلة الخطية للصيغة متجانسة. نحن لا نعتذر عن هذا التناقض ، لأننا لم نخلقه! تاريخيا ، متجانس تم استخدامه بهاتين الطريقتين غير المتسقتين. العامل الذي له علاقة بالمعادلات الخطية هو الأهم. هذا هو القسم الوحيد من الكتاب حيث ينطبق المعنى المحدد هنا.

نظرًا لأنه غير محدد بشكل عام ، فسننظر في حلول المعادلات غير المتجانسة فقط على فترات زمنية مفتوحة لا تحتوي على النقطة.

الاستعاضة في (مكافئ: 2.4.8) غلات تبسيط وفصل المتغيرات غلات دمج الغلات. لذلك و.

شكل الشكل: 2.4.2 يوضح مجال اتجاه ومنحنيات متكاملة لـ (مكافئ: 2.4.8).


حساب التفاضل والتكامل في وقت مبكر: حساب التفاضل والتكامل متعدد المتغيرات للعلوم الاجتماعية

القسم الفرعي 5.3.1 DEs المتجانسة

نوع بسيط ولكنه مهم ومفيد من المعادلات القابلة للفصل هو:

التعريف 5.21. الترتيب الأول الخطي المتجانس DE.

A هو أحد الأشكال ( ds y '+ p (t) y = 0 ) أو مكافئ ( ds y' = -p (t) y text <.> )

لقد رأينا بالفعل معادلة تفاضلية خطية متجانسة من الدرجة الأولى ، وهي نموذج النمو والانحلال البسيط (y '= ky text <.> )

نظرًا لأن المعادلات الخطية المتجانسة من الدرجة الأولى قابلة للفصل ، يمكننا حلها بالطريقة المعتادة:

حيث (P (t) ) هو مشتق عكسي لـ (- p (t) text <.> ) كما في الأمثلة السابقة ، إذا سمحنا (A = 0 ) نحصل على الحل الثابت (y = 0 نص <.> )

مثال 5.22. حل IVP I.

حل مشكلة القيمة الأولية

لذا فإن الحل العام للمعادلة التفاضلية هو

لحساب المعامل الثابت (A text <،> ) نستبدل:

لحساب المعامل الثابت (A text <،> ) نستبدل:

مثال 5.23. حل IVP II.

حل مشكلة القيمة الأولية (ty '+ 3y = 0 text <،> ) (y (1) = 2 text <،> ) بافتراض (t & gt0 text <.> )

نكتب المعادلة بالصيغة القياسية: (y '+ 3y / t = 0 text <.> ) ثم

الاستبدال لإيجاد (A text <:> ) ( ds 2 = A (1) ^ <-3> = A text <،> ) وبالتالي فإن الحل هو ( ds y = 2t ^ < -3> نص <.> )

القسم الفرعي 5.3.2 DEs غير المتجانسة

كما قد تتخيل ، يحتوي a على الشكل ( ds y '+ p (t) y = f (t) text <.> ) ليس هذا فقط مرتبطًا ارتباطًا وثيقًا في الشكل بالمعادلة الخطية المتجانسة من الدرجة الأولى ، نحن يمكن استخدام ما نعرفه عن حل المعادلات المتجانسة لحل المعادلة الخطية العامة.

التعريف 5.24. الترتيب الأول الخطي غير المتجانس DE.

ملحوظة: عندما يكون معامل المشتق الأول واحدًا من الدرجة الأولى معادلة تفاضلية خطية غير متجانسة كما في التعريف أعلاه ، فإننا نقول إن DE موجود في.

دعونا الآن نناقش كيف يمكننا إيجاد جميع الحلول لمعادلة تفاضلية خطية غير متجانسة من الدرجة الأولى. افترض أن (y_1 (t) ) و (y_2 (t) ) حلول لـ ( ds y '+ p (t) y = f (t) text <.> ) دعنا ( ds g (t) = y_1-y_2 text <.> ) ثم

بمعنى آخر ، ( ds g (t) = y_1-y_2 ) هو حل للمعادلة المتجانسة ( ds y '+ p (t) y = 0 text <.> ) أي حل للمعادلة الخطية ( ds y '+ p (t) y = f (t) text <،> ) أطلق عليه (y_1 text <،> ) يمكن كتابته كـ (y_2 + g (t) text <،> ) لبعض (y_2 ) وبعض الحلول ​​(g (t) ) من المعادلة المتجانسة ( ds y '+ p (t) y = 0 text <.>) Since we already know how to find all solutions of the homogeneous equation, finding just one solution to the equation (ds y' + p(t)y = f(t)) will give us all of them.

Theorem 5.25 . General Solution of First Order Non-Homogeneous Linear DE.

Given a first order non-homogeneous linear differential equation

let (h(t)) be a particular solution, and let (g(t)) be the general solution to the corresponding homogeneous DE

Then the general solution to the non-homogeneous DE is constructed as the sum of the above two solutions:

Subsubsection 5.3.2.1 Variation of Parameters

We now introduce the first one of two methods discussed in these notes to solve a first order non-homogeneous linear differential equation. Again, it turns out that what we already know helps. We know that the general solution to the homogeneous equation (ds y' + p(t)y = 0) looks like (ds Ae^ ext<,>) where (P(t)) is an antiderivative of (-p(t) ext<.>) We now make an inspired guess: Consider the function (ds v(t)e^ ext<,>) in which we have replaced the constant parameter (A) with the function (v(t) ext<.>) This technique is called . For convenience write this as (s(t)=v(t)h(t) ext<,>) where (ds h(t)=e^) is a solution to the homogeneous equation. Now let's compute a bit with (s(t) ext<:>)

The last equality is true because (ds h'(t)+p(t)h(t)=0 ext<,>) since (h(t)) is a solution to the homogeneous equation. We are hoping to find a function (s(t)) so that (ds s'(t)+p(t)s(t)=f(t) ext<>) we will have such a function if we can arrange to have (ds v'(t)h(t)=f(t) ext<,>) that is, (ds v'(t)=f(t)/h(t) ext<.>) But this is as easy (or hard) as finding an antiderivative of (ds f(t)/h(t) ext<.>) Putting this all together, the general solution to (ds y' + p(t)y = f(t)) is

Method of Variation of Parameters.

Given a first order non-homogeneous linear differential equation

using variation of parameters the general solution is given by

where (v'(t)=e^<-P(t)>f(t)) and (P(t)) is an antiderivative of (-p(t) ext<.>)

ملحوظة: The method of variation of parameters makes more sense after taking linear algebra since the method uses determinants. We therefore restrict ourselves to just one example to illustrate this method.

Example 5.26 . Solving an IVP Using Variation of Parameters.

Find the solution of the initial value problem (ds y'+3y/t=t^2 ext<,>) (y(1)=1/2 ext<.>)

First we find the general solution since we are interested in a solution with a given condition at (t=1 ext<,>) we may assume (t>0 ext<.>) We start by solving the homogeneous equation as usual call the solution (g ext<:>)

Then as in the discussion, (ds h(t)=t^<-3>) and (ds v'(t)=t^2/t^<-3>=t^5 ext<,>) so (ds v(t)=t^6/6 ext<.>) We know that every solution to the equation looks like

Finally we substitute (y(1)=frac<1><2>) to find (A ext<:>)

Subsubsection 5.3.2.2 Integrating Factor

Another common method for solving such a differential equation is by means of an . In the differential equation (ds y'+p(t)y=f(t) ext<,>) we note that if we multiply through by a function (I(t)) to get (ds I(t)y'+I(t)p(t)y=I(t)f(t) ext<,>) the left hand side looks like it could be a derivative computed by the Product Rule:

Now if we could choose (I(t)) so that (I'(t)=I(t)p(t) ext<,>) this would be exactly the left hand side of the differential equation. But this is just a first order homogeneous linear equation, and we know a solution is (ds I(t)=e^ ext<,>) where (ds Q(t)=int p(t),dt ext<.>) Note that (Q(t)=-P(t) ext<,>) where (P(t)) appears in the variation of parameters method and (P'(t)=-p(t) ext<.>) Now the modified differential equation is

Integrating both sides gives

Definition 5.27 . Integrating Factor.

Given a first order non-homogeneous linear differential equation

Method of Integrating Factor.

Given a first order non-homogeneous linear differential equation

follow these steps to determine the general solution (y(t)) using an integrating factor:

Calculate the integrating factor (I(t) ext<.>)

Multiply the standard form equation by (I(t) ext<.>)

Simplify the left-hand side to

Integrate both sides of the equation.

The solution can be compactly written as

Using this method, the solution of the previous example would look just a bit different.

Example 5.28 . Solving an IVP Using Integrating Factor.

Find the solution of the initial value problem (ds y'+3y/t=t^2 ext<,>) (y(1)=1/2 ext<.>)

Notice that the differential equation is already in standard form. We begin by computing the integrating factor and obtain

Next, we multiply both sides of the DE with (I(t)) and get

Now we integrate both sides with respect to (t) and solve for (y ext<:>)

Lastly, we use the initial value (y(1)=1/2) to find (C ext<:>)

Hence, the solution to the DE is

Example 5.29 . General Solution Using Integrating Factor.

Determine the general solution of the differential equation

We see that the differential equation is in standard form. We then compute the integrating factor as

where we took the arbitrary constant of integration to be zero.

Therefore, we can write the DE as

Integrating both sides with respect to (t) gives

We solve this integral by making the substitution (u=t^3, du = 3t^2,dt ext<:>)

The general solution to the DE is therefore

Exercises for Section 5.3.
Exercise 5.3.1 .

Find the general solution of the following homogeneous differential equations.


MATH 3321 - Engineering Mathematics

Course Description: First order ordinary differential equations and initial value problems higher order differential equations vector spaces, matrices, determinants, eigenvectors and eigenvalues applications to systems of first order equations Laplace transforms.  *Note:  Students may not receive credit for both MATH 3321 and MATH 3331.

Text: Available in electronic form (PDF) through CASA for all enrolled students via an Access Code *Note: If you misplace/lose your code, you will need to purchase another. There is no exception to this.

Note: Additional important information is contained at your instructor’s personal webpage. You are responsible for knowing all of this information.


All exams will be departmental exams given at CASA .

  1. Introduction to Differential Equations
    • 1.1 Basic Terminology
    • 1.2 n-Parameter Family of Solutions General Solution Particular Solution
    • 1.3 Initial-Value Conditions Initial-Value Problems
  2. First Order Differential Equations
    • 2.1 Linear Equations
    • 2.2 Separable Equations
    • 2.3 Some Applications
    • 2.4 Direction Fields Existence and Uniqueness
    • 2.5 Some Numerical Methods*
  3. Second Order Linear Differential Equations
    • 3.1 Introduction Basic Terminology and Results
    • 3.2 Homogeneous Equations
    • 3.3 Homogeneous Equations with Constant Coefficients
    • 3.4 Nonhomogeneous Equations
    • 3.5 Nonhomogeneous Equations with Constant Coefficients Undetermined Coefficients
    • 3.6 Vibrating Mechanical Systems
  4. Laplace Transforms
    • 4.1 Introduction
    • 4.2 Basic Properties of Laplace Transforms
    • 4.3 Inverse Laplace Transforms and Initial-Value Problems
    • 4.4 Applications to Discontinuous Functions
    • 4.5 Initial-Value Problems with Piecewise Continuous Nonhomogeneous Terms
  5. Linear Algebra
    • 5.1 Introduction
    • 5.2 Systems of Linear Equations Some Geometry
    • 5.3 Solving Systems of Linear Equations
    • 5.4 Solving Systems of Linear Equations, Part 2
    • 5.5 Matrices and Vectors
    • 5.6 Square Matrices Inverse of a Matrix and Determinants
    • 5.7 Vectors Linear Dependence and Linear Independence
    • 5.8 Eigenvalues and Eigenvectors
  6. Systems of First Order Linear Differential Equations
    • 6.1 Higher-Order Linear Differential Equations
    • 6.2 Systems of Linear Differential Equations
    • 6.3 Homogeneous Systems
    • 6.4 Homogeneous Systems with Constant Coefficients
    • 6.5 Nonhomogeneous Systems
    • 6.6 Some Applications

CSD Accommodations:

Academic Adjustments/Auxiliary Aids: The University of Houston System complies with Section 504 of the Rehabilitation Act of 1973 and the Americans with Disabilities Act of 1990, pertaining to the provision of reasonable academic adjustments/auxiliary aids for students who have a disability. In accordance with Section 504 and ADA guidelines, University of Houston strives to provide reasonable academic adjustments/auxiliary aids to students who request and require them. If you believe that you have a disability requiring an academic adjustments/auxiliary aid, please visit   The Center for Students with DisABILITIES (CSD)   website at   http://www.uh.edu/csd/   for more information.

Accommodation Forms: Students seeking academic adjustments/auxiliary aids must, in a timely manner (usually at the beginning of the semester), provide their instructor with a current Student Accommodation Form (SAF) (paper copy or   online   version, as appropriate) from the CSD office before an approved accommodation can be implemented.

Details of this policy, and the corresponding responsibilities of the student are outlined in   The Student Academic Adjustments/Auxiliary Aids Policy (01.D.09)   document under [STEP 4: Student Submission (5.4.1 & 5.4.2), Page 6]. For more information please visit the   Center for Students with Disabilities Student Resources   page.

Additionally, if a student is requesting a (CSD approved) testing accommodation, then the student will also complete a Request for Individualized Testing Accommodations (RITA) paper form to arrange for tests to be administered at the CSD office. CSD suggests that the student meet with their instructor during office hours and/or make an appointment to complete the RITA form to ensure confidentiality.

*Note: RITA forms must be completed at least 48 hours in advance of the original test date. Please consult your   counselor   ahead of time to ensure that your tests are scheduled in a timely manner. Please keep in mind that if you run over the agreed upon time limit for your exam, you will be penalized in proportion to the amount of extra time taken.

Counseling and Psychological Services (CAPS) can help students who are having difficulties managing stress, adjusting to college, or feeling sad and hopeless. You can reach   (CAPS) by calling 713-743-5454 during and after business hours for routine appointments or if you or someone you know is in crisis. No appointment is necessary for the   "Let's Talk"   program, a drop-in consultation service at convenient locations and hours around campus.


Supersymmetry Methods in Random Matrix Theory

Riemannian Symmetric Superspace

The linear equation [17] associates with every point xم a four-dimensional vector space of solutions, الخامسx. As the point x moves on م the vector spaces الخامسx turn and twist thus, they form what is called a vector bundle الخامس over م. (The bundle at hand turns out to be nontrivial, i.e., there exists no global choice of coordinates for it.)

A section of الخامس is a smooth mapping v : M → V such that v ( x ) ∈ V x for all xم. The sections of الخامس are to be multiplied in the exterior sense, as they represent anticommuting degrees of freedom hence the proper object to consider is the exterior bundle, ∧الخامس.

It is a beautiful fact that there exists a unique action of the Lie superalgebra g on the sections of ∧الخامس by first-order differential operators, or derivations for short. (Be advised however that this canonical g -action is not well known in physics or mathematics.)

The manifold م is a symmetric space, that is, a Riemannian manifold with جي-invariant geometry. Its metric tensor, ز, uniquely extends to a second-rank tensor field (still denoted by ز) which maps pairs of derivations of ∧الخامس to sections of ∧الخامس, and is invariant with respect to the g -action. This collection of objects – the symmetric space م, the exterior bundle ∧الخامس over it, the action of the Lie superalgebra g on the sections of ∧الخامس, and the g -invariant second-rank tensor ز – form what the author calls a “Riemannian symmetric superspace,” M .


Many-Electron Wavefunctions: Slater, Hartree–Fock and Related Methods

7.8.2 General Solution for the Linear Chain

Coulson (1938a , 1938b) gave the general solution for the system of homogeneous linear equations for the linear polyene chain with ن atoms: 7

with the boundary conditions:

The general solution is the “standing” wave:

From the first boundary condition it is obtained:

The general equation gives:

From the second boundary condition it follows that:

Therefore, the general solution for the linear chain will be:


محتويات

Trivial example Edit

The system of one equation in one unknown

However, a linear system is commonly considered as having at least two equations.

Simple nontrivial example Edit

The simplest kind of nontrivial linear system involves two equations and two variables:

One method for solving such a system is as follows. First, solve the top equation for x in terms of y :

Now substitute this expression for x into the bottom equation:

A general system of م linear equations with ن unknowns can be written as

Often the coefficients and unknowns are real or complex numbers, but integers and rational numbers are also seen, as are polynomials and elements of an abstract algebraic structure.

Vector equation Edit

One extremely helpful view is that each unknown is a weight for a column vector in a linear combination.

This allows all the language and theory of vector spaces (or more generally, modules) to be brought to bear. For example, the collection of all possible linear combinations of the vectors on the left-hand side is called their span, and the equations have a solution just when the right-hand vector is within that span. If every vector within that span has exactly one expression as a linear combination of the given left-hand vectors, then any solution is unique. In any event, the span has a basis of linearly independent vectors that do guarantee exactly one expression and the number of vectors in that basis (its dimension) cannot be larger than م أو ن, but it can be smaller. This is important because if we have م independent vectors a solution is guaranteed regardless of the right-hand side, and otherwise not guaranteed.

Matrix equation Edit

The vector equation is equivalent to a matrix equation of the form

أين أ is an م×ن matrix, x is a column vector with ن entries, and ب is a column vector with م entries.

The number of vectors in a basis for the span is now expressed as the rank of the matrix.

أ solution of a linear system is an assignment of values to the variables x1, x2, . xن such that each of the equations is satisfied. The set of all possible solutions is called the solution set.

A linear system may behave in any one of three possible ways:

  1. The system has infinitely many solutions.
  2. The system has a single unique solution.
  3. The system has no solution.

Geometric interpretation Edit

For a system involving two variables (x و ذ), each linear equation determines a line on the س ص-plane. Because a solution to a linear system must satisfy all of the equations, the solution set is the intersection of these lines, and is hence either a line, a single point, or the empty set.

For three variables, each linear equation determines a plane in three-dimensional space, and the solution set is the intersection of these planes. Thus the solution set may be a plane, a line, a single point, or the empty set. For example, as three parallel planes do not have a common point, the solution set of their equations is empty the solution set of the equations of three planes intersecting at a point is single point if three planes pass through two points, their equations have at least two common solutions in fact the solution set is infinite and consists in all the line passing through these points. [6]

ل ن variables, each linear equation determines a hyperplane in ن-dimensional space. The solution set is the intersection of these hyperplanes, and is a flat, which may have any dimension lower than ن.

General behavior Edit

In general, the behavior of a linear system is determined by the relationship between the number of equations and the number of unknowns. Here, "in general" means that a different behavior may occur for specific values of the coefficients of the equations.

  • In general, a system with fewer equations than unknowns has infinitely many solutions, but it may have no solution. Such a system is known as an underdetermined system.
  • In general, a system with the same number of equations and unknowns has a single unique solution.
  • In general, a system with more equations than unknowns has no solution. Such a system is also known as an overdetermined system.

In the first case, the dimension of the solution set is, in general, equal to نم ، أين ن is the number of variables and م is the number of equations.

The following pictures illustrate this trichotomy in the case of two variables:

One equation Two equations Three equations

The first system has infinitely many solutions, namely all of the points on the blue line. The second system has a single unique solution, namely the intersection of the two lines. The third system has no solutions, since the three lines share no common point.

It must be kept in mind that the pictures above show only the most common case (the general case). It is possible for a system of two equations and two unknowns to have no solution (if the two lines are parallel), or for a system of three equations and two unknowns to be solvable (if the three lines intersect at a single point).

A system of linear equations behave differently from the general case if the equations are linearly dependent, or if it is inconsistent and has no more equations than unknowns.

Independence Edit

The equations of a linear system are independent if none of the equations can be derived algebraically from the others. When the equations are independent, each equation contains new information about the variables, and removing any of the equations increases the size of the solution set. For linear equations, logical independence is the same as linear independence.

For example, the equations

are not independent — they are the same equation when scaled by a factor of two, and they would produce identical graphs. This is an example of equivalence in a system of linear equations.

For a more complicated example, the equations

are not independent, because the third equation is the sum of the other two. Indeed, any one of these equations can be derived from the other two, and any one of the equations can be removed without affecting the solution set. The graphs of these equations are three lines that intersect at a single point.

Consistency Edit

A linear system is inconsistent if it has no solution, and otherwise it is said to be consistent. When the system is inconsistent, it is possible to derive a contradiction from the equations, that may always be rewritten as the statement 0 = 1 .

For example, the equations

are inconsistent. In fact, by subtracting the first equation from the second one and multiplying both sides of the result by 1/6, we get 0 = 1 . The graphs of these equations on the س ص-plane are a pair of parallel lines.

It is possible for three linear equations to be inconsistent, even though any two of them are consistent together. For example, the equations

are inconsistent. Adding the first two equations together gives 3x + 2ذ = 2 , which can be subtracted from the third equation to yield 0 = 1 . Any two of these equations have a common solution. The same phenomenon can occur for any number of equations.

In general, inconsistencies occur if the left-hand sides of the equations in a system are linearly dependent, and the constant terms do not satisfy the dependence relation. A system of equations whose left-hand sides are linearly independent is always consistent.

Putting it another way, according to the Rouché–Capelli theorem, any system of equations (overdetermined or otherwise) is inconsistent if the rank of the augmented matrix is greater than the rank of the coefficient matrix. If, on the other hand, the ranks of these two matrices are equal, the system must have at least one solution. The solution is unique if and only if the rank equals the number of variables. Otherwise the general solution has ك free parameters where ك is the difference between the number of variables and the rank hence in such a case there are an infinitude of solutions. The rank of a system of equations (i.e. the rank of the augmented matrix) can never be higher than [the number of variables] + 1, which means that a system with any number of equations can always be reduced to a system that has a number of independent equations that is at most equal to [the number of variables] + 1.

Equivalence Edit

Two linear systems using the same set of variables are equivalent if each of the equations in the second system can be derived algebraically from the equations in the first system, and vice versa. Two systems are equivalent if either both are inconsistent or each equation of each of them is a linear combination of the equations of the other one. It follows that two linear systems are equivalent if and only if they have the same solution set.

There are several algorithms for solving a system of linear equations.

Describing the solution Edit

When the solution set is finite, it is reduced to a single element. In this case, the unique solution is described by a sequence of equations whose left-hand sides are the names of the unknowns and right-hand sides are the corresponding values, for example ( x = 3 , y = − 2 , z = 6 ) . When an order on the unknowns has been fixed, for example the alphabetical order the solution may be described as a vector of values, like ( 3 , − 2 , 6 ) for the previous example.

To describe a set with an infinite number of solutions, typically some of the variables are designated as مجانا (or independent, or as parameters), meaning that they are allowed to take any value, while the remaining variables are dependent on the values of the free variables.

For example, consider the following system:

The solution set to this system can be described by the following equations:

هنا ض is the free variable, while x و ذ are dependent on ض. Any point in the solution set can be obtained by first choosing a value for ض, and then computing the corresponding values for x و ذ.

Each free variable gives the solution space one degree of freedom, the number of which is equal to the dimension of the solution set. For example, the solution set for the above equation is a line, since a point in the solution set can be chosen by specifying the value of the parameter ض. An infinite solution of higher order may describe a plane, or higher-dimensional set.

Different choices for the free variables may lead to different descriptions of the same solution set. For example, the solution to the above equations can alternatively be described as follows:

هنا x is the free variable, and ذ و ض are dependent.

Elimination of variables Edit

The simplest method for solving a system of linear equations is to repeatedly eliminate variables. This method can be described as follows:

  1. In the first equation, solve for one of the variables in terms of the others.
  2. Substitute this expression into the remaining equations. This yields a system of equations with one fewer equation and one fewer unknown.
  3. Repeat until the system is reduced to a single linear equation.
  4. Solve this equation, and then back-substitute until the entire solution is found.

For example, consider the following system:

Solving the first equation for x gives x = 5 + 2ض − 3ذ , and plugging this into the second and third equation yields

Solving the first of these equations for ذ yields ذ = 2 + 3ض , and plugging this into the second equation yields ض = 2 . We now have:

Substituting ض = 2 into the second equation gives ذ = 8 , and substituting ض = 2 and ذ = 8 into the first equation yields x = −15 . Therefore, the solution set is the single point (x, ذ, ض) = (−15, 8, 2) .

Row reduction Edit

في row reduction (also known as Gaussian elimination), the linear system is represented as an augmented matrix:

This matrix is then modified using elementary row operations until it reaches reduced row echelon form. There are three types of elementary row operations:

Type 1: Swap the positions of two rows. Type 2: Multiply a row by a nonzero scalar. Type 3: Add to one row a scalar multiple of another.

Because these operations are reversible, the augmented matrix produced always represents a linear system that is equivalent to the original.

There are several specific algorithms to row-reduce an augmented matrix, the simplest of which are Gaussian elimination and Gauss–Jordan elimination. The following computation shows Gauss–Jordan elimination applied to the matrix above:

The last matrix is in reduced row echelon form, and represents the system x = −15 , ذ = 8 , ض = 2 . A comparison with the example in the previous section on the algebraic elimination of variables shows that these two methods are in fact the same the difference lies in how the computations are written down.

Cramer's rule Edit

Cramer's rule is an explicit formula for the solution of a system of linear equations, with each variable given by a quotient of two determinants. For example, the solution to the system

For each variable, the denominator is the determinant of the matrix of coefficients, while the numerator is the determinant of a matrix in which one column has been replaced by the vector of constant terms.

Though Cramer's rule is important theoretically, it has little practical value for large matrices, since the computation of large determinants is somewhat cumbersome. (Indeed, large determinants are most easily computed using row reduction.) Further, Cramer's rule has very poor numerical properties, making it unsuitable for solving even small systems reliably, unless the operations are performed in rational arithmetic with unbounded precision. [ بحاجة لمصدر ]

Matrix solution Edit

where A − 1 > is the inverse of أ. More generally, regardless of whether م=ن or not and regardless of the rank of أ, all solutions (if any exist) are given using the Moore-Penrose pseudoinverse of أ, denoted A + > , as follows:

Other methods Edit

While systems of three or four equations can be readily solved by hand (see Cracovian), computers are often used for larger systems. The standard algorithm for solving a system of linear equations is based on Gaussian elimination with some modifications. Firstly, it is essential to avoid division by small numbers, which may lead to inaccurate results. This can be done by reordering the equations if necessary, a process known as pivoting. Secondly, the algorithm does not exactly do Gaussian elimination, but it computes the LU decomposition of the matrix أ. This is mostly an organizational tool, but it is much quicker if one has to solve several systems with the same matrix أ but different vectors ب.

If the matrix أ has some special structure, this can be exploited to obtain faster or more accurate algorithms. For instance, systems with a symmetric positive definite matrix can be solved twice as fast with the Cholesky decomposition. Levinson recursion is a fast method for Toeplitz matrices. Special methods exist also for matrices with many zero elements (so-called sparse matrices), which appear often in applications.

A completely different approach is often taken for very large systems, which would otherwise take too much time or memory. The idea is to start with an initial approximation to the solution (which does not have to be accurate at all), and to change this approximation in several steps to bring it closer to the true solution. Once the approximation is sufficiently accurate, this is taken to be the solution to the system. This leads to the class of iterative methods. For some sparse matrices, the introduction of randomness improves the speed of the iterative methods. [7]

A system of linear equations is homogeneous if all of the constant terms are zero:

A homogeneous system is equivalent to a matrix equation of the form

أين أ is an م × ن matrix, x is a column vector with ن entries, and 0 is the zero vector with م entries.

Homogeneous solution set Edit

Every homogeneous system has at least one solution, known as the zero (or trivial) solution, which is obtained by assigning the value of zero to each of the variables. If the system has a non-singular matrix ( det(أ) ≠ 0 ) then it is also the only solution. If the system has a singular matrix then there is a solution set with an infinite number of solutions. This solution set has the following additional properties:

  1. إذا u و الخامس are two vectors representing solutions to a homogeneous system, then the vector sum u + الخامس is also a solution to the system.
  2. إذا u is a vector representing a solution to a homogeneous system, and ص is any scalar, then صu is also a solution to the system.

These are exactly the properties required for the solution set to be a linear subspace of ص ن . In particular, the solution set to a homogeneous system is the same as the null space of the corresponding matrix أ. Numerical solutions to a homogeneous system can be found with a singular value decomposition.

Relation to nonhomogeneous systems Edit

There is a close relationship between the solutions to a linear system and the solutions to the corresponding homogeneous system:

Specifically, if ص is any specific solution to the linear system أx = ب , then the entire solution set can be described as

Geometrically, this says that the solution set for أx = ب is a translation of the solution set for أx = 0 . Specifically, the flat for the first system can be obtained by translating the linear subspace for the homogeneous system by the vector ص.

This reasoning only applies if the system أx = ب has at least one solution. This occurs if and only if the vector ب lies in the image of the linear transformation أ.


Subspaces

3.1 Introduction

Throughout this chapter, we will be studying ℝ ن , the set of ن-dimensional column vectors with real-valued components. We continue our study of matrices by considering a class of subsets of ℝ ن called subspaces. These arise naturally, for example, when we solve a system of ن linear homogeneous equations in ن unknowns. ال row space, column space، و null space of the coefficient matrix play a role in many applications. We also study the concept of linear independence of a set of vectors, which gives rise to the concept of subspace dimension.

We will use the mathematical symbol ∈ that means “contained in.” For instance, u ∈ ℝ 2 means that u is a vector in the plane, so u = u 1 u 2 , where u1, u2 are real numbers.


STPM Further Mathematics T

Recall that you learnt in the previous section how to model a situation using recurrence relations. The equations are helpful, however, it doesn’t really help much if you are searching for a huge term. For example, the relation أن = 2an-1, given the initial condition أ0 = 1, finding the term أ109 will be tiring, as it will take you forever to get there. When we say that we solve a recurrence relation, it means that we are trying to convert the relation into an equation in terms of ن بدلا من أن, which obviously, would be easier for you to calculate the نth term.

In this section, I’ll be showing you how to solve 2nd order homogeneous linear recurrence relations. The non-homogeneous part follows from here in the next section.

2 DISTINCT ROOTS

Given a recurrence relation أن = 5an-1 – 6an-2, with initial conditions أ0 = 1, a1 = 0. To start off with, we let أن = r n . This is a smart guess which we will find eventually that it is correct. We can then further deduce that أn-1 = r n-1 ، و أn-2 = r n-2 . Substituting everything back into the equation, we have

r n = 5r n-1 – 6r n-2

dividing the equation by r n-2 (which is the smallest power), we get

r 2 = 5r – 6
r 2 – 5r + 6 = 0

which is a quadratic equation! This equation is called the characteristic equation، و ص is called the characteristic root. Solving the equation, we get r = 2, 3. Again, using a smart guess, we deduce that the term أنcan be represented by the equation

So you noticed that the 2 n و 3 n must have came from the characteristic roots earlier on. هذا ال general solution of the recurrence relation. The terms ج1 و ج2 are just 2 constants, which we will find by using the initial conditions.

When أ0 = 1,
أ0 = c1 + c2 = 1 (1)

Now you have 2 simultaneous equations. Using the calculator, you can easily find that ج1 = 3, c2 = 𔃀. Substituting the constants back into the equation, you get

أن = 3(2 n ) 𔃀(3 n )

which is what we called as the particular solution. This is the final answer that we are looking for. Now that you substitute n = 109, you can get the answer straight away for أن! Now that you find the answer, try finding the first 5 or 6 terms, using both the recurrence relation أن = 5an-1 – 6an-2and the equation أن = 3(2 n ) 𔃀(3 n ). Do they contradict one another? Congratulations, you just learnt how to solve homogeneous recurrence relations!

2 EQUAL ROOTS

However, the above method is only true for 2 distinct roots in the characteristic equation. Take another example, أن = 𔃂an-1 & # 8211 4 أن -2، أ0 = 0 ، أ1 = 1. تحصل على معادلة مميزة ص 2 + 4 ص + 4 = 0 ، ص = & # 82112. إذا كنت تأخذ الحل العام على أنه أن = ج1(-2) ن ، فأنت مخطئ تمامًا. يجب أن تكون الإجابة الصحيحة أن = ج1(-2) n + nc 2(-2) ن. لاحظ المضاعفة الزائدة ن في الفصل الثاني. كي تختصر:

1. إذا كانت الجذور مميزة ص1و ص2نكون خامد، تمثيلهم على أنهم أن = ج1ص1 ن + ج 2ص2 ن .
2. إذا كانت الجذور مميزة ص نكون مساو، تمثيلهم على أنهم أن = ج1ص ن + ن ج 2ص2 ن .

يمكن أن تكون الجذور المميزة إما حقيقة أو مركب. الطريقة لكليهما هي نفسها.

لن أناقش هنا طرق حل علاقات التكرار ذات الترتيب الأعلى. ومع ذلك ، فإن الطريقة هي نفسها في الواقع. مجرد تمثيل أن = ص ن ، وستحصل على معادلات خطية أو ربعية أو تكعيبية ، والتي يمكنك حلها في النهاية والحصول على إجابة لها. بسيط؟ & # 9786


TR 9: 30-10: 50 صباحًا ، غرفة 209 راش.

3 أبريل. مقدمة. تصنيف المعادلات التفاضلية. مجالات الاتجاه.

5 أبريل. المعادلات الخطية من الدرجة الأولى. تكامل العوامل.

المشكلات: 1 و 3 و 13-15 و 38 (2.1) و1-8 (2.2).

10 أبريل. معاملات غير محددة وتغير معاملات المعادلات من الدرجة الأولى.

المشاكل: 5 (ص 16) ، 38 (ص 41) ، 1-15 (احتمالات) ، 22 ، 27 ، 29 (ص 75-77).

12 أبريل. اختبار قصير: حل ODE من الدرجة الأولى.

وجود الحلول وتفردها. المعادلات الخطية مقابل المعادلات غير الخطية.

القراءة: ص. 49 (معادلات متجانسة) ، ص. 77 (معادلات برنولي).

المشاكل: 30-32 (ص 49-50 ، لا يوجد رسم ضروري) 27 ، 29 (ص 77) ، في أمثلة الصف.

19. أبريل. اختبار: معادلات متجانسة وبرنولي.

24 أبريل. ديناميات السكان (تابع). المعادلات الدقيقة.

المشاكل: 17 ، 22 (2.5) ، 1-13 (احتمالات) ، 19 ، 32 (2.6).

26 أبريل. المعادلات الدقيقة وعوامل التكامل.

1 مايو ، طريقة أويلر & # 8217. معادلات الفروق.

8 مايو معادلات خطية من الدرجة الثانية.

حالة المعاملات الثابتة: معادلة مميزة ذات جذور حقيقية مميزة.

معادلات متجانسة: مبدأ التراكب. محدد Wronskian.

المشكلات: 1-7 (احتمالات) ، 9-12 ، 28 (3.1) 1-9 (3.2).

10 مايو الاستقلال الخطي و Wronskian. الحلول الأساسية.

المشاكل: 2-14 (متساوية) ، 18 ، 22 (3.5).

15 مايو. اختبار قصير: معادلات خطية من الدرجة الثانية.

مذبذب توافقي بسيط.

المعادلات غير المتجانسة: بنية الحلول.

طريقة المعاملات غير المحددة.

المشاكل: 1-6 ، 17-19 (3.4) ، 23-25 ​​(3.5) ، 1-3 ، 13 ، 15 (3.6).

مايو 22. مسابقة: تخفيض النظام ، جذور معقدة من المعادلة المميزة.

طريقة المعاملات غير المحددة. أمثلة.

24 مايو. تغيير المعلمات. معادلات الرتبة الأعلى.

المعادلات الخطية ذات المعاملات الثابتة (الترتيب n).

المشاكل: 3 ، 1 ، 2 ، 5 (3.7) ، 7 ، 8 ، 12 (4.1) ، 11-14 ، 22 ، 37 (4.2).

29 مايو. الاختبار 2: الأقسام 3.1-3.7 و 4.1 و 4.2. عينة. إجابات الامتحان.

31 مايو. معاملات غير محددة وتغير المعلمات للمعادلات ذات الرتبة الأعلى.

المشاكل: 1 ، 3 ، 5 ، 13 ، 14 (4.3) و 1 ، 3 ، 5 ، 13 (4.4).

المشاكل: 1 ، 3 ، 5 ، 6 ، 7 ، 9 (6.1) و 1 ، 3 ، 5 ، 11-13 (6.2).

7 يونيو. اختبار قصير: تحويل لابلاس.

تحويل لابلاس (تابع).

المشاكل: أمثلة من الفصل.

11 يونيو - جلسة أسئلة (4 مساءا في المكتب).

12 يونيو. الامتحان النهائي 8-10 صباحا كورتيس 451.

التركيز: الواجبات المنزلية ، الأمثلة (كتاب ، الفصل) ، منتصف المدة ، العينات ، الاختبارات القصيرة.

المواد: كل ما قمنا بتغطيته في الفصل. توقع 6-8 أسئلة مع أجزاء

(صح / خطأ + نوع منتصف المدة). يمكنك استخدام ورقة من جانب واحد مع الصيغ وعبارات النظرية.


شاهد الفيديو: الدرس السادس في حل جملة المعادلات الخطية طريقة غاوس (ديسمبر 2021).