مقالات

9.5: نظرية الدالة المعكوسة والضمنية - الرياضيات


نظرية الوظيفة المعكوسة والضمنية ملاحظة: محاضرات FIXME لإثبات نظرية الدالة العكسية ، نستخدم مبدأ مخطط الانكماش الذي رأيناه في FIXME والذي استخدمناه لإثبات نظرية Picard. تذكر أن التعيين (f Colon X to X ') بين مسافتين متريتين ((X، d) ) و ((X'، d ') ) يسمى انكماشًا إذا كان هناك (k <1 ) مثل [d ' bigl (f (x)، f (y) bigr) leq kd (x، y) text {for all} x، y in X. ] ينص مبدأ تعيين الانكماش على أنه إذا كان (f Colon X to X ) عبارة عن انكماش و (X ) عبارة عن مساحة مترية كاملة ، فإن هناك نقطة ثابتة ، أي أن هناك (x في X ) مثل (f (x) = x ). حدسيًا إذا كانت الدالة قابلة للتفاضل ، فإنها "تتصرف مثل" المشتق محليًا (وهي دالة خطية). فكرة نظرية الدالة العكسية هي أنه إذا كانت الدالة قابلة للتفاضل وكان المشتق قابلاً للعكس ، فإن الوظيفة تكون (محليًا) قابلة للعكس. لنجعل (U subset { mathbb {R}} ^ n ) مجموعة ودعها (f Colon U to { mathbb {R}} ^ n ) دالة قابلة للتفاضل باستمرار. افترض أيضًا أن (x_0 in U ) و (f (x_0) = y_0 ) و (f '(x_0) ) قابل للعكس (أي ، (J_f (x_0) ليس = 0 ) ). ثم توجد مجموعات مفتوحة (V ، W مجموعة فرعية { mathbb {R}} ^ n ) مثل (x_0 in V subset U ) ، (f (V) = W ) و ( f | _V ) هو واحد لواحد وعلى. علاوة على ذلك ، معكوس (g (y) = (f | _V) ^ {- 1} (y) ) قابل للتفاضل باستمرار و [g '(y) = { bigl (f' (x) bigr) } ^ {- 1} ، qquad text {لكل $ x في V $ ، $ y = f (x) $.} ] اكتب (A = f '(x_0) ). نظرًا لأن (f ') مستمر ، توجد كرة مفتوحة (V ) حول (x_0 ) مثل [ left lVert {A-f' (x)} right rVert < frac {1} {2 left lVert {A ^ {- 1}} right rVert} qquad text {for all $ x in V $.} ] لاحظ أن (f '(x) ) غير قابل للعكس للجميع (x في V ). معطى (y in { mathbb {R}} ^ n ) نحدد ( varphi_y Colon C to { mathbb {R}} ^ n ) [ varphi_y (x) = x + A ^ {- 1} bigl (yf (x) bigr). ] نظرًا لأن (A ^ {- 1} ) هو واحد لواحد ، إذن ( varphi_y (x) = x ) ( (x ) هي نقطة ثابتة) فقط إذا كان (yf (x) = 0 ) ، أو بعبارة أخرى (f (x) = y ) . باستخدام قاعدة السلسلة ، نحصل على [ varphi_y '(x) = I - A ^ {- 1} f' (x) = A ^ {- 1} bigl (A-f '(x) bigr). ] لذلك بالنسبة لـ (x in V ) لدينا [ left lVert { varphi_y '(x)} right rVert leq left lVert {A ^ {- 1}} right r عكس يسار l عكس {A-f '(x)} يمين r انعكاس < nicefrac {1} {2}. ] نظرًا لأن (V ) كرة ، فهي محدبة ، وبالتالي [ يسار lVert { varphi_y (x_1) - varphi_y (x_2)} right rVert leq frac {1} {2} left lVert {x_1-x_2} right rVert qquad text {for all $ x_1، x_2 في V $}. ] بعبارة أخرى ( varphi_y ) هو تقلص مُعرَّف في (V ) ، على الرغم من أننا لا نعرف حتى الآن ما هو نطاق ( varphi_y ). لا يمكننا تطبيق نظرية النقطة الثابتة ، ولكن يمكننا القول أن ( varphi_y ) لديه نقطة ثابتة واحدة على الأكثر (لاحظ إثبات التفرد في مبدأ رسم الخرائط الانكماشية). أي أنه يوجد واحد على الأكثر (x في V ) مثل (f (x) = y ) ، وبالتالي (f | _V ) هو واحد لواحد. دعنا (W = و (الخامس) ). نحتاج إلى إظهار أن (W ) مفتوح. خذ (y_1 in W ) ، ثم هناك (x_1 in V ) فريد مثل (f (x_1) = y_1 ). دع (r> 0 ) صغيرًا بما يكفي بحيث تكون الكرة المغلقة (C (x_1، r) المجموعة الفرعية V ) (مثل (r> 0 ) موجودة حيث (V ) مفتوحة). افترض (y ) مثل [ left lVert {y-y_1} right r عكس < frac {r} {2 left lVert {A ^ {- 1}} right rVert}. ] إذا استطعنا إظهار أن (y in W ) ، فقد أظهرنا أن (W ) مفتوح. حدد ( varphi_y (x) = x + A ^ {- 1} bigl (y-f (x) bigr) ) كما كان من قبل. إذا (x in C (x_1، r) ) ، ثم [ start {split} left lVert { varphi_y (x) -x_1} right rVert & leq left lVert { varphi_y (x) - varphi_y (x_1)} right rVert + left lVert { varphi_y (x_1) -x_1} right rVert & leq frac {1} {2} left lVert { x-x_1} right rVert + left lVert {A ^ {- 1} (y-y_1)} right rVert & leq frac {1} {2} r + left lVert { A ^ {- 1}} يمين r r يسار l انعكاس {y-y_1} right rVert & < frac {1} {2} r + left lVert {A ^ {- 1}} يمين r r frac {r} {2 left lVert {A ^ {- 1}} right rVert} = r. end {split} ] لذا ( varphi_y ) يأخذ (C (x_1، r) ) إلى (B (x_1، r) المجموعة الفرعية C (x_1، r) ). إنه انكماش على (C (x_1، r) ) و (C (x_1، r) ) كامل (مجموعة فرعية مغلقة من ({ mathbb {R}} ^ n ) كاملة). قم بتطبيق مبدأ تعيين الانكماش للحصول على نقطة ثابتة (x ) ، أي ( varphi_y (x) = x ). هذا هو (f (x) = y ). لذا (y in f bigl (C (x_1، r) bigr) subset f (V) = W ). لذلك ، (W ) مفتوح ، بعد ذلك نحتاج إلى إظهار أن (g ) قابل للتفاضل باستمرار وحساب مشتقه. أولاً ، دعنا نظهر أنه قابل للتفاضل. لنفترض (y in W ) و (k in { mathbb {R}} ^ n ) ، (k not = 0 ) ، مثل (y + k in W ). ثم هناك فريد (x في V ) و (h in { mathbb {R}} ^ n ) ، (h not = 0 ) و (x + h in V ) ، مثل (f (x) = y ) و (f (x + h) = y + k ) مثل (f | _V ) هو واحد لواحد وعلى تعيين (V ) على (W ). بمعنى آخر ، (g (y) = x ) و (g (y + k) = x + h ). لا يزال بإمكاننا استخلاص بعض المعلومات من حقيقة أن ( varphi_y ) هو انكماش. [ varphi_y (x + h) - varphi_y (x) = h + A ^ {- 1} bigl (f (x) -f (x + h) bigr) = h - A ^ {- 1} ك. ] لذا [ left lVert {hA ^ {- 1} k} right rVert = left lVert { varphi_y (x + h) - varphi_y (x)} right rVert leq frac {1} {2} left lVert {x + hx} right rVert = frac { left lVert {h} right rVert} {2}. ] بالمثلث المعكوس المتباينة ( يسار l انعكاس {h} يمين r عكس - يسار l عكس {A ^ {- 1} k} يمين r عكس leq frac {1} {2} left lVert {h} right rVert ) لذا [ left lVert {h} right rVert leq 2 left lVert {A ^ {- 1} k} right rVert leq 2 left lVert {A ^ {- 1} } يمين r عكس يسار l عكس {ك} يمين r عكس. ] على وجه الخصوص حيث (ك ) ينتقل إلى 0 ، وكذلك الحال (ح ). مثل (س في الخامس ) ، ثم (f '(x) ) غير قابل للعكس. لنفترض (B = bigl (f '(x) bigr) ^ {- 1} ) ، وهو ما نعتقد أنه مشتق من (g ) في (y ) هو. ثم [ start {split} frac { left lVert {g (y + k) -g (y) -Bk} right rVert} { left lVert {k} right rVert} & = frac { left lVert {h-Bk} right rVert} { left lVert {k} right rVert} & = frac { left lVert {hB bigl (f (x + h) -f (x) bigr)} right rVert} { left lVert {k} right rVert} & = frac { left lVert {B bigl (f (x + h ) -f (x) -f '(x) h bigr)} right rVert} { left lVert {k} right rVert} & leq left lVert {B} right r عكس frac { left l عكس {h} right rVert} { left lVert {k} right rVert} ، frac { left lVert {f (x + h) -f (x) -f '(x) h} right rVert} { left lVert {h} right rVert} & leq 2 left lVert {B} right rVert left lVert {A ^ {-1}} يمين r r frac { left lVert {f (x + h) -f (x) -f '(x) h} right rVert} { left lVert {h} اليمين r الاتجاه}. end {split} ] كما ينتقل (k ) إلى 0 ، وكذلك الحال مع (h ). لذلك يذهب الجانب الأيمن إلى 0 لأن (f ) قابل للتفاضل ، وبالتالي يذهب الجانب الأيسر أيضًا إلى 0. و (B ) هو بالضبط ما أردنا (g '(y) ) أن يكون لدينا (g ) قابل للتفاضل ، دعنا نظهر أنه (C ^ 1 (W) ). الآن ، (g Colon W to V ) مستمر (يمكن التفاضل) ، (f ') هي دالة مستمرة من (V ) إلى (L ({ mathbb {R}} ^ n) ) و (X to X ^ {- 1} ) هي دالة مستمرة. (g '(y) = { bigl (f' bigl (g (y) bigr) bigr)} ^ {- 1} ) هو تكوين هذه الدوال الثلاث المستمرة وبالتالي فهي متصلة. افترض (U subset { mathbb {R}} ^ n ) مفتوح و (f Colon U to { mathbb {R}} ^ n ) هو تعيين قابل للتفاضل باستمرار مثل (f '(x ) ) قابل للعكس للجميع (س في U ). ثم بالنظر إلى أي مجموعة مفتوحة (V مجموعة فرعية U ) ، (f (V) ) مفتوحة. ( (f ) تعيين مفتوح) بدون فقدان العمومية افترض (U = V ). لكل نقطة (y in f (V) ) ، نختار (x in f ^ {- 1} (y) ) (يمكن أن يكون هناك أكثر من نقطة واحدة) ، ثم من خلال نظرية الدالة العكسية يوجد حي (x ) في (V ) يرسم على حي (y ). ومن ثم فإن (f (V) ) مفتوح ، والنظرية والنتيجة الطبيعية ليست صحيحة إذا كان (f '(x) ) غير قابل للعكس بالنسبة للبعض (x ). على سبيل المثال ، الخريطة (f (x، y) = (x، xy) ) ، الخرائط ({ mathbb {R}} ^ 2 ) على المجموعة ({ mathbb {R}} ^ 2 setminus {(0، y): y neq 0 } ) ، وهي ليست مفتوحة ولا مغلقة. في الواقع (f ^ {- 1} (0،0) = {(0، y): y in { mathbb {R}} } ). لاحظ أن هذا السلوك السيئ يحدث فقط على المحور (y ) - ، في كل مكان آخر تكون الوظيفة قابلة للعكس محليًا. في الواقع ، إذا تجنبنا المحور (y ) - سيكون واحدًا لواحد. لاحظ أيضًا أنه لمجرد أن (f '(x) ) غير قابل للعكس في كل مكان لا يعني أن (f ) هو واحد إلى -واحد على مستوى العالم. إنه شخص لواحد "محليًا" ولكن ربما ليس "عالميًا". على سبيل المثال ، خذ الخريطة (f Colon { mathbb {R}} ^ 2 setminus {0 } إلى { mathbb {R}} ^ 2 ) المحددة بواسطة (f (x، y ) = (x ^ 2-y ^ 2،2xy) ). يُترك للطالب إظهار أن (f ) قابل للتفاضل وأن المشتق قابل للانعكاس ، ومن ناحية أخرى ، يكون التعيين 2 إلى 1 عالميًا. لكل ((أ ، ب) ) ليس هو الأصل ، هناك حلان بالضبط لـ (x ^ 2-y ^ 2 = a ) و (2xy = b ). نترك الأمر للطالب ليبين أن هناك حلًا واحدًا على الأقل ، ثم نلاحظ أن استبدال (س ) و (ص ) بـ (- س ) و (- ص ) نحصل على حل آخر لاحظ أيضًا أن انعكاس المشتق ليس شرطًا ضروريًا ، بل يكفي فقط لوجود معكوس مستمر وكونه تخطيطًا مفتوحًا. على سبيل المثال ، الوظيفة (f (x) = x ^ 3 ) هي تعيين مفتوح من ({ mathbb {R}} ) إلى ({ mathbb {R}} ) وعمومًا - واحد مع معكوس مستمر. نظرية الدالة الضمنية نظرية الدالة العكسية هي في الحقيقة حالة خاصة من نظرية الدالة الضمنية التي نثبتها بعد ذلك. على الرغم من أنه من المفارقات إلى حد ما أننا أثبتنا نظرية الدالة الضمنية باستخدام نظرية الدالة العكسية. ما كنا نعرضه في نظرية الدالة العكسية هو أن المعادلة (xf (y) = 0 ) كانت قابلة للحل من أجل (y ) من حيث (x ) إذا كان المشتق من حيث (y ) كان قابلاً للعكس ، أي إذا كان (f '(y) ) قابلاً للعكس. هذا كان هناك دالة محلية (g ) مثل (xf bigl (g (x) bigr) = 0 ). حسنًا ، فما رأيك في أن ننظر إلى المعادلة (f (x، y) = 0 ). من الواضح أن هذا غير قابل للحل من أجل (ص ) من حيث (س ) في كل حالة. على سبيل المثال ، عندما لا تعتمد (f (x، y) ) فعليًا على (y ). لمثال أكثر تعقيدًا ، لاحظ أن (x ^ 2 + y ^ 2-1 = 0 ) يحدد دائرة الوحدة ، ويمكننا محليًا إيجاد (y ) بدلالة (x ) عند 1 ) نحن قريبون من نقطة تقع على دائرة الوحدة و 2) عندما لا نكون في نقطة حيث يكون للدائرة تماس عمودي ، أو بعبارة أخرى حيث ( frac { part f} { جزئي y} = 0 ) لتبسيط الأمور نقوم بإصلاح بعض الرموز. سمحنا ((x، y) in { mathbb {R}} ^ {n + m} ) بالإشارة إلى الإحداثيات ((x ^ 1، ldots، x ^ n، y ^ 1، ldots، ذ ^ م) ). يمكن عندئذٍ كتابة التحويل الخطي (A in L ({ mathbb {R}} ^ {n + m}، { mathbb {R}} ^ m) ) كـ (A = [A_x ~ A_y ] ) بحيث (A (x، y) = A_x x + A_y y )، حيث (A_x in L ({ mathbb {R}} ^ n، { mathbb {R}} ^ m) ) و (A_y in L ({ mathbb {R}} ^ m) ). دع (A = [A_x ~ A_y] في L ({ mathbb {R}} ^ {n + m} ، { mathbb {R}} ^ m) ) وافترض أن (A_y ) قابل للعكس ، ثم اسمح (B = - {(A_y)} ^ {- 1} A_x ) ولاحظ أن [0 = A (x، Bx) = A_x x + A_y Bx. ] الدليل واضح. نحن ببساطة نحل ونحصل على (y = Bx ). لذلك دعونا نظهر أنه يمكن القيام بنفس الشيء لوظائف (C ^ 1 ). [thm: ضمني] لنكن (U subset { mathbb {R}} ^ {n + m} ) مجموعة مفتوحة ودع (f Colon U to { mathbb {R}} ^ m ) تعيين (C ^ 1 (U) ). لنفترض أن ((x_0، y_0) in U ) تكون نقطة مثل (f (x_0، y_0) = 0 ) وهذا [ frac { جزئي (f ^ 1، ldots، f ^ m)} { جزئي (y ^ 1، ldots، y ^ m)} (x_0، y_0) neq 0. ] ثم توجد مجموعة مفتوحة (W مجموعة فرعية { mathbb {R}} ^ n ) مع (x_0 in W ) ، مجموعة مفتوحة (W ' مجموعة فرعية { mathbb {R}} ^ m ) مع (y_0 in W' ) ، مع (W times W ' subset U ) ، و a (C ^ 1 (W) ) تعيين (g Colon W to W' ) ، مع (g (x_0) = y_0 ) ، وللجميع ( x in W ) ، النقطة (g (x) ) هي النقطة الفريدة في (W ') بحيث [f bigl (x، g (x) bigr) = 0. ] علاوة على ذلك ، إذا ([A_x ~ A_y] = f '(x_0، y_0) ) ، إذن [g' (x_0) = - {(A_y)} ^ {- 1} A_x. ] FIXME: وهذه هي جميع النقاط التي يختفي فيها (f ) بالقرب من (x_0، y_0 ). الحالة ( frac { جزئي (f ^ 1، ldots، f ^ m)} { جزئي (y ^ 1، ldots، y ^ m)} (x_0، y_0) = det (A_y) neq 0 ) يعني ببساطة أن (A_y ) قابل للعكس. حدد (F Colon U to { mathbb {R}} ^ {n + m} ) بواسطة (F (x، y): = bigl (x، f (x، y) bigr) ). من الواضح أن (F ) هو (C ^ 1 ) ، ونريد أن نوضح أن المشتق عند ((x_0، y_0) ) قابل للعكس ، دعنا نحسب المشتق. نعلم أن [ frac { left lVert {f (x_0 + h، y_0 + k) - f (x_0، y_0) - A_x h - A_y k} right rVert} { left lVert {(h ، k)} right rVert} ] ينتقل إلى الصفر مثل ( left lVert {(h، k)} right rVert = sqrt { left lVert {h} right rVert ^ 2 + left lVert {k} right rVert ^ 2} ) يذهب إلى الصفر. ولكن بعد ذلك يفعل [ frac { left lVert { bigl (h، f (x_0 + h، y_0 + k) -f (x_0، y_0) bigr) - (h، A_x h + A_y k)} right rVert} { left lVert {(h، k)} right rVert} = frac { left lVert {f (x_0 + h، y_0 + k) - f (x_0، y_0) - A_x h - A_y k} right rVert} { left lVert {(h، k)} right rVert}. ] لذا فإن مشتق (F ) at ((x_0، y_0) ) يأخذ ((h، k) ) to ((h، A_x h + A_y k) ). إذا ((ح ، A_x ح + A_y ك) = (0،0) ) ، ثم (ح = 0 ) ، وهكذا (A_y k = 0 ). بما أن (A_y ) هو واحد لواحد ، ثم (ك = 0 ). لذلك (F '(x_0، y_0) ) هو واحد لواحد أو بمعنى آخر قابل للعكس ويمكننا تطبيق نظرية الدالة العكسية ، أي أن هناك مجموعة مفتوحة (V مجموعة فرعية { mathbb {R }} ^ {n + m} ) مع ((x_0،0) in V ) ، وتعيين عكسي (G Colon V to { mathbb {R}} ^ {n + m} ) ، هذا هو (F bigl (G (x، s) bigr) = (x، s) ) للجميع ((x، s) in V ) (حيث (x in {) mathbb {R}} ^ n ) و (s in { mathbb {R}} ^ m )). اكتب (G = (G_1، G_2) ) (الأول (n ) والثاني (م ) مكونات (G )). ثم [F bigl (G_1 (x، s)، G_2 (x، s) bigr) = bigl (G_1 (x، s)، f (G_1 (x، s)، G_2 (x، s)) bigr) = (x، s). ] لذا (x = G_1 (x، s) ) و (f bigl (G_1 (x، s)، G_2 (x، s)) = f bigl (x ، G_2 (x ، s) bigr) = s ). التوصيل (s = 0 ) نحصل على [f bigl (x، G_2 (x، 0) bigr) = 0. ] المجموعة (G (V) ) تحتوي على حي كامل للنقطة ((x_0، y_0) ) وبالتالي هناك بعض المجموعات المفتوحة المجموعة (V ) مفتوحة ومن ثم توجد بعض المجموعات المفتوحة ( tilde {W} ) و (W ') بحيث ( tilde {W} times W ' subset G (V) ) مع (x_0 in tilde {W} ) و (y_0 in W' ). ثم خذ (W = {x in tilde {W}: G_2 (x، 0) in W '} ). الوظيفة التي تأخذ (x ) إلى (G_2 (x، 0) ) مستمرة وبالتالي فإن (W ) مفتوحة. نحدد (g Colon W to { mathbb {R}} ^ m ) بواسطة (g (x): = G_2 (x، 0) ) وهو (g ) في النظرية. حقيقة أن (g (x) ) هي النقطة الفريدة في (W ') تتبع لأن (W times W' subset G (V) ) و (G ) هو واحد إلى- واحد وعلى (G (V) ). التالي اشتق [x mapsto f bigl (x، g (x) bigr)، ] في (x_0 ) ، والتي يجب أن تكون الخريطة الصفرية. يتم عمل المشتق بنفس الطريقة المذكورة أعلاه. نحصل على ذلك للجميع (h in { mathbb {R}} ^ {n} ) [0 = A bigl (h، g '(x_0) h bigr) = A_xh + A_yg' (x_0) h، ] ونحصل أيضًا على المشتق المطلوب لـ (g ) أيضًا. بعبارة أخرى ، في سياق النظرية لدينا معادلات (m ) في (n + m ) غير معروف. [ start {align} & f ^ 1 (x_1، ldots، x_n، y_1، ldots، y_m) = 0 & qquad qquad qquad vdots & f ^ m (x_1، ldots ، x_n، y_1، ldots، y_m) = 0 end {align} ] والشرط الذي يضمن الحل هو أن هذا تعيين (C ^ 1 ) (أن جميع المكونات (C ^ 1 ) ) ، أو بعبارة أخرى جميع المشتقات الجزئية موجودة ومستمرة) ، والمصفوفة [ start {bmatrix} frac { جزئي f ^ 1} { جزئي y ^ 1} & ldots & frac { جزئي f ^ 1} { جزئي y ^ m} vdots & ddots & vdots frac { جزئي f ^ m} { جزئي y ^ 1} & ldots & frac { جزئي f ^ m} { جزئي y ^ m} end {bmatrix} ] قابل للعكس عند ((x_0، y_0) ). ضع في اعتبارك المجموعة (x ^ 2 + y ^ 2 - {(z + 1)} ^ 3 = -1 ) ، (e ^ x + e ^ y + e ^ z = 3 ) بالقرب من النقطة ((0،0،0) ). الوظيفة التي نبحث عنها هي [f (x، y، z) = (x ^ 2 + y ^ 2 - {(z + 1)} ^ 3 + 1، e ^ x + e ^ y + e ^ z -3). ] وجدنا أن [Df = begin {bmatrix} 2x & 2y & -3 {(z + 1)} ^ 2 e ^ x & e ^ y & e ^ z end {bmatrix }. ] المصفوفة [ begin {bmatrix} 2 (0) & -3 {(0 + 1)} ^ 2 e ^ 0 & e ^ 0 end {bmatrix} = begin {bmatrix} 0 & -3 1 & 1 end {bmatrix} ] قابل للعكس. ومن ثم بالقرب من ((0،0،0) ) يمكننا العثور على (y ) و (z ) كـ (C ^ 1 ) وظائف (x ) مثل ذلك لـ (x ) بالقرب من 0 لدينا [x ^ 2 + y (x) ^ 2 - {(z (x) +1)} ^ 3 = -1، qquad e ^ x + e ^ {y (x)} + e ^ {z (x)} = 3. ] لا تخبرنا النظرية بكيفية إيجاد (y (x) ) و (z (x) ) بشكل صريح ، إنها تخبرنا فقط بوجودهما. بعبارة أخرى ، بالقرب من الأصل مجموعة الحلول عبارة عن منحنى سلس إن ({ mathbb {R}} ^ 3 ) يمر عبر الأصل. لاحظ أن هناك إصدارات من النظرية للعديد من المشتقات بشكل عشوائي. إذا كان (f ) يحتوي على (k ) مشتقات مستمرة ، فإن الحل يحتوي أيضًا على مشتقات (k ).

أوجد القيمة القصوى للإحداثيات على الشكل البيضاوي باستخدام نظرية الدالة الضمنية.

حدد الوظيفة وافترض أن النقطة ذات القيمة القصوى للإحداثيات هي. وهو ما يعني أيضًا كما هو الحال في الشكل الإهليلجي.

ثم من IFT نعرف أنه مفتوح ومنفتح ، وهناك وظيفة مثل:

بما أن هذه هي النقطة التي نبحث عنها ، فإنها تتبع. وبالتالي

الذي يحصد . بتوصيل هذا نحصل على إما أو. نظرًا لأننا مهتمون بالقيمة القصوى للإحداثيات ، فإننا نختار كحل ممكن. إذن القيمة القصوى الحالية لدينا هي.

نحن بحاجة إلى التحقق من حالة أين.

لذا فإن وجهة نظرنا هي. لا يمكننا استخدام IFT للتنسيق ، ولكن قد نتمكن من القيام بذلك من أجل الإحداثيات. إيجاد الحد الأدنى هو نفسه إيجاد الحد الأقصى.

ثم من IFT هناك فتح ، وفتح ، ووظيفة مثل:

لأن هي النقطة التي نحتاجها ، حيث الحد الأدنى هو ،.

ومن هنا المعنى ومن ثم وجهة نظرنا.

بالتعويض بهذا نحصل على هذا ليس الحد الأقصى للإحداثيات.

الجزء 2.2: افترض ، أو بعبارة أخرى ، وجهة نظرنا هي.

بتوصيل هذا نحصل على ذلك ليس هو & # 8217t الحد الأقصى أيضًا.

بشكل عام ، النقطة التي كنا نبحث عنها هي وأقصى قيمة للإحداثي.


أوجد الحد الأقصى والأدنى للدالة التي ترضي

المنطقة المحددة مضغوطة ، ومن ثم فإن مثل هذه الوظيفة ستسمح بالحد الأدنى والحد الأقصى. افترض أنها النقطة على المنحنى ذات القيمة القصوى.

حدد . لاحظ أن كما هو الحال في المنحنى ، هو.

افترض أنه ، من IFT مفتوح ، وفتح ، ووظيفة مثل:

ويترتب على التفاضل الضمني الذي يساوي صفرًا عندئذٍ.

لحل هذا النظام نجد أن هذا هو الحد الأدنى المحتمل ، والحد الأقصى المحتمل.


نظرية الوظيفة الضمنية

نظرية الوظيفة الضمنية هي جزء من حجر الأساس لتحليل الرياضيات والهندسة. العثور على نشأتها في دراسات القرن الثامن عشر للوظائف والميكانيكا التحليلية الحقيقية ، ازدهرت الآن نظريات الوظيفة الضمنية والمعكوسة إلى أدوات قوية في نظريات المعادلات التفاضلية الجزئية ، والهندسة التفاضلية ، والتحليل الهندسي.

هناك العديد من الأشكال المختلفة لنظرية الوظيفة الضمنية ، بما في ذلك (1) الصياغة الكلاسيكية لوظائف C k ، (2) الصيغ في مساحات الوظيفة الأخرى ، (3) الصيغ للوظيفة غير الملساء ، (4) الصيغ للوظائف ذات الانحطاط يعقوبي. تم تطوير نظريات الوظيفة الضمنية القوية بشكل خاص ، مثل نظرية ناش-موسر ، لتطبيقات محددة (على سبيل المثال ، تشريب متنوع ريماني). يتم تناول كل هذه الموضوعات ، وغيرها الكثير ، في المجلد الحالي.

إن تاريخ نظرية الوظيفة الضمنية هو مخزن حيوي ومعقد ، ويرتبط ارتباطًا وثيقًا بتطوير الأفكار الأساسية في التحليل والهندسة. يتم سرد هذا التطور برمته ، جنبًا إلى جنب مع الأمثلة والبراهين الرياضية ، لأول مرة هنا. إنها حكاية مثيرة وتستمر في التطور.

نظرية الوظيفة الضمنية هي معالجة شاملة وميسرة لنظريات الوظيفة الضمنية والعكسية وتطبيقاتها. سيكون من مصلحة علماء الرياضيات ، الخريجين / المتقدمين الجامعيين ، وأولئك الذين يطبقون الرياضيات. يوحد الكتاب الأفكار المتباينة التي لعبت دورًا مهمًا في الرياضيات الحديثة. إنه يعمل على توثيق مجموعة كبيرة من الأفكار الرياضية ووضعها في سياقها.

"يقدم المؤلفون مخطوطة مفيدة ورائعة ينبغي أن تكون مفيدة ومفيدة لطلاب الدراسات العليا وطلاب الدراسات العليا وعلماء الرياضيات المحترفين والمعلمين والباحثين. وسيكون معظمهم قادرًا على العثور على جميع الأفكار الأساسية في هذا المجال والبراهين البسيطة والشفافة لجميع نظريات ونظريات الوظيفة الضمنية الرئيسية وثيقة الصلة بهذه النظريات ".

"يستحق هذا الكتاب الفريد والجدير بالاهتمام جمهورًا يتراوح من طلاب التفاضل والتكامل من الأقسام الدنيا إلى طلاب الدراسات العليا وأعضاء هيئة التدريس."

"بالنسبة للمحلل الذي يستخدم نظرية الوظيفة الضمنية أو المعلم الذي يقوم بتدريس المتغيرات الابتدائية أو الأكثر تقدمًا منها ، فإن هذا الكتاب مفيد للغاية .... العرض لطيف وطلاقة ، والكتاب متاح حتى للطلاب الجامعيين بحد أدنى من الخلفية في حساب التفاضل والتكامل ".

—مجلة نظرية المشغل

"هذا كتاب ممتاز مكرس لنظرية الوظيفة الضمنية والنتائج ذات الصلة (مثل نظرية الوظيفة العكسية) التي تلعب أحد أهم الأدوار في الرياضيات الحديثة. الكتاب قائم بذاته بشكل أساسي وسيكون بلا شك مصدرًا مفيدًا لـ الطلاب الجامعيين المتقدمين وطلاب الدراسات العليا وعلماء الرياضيات المحترفين والعلماء من أنواع أخرى.السيرة الذاتية واسعة النطاق ، بما في ذلك مراجع لمختلف الموضوعات المتعلقة بنظرية الوظيفة الضمنية وتعميماتها ، سواء تلك التي تم النظر فيها وتلك التي لم يتم أخذها في الاعتبار في الكتاب. "

"يجمع المؤلفون في هذا الكتاب العديد من المتغيرات من نظرية الوظيفة الضمنية وطرق الإثبات المختلفة. ويؤكدون على IFT كأداة قوية في العديد من فروع الرياضيات."

--- تطبيقات الرياضيات

"يتكون هذا الكتاب الصغير من ستة فصول وهو مخصص بالكامل لواحد من أهم نتائج التحليل - نظرية الوظيفة الضمنية وتنوعاتها. يبدأ الكتاب بتعليقات تاريخية على تطور الأفكار التي أدت إلى النظرية.... سوف يروق لجزء كبير من المجتمع الرياضي لأن الجميع سيجد هناك بعض التعميمات المستمرة للنتائج الكلاسيكية في شكل يمكن قراءته للغاية ".


هل يساعد هذا على الإطلاق؟
http://planetmath.org/encyclopedia/ProofOfImplicitFunctionTheorem.html [معطل]

يبدو وكأنه موضوع عميق جدًا لأن هذا الرجل كتب كتابًا كاملاً عن نظرية الوظيفة الضمنية:
http://www.birkhauser.ch/books/math/4285.htm

& quot تاريخ نظرية الوظيفة الضمنية هي قصة حية ومعقدة ، وهي مرتبطة ارتباطًا وثيقًا بتطور الأفكار الأساسية في التحليل والهندسة. يتم سرد هذا التطور برمته ، جنبًا إلى جنب مع الأمثلة والبراهين الرياضية ، لأول مرة هنا. إنها حكاية مثيرة وتتطور باستمرار. & quot

أم. نعم ، يبدو وكأنه محرك صفحة حقيقي. أعتقد أنني علقت بجانب هذا الرجل في حفل كوكتيل مرة واحدة. : zzz:

من السهل جدًا فهم نظرية الوظيفة الضمنية في 2 vbls. ماذا عن الشرح بدلا من البرهان الحقيقي؟

من الناحية الفنية ، العبارة هي أنه إذا كانت f (x ، y) دالة من متغيرين مع مشتقات جزئية متصلة عند نقطة (أ ، ب) ، وإذا كانت y الجزئية عند (أ ، ب) غير صفرية ، فهناك الجوار المستطيل (أ ، ب) حيث يكون موضع النقاط حيث f (x ، y) = f (a ، b) هو منحنى في المستوى (x ، y) الذي يشبه الرسم البياني لدالة قابلة للتفاضل لـ x ، قل y = g (x).

ما تعنيه هذه الفرضية ، هو أن الدالة f (x ، y) تقسم المستوى (x ، y) بالقرب من (أ ، ب) لأعلى إلى منحنيات قابلة للتفاضل حيث تكون قيمة f ثابتة ، وأن المنحنى الذي يمر عبر (a ، ب) ، أي منحنى النقاط حيث f (x ، y) لها نفس القيمة عند (أ ، ب) ، هو منحنى سلس.

علاوة على ذلك ، نظرًا لأن الجزء y من f عند (أ ، ب) ليس صفراً ، فهذا يعني أن الخط المماس لهذا & quot المنحنى & quot ليس عموديًا. (متجه التدرج هو المتجه العمودي على هذا المنحنى ، وجزء y ليس صفرًا يعني أن التدرج يحتوي على مكون y ، وبالتالي فإن المتجه العمودي ، المماس للمنحنى ، له مكون x ، وبالتالي فهو ليس عموديًا.)

حسنًا ، نرى الآن أن فرضية النظرية تقول أن منحنى النقاط حيث تكون f (x ، y) لها نفس القيمة التي لها عند (أ ، ب) ، وهي منحنى سلس متجه المماس ليس عموديًا عند (أ ،ب). لكن هذا يعني فقط أن هذا المنحنى ليس عموديًا أيضًا ، أي أنه يجتاز اختبار الخط العمودي بالقرب من تلك النقطة ، أي محليًا الرسم البياني للدالة.

أسهل ؟: ضع في اعتبارك دالة خطية لمتغيرين f (x ، y) = rx + sy + c بحيث أن s ليست صفراً. إذن بما أن s ليست صفرًا ، فإن الخط المحدد بجعل هذا التعبير مساويًا لـ c ، ليس عموديًا ، ومن ثم يكون التمثيل البياني للدالة ، حيث يمكننا القسمة على s والحصول على y كدالة في x.

الآن إذا كانت f هي أي دالة قابلة للتفاضل ، فعندئذٍ بالقرب من (أ ، ب) ، يتم تقريب f جيدًا بواسطة الدالة الخطية (df / dx) (a ، b) (xa) + (df / dy) (a ، b) (yb ) + f (a، b) ، أي بواسطة دالة خطية rx + sy + c ، كما هو مذكور أعلاه حيث r هو مشتق x و s هو مشتق y لـ f.

تتمثل فرضية نظرية الوظيفة الضمنية في أن الخط المحدد عن طريق تعيين هذا التقريب الخطي مساويًا لـ f (أ ، ب) ليس عموديًا. نظرًا لأن هذا الخط مماس للمنحنى الذي تم الحصول عليه عن طريق ضبط f (x ، y) = f (a ، b) ، فإن هذا المنحنى ليس رأسيًا أيضًا. هذا كل شيء.

بشكل عام ، تنص نظرية الدالة الضمنية على أنه في التقريب الخطي لـ f ، عند نقطة ما ، يمكنك حل بعض المتغيرات بدلالة المتغيرات الأخرى ، فهذا ينطبق أيضًا على المتغير f الأصلي ، على الأقل بالقرب من المعطى هدف.


حسنًا ، ربما أثبت أن الموضوع صعب ، لكن الصورة ستظهر أنه ليس في ثانية.


الاحتمالية والمتغيرات العشوائية

فابريزيو جابياني ، ستيفن جيه كوكس ، في الرياضيات لعلماء الأعصاب ، 2010

11.8 تحويل المتغيرات العشوائية *

يترك X يكون متغيرًا عشوائيًا مستمرًا بكثافة احتمالية صX (x) أخذ القيم خلال الفترة أنا = (أ ، ب) (بقيم حدية لا نهائية أ و ب). لو ز(x) هي وظيفة سلسة يمكننا تحديد متغير عشوائي جديد ص = ز(X). ص هو تحويل X من خلال الوظيفة g. يطرح سؤال واحد: ما هو التوزيع الاحتمالي لـ ص بالنظر إلى أن X؟ دعونا نفترض أولا ذلك ز(أنا) = (ج ، د) وذلك دج / دكس ≠ 0 أكثر أنا (على سبيل المثال ، ز(x) = αx ). وفقًا لنظرية الوظيفة العكسية ، ز غير قابل للعكس (أ ، ب) و د −1 (ز(x))/دى = 1/ز ′(x) خلال (ج ، د). نبحث عن صيغة صريحة لكثافة الاحتمال ،

من حيث كثافة الاحتمال X. احتمال أن نعم ذ0 يُعطى بالاحتمال (فوق المتغير العشوائي X) أن الوظيفة المميزة (تذكر المعادلة (1.6)) ، 1 (ج ، ص 0) (ز (س)) ، تساوي 1. أي

مقارنة مع Eq. (11.15) نحصل عليها

يمكن تعميم هذه المعادلة على الحالة حيث ز قابل للعكس محليًا على مجموعة مفتوحة أنا. على سبيل المثال ، إذا X هو متغير عشوائي يأخذ القيم في الفاصل الزمني (-ب ، ب) (مع ب & GT 0) و ز(x) = αx 2 ثم دزx ≠ 0 أكثر (-ب,0) ∪ (0,ب) أين ز يمكن عكسها (الشكل 11.4). دع f ± (y) = ± y / α تدل على هذه الانعكاسات المحلية. إلى عن على ذ0 & GT 0،

الشكل 11.4. توضيح تخطيطي لتحول المتغيرات العشوائية. في المثال الأول ، ص = ز (X) هي دالة خطية لـ X (ص = αX، خط منقط شرطة). في المثال الثاني ، ص هي دالة تربيعية لـ X (ص = αX 2 ، خط متقطع).

وبالحجج المقدمة أعلاه ،


التفاضل: نظرية الوظيفة الضمنية.

أولاً ، نحتاج إلى تقديم فكرة الدالة الضمنية ، وهي دالة ضمنية إذا لم تكن الوظيفة صريحة.

الوظيفة الصريحة هي دالة لها متغير فردي في جانب واحد ، مع المتغيرات الأخرى فقط في الجانب الآخر.

هذا إذا كان لدينا دالة مع x و y ، فإن الوظيفة الصريحة هي y = f (x) ، والدالة الضمنية هي وظيفة حيث z = f (x ، y) ، حيث z هو أي تعبير ، والذي يمكن أن يكون مع س وص.

ضع في اعتبارك دائرة الوحدة ، والتي يتم تحديدها بواسطة مجموعة النقاط مثل ذلك. هذه علاقة ضمنية بين x و y ، لأن المعادلة بالصيغة المعبر عنها أعلاه.

ومع ذلك ، يمكننا إعادة ترتيب هذه الوظيفة للحصول على:

من هذا يمكننا استخدام المعادلة لتحديد دالة من هذه المعادلة تصف نصف الدائرة العلوي.

يمكننا & # 8217t توسيع مجال هذه الوظيفة لأن

من هذا ، قمنا بتحويل علاقة ضمنية عالمية إلى وظيفة محلية صريحة كما هو موضح أعلاه.

للتفكير في هذا بطريقة أخرى ، فقد عبرنا عن دائرة الوحدة على أنها الصورة المسبقة لقيمة لطيفة لوظيفة لطيفة ، أي دائرة الوحدة هي

تعتبر تقنية التحويل الضمني إلى الصريح ذات أهمية حيوية في حساب التفاضل والتكامل. بشكل عام ، نحن نعتبر بعض المنحنى المحدد من قبل لبعض الوظائف وبعضها ثابت

فكرة هذه القطعة بأكملها هي الحصول على نظرية تترجم أي دالة صريحة إلى دالة ضمنية حتى نتمكن من إجراء حساب التفاضل والتكامل على الوظيفة.

بعبارة أخرى ، في بعض المجموعات المفتوحة حول النقطة ، يكون المنحنى المحدد ضمنيًا هو الرسم البياني لبعض الوظائف g.

ومع ذلك ، فهذه حالة محددة للغاية من متغيرين إلى متغير واحد ، لذلك نحتاج إلى أن نكون قادرين على تعميم هذه النظرية على Rn إلى Rp ، فنحن نحتاج إلى بعض الأدوات الفنية من أجل التعميم ، وهي نظرية رسم الخرائط الانكماشية والعديد من النتائج الطبيعية المشتقة بسهولة من النظرية.

تم ذكر ذلك بالطبع في التحليل 3 سابقًا في الحالة المحددة للقواعد الخاصة بالمساحات المتجهة ، وفي هذا الدليل نثبت أيضًا أن:

على وجه الخصوص ، نعتبر الانقباضات على الكرة:

نحن نعتبر أيضًا عائلات الانقباضات. انصح

الاستمرارية هي خاصية نوعية بالنظر إلى إبسيلون معين ، والعلاقة بين ذلك إبسيلون والدلتا المقابلة ليست بسيطة بشكل عام. إحدى الحالات الخاصة التي تكون فيها العلاقة بسيطة تثبت أنها مفيدة جدًا في العديد من المواقف ، حالة استمرارية ليبشيتز:

باستخدام هذه المعلومات ، يمكننا الآن تعميم نظرية الوظيفة الضمنية. في الأساس ، بالنظر إلى المعادلة ، حيث تخبرنا نظرية الوظيفة الضمنية متى يمكننا كتابة هذا كدالة صريحة

يصبح الشرط السابق للمشتق غير الصفري شرطًا بأن يكون محدد التفاضل غير صفري ، أي أن التفاضل عبارة عن خريطة خطية قابلة للانعكاس.

اسمحوا ان تكون وظيفة (حيث يكون مفتوحا). تحت أي ظروف يمكننا عكس f؟ من خلال تطبيق نظرية الوظيفة الضمنية على F (x,ذ)=-x+ و (ذ) ، نحصل على نظرية الوظيفة العكسية ، والتي تنص على أن f لها معكوس محلي حول إذا كان التفاضل عبارة عن خريطة خطية قابلة للعكس

عندما يمكننا عكس f ويكون معكوسها أيضًا C-1 ، فإننا نسميها تعدد الأشكال:


4 إجابات 4

تتوافق Isolines و isosurfaces (أي الخطوط والمساحات المتساوية) مع الرسوم البيانية للوظائف الضمنية وهي ذات صلة في العديد من العلوم ، على سبيل المثال ، isopotentials (الفيزياء) ، isobars و isotherms (metereology).

ربما يكون أفضل مثال معروف من هذا النوع هو خطوط الكنتور الطوبوغرافي (خطوط ذات ارتفاع متساوٍ ، انظر الصورة أدناه): على نطاق تقريبي بما فيه الكفاية وتجاهل بعض مناطق الجذب السياحي الجيولوجي ، يلبي الارتفاع الجغرافي كدالة لخطوط الطول والعرض الجغرافيين المتطلبات الأساسية لـ نظرية الوظيفة الضمنية. من وجهة النظر الرياضية ، إنها دالة $ h $ من $ mathbb^ 2 $ إلى $ mathbb$ (تجاهل انحناء الأرض) ووظائفه الضمنية هي الخطوط الكنتورية.

(المصدر: Wiki Commons)

ميزة أخرى جديرة بالملاحظة لمعظم المعزولات أو الأسطح الواقعية هي: إذا كان كل ما هو متساوٍ عليها يعمل كنوع من الإمكانات ، فإن القوى المقابلة تعمل بشكل عمودي على السطوح أو السطوح. على سبيل المثال ، إذا وضعت كرة في منطقة جغرافية ما ، فستبدأ في التدحرج بشكل عمودي على الخطوط الكنتورية.

إن التطبيق السهل الأكثر لفتًا للنظر لنظرية الوظيفة الضمنية هو في رأيي انتظام جذور كثيرات الحدود من حيث معاملاتها. The only issue is that you have to deal with multiplicity to state the full version, but understanding what happens around a simple root is already interesting.

More generally, you can interpret the implicit function theorem as saying that "a smooth family of equations have solutions that vary smoothly", and it is easy to build ad hoc examples.

I can't offer you a good and interesting example, but a nice geometric interpretation. My math professor (Rainer Wüst from TU Berlin) had presented the theorem in way which was easier to digest: He started with a function $f$ which is continuously differentiable in a domain $mathcal G$ in $^2$. He writes in his book "an approach which is completely unnecessary, from a mathematical point of view."

One can give a geometric interpretation to the assertion of the implicit function theorem, which I'll repeat here in his formulation: If $f(y_0,x_0)=0$ and with some conditions on the partial derivatives, there exists a neighborhood $V$ of $x_0$ and a function $h$ which is continuously differntiable in $V$ with $f(x_0)=y_0$ and $f(h(x),x)=0$ for all $xin V$. (Note the deliberate order of $y$ and $x$, which I copied from his book.)

The set $H=<(y,x)in mathcal G: f(y,x)=0>$ should consist of curves, at least under 'reasonable' assumptions on $f$. The conditions of the theorem ensure that $(y_0,x_0)in H$ and that the tangent to the curve at this point is not parallel to the $y$-axis. The therorem states that we can represent this curve, at least in a neighborhood of $x_0$, as a function of $x$.

One specific example for this interpretation is $f(y,x)=x^2+y^2 +1$ where $H$ is the unit circle.

One nice family of examples is brought to us from thermodynamics.

For example, the ideal gas law states: $ PV = nRT $ where $P,V,n,T$ are generally variables which describe the pressure, volume, number of particles and temperature of a gas. We calculate the total differential: $ VdP+PdV= RTdn+RndT $ This equation of differentials contains a multitude of possible interpretations. One beautiful truth, at the outset, this total differential contains all those choices. In the absence of further constraints, any one of the four variables here can be taken as the dependent variable which is given by a function of the three remaining variables. The possibility of taking a given variable as dependent simply amounts to the algebraic freedom to solve for the differential of that variable. For example, $ dP = frac<1>(-PdV+RTdn+RndT) (star)$ Clearly $V=0$ is troubling, we can only expect to find $P = P(V,n,T)$ in some set where $V eq 0$. Of course, this is not really an impediment here as negative volumes are hard to find. In any event, we can read the partial derivatives of $P$ with respect to $V,n,T$ directly from $star$, $ left(frac ight)_ = frac<-P>, left(frac ight)_ = frac, left(frac ight)_ = frac $ The notation above is perhaps redundant given the context, however, in general in applications where there are multiple interpretations possible for a set of variables it is nice to be able to explicitly indicate which variables are taken to be independent.

Generalizing a bit: This example is not hard enough to really appreciate the method of differentials as it explains partial derivatives for sets of variables. Essentially the same analysis is possible for several equations which govern some set of variables. In general, the meaning of something like $frac$ is ambiguous. The value depends on the set of variables which is taken as independent as well as the defining equations (constraints) for the problem. What justifies this formal method? It's the implicit function theorem. Thus, if you play with these differentials a bit and gain a better sense of how the Jacobian can be used to linearize a mapping then the implicit function theorem is not at all abstract. It's simply the condition needed to solve a given linearization for certain variables in terms of the remaining variables.

We can be more greedy, the contraction mapping principle paired with a Newton's method type argument even gives a sequence of functions which converges to the implicit solution in a particular manner. So, the intuition I sketch above is just the first step in understanding this deeper result. Edwards' Advanced Calculus is once source for the implicit and inverse mapping theorems paired with the contraction mapping based solution sequence results.

There is a better answer to give here. So many of the interesting theorems ultimately rest on the implicit function theorem. In some sense, those theorems are the real triumph of the implicit function theorem.


Inverse and implicit function theorems with domain

I have seen an author use the Implicit Function Theorem for a map whose second partial derivative has a bounded inverse, but is unbounded. The map itself is not defined on an open set, but only on a domain. I failed to find a convincing reference, so I ask here.

To be more precise, assume $X$ is a Banach space, $D$ a linear subspace (dense if needed) and $A$ an unbounded closed linear operator of $X$, with domain $D$. Let $b:Usubset X o X$ be an analytic map where $U$ is an open set. Consider the map $Phi:Ucap D o X$ defined by $Phi(x)=Ax+b(x)$.

Assume that at some point $x_0in Ucap D$, the linear unbounded operator $A+Db_:D o X$ is injective and has a bounded right inverse (which thus takes its values in $D$). Is it true that there is an analytic map $Psi:V o X$, defined in a neighborhood $V$ of $Phi(x_0)$, taking its values in $Dcap U$, such that for all $xin V$ it holds $Phi(Psi(x))=x$?

Any similar statement, pointers to literature, Implicit Function Theorem variants would be helpful. Maybe the usual proof only needs some slight adaptation, but right know I don't see it.

يحرر: the question is basically answered by Michael Renardy comment.

I also wonder what would be the general definition of an analytic map in such context, where the map is only define on a dense subspace.


9.5: Inverse and implicit function Theorem - Mathematics

Many important problems in mathematics involve the solution of equations or systems of equations. In this chapter we study the central existence theorems of multivariable calculus that pertain to such problems. The inverse mapping theorem (Theorem 3.3) deals with the problem of solving a system of ن المعادلات في ن unknowns, while the implicit mapping theorem (Theorem 3.4) deals with a system of ن المعادلات في m + n المتغيرات x1, . . . , xم, ذ1, . . . , ذن, the problem being to solve for ذ1, . . . , ذن as functions of x1, . . . , xم.

Our method of treatment of these problems is based on a fixed point theorem known as the contraction mapping theorem. This method not only suffices to establish (under appropriate conditions) the existence of a solution of a system of equations, but also yields an explicitly defined sequence of successive approximations converging to that solution.

In Section 1 we discuss the special cases ن = 1, م = 1, that is, the solution of a single equation F(x) = 0 or جي(x, ذ) = 0 in one unknown. In Section 2 we give a multivariable generalization of the mean value theorem that is needed for the proofs in Section 3 of the inverse and implicit mapping theorems. In Section 4 these basic theorems are applied to complete the discussion of manifolds that was begun in Chapter II (in connection with Lagrange multipliers).

Chapter 1. NEWTON'S METHOD AND CONTRACTION MAPPINGS

There is a simple technique of elementary calculus known as Newton's method, for approximating the solution of an equation F(x) = 0, where F : هو function. Let [أ, ب] be an interval on which F&prime(x) is nonzero and F(x) changes sign, so the equation F(x) = 0 has a single root . Given an arbitrary point , linear approximation gives

Under appropriate hypotheses it can be proved that the sequence defined inductively by (1) converges to the root x*. We shall not include such a proof here, because our main interest lines in a certain modification of Newton&lsquos method, rather than in Newton’s method itself.

In order to avoid the repetitious computation of the derivatives F&prime(x0), F&prime(x1), . . . , F&prime(xن), . . . required in (1), it is tempting to simplify the method by considering instead of (1) the alternative sequence defined inductively by

But this sequence may fail to converge, as illustrated by Fig. 3.2. However there is a similar simplification which “works” we consider the sequence defined inductively by

أين م = max F&prime(x) لو F&prime(x) > 0 on [أ, ب], and م = &minus max F&prime(x) لو F&prime(x) 0, then the sequence defined by (2) converges to x*, with م being an upper bound for F&prime(x) near x*.

Now let us turn the question around. Given a point x* أين F(x*) = 0, and a number ذ close to 0, can we find a point x near x* such that F(x) = ذ? More generally, supposing that F(أ) = ب, and that ذ is close to ب, can we find x close to أ such that F(x) = ذ? If so, then

is then a first approximation to a point x such that F(x) = ذ. This suggests the conjecture that the sequence المعرفة من قبل

converges to a point x such that F(x) = ذ. In fact we will now prove that the slightly simpler sequence, with F&prime(xن) replaced by F&prime(أ), converges to the desired point x لو ذ is sufficiently close to ب.

نظرية 1.3 يترك F: & rarr be a function such that F(أ) = ب و F&prime(أ) &ne 0. Then there exist neighborhoods يو = [a &minus &delta, a + &delta] of أ و الخامس = [b &minus &epsilon, b + &epsilon] of ب such that, given , the sequence defined inductively by

converges to a (unique) point such that F(x*) = ذ*.

PROOF Choose &delta > 0 so small that

Then let . It suffices to show that

is a contraction mapping of يو لو ، منذ &phi(x*) = x* clearly implies that F(x*) = ذ*.

لو x &isin يو, so &phi has contraction constant . It remains to show that, if ، من ثم &phi maps the interval يو into itself. But

لو و . Thus as desired.

This theorem provides a method for computing local inverse functions by successive approximations. معطى ذ &isin الخامس, define ز(ذ) to be that point x &isin يو given by the theorem, such that F(x) = ذ. ثم F و ز are local inverse functions. If we define a sequence of functions on الخامس بواسطة

then we see [by setting xن = زن(ذ)] that this sequence of functions converges to ز.

Thus it appears that we are generating partial sums of the binomial expansion

of the inverse function ز(ذ) = (1 + ذ) 1/2 .

Next we want to discuss the problem of solving an equation of the form جي(x, ذ) = 0 for ذ ك وضيفة من x. We will say that y = f(x) solves the equation G(x, ذ) = 0 in a neighborhood of the point (أ, ب) if جي(أ, ب) = 0 and the graph of F agrees with the zero set of جي near (أ, ب). By the latter we mean that there exists a neighborhood دبليو of (أ, ب), such that a point (س ، ص) &isin دبليو lies on the zero set of جي إذا وفقط إذا y = f(x). That is, if (x,ذ) &isin دبليو، من ثم جي(x, ذ) = 0 if and only if y = f(x).

Theorem 1.4 below is the implicit function theorem for the simplest case m = n = 1. Consideration of equations such as x 2 &minus ذ 2 = 0 near (0, 0), and x 2 + ذ 2 &minus 1 = 0 near (1, 0), shows that the hypothesis د2 جي(أ, ب) &ne 0 is necessary.

نظرية 1.4 يترك جي : 2 &rarr be a function, and a point such that جي(أ, ب) = 0 و د2 جي(أ, ب) &ne 0. Then there exists a continuous function F : ي & rarr , defined on a closed interval centered at أ، مثل ذلك y = f(x) solves the equation جي(x, ذ) = 0 in a neighborhood of the point (أ, ب).

In particular, if the functions are defined inductively by

then the sequence converges uniformly to F on ي.

معطى , define جيx* : [د1, د2] &rarr بواسطة

منذ جيx*(د1) 0 on [د1, د2] the intermediate value theorem (see the Appendix) yields a unique point such that

Defining F : [ج1, ج2] &rarr بواسطة F(x*) = ذ* for each , we have a function such that y = f(x) solves the equation جي(x, ذ) = 0 in the neighborhood س of (أ, ب).

We want to compute ذ* = F(x*) by successive approximations. By linear approximation we have

is our first approximation to ذ*. Similarly we obtain

as the (ن + 1)th approximation.

What we shall prove is that, if the rectangle س is sufficiently small, then the slightly simpler sequence defined inductively by

PROOF First choose &epsilon > 0 such that

لو و . Then choose &delta > 0 less than &epsilon such that

لو . We will work inside the rectangle دبليو = [a &minus &delta, a + &delta] × [b &minus &epsilon, b + &epsilon], assuming in addition that &delta و &epsilon are sufficiently small that .

يترك x* be a fixed point of the interval [a &minus &delta, a + &delta]. In order to prove that the sequence defined above converges to a point with جي(x*, ذ*) = 0, it suffices to show that the function &phi : [b &minus &epsilon, b + &epsilon] &rarr ، من تحديد

is a contraction mapping of the interval [b &minus &epsilon, b + &epsilon]. First note that

منذ . Thus the contraction constant is .

It remains to show that . But

منذ يدل .

the above argument proves that the sequence converges to the unique number such that جي(x, F(x)) = 0. It remains to prove that this convergence is uniform.

To see this, we apply the error estimate of the contraction mapping theorem. منذ because F0(x) = ب و ، و , we find that

so the convergence is indeed uniform. The functions are clearly continuous, so this implies that our solution F : [a &minus &delta, a + &delta] &rarr is also continuous (by Theorem VI.1.2).

REMARK We will see later (in Section 3) that the fact that جي يكون يعني ذلك F يكون .

مثال 2 يترك جي(x, ذ) = x 2 + ذ 2 &minus 1, so جي(x, ذ) = 0 is the unit circle. Let us solve for y = f(x) in a neighborhood of (0, 1) where د2 جي(0, 1) = 2. The successive approximations given by (9) are

Thus we are generating partial sums of the binomial series

The preceding discussion is easily generalized to treat the problem of solving an equation of the form

أين جي : م +1 &rarr إلى عن على ذ as a function x = (x1, . . . , xم). معطى F : م & rarr , we say that y = f(x) solves the equation G(x, ذ) = 0 in a neighborhood of (a, ب) if جي(a, ب) = 0 and the graph of F agrees with the zero set of جي near .

Theorem 1.4 is simply the case م = 1 of the following result.

Theorem 1.5 يترك جي : م +1 &rarr be a function, and a point such that جي(a, ب) = 0 و دم+1 جي(a, ب) &ne 0. Then there exists a continuous function F : ي & rarr , defined on a closed cube centered at ، مثل ذلك y = f(x) solves the equation جي(x, ذ) = 0 in a neighborhood of the point (a, ب).

In particular, if the functions are defined inductively by

then the sequence converges uniformly to F on ي.

To generalize the proof of Theorem 1.4, simply replace x, أ, x* بواسطة x, a, x* respectively, and the interval by the م-dimensional interval .

Recall that Theorem 1.5, with the strengthened conclusion that the implicitly defined function F is continuously differentiable (which will be established in Section 3), is all that was needed in Section II.5 to prove that the zero set of a وظيفة جي : ن & rarr is an (ن &minus 1)-dimensional manifold near each point where the gradient vector &nablaجي is nonzero. That is, the set

is an (ن &minus 1)-manifold (Theorem II.5.4).

1.1Show that the equation x 3 + xy + y 3 = 1 can be solved for y = f(x) in a neighborhood of (1, 0).

1.2Show that the set of all points مثل ذلك (x + y) 5 &minus xy = 1 is a 1-manifold.

1.3Show that the equation ذ 3 + x 2 ذ &minus 2x 3 &minus x + y = 0 defines ذ ك وضيفة من x (for all x). Apply Theorem 1.4 to conclude that ذ is a continuous function of x.

1.4يترك F : & rarr و جي : 2 &rarr be functions such that جي(x, F(x)) = 0 for all . Apply the chain rule to show that

1.5لنفترض أن جي : م +1 &rarr هو function satisfying the hypotheses of Theorem 1.5. Assuming that the implicitly defined function y = f(x1, . . . , xم) is also , show that

1.6Application of Newton's method [Eq. (1)] to the function F(x) = x 2 &minus أ، أين أ > 0, gives the formula . لو , show that the sequence converges to , by proving that is a contraction mapping of . Then calculate accurate to three decimal places.

1.7Prove that the equation 2 &minus x &minus sin x = 0 has a unique real root, and that it lies in the interval [&pi/6, &pi/2]. Show that &phi(x) = 2 &minus sin x is a contraction mapping of this interval, and then apply Theorem 1.1 to find the root, accurate to three decimal places.

1.8Show that the equation x + y &minus z + cos xyz = 0 can be solved for z = f(x, ذ) in a neighborhood of the origin.

1.9Show that the equation ض 3 + ze x+y + 2 = 0 has a unique solution z = f(x, ذ) defined for all . Conclude from Theorem 1.5 that F is continuous everywhere.

1.10If a planet moves along the ellipse x = a cos &theta, y = b الخطيئة &theta, with the sun at the focus ((أ 2 &minus ب 2 ) 1/2 , 0), and if ر is the time measured from the instant the planet passes through (أ, 0), then it follows from Kepler&lsquos laws that &theta و ر satisfy Kepler’s equation

أين ك is a positive constant and &epsilon = c/a, so .

(a)Show that Kepler's equation can be solved for &theta = f(ر).

(c)Conclude that d&theta/dt is maximal at the “perihelion” (أ, 0), and is minimal at the “aphelion” (&minusأ, 0).

If you are the copyright holder of any material contained on our site and intend to remove it, please contact our site administrator for approval.


شاهد الفيديو: #رياضيات 5 - العلاقات و الدوال العكسية - مثال 3 (شهر نوفمبر 2021).