مقالات

6.3: وظائف مختلفة


كما نعلم ، فإن الدالة (f: E ^ {1} rightarrow E left ( text {on} E ^ {1} right) ) قابلة للتفاضل في (p in E ^ {1} ) iff ، مع ( Delta f = f (x) -f (p) ) و ( Delta x = xp ) ،

[
f ^ { prime} (p) = lim _ {x rightarrow p} frac { Delta f} { Delta x} text {موجود} رباعي ( نص {محدود}).
]

إعداد ( Delta x = xp = t ، Delta f = f (p + t) -f (p) ، ) و (f ^ { prime} (p) = v ، ) قد نكتب هذا المعادلة كـ

[
lim _ {t rightarrow 0} left | frac { Delta f} {t} -v right | = 0،
]

أو

[
lim _ {t rightarrow 0} frac {1} {| t |} | f (p + t) -f (p) -v t | = 0
]

الآن حدد خريطة ( phi: E ^ {1} rightarrow E ) بقلم ( phi (t) = t v، v = f ^ { prime} (p) in E ).

إذن ( phi ) خطي ومستمر ، أي ( phi in L left (E ^ {1} ، E right) ؛ ) لذلك من خلال Corollary 2 في §2 ، قد نعبر عن ( (1) ) على النحو التالي: هناك خريطة ( phi in L left (E ^ {1}، E right) ) بحيث

[
lim _ {t rightarrow 0} frac {1} {| t |} | Delta f- phi (t) | = 0.
]

نعتمد هذا كتعريف في الحالة العامة ، (f: E ^ { prime} rightarrow E ، ) أيضًا.

التعريف: قابل للتفاضل عند نقطة معينة

الدالة (f: E ^ { prime} rightarrow E ) حيث (E ^ { prime} ) و (E ) هي مسافات معيارية على نفس الحقل القياسي) يقال إنها قابل للتفاضل عند نقطة ( vec {p} في E ^ { prime} ) إذا كانت هناك خريطة

[
phi in L left (E ^ { prime} ، E right)
]

مثل ذلك

[
lim _ { vec {t} rightarrow overrightarrow {0}} frac {1} {| vec {t} |} | Delta f- phi ( vec {t}) | = 0 ؛
]

هذا هو،

[
lim _ { vec {t} rightarrow overrightarrow {0}} frac {1} {| vec {t} |} [f ( vec {p} + vec {t}) - f ( vec {p}) - phi ( vec {t})] = 0.
]

كما نوضح أدناه ، فإن ( phi ) فريد (بالنسبة إلى ( vec {p}) ، ) إذا كان موجودًا.

نسمي ( phi ) تفاضل (f ) في ( vec {p} ، ) باختصار (df. ) لأنه يعتمد على ( vec {p}، ) نحن اكتب أيضًا (df ( vec {p}؛ vec {t}) ) لـ (df ( vec {t}) ) و (df ( vec {p}؛ cdot) ) من أجل (مدافع ).

يكتب بعض المؤلفين (f ^ { prime} ( vec {p}) ) لـ (df ( vec {p}؛ cdot) ) ويسمونها المشتق في ( vec {p} ، ) لكننا لن نفعل ذلك (انظر المقدمة). ومع ذلك ، بعد M. Spivak ، سنستخدم ("[f ^ { prime} ( vec {p})]" ) لمصفوفته ، على النحو التالي.

التعريف: مصفوفة يعقوبية

إذا (E ^ { prime} = E ^ {n} left (C ^ {n} right) ) و (E = E ^ {m} left (C ^ {m} right) ، ) و (f: E ^ { prime} rightarrow E ) قابل للتفاضل في ( vec {p}، ) قمنا بتعيينها

[
يسار [f ^ { prime} ( vec {p}) right] = [d f ( vec {p}؛ cdot)]
]

ونسميها مصفوفة يعقوبية من (f ) في ( vec {p} ).

ملاحظة 1. في الفصل 5 ، §6 ، لم نقم بتعريف (d f ) كتعيين. ومع ذلك ، إذا كانت (E ^ { prime} = E ^ {1}، ) قيمة الدالة

[
د و (ف ؛ t) = v t = f ^ { prime} (p) Delta x
]

كما في الفصل 5 ، §6.

أيضًا ، ( left [f ^ { prime} (p) right] ) عبارة عن (1 times 1 ) مصفوفة بمصطلح واحد (f ^ { prime} (p). ) ( لماذا؟) هذا التعريف الدافع 2.

نظرية ( PageIndex {1} )

(تفرد (df). ) إذا كان (f: E ^ { prime} rightarrow E ) قابلاً للتفاضل في ( vec {p}، ) فإن الخريطة ( phi ) الموضحة في التعريف 1 فريد (يعتمد على (f ) و ( vec {p} ) فقط).

دليل

لنفترض أن هناك خريطة خطية أخرى (g: E ^ { prime} rightarrow E ) مثل هذه

[
lim _ { vec {t} rightarrow overrightarrow {0}} frac {1} {| vec {t} |} [f ( vec {p} + vec {t}) - f ( vec {p}) - g ( vec {t})] = lim _ { vec {t} rightarrow overrightarrow {0}} frac {1} {| vec {t} |} [ Delta fg ( vec {t})] = 0.
]

دعونا (h = phi-g. ) بالنتيجة الطبيعية 1 في §2 ، (ح ) خطي.

أيضًا ، بموجب قانون المثلث ،

[
| h ( vec {t}) | = | phi ( vec {t}) - g ( vec {t}) | leq | Delta f- phi ( vec {t}) | + | Delta f-g ( vec {t}) |.
]

ومن ثم ، يتم القسمة على (| vec {t} | ) ،

[
left | h left ( frac { vec {t}} {| vec {t} |} right) right | = frac {1} {| vec {t} |} | h ( vec {t}) | leq frac {1} {| vec {t} |} | Delta f- phi ( vec {t}) | + frac {1} {| vec {t} |} | Delta fg ( vec {t}) |.
]

من خلال ((3) ) و (2) ، ) تميل تعبيرات الجانب الأيمن إلى القيمة 0 كـ ( vec {t} rightarrow overrightarrow {0}. ) وبالتالي

[
lim _ { vec {t} rightarrow overrightarrow {0}} h left ( frac { vec {t}} {| vec {t} |} right) = 0.
]

يظل هذا صالحًا أيضًا إذا ( vec {t} rightarrow overrightarrow {0} ) فوق أي سطر خلال ( overrightarrow {0}، ) بحيث ( vec {t} / | vec {t } | ) يظل ثابتًا ، على سبيل المثال ( vec {t} / | vec {t} | = vec {u} ، ) حيث ( vec {u} ) وحدة عشوائية (لكنها ثابتة) المتجه.

ثم

[
ح يسار ( frac { vec {t}} {| vec {t} |} right) = h ( vec {u})
]

ثابت لذلك يمكن أن تميل إلى (0 ) فقط إذا كانت تساوي (0، ) لذا (h ( vec {u}) = 0 ) لأي ناقل وحدة ( vec {u}. )

نظرًا لأن أي ( vec {x} in E ^ { prime} ) يمكن كتابته كـ ( vec {x} = | vec {x} | vec {u}، ) إنتاجية خطية

[
ح ( vec {x}) = | vec {x} | ح ( vec {u}) = 0.
]

وبالتالي (h = phi-g = 0 ) في (E ^ { prime} ، ) وهكذا ( phi = g ) بعد كل شيء ، مما يثبت تفرد ( phi. مربع ) )

نظرية ( PageIndex {2} )

إذا كان (f ) قابلاً للتفاضل في ( vec {p}، ) إذن

(i) (f ) مستمر عند ( vec {p} ) ؛

(ii) لأي ( vec {u} neq overrightarrow {0}، ) له ( vec {u} ) - مشتق موجه

[
D _ { vec {u}} f ( vec {p}) = d f ( vec {p}؛ vec {u}).
]

دليل

من خلال الافتراض ، فإن الصيغة ((2) ) تنطبق على ( phi = d f ( vec {p} ؛ cdot) ).

وبالتالي ، معطى ( varepsilon> 0 ، ) يوجد ( delta> 0 ) مثل الإعداد ( Delta f = f ( vec {p} + vec {t}) - f ( vec {p}) ) لدينا

[
frac {1} {| vec {t} |} | Delta f- phi ( vec {t}) | < varepsilon text {when} 0 <| vec {t} | < delta؛
]

أو بموجب قانون المثلث ،

[
| دلتا و | leq | Delta f- phi ( vec {t}) | + | phi ( vec {t}) | leq varepsilon | vec {t} | + | phi ( vec {t}) | ، quad 0 <| vec {t} | < delta.
]

الآن ، بالتعريف (1 ، phi ) خطي ومستمر ؛ وبالتالي

[
lim _ { vec {t} rightarrow overrightarrow {0}} | phi ( vec {t}) | = | phi ( overrightarrow {0}) | = 0.
]

وبالتالي ، عند إصلاح ( vec {t} rightarrow overrightarrow {0} ) في ((5) ، ) مع ( varepsilon ) ، نحصل على

[
lim _ { vec {t} rightarrow overrightarrow {0}} | Delta f | = 0.
]

نظرًا لأن ( vec {t} ) هو مجرد تدوين آخر لـ ( Delta vec {x} = vec {x} - vec {p}، ) فهذا يثبت التأكيد (i).

بعد ذلك ، أصلح أي ( vec {u} neq overrightarrow {0} ) في (E ^ { prime}، ) واستبدل (t vec {u} ) بـ ( vec { t} ) في ((4) ).

بمعنى آخر ، (t ) متغير حقيقي ، (0

بالضرب في (| vec {u} | ، ) نستخدم خطية ( phi ) للحصول على

[
varepsilon | vec {u} |> left | frac { Delta f} {t} - frac { phi (t vec {u})} {t} right | = left | frac { Delta f} {t} - phi ( vec {u}) right | = left | frac {f ( vec {p} + t vec {u}) - f ( vec {p })} {t} - phi ( vec {u}) right |.
]

نظرًا لأن ( varepsilon ) تعسفي ، فلدينا

[
phi ( vec {u}) = lim _ {t rightarrow 0} frac {1} {t} [f ( vec {p} + t vec {u}) - f ( vec {p })].
]

ولكن هذا ببساطة (D _ { vec {u}} f ( vec {p}) ، ) حسب التعريف 1 في §1.

وبالتالي (D _ { vec {u}} f ( vec {p}) = phi ( vec {u}) = df ( vec {p} ؛ vec {u}) ، ) إثبات ( ( mathrm {ii}). مربع )

ملاحظة 2. إذا كان (E ^ { prime} = E ^ {n} (C ^ {n}) ، ) توضح النظرية 2 (iii) أنه إذا كان (f ) قابلاً للتفاضل في ( vec {p}، ) يحتوي على (n ) الأجزاء

[D_ {k} f ( vec {p}) = df left ( vec {p}؛ vec {e} _ {k} right)، quad k = 1، ldots، n. ]

لكن العكس يفشل: إن وجود (D_ {k} f ( vec {p}) ) لا يعني حتى الاستمرارية ، ناهيك عن التفاضل (انظر الفقرة 1). علاوة على ذلك ، لدينا النتيجة التالية.

نتيجة طبيعية ( PageIndex {1} )

إذا كان (E ^ { prime} = E ^ {n} left (C ^ {n} right) ) وإذا كان (f: E ^ { prime} rightarrow E ) قابلاً للتفاضل في ( vec {p}، ) ثم

[df ( vec {p}؛ vec {t}) = sum_ {k = 1} ^ {n} t_ {k} D_ {k} f ( vec {p}) = sum_ {k = 1} ^ {n} t_ {k} frac { جزئي} { جزئي x_ {k}} f ( vec {p}) ، ]

حيث ( vec {t} = left (t_ {1}، ldots، t_ {n} right) ).

دليل

حسب التعريف ، ( phi = d f ( vec {p}؛ cdot) ) هي خريطة خطية لـ ( vec {p} ).

إذا كان (E ^ { prime} = E ^ {n} ) أو (C ^ {n} ، ) قد نستخدم الصيغة (3) من §2 ، مع استبدال (f ) و ( vec {x} ) بواسطة ( phi ) و ( vec {t}، ) واحصل على

[ phi ( vec {t}) = df ( vec {p}؛ vec {t}) = sum_ {k = 1} ^ {n} t_ {k} df left ( vec {p }؛ vec {e} _ {k} right) = sum_ {k = 1} ^ {n} t_ {k} D_ {k} f ( vec {p}) ]

بالملاحظة 2. ( رباعي مربع )

ملاحظة 3. في التدوين الكلاسيكي ، يكتب المرء ( Delta x_ {k} ) أو (d x_ {k} ) لـ (t_ {k} ) في (6). وبالتالي ، فإن حذف ( vec {p} ) و ( vec {t}، ) الصيغة (6) غالبًا ما تتم كتابته

[df = frac { جزئي f} { جزئي x_ {1}} d x_ {1} + frac { جزئي f} { جزئي x_ {2}} d x_ {2} + cdots + frac { جزئي f} { جزئي x_ {n}} d x_ {n}. ]

على وجه الخصوص ، إذا كتبنا (n = 3، ) (x، y، z ) لـ (x_ {1}، x_ {2}، x_ {3}. ) هذا ينتج

[d f = frac { جزئي f} { جزئي x} d x + frac { جزئي f} { جزئي y} d y + frac { جزئي f} { جزئي z} d z ]

(صيغة حساب التفاضل والتكامل مألوفة).

ملاحظة 4. إذا كانت مساحة النطاق (E ) في النتيجة الصحيحة 1 هي (E ^ {1} (C)، ) فإن (D_ {k} f ( vec {p}) ) تشكل (n ) - مضاعفة الحجميات ، أي متجه في (E ^ {n} (C ^ {n}). )

في حالة (f: E ^ {n} rightarrow E ^ {1}، ) نشير إليه بواسطة

[ nabla f ( vec {p}) = left (D_ {1} f ( vec {p}) ، ldots ، D_ {n} f ( vec {p}) right) = sum_ {k = 1} ^ {n} vec {e} _ {k} D_ {k} f ( vec {p}). ]

في حالة (f: C ^ {n} rightarrow C، ) نستبدل (D_ {k} f ( vec {p}) ) بمقارناتهم ( overline {D_ {k} f ( vec {p})} ) وتعيين

[ nabla f ( vec {p}) = sum_ {k = 1} ^ {n} vec {e} _ {k} overline {D_ {k} f ( vec {p})}. ]

المتجه ( nabla f ( vec {p}) ) يسمى تدرج (f ) ("grad (f )") في ( vec {p} ).

من (6) نحصل عليها

[df ( vec {p}؛ vec {t}) = sum_ {k = 1} ^ {n} t_ {k} D_ {k} f ( vec {p}) = vec {t} cdot nabla f ( vec {p}) ]

(منتج نقطي لـ ( vec {t} ) بواسطة ( nabla f ( vec {p})) ، ) مقدم (f: E ^ {n} rightarrow E ^ {1} ) ( أو (f: C ^ {n} rightarrow C) ) قابل للتفاضل في ( vec {p} ).

هذا يقودنا إلى النتيجة التالية.

نتيجة طبيعية ( PageIndex {2} )

دالة (f: E ^ {n} rightarrow E ^ {1} ) (أو (f: C ^ {n} rightarrow C )) قابلة للتفاضل في ( vec {p} ) iff

[ lim _ { vec {t} rightarrow overline {0}} frac {1} {| vec {t} |} | f ( vec {p} + vec {t}) - f ( vec {p}) - vec {t} cdot vec {v} | = 0 ]

بالنسبة للبعض ( vec {v} في E ^ {n} (C ^ {n}) ).

في هذه الحالة ، بالضرورة ( vec {v} = nabla f ( vec {p}) ) و ( vec {t} cdot vec {v} = df ( vec {p}؛ vec {t}) ، vec {t} in E ^ {n} (C ^ {n}) ).

دليل

إذا كان (f ) قابلاً للتفاضل في ( vec {p} ، ) فقد نقوم بتعيين ( phi = df ( vec {p}؛ cdot) ) و ( vec {v} = نبلة و ( vec {p}) )

ثم ب (7) ،

[ phi ( vec {t}) = d f ( vec {p}؛ vec {t}) = vec {t} cdot vec {v}؛ ]

لذلك من خلال التعريف 1 ، (8) النتائج.

بالمقابل ، إذا كان بعض ( vec {v} ) يرضي (8) ، فقم بتعيين ( phi ( vec {t}) = vec {t} cdot vec {v}. ) ثم (8) يعني (2) ، و ( phi ) خطي ومستمر.

وبالتالي ، بحكم التعريف ، (f ) قابل للتفاضل عند ( vec {p} ؛ ) لذلك (7) يحمل.

أيضًا ، ( phi ) دالة خطية على (E ^ {n} (C ^ {n}). ) حسب النظرية 2 (ii) في §2 ، the ( vec {v} ) في ( phi ( vec {t}) = vec {t} cdot vec {v} ) فريد ، كما هو ( phi. )

وبالتالي من خلال (7) ، ( vec {v} = nabla f ( vec {p}) ) بالضرورة. ( رباعي مربع )

النتيجة الطبيعية ( PageIndex {3} ) (قانون الوسط)

إذا كان (f: E ^ {n} rightarrow E ^ {1} ) (حقيقي) مستمرًا نسبيًا على جزء مغلق (L [ vec {p}، vec {q}]، vec {p } neq vec {q}، ) وقابلة للتفاضل على (L ( vec {p}، vec {q})، ) ثم

[f ( vec {q}) - f ( vec {p}) = ( vec {q} - vec {p}) cdot nabla f ( vec {x} _ {0}) ]

لبعض ( vec {x} _ {0} in L ( vec {p}، vec {q}) ).

دليل

يترك

[r = | vec {q} - vec {p} | ، quad vec {v} = frac {1} {r} ( vec {q} - vec {p}) ، text {and} r vec {v} = ( vec {q} - vec {p}). ]

بواسطة (7) والنظرية 2 (ii) ،

[D _ { vec {v}} f ( vec {x}) = df ( vec {x}؛ vec {v}) = vec {v} cdot nabla f ( vec {x} ) ]

من أجل ( vec {x} in L ( vec {p}، vec {q}). ) وبالتالي بواسطة الصيغة (3 ') من النتيجة الطبيعية 2 في §1 ،

[f ( vec {q}) - f ( vec {p}) = r D _ { vec {v}} f left ( vec {x} _ {0} right) = r vec { v} cdot nabla f ( vec {x} _ {0}) = ( vec {q} - vec {p}) cdot nabla f ( vec {x} _ {0}) ]

لبعض ( vec {x} _ {0} in L ( vec {p}، vec {q}). quad square )

كما نعلم ، فإن مجرد وجود الجزئيات لا يعني التفاضل. لكن وجود الجزئيات المستمرة. في الواقع ، لدينا النظرية التالية.

نظرية ( PageIndex {3} )

دع (E ^ { prime} = E ^ {n} (C ^ {n}) ).

إذا كان (f: E ^ { prime} rightarrow E ) يحتوي على مشتقات جزئية (D_ {k} f (k = 1، ldots، n) ) على كل مجموعة مفتوحة (A subseteq E ^ { prime}، ) وإذا كان (D_ {k} f ) مستمرًا عند بعض ( vec {p} in A، ) فإن (f ) قابل للتفاضل عند ( vec {p} ).

دليل

مع ( vec {p} ) على النحو الوارد أعلاه ، دعنا

[ phi ( vec {t}) = sum_ {k = 1} ^ {n} t_ {k} D_ {k} f ( vec {p}) text {with} vec {t} = sum_ {k = 1} ^ {n} t_ {k} vec {e} _ {k} in E ^ { prime}. ]

ثم ( phi ) مستمر (كثير الحدود!) وخطي (النتيجة الطبيعية 2 في §2).

وبالتالي من خلال التعريف 1 ، يبقى إظهار ذلك

[ lim _ { vec {t} rightarrow overrightarrow {0} | vec {t} |} | Delta f- phi ( vec {t}) | = 0؛ ]

هذا هو؛

[ lim _ { vec {t} in overrightarrow {0}} frac {1} {| vec {t} |} left | f ( vec {p} + vec {t}) -f ( vec {p}) - sum_ {k = 1} ^ {n} t_ {k} D_ {k} f ( vec {p}) right | = 0. ]

للقيام بذلك ، قم بإصلاح ( varepsilon> 0. ) حيث أن (A ) مفتوح و (D_ {k} f ) مستمر عند ( vec {p} in A ) هناك a ( delta> 0 ) مثل (G _ { vec {p}} ( delta) subseteq A ) وفي نفس الوقت (اشرح هذا!)

[( forall vec {x} in G _ { vec {p}} ( delta)) quad left | D_ {k} f ( vec {x}) - D_ {k} f ( vec {p}) right | < frac { varepsilon} {n}، k = 1، ldots، n. ]

وبالتالي لأي مجموعة (I subseteq G _ { vec {p}} ( delta) )

[ sup _ { vec {x} in I} left | D_ {k} f ( vec {x}) - D_ {k} f ( vec {p}) right | leq frac { varepsilon} {n}. رباعي (لماذا؟) ]

الآن أصلح أي ( vec {t} in E ^ { prime}، 0 <| vec {t} | < delta، ) ودع ( vec {p} _ {0} = vec {ع} ) ،

[ vec {p} _ {k} = vec {p} + sum_ {i = 1} ^ {k} t_ {i} e_ {i}، quad k = 1، ldots، n. ]

ثم

[ vec {p} _ {n} = vec {p} + sum_ {i = 1} ^ {n} t_ {i} vec {e} _ {i} = vec {p} + vec {t}، ]

( left | vec {p} _ {k} - vec {p} _ {k-1} right | = left | t_ {k} right |، ) وجميع ( vec { p} _ {k} ) تقع في (G _ { vec {p}} ( delta) ، ) من أجل

[ left | vec {p} _ {k} - vec {p} right | = left | sum_ {i = 1} ^ {k} t_ {i} e_ {i} right | = sqrt { sum_ {i = 1} ^ {k} left | t_ {i} right | ^ {2}} leq sqrt { sum_ {i = 1} ^ {n} left | t_ { i} right | ^ {2}} = | vec {t} | < delta، ]

كما هو مطلوب.

نظرًا لأن (G_ {p} ( delta) ) محدب (الفصل 4 ، §9) ، فإن المقاطع (I_ {k} = L left [ vec {p} _ {k-1}، vec {p} _ {k} right] ) كلها تقع في (G _ { vec {p}} ( delta) subseteq A؛ ) وبافتراض أن (f ) به جميع الأجزاء.

ومن ثم ، وفقًا للنظرية 1 في الفقرة 1 ، يكون (f ) مستمرًا نسبيًا على (I_ {k} ).

كل هذا ينطبق أيضًا على الدوال (g_ {k}، ) المحددة بواسطة

[ left ( forall vec {x} in E ^ { prime} right) quad g_ {k} ( vec {x}) = f ( vec {x}) - x_ {k} D_ {k} f ( vec {p})، quad k = 1، ldots، n. ]

(لماذا هنا

[D_ {k} g_ {k} ( vec {x}) = D_ {k} f ( vec {x}) - D_ {k} f ( vec {p}). ]

(لماذا؟)

وهكذا من خلال النتيجة الطبيعية 2 في (1) و (11) أعلاه ،

[ start {align} left | g_ {k} left ( vec {p} _ {k} right) -g_ {k} left ( vec {p} _ {k-1} right ) حق | & leq left | vec {p} _ {k} - vec {p} _ {k-1} right | sup _ {x in I_ {k}} left | D_ {k} f ( vec {x}) - D_ {k} f ( vec {p}) right | & leq frac { varepsilon} {n} left | t_ {k} right | leq frac { varepsilon} {n} | vec {t} | ، end {align} ]

حيث

[ left | vec {p} _ {k} - vec {p} _ {k-1} right | = left | t_ {k} vec {e} _ {k} right | leq | vec {t} | ، ]

عن طريق البناء.

ادمج مع (12) ، مع تذكر أن إحداثيات (k ) th (x_ {k}، ) لـ ( vec {p} _ {k} ) و ( vec {p} _ {k -1} ) تختلف بـ (t_ {k}؛ ) لذلك نحصل عليها

[ start {align} left | g_ {k} left ( vec {p} _ {k} right) -g_ {k} left ( vec {p} _ {k-1} right ) حق | & = left | f left ( vec {p} _ {k} right) -f left ( vec {p} _ {k-1} right) -t_ {k} D_ {k} f ( vec {p}) حق | & leq frac { varepsilon} {n} | vec {t} |. نهاية {محاذاة} ]

أيضا،

[ start {align} sum_ {k = 1} ^ {n} left [f left ( vec {p} _ {k} right) -f left ( vec {p} _ {k -1} right) right] & = f left ( vec {p} _ {n} right) -f left ( vec {p} _ {0} right) & = f ( vec {p} + vec {t}) - f ( vec {p}) = Delta f ( text {see above}). نهاية {محاذاة} ]

هكذا،

[ start {align} left | Delta f- sum_ {k = 1} ^ {n} t_ {k} D_ {k} f ( vec {p}) right | & = left | sum_ {k = 1} ^ {n} left [f left ( vec {p} _ {k} right) -f left ( vec {p} _ {k-1 } right) -t_ {k} D_ {k} f ( vec {p}) right] right | & leq n cdot frac { varepsilon} {n} | vec {t} | = varepsilon | vec {t} |. نهاية {محاذاة} ]

بما أن ( varepsilon ) تعسفي ، يتبعه (10) ، وقد تم إثبات كل شيء. ( رباعي مربع )

نظرية ( PageIndex {4} )

إذا كان (f: E ^ {n} rightarrow E ^ {m} ) (أو (f: C ^ {n} rightarrow C ^ {m}) ) قابلاً للتفاضل في ( vec {p} ، ) مع (f = left (f_ {1}، ldots، f_ {m} right)، ) ثم ( left [f ^ { prime} ( vec {p}) right ] ) عبارة عن مصفوفة (م مرات n ) ،

[ left [f ^ { prime} ( vec {p}) right] = left [D_ {k} f_ {i} ( vec {p}) right]، quad i = 1، ldots، m، k = 1، ldots، n. ]

دليل

حسب التعريف ، ( left [f ^ { prime} ( vec {p}) right] ) هي مصفوفة الخريطة الخطية ( phi = df ( vec {p}؛ cdot) ، ) ( phi = left ( phi_ {1} ، ldots ، phi_ {m} right). ) هنا

[ phi ( vec {t}) = sum_ {k = 1} ^ {n} t_ {k} D_ {k} f ( vec {p}) ]

بواسطة Corollary 1.

كما (f = left (f_ {1} ، ldots ، f_ {m} right) ، ) يمكننا حساب (D_ {k} f ( vec {p}) ) بطريقة مكونة من خلال النظرية 5 من للحصول على الفصل 5 ، §1 ، والملاحظة 2 في §1

[ start {align} D_ {k} f ( vec {p}) & = left (D_ {k} f_ {1} ( vec {p})، ldots، D_ {k} f_ {m } ( vec {p}) right) & = sum_ {i = 1} ^ {m} e_ {i} ^ { prime} D_ {k} f_ {i} ( vec {p}) ، quad k = 1، 2، ldots، n، end {align} ]

حيث (e_ {i} ^ { prime} ) هي المتجهات الأساسية في (E ^ {m} left (C ^ {m} right). ) (تذكر أن ( vec { e} _ {k} ) هي المتجهات الأساسية في (E ^ {n} left (C ^ {n} right).) )

هكذا

[ phi ( vec {t}) = sum_ {i = 1} ^ {m} e_ {i} ^ { prime} phi_ {i} ( vec {t}). ]

أيضا،

[ phi ( vec {t}) = sum_ {k = 1} ^ {n} t_ {k} sum_ {i = 1} ^ {m} e_ {i} ^ { prime} D_ {k } f_ {i} ( vec {p}) = sum_ {i = 1} ^ {m} e_ {i} ^ { prime} sum_ {k = 1} ^ {n} t_ {k} D_ { ك} و_ {i} ( vec {p}). ]

ينتج الآن تفرد التحلل (النظرية 2 في الفصل 3 ، §1-3)

[ phi_ {i} ( vec {t}) = sum_ {k = 1} ^ {n} t_ {k} D_ {k} f_ {i} ( vec {p}) ، quad i = 1 ، ldots ، m ، quad vec {t} in E ^ {n} left (C ^ {n} right). ]

إذا كان هنا ( vec {t} = vec {e} _ {k}، ) ثم (t_ {k} = 1، ) بينما (t_ {j} = 0 ) لـ (j neq k. ) وهكذا نحصل عليها

[ phi_ {i} left ( vec {e} _ {k} right) = D_ {k} f_ {i} ( vec {p}) ، quad i = 1 ، ldots ، m ، ك = 1 ، ldots ، n. ]

لذلك،

[ phi left ( vec {e} _ {k} right) = left (v_ {1 k}، v_ {2 k}، ldots، v_ {m k} right)، ]

أين

[v_ {i k} = phi_ {i} left ( vec {e} _ {k} right) = D_ {k} f_ {i} ( vec {p}). ]

ولكن من خلال الملاحظة 3 من §2 ، (v_ {1 k} ، ldots ، v_ {mk} ) (مكتوب عموديًا) هو (k ) العمود الخامس من (m times n ) المصفوفة ([ phi] = left [f ^ { prime} ( vec {p}) right]. ) وبالتالي فإن الصيغة (14) نتائج بالفعل. ( رباعي مربع )

في الختام ، دعونا نؤكد مرة أخرى أنه بينما (D _ { vec {u}} f ( vec {p}) ) ثابت ، من أجل ( vec {p} ، df ( vec {p } ؛ cdot) ) هو تعيين

[ phi in L left (E ^ { prime} ، E right) ، ]

خاصة "مصممة" لـ ( vec {p} ).

يجب على القارئ أن يدرس بعناية على الأقل مشاكل "الأسهم" أدناه.


STPM الرياضيات الإضافية T

في Maths T ، تعلمت بالفعل كيفية إثبات ما إذا كانت الوظيفة مستمرة. أنت الآن بحاجة إلى معرفة العلاقة بين الاستمرارية والتفاضل.

أ دالة قابلة للتفاضل يجب أن تكون مستمرة ، لكنها لا تعني أن أ وظيفة مستمرة قابل للتفاضل. باستخدام الافتراضات المنطقية ، فهذا يعني أنه إذا كانت f (x) قابلة للاشتقاق ، فإنها تكون متصلة ، ولكن ليس العكس. عادة ، يحدث عدم التفاضل في الرسوم البيانية ذات

1. ركن 2. خط مماس عمودي

3. انقطاع 4. في نقاط النهاية

بالنسبة للوظائف المحددة بالقطعة ، من السهل معرفة ما إذا كانت الوظيفة قابلة للتفاضل في المفاصل. إذا كانت المفاصل لها تدرجات مختلفة للوظائف الفرعية المختلفة ، فمن المؤكد أنها غير قابلة للتمييز. ومع ذلك ، يجب أن يكون هناك تعريف رسمي للتفاضل. لعدد أ في مجال الوظيفة Fنقول ذلك F قابل للتفاضل في أ ، أو أن مشتقات F موجود في أ إذا

يمكنك المضي قدمًا لإثبات أن كلا الصيغتين هما في الواقع نفس الشيء. بالطبع ، التفاضل لا يقتصر على النقاط فقط. يمكننا أيضًا أن نقول إن الدالة قابلة للاشتقاق على فترة (أ ، ب) أو قابلة للتفاضل في كل مكان ، (-∞, +∞). سأعطيكم مثالاً واحداً:

أثبت أن f (x) = | x | غير قابل للاشتقاق عند x = 0.

إذن ، f (x) = | x | غير قابل للاشتقاق عند x = 0. [مثبت]

يمكن استخدام هاتين الصيغتين في مواقف مختلفة ، لذلك إذا لم يعمل أحدهما & # 8217t ، فاستخدم الأخرى. التفاضل ليس سؤالًا شائعًا في STPM ، ولكن لا يزال بإمكانك الاستفادة من هذه المعلومات المهمة. & # 9786


6.3: وظائف مختلفة

оличество зарегистрированных учащихся: 38 سنة.

الغرض من هذا المقرر الدراسي هو تزويد الطلاب بالمعرفة النظرية والمهارات العملية اللازمة لتحليل النظم الديناميكية العشوائية في الاقتصاد والهندسة وغيرها من المجالات. بتعبير أدق ، الأهداف هي 1. دراسة المفاهيم الأساسية لنظرية العمليات العشوائية 2. إدخال أهم أنواع العمليات العشوائية 3. دراسة خصائص وخصائص العمليات المختلفة 4. دراسة طرق الوصف والتحليل نماذج عشوائية معقدة. المهارات العملية المكتسبة خلال عملية الدراسة: 1. فهم أهم أنواع العمليات العشوائية (بواسون ، ماركوف ، غاوسيان ، وينر وغيرها) والقدرة على إيجاد العملية الأنسب للنمذجة في مواقف معينة تنشأ في الاقتصاد والهندسة و مجالات أخرى 2. فهم مفاهيم الجاذبية ، والثبات ، وتطبيق التكامل العشوائي لهذه المصطلحات في سياق الرياضيات المالية من المفترض أن الطلاب على دراية بأساسيات نظرية الاحتمالات. معرفة أساسيات الإحصاء الرياضي ليست مطلوبة ، لكنها تبسط فهم هذه الدورة. يوفر المساق الأساس النظري الضروري لدراسة دورات أخرى في الاستوكاستك ، مثل الرياضيات المالية ، والتمويل الكمي ، والنمذجة العشوائية ، ونظرية العمليات من نوع القفز. هل لديك مشاكل فنية؟ اكتب إلينا: [email protected]

Рецензии

كان هذا مفيدًا ولكني ما زلت أشعر أنني لا أفهم العمليات العشوائية. يجب أن يعرف الأشخاص الذين يأخذون هذه الدورة أنها & # x27s صعبة جدًا ، مقارنة بمعظم دورات كورسيرا.

دورة رائعة! تمت تغطية مادة الموضوع جيدًا وأعطتني الأدوات اللازمة لمعالجة مؤشر ستوكاستيك أكثر تقدمًا ، مثل ديناميكيات السكان أو التمويل الكمي.

الأسبوع السادس: الإرغودية ، التفاضل ، الاستمرارية

عند الانتهاء من هذا الأسبوع ، سيكون المتعلم قادرًا على تحديد ما إذا كانت عملية عشوائية معينة قابلة للتفاضل وتطبيق مصطلح الاستمرارية والجودة على العمليات العشوائية

Реподаватели

فلاديمير بانوف

Екст видео

والآن ، أود أن أقدم فكرة المشتق العشوائي ، والتي تنص على أن العملية العشوائية Xt قابلة للاشتقاق كنقطة t تساوي t0 في حالة وجود التعارض التالي. لذلك ، نأخذ Xt0 زائد h ناقص Xt0 نقسم هذا الاختلاف على h ، ثم نعتبر حد هذا التعبير حيث ينتقل H إلى 0 كوسيلة للحس القسري ، وإذا كان هذا الحد موجودًا ويساوي بعض المتغير العشوائي eta ، لذلك أنا قد نقول هو أن eta مشتق من العملية Xt كنقطة t يساوي t0. وسأشير إلى هذه المشتقة على أنها Xt0 شرطة. حسنًا ، أعتقد أن هذا التعريف واضح تمامًا. مرة أخرى ، تعني هذه التحويلات أن التوقع الرياضي لـ Xt0 زائد H ناقص Xt0 مقسومًا على H ناقص eta تربيع يتقارب إلى 0 حيث يذهب H إلى 0. ويكتمل اقتراح الطول الكامل ، ويميز هذا التعريف من حيث التوقع الرياضي كدالة تغاير . الاقتراح التالي يحمل. دعني أفترض أن عملية Xt لها لحظة محدودة. هذا التوقع الرياضي لـ Xt تربيع محدود. بعد ذلك ، تكون هذه العملية Xt قابلة للتفاضل في الوقت الحالي t يساوي t0 ، إذا وفقط إذا كان الشرطان التاليان قائمين. الشرط الأول أن التوقع الطبي قابل للاشتقاق باعتباره لحظة t تساوي t0 ، والشرط الثاني هو وجود مشتق مختلط وفقًا لـ dt و ds لدالة التغاير. يجب أن يوجد هذا المشتق المختلط أيضًا عند النقطة t0 ، t0. مرة أخرى ، تكون الوظيفة قابلة للتفاضل إذا وفقط إذا تم استيفاء كلا الشرطين. اسمحوا لي أن أقدم بعض الأمثلة. بادئ ذي بدء ، دعني أفترض أن العملية Xt هي عملية ثابتة أسبوعية. هذا يعني أن التوقع الرياضي ثابت. ودالة التغاير تساوي دالة التغاير الذاتي والعزم t ناقص s. يتحقق الشرط الأول من هذا الطرح بالتأكيد لأن الثابت دالة قابلة للتفاضل. أما بالنسبة للمشتق الثاني ، فقد اتضح أن المشتق الثاني للدالة K له لحظة t0 ، و t0 يساوي مشتق ناقص الثاني من دالة جاما كنقطة صفر. لذلك يمكن أن تختلف هذه الحالة من ذات الصلة على النحو التالي. تكون العملية الأسبوعية الثابتة قابلة للتفاضل إذا كنت فقط إذا كان المشتق الثاني من دالة التغاير التلقائي موجودًا كنقطة صفر. في بعض الحالات ، يوجد المشتق الثاني ، وفي بعض الحالات لا يوجد. اسمحوا لي أن أقدم بعض الأمثلة. على سبيل المثال ، هناك & # x27s عملية Xt بحيث تكون دالة التغاير التلقائي & # x27s مساوية للأس في القوة ناقص alpha f وبالتالي فهي قيمة r. لذا فإن العملية Xt غير قابلة للاشتقاق لأن المشتق الثاني لهذه الوظيفة بالإضافة إلى المشتق الأول هو أن هذه الدالة صفر غير موجودة & # x27t. لذلك في هذه الحالة Xt غير قابل للتفاضل. مثال آخر ، إذا كانت جاما لـ r تساوي جيب التمام لـ r. هذه الدالة قابلة للاشتقاق عند الصفر ، وأيضًا لأن المشتق الثاني موجود. وبالتالي ، في هذه الحالة ، فإن العملية المقابلة Xt قابلة للاشتقاق. أعني هنا تفاضل في أي وقت ر. هذا هو المثال الأول. اسمحوا لي أن أقدم بعض الأمثلة الأخرى. المثال الثاني هو الحركة البراونية. اتضح أن الحركة البراونية لا يمكن تمييزها في أي وقت. كيف تظهر هذا؟ كما تعلم ، فإن دالة التغاير أو الحركة البراونية تساوي الحد الأدنى بين الوسيطتين. وبالتالي ، يجب أن أوضح أن هذا المشتق المختلط غير موجود & # x27t. كيف يظهر هذا؟ حسنًا ، هذه مجرد دالة من وسيطين. واسمحوا لي أن أبني الشيء التالي. سأأخذ الدالة K عند t0 زائد h ، t0 ناقص K عند t0 ، t0 مقسومًا على h. هذا الكائن يساوي الحد الأدنى بين t0 و t0 زائد H ناقص t0 على h. بعد ذلك ، هذا التعبير يساوي صفرًا إذا كانت h موجبة. لأنه في هذه الحالة ، لديك هذا الحد الأدنى يساوي t0 ، وبالتالي ، فإن t0 ناقص t0 يساوي صفرًا. وبخلاف ذلك ، إذا كانت h أقل من صفر ، فلدينا هنا t0 زائد h ناقص t0 ونحصل على h ثم نقسمها على h ونحصل على واحد. إذن ، إذا تحول h إلى صفر ، فإن هذه النهاية تساوي صفرًا أو أن واحدًا بالاعتماد على صفر h يكون أصغر من صفر. إذن فالحد عندما يذهب h إلى الصفر لا يوجد على الإطلاق & # x27t. تمام. لذلك حصلنا على أن الدالة K غير قابلة للاشتقاق في أي نقطة t0 ، t0 ، وبالتالي ، فإن الحركة البراونية غير موجودة & # x27t. حسنًا ، هذا مثال نموذجي جدًا فقط بسبب الموقف التالي. في الواقع ، إذا كانت Xt هي أي عملية بزيادات مستقلة ، والتي تأخذ القيمة صفر عند الصفر ، فإن دالة التغاير لهذه العملية تساوي متغيرات X في اللحظة الزمنية الدنيا بين t و s. لذلك ، فإن معظم خصائص هذا النوع غير قابلة للتفاضل. بالطبع ، يمكن للمرء أن يبني مثالًا مضادًا عندما تتباين العبارات كثابت. في هذه الحالة ، ستكون هذه العملية قابلة للتفاضل ، لكن هذا يشبه الحالة المتدهورة. الموقف الأكثر شيوعًا عندما تعتمد المتغيرات على الحد الأدنى بين t و s. وبالتالي ، فإن دالة التغاير & # x27s غير قابلة للاشتقاق. لا يوجد مشتق مختلط لوظيفة التغاير ، وبالتالي وفقًا لهذا الاقتراح ، فإن المراسلات مع عملية Xt غير قابلة للتفاضل. اسمحوا لي أن أوضح لماذا تصمد هذه الصيغة. هذا تمرين بسيط للغاية لأن دالة التغاير تساوي التغاير بين Xt و Xs وتتحدى الإضافة البشرية ، وهي أن t أكبر من s يمكن أن تمثل هذا التباين على النحو التالي. هذا التباين بين Xt ناقص Xs و Xs بالإضافة إلى التغاير بين Xs و Xs. وبما أن X0 تساوي صفرًا بشكل شبه مؤكد ، يمكننا أن نتخيل أنه ليس لدينا هنا Xs ، ولكن Xs ناقص X0. وبالتالي ، ما لدينا هنا أساسًا هو زيادتان أو العملية Xt فيما يتعلق بالفواصل الزمنية غير المقبولة. وبالتالي فإن هذا التغاير يساوي صفرًا. وفيما يتعلق بالمجمل الثاني ، هذا التباين بين Xs و Xs ، فهو يساوي بالتعريف متغيرات Xs. وإذا أخذنا في الحسبان أننا افترضنا أن t أكبر من s ، فيمكنك بسهولة استنتاج أنه بشكل عام ، سيكون لديك هنا متغيرات من X كحد أدنى للحظة بين t و s. إذن هذه الصيغة صحيحة بالفعل ، وبالتالي ، كما قلت ، عمليات من هذا النوع عادةً ما تكون غير قابلة للاشتقاق. وهذا بالضبط أحد الاختلافات الجوهرية بين العمليات العشوائية والوظائف ذات القيمة الحقيقية. نظرًا لأن معظم الوظائف جيدة الاستخدام أو معظمها قابلة للتفاضل ، وهي نظرية للعمليات العشوائية ، ومعظم العمليات بالإضافة إلى عمليات التسمية القديمة ، في هذه المرحلة يبدو أنها فرق أساسي بين الوظائف ذات القيمة الحقيقية والصلة العشوائية العمليات. لأنه كما تعلم ، فإن معظم الوظائف ، وظائف [غير مسموع] قابلة للتفاضل. دعني أقول ، معظم الوظائف الجيدة أو الأكثر استخدامًا قابلة للتفاضل. وفي العمليات العشوائية ، معظم العمليات على سبيل المثال ، لا يمكن تمييز جميع عمليات التسمية تقريبًا.


تحليل حقيقي تفاعلي

في وضعنا ، ستلعب هذه الوظائف دورًا ثانويًا إلى حد ما وسنقوم فقط بمراجعة الموضوعات الرئيسية لتلك النظرية بإيجاز. كالعادة ، ستكون البراهين هي نقطة تركيزنا ، بدلاً من تقنيات التفاضل كما هو الحال في التفاضل والتكامل.

أولاً ، سنبدأ بتعريف المشتق.

  • أوجد مشتق f (x) = x و f (x) = 1 / x.
  • أوجد مشتق
  • أوجد مشتق
  • لماذا قد لا يكون تعريفنا الأصلي للتفاضل مناسبًا لوظائف ، على سبيل المثال ، متغيرين أو ثلاثة متغيرات حقيقية؟
  • استخدم توصيف التفاضل عن طريق التقريب بواسطة الدوال الخطية لتعريف مفهوم "المشتق" لوظائف n من المتغيرات الحقيقية.
نظرية 6.5.5: التفاضل والاستمرارية
إذا F قابل للتفاضل عند نقطة معينة ج، ومن بعد F مستمر في تلك النقطة ج. والعكس ليس صحيحا.
  • الدالة f (x) = | x | مستمر في كل مكان. هل هي أيضا قابلة للتفاضل في كل مكان؟
  • الدالة f (x) = x sin (1 / x) مستمرة في كل مكان باستثناء x = 0 ، حيث يوجد انقطاع قابل للإزالة. إذا تم تمديد الدالة بشكل مناسب لتكون متصلة عند x = 0 ، فهل يمكن اشتقاقها عند x = 0؟
  • الدالة f (x) = x 2 sin (1 / x) لها انقطاع قابل للإزالة عند x = 0. إذا تم تمديد الوظيفة بشكل مناسب لتكون متصلة عند x = 0 ، فهل يمكن تفاضلها عند x = 0؟
  • قاعدة الجمع: إذا كانت f و g قابلة للتفاضل عند x = c ، فإن f (x) + g (x) قابلة للتفاضل عند x = c ، و
    • (f (x) + g (x)) = f '(x) + g' (x)
    • (f (x) g (x)) = f '(x) g (x) + f (x) g' (x)
    • (f (x) / g (x)) =
    • f (g (x)) = f '(g (x)) g' (x)
    نظرية 6.5.8: نظرية رول
    إذا F مستمر على [أ ، ب] وقابل للتفاضل في (أ ، ب)، و و (أ) = و (ب) = 0، ثم يوجد رقم x في (أ ، ب) مثل ذلك و '(س) = 0.

    إذا F و ز مستمرة على [أ ، ب] وقابل للتفاضل في (أ ، ب) و ز '(س) # 0 في (أ ، ب) ثم يوجد رقم ج في (أ ، ب) مثل ذلك

    • هل تنطبق نظرية رول على المعرفة في (-3 ، 3)؟ إذا كان الأمر كذلك ، فابحث عن الرقم الذي تضمنه النظرية.
    • أثبت أنه إذا كانت f قابلة للتفاضل في R و | و '(x) | M لكل x ، ثم | و (س) - و (ص) | م | س - ص | لجميع الأعداد س ، ص. الوظائف التي تحقق مثل هذا التفاوت تسمى دوال ليبشيتز.
    • استخدم نظرية القيمة المتوسطة لإظهار ذلك
    1. إذا كان هناك حي U من c مع f (c) f (x) لجميع x في U ، فإن f (c) تسمى الحد الأقصى المحلي للدالة f التي تحدث عند x = c.
    2. إذا كان هناك حي U من c مع f (c) f (x) لجميع x في U ، فإن f (c) تسمى الحد الأدنى المحلي للدالة f التي تحدث عند x = c.
    3. إذا كانت f (x) تحتوي إما على حد أدنى محلي أو حد أقصى محلي عند x = c ، فإن f (c) تسمى الحد الأقصى المحلي للدالة f.
    • إذا كانت f قابلة للاشتقاق على (أ ، ب) ، و f لها قيمة قصوى محلية عند x = c ، فإن f '(c) = 0.
    • إذا كانت f '(x) & gt 0 في (a، b) فإن f تتزايد في (a، b).
    • إذا كانت f '(x) & lt 0 في (أ ، ب) فإن f تتناقص في (أ ، ب).
      لوك. الأعلى
      فترة(أ ، ج)(ج ، ب)
      علامة f '(x)+-
      دير. من f (x)فوقتحت
      لوك. دقيقة
      فترة(أ ، ج)(ج ، ب)
      علامة f '(x)-+
      دير. من f (x)تحتفوق
      لا اكستريموم
      فترة(أ ، ج)(ج ، ب)
      علامة f '(x)++
      دير. من f (x)فوقفوق
      لا اكستريموم
      فترة(أ ، ج)(ج ، ب)
      علامة f '(x)--
      دير. من f (x)تحتتحت
    1. إذا كانت f '(c) = 0 و f' (x) & gt 0 في (a، x) و f '(x) & lt 0 on (x، b) ، فإن f (c) هي قيمة قصوى محلية.
    2. إذا كانت f '(c) = 0 و f' (x) & lt 0 في (a، x) و f '(x) & gt 0 on (x، b) ، فإن f (c) هي قيمة دنيا محلية.
    • إذا كانت f (x) = x 3 -2 x 2 ، فأوجد كل القيم القصوى المحلية.
    • إذا كانت f (x) = | 1 - × 2 | ، ثم أوجد كل القيم القصوى النسبية.

    There are other situations where l'Hospital's rule may apply, but often expressions can be rewritten so that one of these two cases will apply.


    Teaching Calculus

    Jean Gaston Darboux
    1842 – 1917

    Jean Gaston Darboux was a French mathematician who lived from 1842 to 1917. Of his several important theorems the one we will consider says that the derivative of a function has the Intermediate Value Theorem property – that is, the derivative takes on all the values between the values of the derivative at the endpoints of the interval under consideration.

    Darboux’s Theorem is easy to understand and prove, but is not usually included in a first-year calculus course (and is not included on the AP exams). Its use is in the more detailed study of functions in a real analysis course.

    You may want to use this as enrichment topic in your calculus course, or a topic for a little deeper investigation. The ideas here are certainly within the range of what first-year calculus students should be able to follow. They relate closely to the Mean Value Theorem (MVT). I will suggest some ideas (in blue) to consider along the way.

    More precisely Darboux’s theorem says that

    إذا F is differentiable on the closed interval [a, b] and ص is any number between f ’ (أ) و f ’ (ب), then there exists a number ج in the open interval (a, b) such that F ‘ (ج) = r.

    Differentiable on a مغلق interval?

    Most theorems in beginning calculus require only that the function be differentiable on an open interval. Here, obviously, we need a closed interval so that there will be values of the derivative for ص to be between.

    The limit definition of derivative requires a regular two-sided limit to exist at the endpoint of an interval there is only one side. For most theorems this is enough. Here the definition of derivative must be extended to allow one-sided limits as x approaches the endpoint values from inside the interval. Also note that if a function is differentiable on (a, b), then it is differentiable on any closed sub-interval of (a, b) that does not include أ أو ب.

    Geometric proof [1]

    Consider the diagram below, which shows a function in blue. At each endpoint draw a line with the slope of ص. Notice that these two lines have a slope less than that of the function at the left end and greater than the slope at the right end. At least one of these lines must intersect the function at an interior point of the interval. Before reading on, see if you and your students can complete the proof from here. (Hint: What theorem does the top half of the figure remind you of?)

    On the interval between the intersection point and the end point we can apply the Mean Value Theorem and determine the value of ج where the tangent line will be parallel to the line through the endpoint. At this point F ‘(c) = r. Q.E.D.

    Analytic Proof [2]

    Consider the function . حيث F(x) is differentiable, it is continuous is also continuous and differentiable. لذلك، ح(x) is continuous and differentiable on [أ, ب]. By the Extreme Value Theorem, there must be a point, x = ج, in the open interval (أ, ب) أين ح(x) has an extreme value. At this point h’ (ج) = 0.

    Before reading on see if you can complete the proof from here.

    Exercise: Compare and contrast the two proofs.

    1. In the geometric proof, what does represent? Where does it show up in the diagram?
    2. How do both proofs relate to the Mean Value Theorem (or Rolle’s Theorem).

    The function represents the vertical distance from F(x) to . In the diagram, this is a vertical segment connecting F(x) to .This expression may be positive, negative, or zero. In the diagram, at the point(s) where the line through the right endpoint intersects the curve and at the endpoint ح(x) = 0. Therefore, ح(x) meets the hypotheses of Rolle’s Theorem (and the MVT), and the result follows.

    The line through the right endpoint will have equation the This makes . When differentiated and the result will be the same expression as in the analytic proof.

    Also, you may move this line upwards parallel to its original position and eventually it will be tangent to the graph of the function. (See my posts on MVT 1 and especially MVT 2).

    1. On the interval [1,3] what values of the derivative of F are guaranteed by Darboux’s Theorem? .
    2. Does Darboux’s theorem guarantee any value on the interval ? لما و لما لا؟
    1. F ‘(x) = cos(x). F ‘ (1) = 0.54030 and F ‘ (3) = -0.98999. So the guaranteed values are from -0.98999 to 0.54030.
    2. No. F ‘ (x) = 1 at both endpoints, so there are no values between one and one.

    Another interesting aspect of Darboux’s Theorem is that there is no requirement that the derivative F ‘(x) be continuous!

    The common example of such a function is

    This function (which has appeared on the AP exams) is differentiable (and therefore continuous).There is an oscillating discontinuity at the origin. The derivative is not continuous at the origin. Yet, every interval containing the origin as an interior point meets the conditions of Darboux’s Theorem, so the derivative while not continuous has the intermediate value property.

    AP exam question 1999 AB3/BC3 part c:

    Finally, what inspired this post was a recent discussion on the AP Calculus Community bulletin board about the AP exam question 1999 AB3/BC3 part c. This question gave a table of values for the rate, ص, at which water was flowing out of a pipe as a differentiable function of time ر. The question asked if there was a time when R’ (ر) = 0. It was expected that students would use Rolle’s Theorem or the MVT. There was a discussion about using Darboux’s theorem, or saying something like the derivative increased (or was positive), then decreased (was negative) so somewhere the derivative must be zero (implying that derivative had the intermediate value property). Luckily, no one tried this approach so it was a moot point.

    Take a look at the problem with your students and see if you can use Darboux’s theorem. Be sure the hypotheses are met.

    Answer (try it yourself before reading on):

    The function is not differentiable at the endpoints. But consider an interval like [0,3]. Using the given values in the table, by the MVT there is a time t = c أين ص‘(ج) = 0.8/3 > 0, and there is a time ر = d on the interval [21, 24] where ص‘(د) = -0.6/3 < 0. The function is differentiable on the closed interval [c, d] so by Darboux’s Theorem there must exist a time when ص’(ر) = 0. Admittedly, this is a bit of overkill.


    Problem 6: Table of Derivatives

    Two functions, F(x) و g(x), are continuous and differentiable for all real numbers. Some values of the functions and their derivatives are given in the following table.

    Based on that glorious table, calculate the following:

    حل:

    (a) Take the derivative of each function separately (the derivative of a sum is equal to sum of its derivatives) and plug in 4 to each to get your answer. Reference the chart for the values of f ‘(4) andز(4).

    (b) This time you have to use the Product Rule, because F(x) و ز(x) are multiplied. Once again, after you apply the derivative rule, just nab the needed function and derivative values from the chart.

    (c) This time it’s the Quotient Rule that has to be applied.

    (d) How about a big, warm welcome for the Chain Rule! Remember, you apply the Chain Rule when one function is composed with (inside of) another. To differentiate, take the derivative of the outer functionF(x) while leaving ز(x) alone inside F(x). Then multiply by the derivative of ز(x).


    6 . 5 Using lookup-tables

    The result of an [language=Python]interpolant call is a CasADi Function object that is differentiable, and can be embedded into CasADi computational graphs by calling with MX arguments. Furthermore, C code generation is fully supported for such graphs.

    Currently, two plugins exist for [language=Python]interpolant: 'linear' and 'bspline' . They are intended to behave simiarly to MATLAB/Octave's interpn with the method set to 'linear' or 'spline' - corresponding to a multilinear interpolation and a (by default cubic) spline interpolation with not-a-knot boundary conditions.

    In the case of bspline , coefficients will be sought at construction time that fit the provided data. Alternatively, you may also use the more low-level Function.bspline to supply the coefficients yourself. The default degree of the bspline is 3 in each dimension. You may deviate from this default by passing a degree option.

    We will walk through the syntax of interpolant for the 1D and 2D versions, but the syntax in fact generalizes to an arbitrary number of dimensions.

    In MATLAB/Octave, the corresponding code reads:

    Note in particular that the [language=Python]grid and [language=Python]values arguments to interpolant must be numerical in nature.

    or, in MATLAB/Octave compared to the built-in functions:

    In particular note how the values argument had to be flatten to a one-dimensional array.


    الأساليب الرياضية للنظرية الاقتصادية

    Consider, for example, a firm that can produce output with a single input using the production function F. The standard theory is that the firm chooses the amount x of the input to maximize its profit صF(x) − ثx، أين ص is the price of output and ث is the price of the input. Denote by x*(ث, ص) the optimal amount of the input when the prices are ث و ص. An economically interesting question is: how does the firm's maximal profit صF(x*(ث, ص)) − ثx*(ث, ص) depend upon ص?

    We have already answered this question in an earlier example. To do so, we used the chain rule to differentiate صF(x*(ث, ص)) − ثx*(ث, ص) with respect to ص, yielding

    That is, the fact that the value of the variable satisfies the first-order condition allows us to dramatically simplify the expression for the derivative of the firm's maximal profit. On this page I describe results that generalize this observation to an arbitrary maximization problem.

    Unconstrained problems

    = (x*(ص)) ص1ص2x*(ص)
    = (ص1/ص2) ص1/(1 − ص1) − ص2(ص1/ص2) 1/(1 − ص1) .

    Given the first-order conditions, this expression simplifies to

    The next two examples illustrate how the result simplifies the calculation of the derivatives of the value function.

    Also by the envelope theorem the derivative of the firm's maximal profit with respect to ث هو

    A consequence of Hotelling's Lemma is that we can easily find the firm's input demand function x* if we know the firm's profit function, even if we do not know the firm's production function: we have x*(ص, ث) = −π*ث'(ص, ث) for all (ص, ث), so we may obtain the input demand function by simply differentiating the profit function.

    If you approach this problem directly, by calculating the value function explicitly and then differentiating it, rather than using the envelope theorem, you are faced with the task of differentiating

    Here is an example in which F has a unique maximizer, but this maximizer is not a differentiable function of ص.

    Constrained problems

    We want to calculate the derivatives F*ح'(ص) for ح = 1, . ك of the function F*. إذا x* is differentiable, then using the chain rule we have


    Related rules

    Similar rules in single variable calculus

    • Differentiation is linear: The derivative of the sum is the sum of the derivatives, and scalars can be pulled out of differentiation.
    • Chain rule for differentiation
    • Product rule for higher derivatives
    • Chain rule for higher derivatives
    • Logarithmic differentiation is a version of the product rule for differentiation that is useful for differentiating lengthy products.
    • Product rule for differentiation of formal power series

    Similar rules in multivariable calculus


    أمثلة

    Sanity checks

    We first consider examples where the chain rule for differentiation confirms something we already knew by other means:

    Case on Case on Direct justification, without using the chain rule Justification using the chain rule, i.e., by computing
    a constant function any differentiable function zero function is a constant function, so its derivative is the zero function. By the chain rule, . being constant forces to be zero everywhere, hence the product is also zero everywhere. هكذا، is also zero everywhere.
    any differentiable function a constant function with value zero function is a constant function with value , so its derivative is the zero function. By the chain rule, . being constant forces that everywhere, hence the product is also zero everywhere. هكذا، is also zero everywhere.
    the identity function, i.e., the function any differentiable function ، وبالتالي . . حيث is the function , its derivative is the function . Plugging this in, we get that is also the constant function ، وبالتالي .
    any differentiable function the identity function ، وبالتالي . . حيث is the identity function, is the function . أيضا، . هكذا، .
    the square function any differentiable function and hence its derivative can be computed using the product rule for differentiation. It comes out as . . is the derivative of the square function, and therefore is . هكذا، . We thus get .
    a one-one differentiable function the inverse function of 1 للجميع , so the derivative is the function 1. . By the inverse function theorem, we know that , so plugging in, we get .

    Nontrivial examples

    The chain rule is necessary for computing the derivatives of functions whose definition يستوجب one to compose functions. The chain rule still isn't the only option: one can always compute the derivative as a limit of a difference quotient. But it does offer the only option if one restricts oneself to operating within the family of differentiation rules.

    Some examples of functions for which the chain rule needs to be used include:

    • A trigonometric function applied to a nonlinear algebraic function
    • An exponential function applied to a nonlinear algebraic function
    • A composite of two trigonometric functions, two exponential functions, or an exponential and a trigonometric function

    Sine of square function

    .

    We use the chain rule for differentiation viewing the function as the composite of the square function on the inside and the sine function on the outside:


    شاهد الفيديو: 1926 Tula-Korovin: The First Soviet Semiauto Pistol (ديسمبر 2021).