مقالات

5.2: دالة القيمة الحقيقية المستمرة لمتغيرات n - الرياضيات


5.2: دالة القيمة الحقيقية المستمرة لمتغيرات n - الرياضيات

رسم الخرائط المستمر

رسم الخرائط المستمر ϕ: (- ∞ ، ت1) → V 1 يُقال أنه أ استمرار سلبي من الحل س(θ ، ر)الخامس0 بشرط أن ϕ يرضي: (1) ϕ (0) = الخامس0, (2) تي1 = تي0(θ ، ق0) و (3) لجميع τ ∈ (-∞ ، ت1) ، ϕ يرضي

أ حل عالمي من خلال النقطة (θ ، ق0) ∈ م هو رسم خرائط مستمر ϕ: ℝ → V 1 مثل: (1) ϕ (0) = الخامس0 و (2) ϕ يرضي

من المهم أن نلاحظ أنه عند استمرار سلبي للحل س(θ ، ر)الخامس0 موجود ، يحتاج ليس كن فريدا. هذا النقص في التفرد هو من المضاعفات الرئيسية التي تنشأ في الأنظمة الديناميكية ذات الأبعاد اللانهائية ، مثل الديناميات الناتجة عن حلول المعادلات التفاضلية الجزئية. ومع ذلك ، فمن الملائم اعتماد اصطلاح تدويني هنا. بالنسبة لـ τ ≤ 0 ، حددناها س(θ ، τ)الخامس0: = ϕ (τ) ، حيث ϕ هي استمرار سلبي لـ س(θ ، ر)الخامس0. وبهذه الطريقة تقرأ (4.16)

منذ حل عالمي ، س(θ ، τ) ϕ (0) = س(θ ، τ)الخامس0 = ϕ (τ) يتم تعريفها لجميع τ ∈ ℝ ، فهي تفي بما يلي:


Antimatroid ، و

مقدمة

هذه ورقة بحثية سريعة تستكشف الحد الأقصى والحد الأدنى المتوقع من المتغيرات العشوائية المستمرة ذات القيمة الحقيقية لمشروع أعمل عليه. ستكون هذه الورقة أكثر رسمية إلى حد ما من بعض كتاباتي السابقة ، ولكن يجب أن تكون سهلة القراءة بدءًا من بعض التعريفات المطلوبة وبيان المشكلة والحل العام والنتائج المحددة لحفنة صغيرة من توزيعات الاحتمالات المستمرة.

تعريفات

التعريف (1) : بالنظر إلى مساحة الاحتمال ، التي تتكون من مجموعة تمثل فضاء العينة ، و a ، وقياس Lebesgue ، فإن الخصائص التالية صحيحة:

التعريف (2) : بالنظر إلى متغير عشوائي مستمر ذي قيمة حقيقية مثل أن الحدث الذي يأخذ المتغير العشوائي قيمة ثابتة ، هو الحدث الذي يتم قياسه بواسطة دالة التوزيع الاحتمالي. وبالمثل ، فإن الحدث الذي يأخذه المتغير العشوائي على نطاق من القيم أقل من بعض القيم الثابتة ، هو الحدث الذي يتم قياسه بواسطة دالة التوزيع التراكمي. بالتعريف ، الخصائص التالية صحيحة:

ديفينشن (3) : بالنظر إلى المتغير العشوائي المستمر الثاني ذو القيمة الحقيقية ، سيتم قياس الحدث المشترك من خلال التوزيع الاحتمالي المشترك. إذا كانت ومستقلة إحصائيًا ، إذن.

التعريف (4) : بالنظر إلى متغير عشوائي مستمر حقيقي القيمة ، فإن القيمة المتوقعة هي.

التعريف (5) : (قانون الإحصائي اللاواعي) بالنظر إلى متغير عشوائي مستمر ذو قيمة حقيقية ، ووظيفة ، إذن هو أيضًا متغير عشوائي مستمر ذو قيمة حقيقية ويتم توفير قيمته المتوقعة تقارب متكامل. بالنظر إلى اثنين من المتغيرات العشوائية المستمرة ذات القيمة الحقيقية ، والدالة ، فإن ذلك أيضًا هو متغير عشوائي مستمر حقيقي القيمة وقيمته المتوقعة هي في ظل افتراض الاستقلال للتعريف (3) ، تصبح القيمة المتوقعة.

جلاس (1) : بالنسبة لبقية هذه الورقة ، سيتم افتراض أن جميع المتغيرات العشوائية المستمرة ذات القيمة الحقيقية مستقلة.

عرض المشكلة

نظرية (1) : بالنظر إلى متغيرين عشوائيين مستمرين حقيقيين القيمة ، فإن القيمة المتوقعة للحد الأدنى من المتغيرين هي.

ليما (1) : بالنظر إلى متغيرين عشوائيين مستمرين حقيقيين القيمة ، فإن القيمة المتوقعة للحد الأقصى للمتغيرين هي


حدد أي نقاط توقف للدالة $ f (x، y) = tan x + sin y $.

نلاحظ أن $ tan x $ غير محدد إذا كان $ x = (2k-1) frac < pi> <2> $ حيث $ k in mathbb$ ، وهكذا $ f $ غير مستمر لـ $ (x، y) = left ([2k-1] frac < pi> <2>، y right) $ حيث $ k in mathbb$. الرسم البياني لـ $ f (x، y) = tan x + sin y $ موضح أدناه.


وظيفة Plurisubharmonic


دالة ذات قيمة حقيقية $ u = u (z) $ ، $ - infty leq u & lt + infty $ ، من $ n $ متغيرات معقدة $ z = (z _ <1> dots z _ ) $ في مجال $ D $ من الفضاء المركب $ mathbf C ^ $، $ n geq 1 $ ، الذي يفي بالشروط التالية: 1) $ u (z) $ هو أعلى شبه متصل (راجع الدالة شبه المستمرة) في كل مكان في $ D $ و 2) $ u (z ^ < 0> + lambda a) $ هي دالة فرعية من المتغير $ lambda in mathbf C $ في كل مكون متصل من المجموعة المفتوحة $ << lambda in mathbf C>: + lambda a in D> > $ لأي نقاط ثابتة $ z ^ <0> in D $ ، $ a in mathbf C ^ $. تسمى الوظيفة $ v (z) $ دالة plurisuperharmonic إذا كان $ - v (z) $ هو plurisubharmonic. تشكل دوال plurisubharmonic لـ $ n & gt 1 $ فئة فرعية مناسبة لفئة الدوال دون التوافقية ، بينما تتطابق هاتان الفئتان مع $ n = 1 $. أهم الأمثلة على دوال تعدد اللغات هي $ mathop < rm ln> | و (ض) | $، $ mathop < rm ln> ^ <+> | و (ض) | $ ، $ | و (ض) | ^

$، $ p geq 0 $ ، حيث $ f (z) $ دالة كاملة الشكل في $ D $.

لوظيفة أعلى شبه مستمرة $ u (z) $ ، $ u (z) & lt + infty $ ، لتكون متعدد اللغات في مجال $ D مجموعة فرعية mathbf C ^ $ ، من الضروري والكافي أنه مقابل كل $ z في D $ ، $ a in mathbf C ^ $ ، $ | أ | = 1 $ ، يوجد رقم $ delta = delta (z، a) & gt 0 $ بحيث أن المتباينة التالية تنطبق على $ 0 & lt r & lt delta $:

$ u (z) leq frac <1> <2 pi> int limits _ <0> ^ <<2> pi> u (z + re ^ أ) د فاي. $

يعتبر المعيار التالي أكثر ملاءمة للدوال $ u (z) $ من الفئة $ C ^ <2> (D) $: $ u (z) $ هي دالة متعددة اللغات في $ D $ إذا وفقط إذا كان النموذج Hermitian ( Hessian لـ $ u $ ، cf. Hessian للدالة)

هو موجب شبه محدد عند كل نقطة $ z في D $.

التعليق التالي لوظائف plurisubharmonic ، بالإضافة إلى الخصائص العامة للوظائف دون التوافقية: أ) $ u (z) $ هو plurisubharmonic في المجال $ D $ إذا وفقط إذا كان $ u (z) $ دالة تعدد اللغات في الحي من كل نقطة $ z في D $ ب) تركيبة خطية من وظائف plurisubharmonic مع معاملات موجبة هي plurisubharmonic c) حد تسلسل متناقص متقارب بشكل موحد أو رتيب متناقص لوظائف plurisubharmonic d) $ u (z) $ هو a دالة plurisubharmonic في مجال $ D $ إذا وفقط إذا كان يمكن تمثيلها كحد لتسلسل متناقص من وظائف plurisubharmonic $ (ض) > _ 1 ^ infty $ للفئات $ C ^ infty (D _ ) $ ، على التوالي ، حيث $ D _ $ هي مجالات مثل أن $ D _ مجموعة فرعية overline <> _ مجموعة فرعية D _ 1 دولار و دولار كوب _ 1 ^ infty D _ = D $ e) لأي نقطة $ z ^ <0> في D $ القيمة المتوسطة

$ J (z ^ <0>، r u) = frac <1> < sigma _ <2n>> int limits _ <| أ | = 1> u (z ^ <0> + ra) da $

فوق كرة نصف قطرها $ r $ ، حيث $ sigma _ <2n> = 2 pi ^ / (ن- 1)! $ هي مساحة كرة الوحدة في $ mathbf R ^ <2n> $ ، وهي دالة متزايدة بقيمة $ r $ وهي محدبة بالنسبة إلى $ mathop < rm ln> r $ على القطعة $ 0 leq r leq R $ ، إذا كان المجال

يقع في $ D $ ، وفي هذه الحالة $ u (z ^ <0>) leq J (z ^ <0>، ru) $ f) تظل وظيفة plurisubharmonic plurisubharmonic ضمن تعيينات Holomorphic g) إذا $ u (z) $ هي دالة متعددة اللغات متواصلة في مجال $ D $ ، إذا كان $ E $ مجموعة فرعية تحليلية مغلقة من $ D $ (راجع المجموعة التحليلية) وإذا كان القيد $ u mid _ يصل $ إلى حد أقصى على $ E $ ، ثم $ u (z) = textrm $ على $ E $.

تعتبر الفئات الفرعية المناسبة التالية لفئة وظائف تعدد الصفائح التوافقية مهمة أيضًا للتطبيقات. تسمى الدالة $ u (z) $ بشكل صارم plurisubharmonic إذا كانت هناك دالة زيادة محدبة $ phi (t) $، $ - infty & lt t & lt + infty $،

مثل أن $ phi ^ <-> 1 (u (z)) $ هو دالة plurisubharmonic. على وجه الخصوص ، لـ $ phi (t) = e ^ $ واحد يحصل على دوال لوغاريتمية متعددة.

تعتبر فئة وظائف plurisubharmonic والفئات الفرعية المذكورة أعلاه مهمة في وصف السمات المختلفة للوظائف والمجالات ذات الشكل الشامل في الفضاء المعقد $ mathbf C ^ $ ، وكذلك في المساحات التحليلية العامة [1] - [4] ، [7]. على سبيل المثال ، يتم تعريف فئة وظائف Hartogs $ H (D) $ على أنها أصغر فئة من الوظائف ذات القيمة الحقيقية في $ D $ تحتوي على جميع الوظائف $ mathop < rm ln> | و (ض) | $ ، حيث $ f (z) $ دالة كاملة الشكل في $ D $ ، وتغلق في إطار العمليات التالية:

$ alpha $) $ u _ <1>، u _ <2> in H (D) $، $ lambda _ <1>، lambda _ <2> geq 0 $ imply $ lambda _ <1 > u _ <1> + lambda _ <2> u _ <2> in H (D) $

$ beta $) $ u _ in H (D) $، $ u _ leq M (D _ <1>) $ لكل مجال $ D _ <1> subset overline _ <1> مجموعة فرعية D $ ، $ k = 1 ، 2 dots $ تعني $ sup < (ض)>: > في H (D) $

$ gamma $) $ u _ in H (D) $، $ u _ geq u _ 1 $، $ k = 1، 2 dots $ تعني $ lim limits _ ش _ (ض) في H (D) $

$ delta $) $ u in H (D) $، $ z in D $ تعني $ lim limits _ rightarrow z> sup u (z _ <1>) في H (D) $

$ epsilon $) $ u in H (D _ <1>) $ لكل مجال فرعي $ D _ <1> subset overline _ <1> المجموعة الفرعية D $ تعني $ u in H (D) $.

وظائف Hartogs شبه المستمرة العلوية هي وظائف متعددة الفروع التوافقية ، ولكن ليست كل وظيفة من وظائف هارتوغس هي وظيفة هارتوغ. إذا كان $ D $ مجالًا للهولومورفي ، فإن فئات وظائف Hartogs العلوية شبه المستمرة والوظائف متعددة الفروع الهرمونية في $ D $ تتطابق [5] ، [6].

مراجع

[1] ضد. فلاديميروف ، "طرق نظرية العديد من المتغيرات المعقدة" ، M.I.T. (1966) (مترجم من الروسية)
[2] أر. غانينغ ، روسي ، "الوظائف التحليلية للعديد من المتغيرات المعقدة" ، برنتيس هول (1965)
[3] P. Lelong ، "Fonctions plurisousharmonique mesures de Radon Associées. Applications aux fonctions analytiques" ، Colloque sur les fonctions de plusieurs variables ، بروكسل 1953 ثون وأمبير ماسون (1953) ص 21-40
[4] H.J. Bremermann ، "التحدب المعقد" عبر. عامر. رياضيات. شركة , 82 (1956) ص 17-51
[5] H.J. Bremermann ، "حول التخمين من تكافؤ وظائف plurisubharmonic ووظائف Hartogs" رياضيات. آن. , 131 (1956) ص 76 - 86
[6] H.J. Bremermann ، "ملاحظة حول وظائف plurisubharmonic و Hartogs" بروك. عامر. رياضيات. شركة , 7 (1956) ص 771 - 775
[7] إ. سولومينتسيف ، "الوظائف التوافقية والفرعية وتعميماتها" ايتوجي نوك. حصيرة. شرجي. تيور. فيروياتنوست. Regulirovanie (1964) الصفحات 83-100 (بالروسية)

تعليقات

الدالة $ u in C ^ <2> (D) $ هي plurisubharmonic بشكل صارم إذا وفقط إذا كان المركب Hessian $ H ((zu) a، overline ) $ هو نموذج Hermitian إيجابي محدد على $ mathbf C ^ $.

يمتلك الهسيان أيضًا تفسيرًا للوظائف التعددية شبه التوافقية التعسفية $ u $. لكل $ a in mathbf C ^ يمكن اعتبار $، $ H ((z u) a، overline ) $ كتوزيع (راجع دالة معممة) ، وهو أمر إيجابي وبالتالي يمكن تمثيله بواسطة مقياس. هذا في تشابه كامل مع تفسير لابلاسيان للوظائف دون التوافقية.

ومع ذلك ، في هذا الإعداد ، عادة ما يقدم المرء التيارات ، راجع. [a2]. دع $ C _ <0> ^ infty (p، q) (D) $ يشير إلى مساحة الأشكال التفاضلية المدعومة بشكل مضغوط $ phi = sum _ <| أنا | = p ، | ي | = q> phi _ دز _ إسفين د تسطير <> _ $ على $ D $ من الدرجة $ p $ بالدولار dots dz _ > $ والدرجة $ q $ في $ _ <1> النقاط د overline _ > $ (راجع الشكل التفاضلي). يتم تحديد عوامل التفاضل الخارجية $ part $ و $ overline part $ و $ d $ من خلال:

$ d phi = جزئي phi + overline جزئي phi. $

تسمى النماذج الموجودة في نواة $ d $ مغلقة ، والنماذج الموجودة في صورة $ d $ تسمى بالضبط. بما أن $ dd = 0 $ ، فإن مجموعة النماذج الدقيقة موجودة في مجموعة النماذج المغلقة. A $ (p، p) $ - يسمى النموذج موجب الدرجة $ p $ إذا كان لكل نظام $ a _ <1> dots a _ p $ من $ (1، 0) $ - تشكل $ a _ = مجموع _ 1 ^ أ _ دز _ $ ، $ a _ في mathbf C $ ، $ (n، n) $ - النموذج $ phi wedge ia _ <1> wedge overline <> _ <1> wedge dots wedge ia _ ف إسفين overline <> _ p = g dV $ ، مع $ g geq 0 $ و $ dV $ عنصر الحجم الإقليدي.

لنفترض أن $ p ^ prime = n- p $، $ q ^ prime = n- q $. A $ (p ^ prime، q ^ prime) $ - الحالي $ t $ على $ D $ شكل خطي $ t $ على $ C _ <0> ^ infty (p، q) (D) $ with الخاصية التي لكل مجموعة مضغوطة $ K مجموعة فرعية D $ هناك ثوابت $ C ، k $ مثل $ | langle t ، phi rangle | & lt C sup _ | D ^ alpha phi _ (ض) | $ z in K $ و $ | ألفا | leq k $ ، حيث $ D ^ alpha = جزئي ^ <| ألفا | > / ( جزئي z _ <1> ^ < alpha _ <1>> <> dots part overline <> _ ^ < alpha _ <2n>>) $. يتم تمديد عوامل التشغيل $ d ، جزئي ، overline جزئي $ عبر الازدواجية ، على سبيل المثال ، إذا كان $ t $ هو $ (p ^ prime ، q ^ prime) $ - current ، ثم $ langle dt ، phi rangle = (- 1) ^

langle t، d phi rangle $. يتم تعريف التيارات المغلقة والدقيقة كما في الأشكال التفاضلية. A $ (p ^ prime، p ^ prime) $ - يسمى التيار موجب إذا كان لكل نظام $ a _ <1> dots a _

$ of $ (1، 0) $ - النماذج على النحو الوارد أعلاه ولكل $ phi in C _ <0> ^ infty (D) $،

$ (p ^ prime، q ^ prime) $ - شكل $ psi $ يؤدي إلى $ (p ^ prime، q ^ prime) $ - الحالي $ t _ psi $ عبر التكامل: $ langle t _ psi ، phi rangle = int _ phi wedge psi $. متشعب معقد $ M مجموعة فرعية D $ ذات بُعد $ p $ يؤدي إلى إغلاق إيجابي $ (p ^ prime ، p ^ prime) $ - حالي $ [M] $ على $ D $ ، تيار التكامل على طول مليون دولار:

$ langle [M] ، phi rangle = int limits _ phi. $

تم تعريف تيار التكامل أيضًا للأصناف التحليلية $ Y $ in $ D $ (cf. Analytic manifold): أحدهم يعرّف تيار التكامل لمجموعة النقاط العادية $ Y $ على $ D setminus < textrm <نقاط المفرد> Y > $ ويظهر أنه يمكن تمديده إلى تيار مغلق موجب على $ D $. دالة plurisubharmonic $ h $ موجودة في $ L _ < mathop < rm loc >> ^ <1> $ ، ومن ثم تُعرف بـ $ (0، 0) $ - current. لذلك فإن $ i جزئي overline جزئي h $ هو تيار $ (1، 1) $ ، والذي يتضح أنه موجب ومغلق. على العكس من ذلك ، فإن الإغلاق الموجب $ (1، 1) $ - الحالي يكون محليًا بالصيغة $ i جزئي زائد جزئي h $. تيار التكامل على مجموعة متنوعة غير قابلة للاختزال من النموذج $ Y = < : > $ ، حيث $ f $ دالة شاملة ذات تدرج لا يتلاشى بشكل مماثل على $ Y $ ، يساوي $ (i / pi) جزئي سطحي جزئي mathop < rm log> | و | $. راجع أيضًا بقايا دالة تحليلية ونموذج بقايا.


التفاضليه


الجزء الخطي الرئيسي من الزيادة في دالة.

1) يُقال أن الدالة ذات القيمة الحقيقية $ f $ لمتغير حقيقي $ x $ قابلة للتفاضل عند نقطة $ x $ إذا تم تعريفها في بعض المناطق المجاورة لهذه النقطة وإذا كان هناك رقم $ A $ مثل زيادة راتب

$ Delta y = f (x + Delta x) - f (x) $

يمكن كتابة (إذا كانت النقطة $ x + Delta x $ تقع في هذا الحي) في النموذج

$ Delta y = A Delta x + omega، $

حيث $ omega / Delta x rightarrow 0 $ كـ $ Delta x rightarrow 0 $. هنا ، يُرمز إلى $ A Delta x $ بالقيمة $ dy $ ويسمى فارق $ f $ عند $ x $. بالنسبة إلى $ x $ ، يكون التفاضل $ dy $ متناسبًا مع $ Delta x $ ، أي دالة خطية لـ $ Delta x $. بحكم التعريف ، مثل $ Delta x rightarrow 0 $ ، فإن المصطلح الإضافي $ omega $ صغير بلا حدود من ترتيب أعلى من $ Delta x $ (وأيضًا من $ dy $ إذا $ A neq 0 $). هذا هو السبب في أن التفاضل هو الجزء الرئيسي من زيادة الوظيفة.

بالنسبة للدالة القابلة للتفاضل عند نقطة ما $ x $ ، $ Delta y rightarrow 0 $ إذا $ Delta x rightarrow 0 $ ، أي أن الوظيفة القابلة للتفاضل عند نقطة ما تكون متصلة عند تلك النقطة. تكون الوظيفة $ f $ قابلة للاشتقاق عند نقطة $ x $ إذا وفقط إذا كان لديها ، عند هذه النقطة ، مشتق محدود

توجد وظائف مستمرة غير قابلة للتفاضل.

يمكن استخدام التعيين $ df (x) $ بدلاً من $ dy $ ، وتفترض المعادلة أعلاه الشكل

عادةً ما يُرمز إلى زيادة المتغير $ Delta x $ بـ $ dx $ ، ويقال إنها تفاضل المتغير المستقل. وفقا لذلك ، يمكن للمرء أن يكتب

ومن هنا فإن $ f ^ < prime> (x) = dy / dx $ ، أي أن المشتق يساوي نسبة الفروق $ dy $ و $ dx $. إذا كان $ A neq 0 $ ، فإن $ Delta y / dy rightarrow 1 $ كـ $ Delta x rightarrow 0 $ ، أي إذا كان $ A neq 0 $ ، فإن $ Delta y $ و $ dy $ متناهيا الصغر من نفس الترتيب مثل $ Delta x rightarrow 0 $ هذه الحقيقة ، إلى جانب البنية البسيطة للتفاضل (أي الخطية بالنسبة إلى $ Delta x $) ، غالبًا ما تستخدم في الحسابات التقريبية ، بافتراض أن $ Delta y تقريبًا dy $ للصغير $ Delta x $. على سبيل المثال ، إذا كنت ترغب في حساب $ f (x + Delta x) $ من $ f (x) $ المعروف عندما يكون $ Delta x $ صغيرًا ، فمن المفترض أن

$ f (x + Delta x) تقريبًا f (x) + dy. $

من الواضح أن هذا المنطق مفيد فقط إذا كان من الممكن تقدير حجم الخطأ المتضمن.

التفسير الهندسي للتفاضل. معادلة المماس للرسم البياني للدالة $ f $ عند نقطة $ (x _ <0>، y _ <0>) $ هي بالصيغة $ y - y _ <0> = f ^ < prime > (x _ <0>) (x - x _ <0>) $. إذا وضع المرء $ x = x _ <0> + Delta x $ ، فإن $ y - y _ <0> = f ^ < prime> (x _ <0>) Delta x $. يمثل الجانب الأيمن قيمة تفاضل الدالة $ f $ عند النقطة $ x _ <0> $ المقابلة لقيمة $ Delta x $ قيد النظر. وهكذا ، يكون التفاضل متطابقًا مع الزيادة المقابلة لإحداثيات المماس للمنحنى $ y = f (x) $ (راجع المقطع $ NT $ في الشكل أ). هنا $ omega = Delta y - dy $ ، أي قيمة $ | أوميغا | $ يتطابق مع طول المقطع $ TS $.

2) يتم توسيع تعريفات التفاضل والتفاضل بسهولة إلى الدوال ذات القيمة الحقيقية للمتغيرات الحقيقية $ n $. وبالتالي ، في الحالة $ n = 2 $ ، يُقال أن الدالة ذات القيمة الحقيقية قابلة للتفاضل عند نقطة $ (x، y) $ فيما يتعلق بالمتغيرين $ x $ و $ y $ إذا تم تعريفها في بعض المناطق المجاورة لـ هذه النقطة وما إذا كانت الزيادة الإجمالية

$ Delta z = f (x + Delta x، y + Delta y) - f (x، y) $

$ Delta z = A Delta x + B Delta y + alpha، $

حيث $ A $ و $ B $ أرقام حقيقية ، $ alpha / rho rightarrow 0 $ إذا $ rho rightarrow 0 $ ، $ rho = sqrt < Delta x ^ <2> + Delta y ^ <2>> $ يفترض أن النقطة $ (x + Delta x، y + Delta y) $ تنتمي إلى الحي المذكور أعلاه (الشكل ب).

يقدم المرء التدوين

$ d z = d f (x، y) = A Delta x + B Delta y $

يُقال إن $ dz $ هو التفاضل الإجمالي ، أو ببساطة التفاضل ، للدالة $ f $ عند النقطة $ (x، y) $ (تُضاف أحيانًا العبارة "بالنسبة إلى كلا المتغيرين x و y"). لنقطة معينة $ (x، y) $ التفاضل $ dz $ هو دالة خطية لـ $ Delta x $ و $ Delta y $ الفرق $ alpha = Delta z - dz $ صغير بلا حدود من أعلى طلب من $ rho $. بهذا المعنى ، فإن $ dz $ هو الجزء الخطي الرئيسي من الزيادة $ Delta z $.

إذا كان $ f $ قابلاً للاشتقاق عند النقطة $ (x، y) $ ، فهو متصل عند هذه النقطة وله مشتقات جزئية محدودة (cf. المشتق)

$ و _ ^ < رئيس> (س ، ص) = أ ، و _ ^ < prime> (س ، ص) = ب دولار

$ d z = d f (x، y) = f _ ^ < prime> (x، y) Delta x + f _ ^ < prime> (x، y) Delta y. $

عادةً ما يُرمز إلى الزيادات $ Delta x $ و $ Delta y $ للمتغيرات المستقلة بواسطة $ dy $ و $ dx $ ، كما في حالة المتغير الفردي. يمكن للمرء أن يكتب ، وفقا لذلك ،

$ d z = d f (x، y) = f _ ^ < رئيس> (س ، ص) د س + و _ ^ < رئيس> (س ، ص) د ص. $

لا يستلزم وجود مشتقات جزئية محدودة ، بشكل عام ، تفاضل الوظيفة (حتى لو كان من المفترض أن تكون مستمرة).

إذا كان للدالة $ f $ مشتق جزئي بالنسبة إلى $ x $ عند نقطة $ (x، y) $ ، فإن المنتج $ f _ يقال إن ^ < prime> (x، y) dx $ هو فرقها الجزئي بالنسبة إلى $ x $ بنفس الطريقة ، $ f _ ^ < prime> (x، y) dy $ هو التفاضل الجزئي بالنسبة إلى $ y $. إذا كانت الدالة قابلة للاشتقاق ، فإن تفاضلها الإجمالي يساوي مجموع الفروق الجزئية. هندسيًا ، التفاضل الإجمالي $ df (x _ <0>، y _ <0>) $ هو الزيادة في $ z $ - الاتجاه في المستوى المماس للسطح $ z = f (x، y) $ عند النقطة $ (x _ <0>، y _ <0>، z _ <0>) $ حيث $ z _ <0> = f (x _ <0>، y _ <0>) $ (الشكل ج) ).

يعتبر ما يلي معيارًا كافيًا لتفاضل دالة: إذا كان في منطقة مجاورة معينة من النقطة $ (x _ <0>، y _ <0>) $ دالة $ f $ لها مشتق جزئي $ f _ ^ < prime> $ وهو مستمر عند $ (x _ <0>، y _ <0>) $ بالإضافة إلى أنه يحتوي على مشتق جزئي $ f _ في هذه المرحلة ، يكون $ f $ قابلاً للتفاضل في هذه النقطة ^ < prime>.

إذا كانت الوظيفة $ f $ قابلة للتفاضل في جميع نقاط المجال المفتوح $ D $ ، فعندئذٍ في أي نقطة من المجال

$ d z = A (x، y) d x + B (x، y) d y، $

حيث $ A (x، y) = f _ ^ < prime> (x، y) $، $ B (x، y) = f _ ^ < prime> (x، y) $. بالإضافة إلى ذلك ، إذا كانت هناك مشتقات جزئية مستمرة $ A _ ^ رئيس الوزراء $ و $ B _ ^ < prime> $ in $ D $ ، إذن ، في كل مكان في $ D $ ،

هذا يثبت ، على وجه الخصوص ، أنه ليس كل تعبير

$ A (x، y) d x + B (x، y) d y $

مع $ A $ المستمر و $ B $ (في مجال $ D $) هو مجموع الفرق لدالة ما لمتغيرين. هذا فرق من دوال متغير واحد ، حيث يكون أي تعبير $ A (x) d x $ مع دالة متصلة $ A $ في فترة ما هو تفاضل بعض الوظائف.

التعبير $ A dx + B dy $ هو مجموع تفاضل بعض الوظائف $ z = f (x، y) $ في مجال مفتوح متصل ببساطة $ D $ إذا كان $ A $ و $ B $ متواصلين في هذا المجال ، تستوفي الشرط $ A _ ^ رئيس = ب _ ^ < prime> $ وبالإضافة إلى ذلك: أ) $ A _ ^ رئيس الوزراء $ و $ B _ ^ < prime> $ مستمر أو ب) يمكن تمييز $ A $ و $ B $ في كل مكان في $ D $ فيما يتعلق بالمتغيرين $ x $ و $ y $ [7]، [8].

انظر أيضًا حساب التفاضل للتفاضل للوظائف ذات القيمة الحقيقية لمتغير واحد أو أكثر من المتغيرات الحقيقية وتفاضلات الطلبات الأعلى.

3) دع الدالة $ f $ تُعرَّف في بعض مجموعة $ E $ للأرقام الحقيقية ، دع $ x $ تكون نقطة حد لهذه المجموعة ، دع $ x in E $ ، $ x + Delta x in E $ ، $ Delta y = A Delta x + alpha $ ، حيث $ alpha / Delta x rightarrow 0 $ إذا $ Delta x rightarrow 0 $ فإن الوظيفة $ f $ تسمى التفاضل فيما يتعلق بالمجموعة $ E $ عند $ x $ ، بينما $ dy = A Delta x $ يسمى فرقها بالنسبة للمجموعة $ E $ عند $ x $. هذا هو تعميم لتفاضل دالة حقيقية القيمة لمتغير حقيقي واحد. تتضمن الأنواع الخاصة من هذا التعميم الفروق في نقاط نهاية الفترة الزمنية التي يتم خلالها تحديد الوظيفة ، والتفاضل التقريبي (راجع التفاضل التقريبي).

يتم تقديم التفاضلات فيما يتعلق بمجموعة الوظائف ذات القيمة الحقيقية للعديد من المتغيرات الحقيقية بطريقة مماثلة.

4) يمكن تمديد جميع تعريفات التفاضل والتفاضل الوارد أعلاه ، دون تغيير تقريبًا ، إلى الوظائف ذات القيمة المعقدة لمتغير واحد أو أكثر من المتغيرات الحقيقية إلى دوال متجهية حقيقية القيمة ومعقدة القيمة لمتغير واحد أو أكثر من المتغيرات الحقيقية والوظائف المعقدة ودوال المتجهات لمتغير واحد أو أكثر من المتغيرات المعقدة. في التحليل الوظيفي يتم توسيعها لتشمل وظائف نقاط الفضاء المجرد. قد يتحدث المرء عن التفاضل والتفاضل في وظيفة المجموعة فيما يتعلق ببعض المقاييس.

مراجع

[1] ج. تولستوف ، "عناصر التحليل الرياضي" ، 1–2 ، موسكو (1974) (بالروسية) MR0357695 MR0354961
[2] م. Fichtenholz ، "التفاضل und Integralrechnung" ، 1 ، الألمانية. فيرلاغ ويسنسشافت. (1964) MR1191905 MR1056870 MR1056869 MR0887101 MR0845556 MR0845555 MR0524565 MR0473117 MR0344040 MR0344039 MR0238635 MR0238637 MR0238636 Zbl 0143.27002
[3] L.D. كودريافتسيف ، "التحليل الرياضي" ، 1 ، Moscow (1973) (بالروسية) MR1617334 MR1070567 MR1070566 MR1070565 MR0866891 MR0767983 MR0767982 MR0628614 MR0619214 Zbl 1080.00002 Zbl 1080.00001 Zbl 1060.26002 Zbl 0869.2601 Zbl 0696.0026002 Zbl 0703.2601 Zbl 0696.26002 Zbl 0703.260
[4] م. نيكولسكيي ، "مسار التحليل الرياضي" ، 1 ، MIR (1977) (مترجم من الروسية) Zbl 0397.00003 Zbl 0384.00004
[5] دبليو رودين ، "مبادئ التحليل الرياضي" ، ماكجرو هيل (1953) MR0055409 Zbl 0052.05301
[6] أ. كولموغوروف ، S.V. فومين ، "عناصر نظرية الوظائف والتحليل الوظيفي" ، 1–2 ، Graylock (1957–1961) (مترجم من الروسية) MR1025126 MR0708717 MR0630899 MR0435771 MR0377444 MR0234241 MR0215962 MR0118796 MR1530727 MR0118795 MR0085462 MR0070045 Zbl 0932.46001 Zbl 0672.450.46001 Zbl 0932.46001 Zbl 0672.450.46001.
[7] ج. تولستوف ، "على التكاملات المنحنية والمتكررة" ترودي مات. إنست. ستيكلوف. , 35 (1950) (بالروسية) MR44612
[8] ج. تولستوف ، "حول التفاضل الكلي" أوسبخي مات. نوك , 3& # 160: 5 (1948) ص 167–170 MR0027044

تعليقات

لتعميمات الوظائف بين الفراغات المجردة ، انظر أيضًا مشتق Fréchet Gâteaux.

للحصول على مشتق دالة $ f: mathbf C rightarrow mathbf C $ انظر الوظيفة التحليلية.


3 إجابات 3

يمكنك أيضًا استخدام التنقية بالعنصر:

1. مثال بالريال

ولكن إذا افترضنا أن x حقيقي:

وإذا افترضنا أن x و y حقيقيان:

2. مثال مع الأعداد الصحيحة

ولكن إذا افترضنا أن n عددًا صحيحًا:

يمكنك كتابة رمز ∈ في النموذج n ∈ أعداد صحيحة باستخدام ESC + el + ESC ، أو بكتابة [Element] ، أو يمكنك استخدام نموذج Element [n، Integers] البديل.

لحذف جميع الافتراضات العامة: $ Assumptions = True

يفترض الاقتران افتراضيًا أن جميع الكميات الرمزية من المحتمل أن تكون معقدة. قد يبدو هذا مزعجًا في البداية ، ولكن هناك سببًا وجيهًا جدًا لذلك ، وإحدى الطرق لمعرفة السبب هي تحديد نسختك الخاصة من Conjugate ، ورؤيتها تفشل. لأغراض تعليمية ، أفعل ذلك أدناه.

حدد المترافق $ كما يلي:

هذا ببساطة يستبدل أي تكرار لـ I بـ -I. فمثلا:

وهو ما يفترض أنه ما توقعته.

احذر من أن هذا التعريف البسيط لـ $ Conjugate مضمون فقط للعمل على الأرقام والوظائف التي ترضي $ f ( overline) = overline$ ، والذي ينطبق بشكل غريب على غالبية الوظائف الأولية التحليلية ، مثل Zeta و Gamma و Sin و Log وغيرها الكثير.

أحد الأمثلة المضادة المحتملة هو Spherical HarmonicY:

التي تنتج نتيجتين مختلفتين:

في المقابل ، فإن استبدال $ Conjugate بـ Conjugate المدمج يعطي نتائج صحيحة. لذلك ، بينما قد يعطي Conjugate مخرجات تبدو سخيفة ، إلا أنه مضمون ليكون صحيحًا وبالتالي فإن الاستبدال البسيط $ a + bi rightarrow a-bi $ لا يعطي بالضرورة النتائج الصحيحة!

في غضون ذلك ، لفرض أن n عدد صحيح في التكامل الخاص بك ، افعل هذا:


4.1 نظرة عامة

حزمة التحليل هي الحزمة الأصلية للخوارزميات التي تتعامل مع وظائف ذات قيمة حقيقية لمتغير حقيقي واحد. يحتوي على حزم فرعية مخصصة توفر البحث العددي عن الجذر والتكامل والاستيفاء والتمايز. يحتوي أيضًا على حزمة فرعية متعددة الحدود التي تعتبر متعددة الحدود ذات المعاملات الحقيقية كوظائف حقيقية قابلة للتفاضل.

تهدف واجهات الوظائف إلى أن يتم تنفيذها بواسطة رمز المستخدم لتمثيل مشاكل المجال الخاصة بهم. ستعمل الخوارزميات التي توفرها المكتبة بعد ذلك على هذه الوظائف للعثور على جذورها ، أو دمجها ، أو. يمكن أن تكون الوظائف متعددة المتغيرات أو أحادية المتغير ، أو متجهية حقيقية أو ذات قيمة مصفوفة ، ويمكن أن تكون قابلة للتفاضل أو لا.

4.2 معالجة الخطأ

بالنسبة للوظائف التي يحددها المستخدم ، عندما تواجه الطريقة خطأ أثناء التقييم ، يجب على المستخدمين استخدام خاصة استثناءات لم يتم التحقق منها. يوضح المثال التالي الطريقة الموصى بها للقيام بذلك ، باستخدام حل الجذر كمثال (يجب استخدام نفس البنية لمدمجي ODE أو للتحسينات).

كما هو موضح في هذا المثال ، فإن الاستثناء هو بالفعل شيء محلي لرمز المستخدم وهناك ضمان لن يعبث Apache Commons Math به. المستخدم آمن.

4.3 البحث عن الجذور

يوفر Solver و UnivariateDifferentiableSolver و PolynomialSolver وسائل لإيجاد جذور الدوال ذات القيمة الحقيقية أحادية المتغير والوظائف ذات القيمة الحقيقية أحادية المتغير القابلة للتفاضل والوظائف متعددة الحدود على التوالي. الجذر هو القيمة التي تأخذ فيها الوظيفة القيمة 0. يتضمن Commons-Math تطبيقات للعديد من خوارزميات البحث عن الجذر:

أدوات حل الجذر
اسم نوع الوظيفة التقارب يحتاج إلى وضع أقواس أولية اختيار جانب القوس
التنصيف دوال ذات قيمة حقيقية أحادية المتغير خطي ، مضمون نعم نعم
برنت ديكر دوال ذات قيمة حقيقية أحادية المتغير فائقة الخطية ، مضمونة نعم رقم
وضع أقواس خام برنت من الترتيب التاسع دوال ذات قيمة حقيقية أحادية المتغير ترتيب متغير ، مضمون نعم نعم
طريقة إلينوي دوال ذات قيمة حقيقية أحادية المتغير فائقة الخطية ، مضمونة نعم نعم
طريقة لاجير وظائف كثيرة الحدود مكعب لجذر بسيط ، خطي لجذر متعدد نعم رقم
طريقة مولر باستخدام الأقواس للتعامل مع الوظائف ذات القيمة الحقيقية دوال ذات قيمة حقيقية أحادية المتغير من الدرجة الثانية قريبة من الجذور نعم رقم
طريقة مولر باستخدام المعامل للتعامل مع الدوال ذات القيمة الحقيقية دوال ذات قيمة حقيقية أحادية المتغير من الدرجة الثانية قريبة من الجذر نعم رقم
طريقة نيوتن رافسون دوال ذات قيمة حقيقية أحادية المتغير قابلة للتفاضل من الدرجة الثانية ، غير مضمون رقم رقم
طريقة بيغاسوس دوال ذات قيمة حقيقية أحادية المتغير فائقة الخطية ، مضمونة نعم نعم
طريقة Regula Falsi (الوضع الخاطئ) دوال ذات قيمة حقيقية أحادية المتغير خطي ، مضمون نعم نعم
طريقة ريدر دوال ذات قيمة حقيقية أحادية المتغير فائقة الخطية نعم رقم
طريقة القاطع دوال ذات قيمة حقيقية أحادية المتغير فائقة الخطية وغير مضمونة نعم رقم

تتطلب بعض الخوارزميات أن يكون الفاصل الزمني للبحث الأولي بين قوسين الجذر (أي أن قيم الوظيفة في نقاط نهاية الفاصل لها علامات معاكسة). تحافظ بعض الخوارزميات على الأقواس طوال الحساب وتسمح للمستخدم بتحديد أي جانب من فاصل التقارب لتحديده كجذر. من الممكن أيضًا فرض تحديد جانبي بعد العثور على جذر حتى بالنسبة للخوارزميات التي لا توفر هذه الميزة بمفردها. هذا مفيد على سبيل المثال في البحث المتسلسل ، حيث يتم بدء فترة بحث جديدة بعد العثور على جذر من أجل العثور على الجذر التالي. في هذه الحالة ، يجب على المستخدم تحديد جانب للتأكد من أن الحلقة الخاصة به ليست عالقة في جذر واحد وإرجاع نفس الحل دائمًا دون إحراز أي تقدم.

هناك العديد من الفخاخ والمزالق غير الواضحة في العثور على الجذور. أولاً ، إخلاء المسؤولية المعتاد بسبب الطريقة التي تطبق بها أجهزة الكمبيوتر الواقعية القيم. إذا كان حساب الوظيفة يوفر عدم استقرار رقمي ، على سبيل المثال بسبب إلغاء البت ، فقد تتصرف خوارزميات البحث عن الجذر بشكل سيئ وتفشل في التقارب أو حتى إرجاع القيم الزائفة. لن يكون هناك بالضرورة مؤشر على أن الجذر المحسوب بعيد عن القيمة الحقيقية. ثانيًا ، قد تكون مشكلة إيجاد الجذور نفسها غير مشروطة بطبيعتها. يوجد & quot؛ نطاق من اللاحتمية & quot ، وهي الفترة التي تحتوي فيها الدالة على قيم مطلقة قريبة من الصفر حول الجذر الحقيقي ، والتي قد تكون كبيرة. والأسوأ من ذلك ، قد تتسبب المشكلات الصغيرة مثل خطأ التقريب في جعل قيمة الدالة & quot ؛ تتأرجح & quot ؛ بين القيم السالبة والموجبة. قد ينتج عن هذا مرة أخرى جذور بعيدة عن القيمة الحقيقية ، دون إشارة. لا يوجد الكثير من الخوارزمية العامة التي يمكن أن تفعلها إذا تمت مواجهة مشاكل غير مشروطة طريقة للتغلب على هذا هو تحويل المشكلة من أجل الحصول على وظيفة تكييف أفضل. يتطلب الاختيار الصحيح لخوارزمية البحث عن الجذر ومعلمات التكوين الخاصة بها معرفة الخصائص التحليلية للوظيفة قيد التحليل وتقنيات التحليل العددي. يتم تشجيع المستخدمين على الرجوع إلى نص التحليل العددي (أو محلل رقمي) عند اختيار محلل وتكوينه.

من أجل استخدام ميزات البحث عن الجذر ، يجب أولاً إنشاء كائن حلال من خلال استدعاء المُنشئ الخاص به ، والذي غالبًا ما يوفر دقة نسبية ومطلقة. باستخدام كائن حلال ، يمكن العثور بسهولة على جذور الوظائف باستخدام طرق الحل. These methods takes a maximum iteration count maxEval , a function f , and either two domain values, min and max , or a startValue as parameters. If the maximal number of iterations count is exceeded, non-convergence is assumed and a ConvergenceException exception is thrown. A suggested value is 100, which should be plenty, given that a bisection algorithm can't get any more accurate after 52 iterations because of the number of mantissa bits in a double precision floating point number. If a number of ill-conditioned problems is to be solved, this number can be decreased in order to avoid wasting time. Bracketed solvers also take an allowed solution enum parameter to specify which side of the final convergence interval should be selected as the root. It can be ANY_SIDE , LEFT_SIDE , RIGHT_SIDE , BELOW_SIDE or ABOVE_SIDE . Left and right are used to specify the root along the function parameter axis while below and above refer to the function value axis. The solve methods compute a value c such that:

  • f(c) = 0.0 (see "function value accuracy")
  • min <= c <= max (except for the secant method, which may find a solution outside the interval)

Force bracketing, by refining a base solution found by a non-bracketing solver:

The BrentSolver uses the Brent-Dekker algorithm which is fast and robust. If there are multiple roots in the interval, or there is a large domain of indeterminacy, the algorithm will converge to a random root in the interval without indication that there are problems. Interestingly, the examined text book implementations all disagree in details of the convergence criteria. Also each implementation had problems for one of the test cases, so the expressions had to be fudged further. Don't expect to get exactly the same root values as for other implementations of this algorithm.

The BracketingNthOrderBrentSolver uses an extension of the Brent-Dekker algorithm which uses inverse n th order polynomial interpolation instead of inverse quadratic interpolation, and which allows selection of the side of the convergence interval for result bracketing. This is now the recommended algorithm for most users since it has the largest order, doesn't require derivatives, has guaranteed convergence and allows result bracket selection.

The SecantSolver uses a straightforward secant algorithm which does not bracket the search and therefore does not guarantee convergence. It may be faster than Brent on some well-behaved functions.

The RegulaFalsiSolver is variation of secant preserving bracketing, but then it may be slow, as one end point of the search interval will become fixed after and only the other end point will converge to the root, hence resulting in a search interval size that does not decrease to zero.

The IllinoisSolver and PegasusSolver are well-known variations of regula falsi that fix the problem of stuck end points by slightly weighting one endpoint to balance the interval at next iteration. Pegasus is often faster than Illinois. Pegasus may be the algorithm of choice for selecting a specific side of the convergence interval.

The BisectionSolver is included for completeness and for establishing a fall back in cases of emergency. The algorithm is simple, most likely bug free and guaranteed to converge even in very adverse circumstances which might cause other algorithms to malfunction. The drawback is of course that it is also guaranteed to be slow.

The UnivariateSolver interface exposes many properties to control the convergence of a solver. The accuracy properties are set at solver instance creation and cannot be changed afterwards, there are only getters to retriveve their values, no setters are available.

Property Purpose
Absolute accuracy The Absolute Accuracy is (estimated) maximal difference between the computed root and the true root of the function. This is what most people think of as "accuracy" intuitively. The default value is chosen as a sane value for most real world problems, for roots in the range from -100 to +100. For accurate computation of roots near zero, in the range form -0.0001 to +0.0001, the value may be decreased. For computing roots much larger in absolute value than 100, the default absolute accuracy may never be reached because the given relative accuracy is reached first.
Relative accuracy The Relative Accuracy is the maximal difference between the computed root and the true root, divided by the maximum of the absolute values of the numbers. This accuracy measurement is better suited for numerical calculations with computers, due to the way floating point numbers are represented. The default value is chosen so that algorithms will get a result even for roots with large absolute values, even while it may be impossible to reach the given absolute accuracy.
Function value accuracy This value is used by some algorithms in order to prevent numerical instabilities. If the function is evaluated to an absolute value smaller than the Function Value Accuracy, the algorithms assume they hit a root and return the value immediately. The default value is a "very small value". If the goal is to get a near zero function value rather than an accurate root, computation may be sped up by setting this value appropriately.

4.4 Interpolation

A UnivariateInterpolator is used to find a univariate real-valued function f which for a given set of ordered pairs ( xأنا , yأنا ) yields f(xأنا)=yأنا to the best accuracy possible. The result is provided as an object implementing the UnivariateFunction interface. It can therefore be evaluated at any point, including point not belonging to the original set. Currently, only an interpolator for generating natural cubic splines and a polynomial interpolator are available. There is no interpolator factory, mainly because the interpolation algorithm is more determined by the kind of the interpolated function rather than the set of points to interpolate. There aren't currently any accuracy controls either, as interpolation accuracy is in general determined by the algorithm.

A natural cubic spline is a function consisting of a polynomial of third degree for each subinterval determined by the x-coordinates of the interpolated points. A function interpolating N value pairs consists of N-1 polynomials. The function is continuous, smooth and can be differentiated twice. The second derivative is continuous but not smooth. The x values passed to the interpolator must be ordered in ascending order. It is not valid to evaluate the function for values outside the range x0 .. xن .

The polynomial function returned by the Neville's algorithm is a single polynomial guaranteed to pass exactly through the interpolation points. The degree of the polynomial is the number of points minus 1 (i.e. the interpolation polynomial for a three points set will be a quadratic polynomial). Despite the fact the interpolating polynomials is a perfect approximation of a function at interpolation points, it may be a loose approximation between the points. Due to Runge's phenomenom the error can get worse as the degree of the polynomial increases, so adding more points does not always lead to a better interpolation.

Loess (or Lowess) interpolation is a robust interpolation useful for smoothing univariate scaterplots. It has been described by William Cleveland in his 1979 seminal paper Robust Locally Weighted Regression and Smoothing Scatterplots. This kind of interpolation is computationally intensive but robust.

Microsphere interpolation is a robust multidimensional interpolation algorithm. It has been described in William Dudziak's MS thesis.

Hermite interpolation is an interpolation method that can use derivatives in addition to function values at sample points. The HermiteInterpolator class implements this method for vector-valued functions. The sampling points can have any spacing (there are no requirements for a regular grid) and some points may provide derivatives while others don't provide them (or provide derivatives to a smaller order). Points are added one at a time, as shown in the following example:

A BivariateGridInterpolator is used to find a bivariate real-valued function f which for a given set of tuples ( xأنا , yي , fاي جاي ) yields f(xأنا,yي)=fاي جاي to the best accuracy possible. The result is provided as an object implementing the BivariateFunction interface. It can therefore be evaluated at any point, including a point not belonging to the original set. The arrays xأنا و ذي must be sorted in increasing order in order to define a two-dimensional grid.

In bicubic interpolation, the interpolation function is a 3rd-degree polynomial of two variables. The coefficients are computed from the function values sampled on a grid, as well as the values of the partial derivatives of the function at those grid points. From two-dimensional data sampled on a grid, the BicubicSplineInterpolator computes a bicubic interpolating function. Prior to computing an interpolating function, the SmoothingPolynomialBicubicSplineInterpolator class performs smoothing of the data by computing the polynomial that best fits each of the one-dimensional curves along each of the coordinate axes.

A TrivariateGridInterpolator is used to find a trivariate real-valued function f which for a given set of tuples ( xأنا , yي , zك , fijk ) yields f(xأنا,yي,zك)=fijk to the best accuracy possible. The result is provided as an object implementing the TrivariateFunction interface. It can therefore be evaluated at any point, including a point not belonging to the original set. The arrays xأنا , yي and zك must be sorted in increasing order in order to define a three-dimensional grid.

In tricubic interpolation, the interpolation function is a 3rd-degree polynomial of three variables. The coefficients are computed from the function values sampled on a grid, as well as the values of the partial derivatives of the function at those grid points. From three-dimensional data sampled on a grid, the TricubicSplineInterpolator computes a tricubic interpolating function.

4.5 Integration

A UnivariateIntegrator provides the means to numerically integrate univariate real-valued functions. Commons-Math includes implementations of the following integration algorithms:

4.6 Polynomials

The org.apache.commons.math4.analysis.polynomials package provides real coefficients polynomials.

The PolynomialFunction class is the most general one, using traditional coefficients arrays. The PolynomialsUtils utility class provides static factory methods to build Chebyshev, Hermite, Jacobi, Laguerre and Legendre polynomials. Coefficients are computed using exact fractions so these factory methods can build polynomials up to any degree.

4.7 Differentiation

The org.apache.commons.math4.analysis.differentiation package provides a general-purpose differentiation framework.

The core class is DerivativeStructure which holds the value and the differentials of a function. This class handles some arbitrary number of free parameters and arbitrary derivation order. It is used both as the input and the output type for the UnivariateDifferentiableFunction interface. Any differentiable function should implement this interface.

The main idea behind the DerivativeStructure class is that it can be used almost as a number (i.e. it can be added, multiplied, its square root can be extracted or its cosine computed. However, in addition to computed the value itself when doing these computations, the partial derivatives are also computed alongside. This is an extension of what is sometimes called Rall's numbers. This extension is described in Dan Kalman's paper Doubly Recursive Multivariate Automatic Differentiation, Mathematics Magazine, vol. 75, no. 3, June 2002. Rall's numbers only hold the first derivative with respect to one free parameter whereas Dan Kalman's derivative structures hold all partial derivatives up to any specified order, with respect to any number of free parameters. Rall's numbers therefore can be seen as derivative structures for order one derivative and one free parameter, and primitive real numbers can be seen as derivative structures with zero order derivative and no free parameters.

The workflow of computation of a derivatives of an expression y=f(x) is the following one. First we configure an input parameter x of type DerivativeStructure so it will drive the function to compute all derivatives up to order 3 for example. Then we compute y=f(x) normally by passing this parameter to the f function.At the end, we extract from y the value and the derivatives we want. As we have specified 3 rd order when we built x , we can retrieve the derivatives up to 3 rd order from y . The following example shows that (the 0 parameter in the DerivativeStructure constructor will be explained in the next paragraph):

In fact, there are no notions of variables in the framework, so neither x nor y are considered to be variables per se. They are both considered to be المهام and to depend on implicit free parameters which are represented only by indices in the framework. The x instance above is there considered by the framework to be a function of free parameter p0 at index 0, and as y is computed from x it is the result of a functions composition and is therefore also a function of this p0 free parameter. The p0 is not represented by itself, it is simply defined implicitely by the 0 index above. This index is the third argument in the constructor of the x instance. What this constructor means is that we built x as a function that depends on one free parameter only (first constructor argument set to 1), that can be differentiated up to order 3 (second constructor argument set to 3), and which correspond to an identity function with respect to implicit free parameter number 0 (third constructor argument set to 0), with current value equal to 2.5 (fourth constructor argument set to 2.5). This specific constructor defines identity functions, and identity functions are the trick we use to represent variables (there are of course other constructors, for example to build constants or functions from all their derivatives if they are known beforehand). From the user point of view, the x instance can be seen as the x variable, but it is really the identity function applied to free parameter number 0. As the identity function, it has the same value as its parameter, its first derivative is 1.0 with respect to this free parameter, and all its higher order derivatives are 0.0. This can be checked by calling the getValue() or getPartialDerivative() methods on x .

When we compute y from this setting, what we really do is chain f after the identity function, so the net result is that the derivatives are computed with respect to the indexed free parameters (i.e. only free parameter number 0 here since there is only one free parameter) of the identity function x. Going one step further, if we compute z = g(y) , we will also compute z as a function of the initial free parameter. The very important consequence is that if we call z.getPartialDerivative(1) , we will not get the first derivative of g with respect to y , but with respect to the free parameter p0 : the derivatives of g and f إرادة be chained together automatically, without user intervention.

This design choice is a very classical one in many algorithmic differentiation frameworks, either based on operator overloading (like the one we implemented here) or based on code generation. It implies the user has to bootstrap the system by providing initial derivatives, and this is essentially done by setting up identity function, i.e. functions that represent the variables themselves and have only unit first derivative.

This design also allow a very interesting feature which can be explained with the following example. Suppose we have a two arguments function f and a one argument function g . If we compute g(f(x, y)) with x and y be two variables, we want to be able to compute the partial derivatives dg/dx , dg/dy , d2g/dx2 d2g/dxdy d2g/dy2 . This does make sense since we combined the two functions, and it does make sense despite g is a one argument function only. In order to do this, we simply set up x as an identity function of an implicit free parameter p0 and y as an identity function of a different implicit free parameter p1 and compute everything directly. In order to be able to combine everything, however, both x and y must be built with the appropriate dimensions, so they will both be declared to handle two free parameters, but x will depend only on parameter 0 while y will depend on parameter 1. Here is how we do this (note that getPartialDerivative is a variable arguments method which take as arguments the derivation order with respect to all free parameters, i.e. the first argument is derivation order with respect to free parameter 0 and the second argument is derivation order with respect to free parameter 1):

There are several ways a user can create an implementation of the UnivariateDifferentiableFunction interface. The first method is to simply write it directly using the appropriate methods from DerivativeStructure to compute addition, subtraction, sine, cosine. This is often quite straigthforward and there is no need to remember the rules for differentiation: the user code only represent the function itself, the differentials will be computed automatically under the hood. The second method is to write a classical UnivariateFunction and to pass it to an existing implementation of the UnivariateFunctionDifferentiator interface to retrieve a differentiated version of the same function. The first method is more suited to small functions for which user already control all the underlying code. The second method is more suited to either large functions that would be cumbersome to write using the DerivativeStructure API, or functions for which user does not have control to the full underlying code (for example functions that call external libraries).

Apache Commons Math provides one implementation of the UnivariateFunctionDifferentiator interface: FiniteDifferencesDifferentiator. This class creates a wrapper that will call the user-provided function on a grid sample and will use finite differences to compute the derivatives. It takes care of boundaries if the variable is not defined on the whole real line. It is possible to use more points than strictly required by the derivation order (for example one can specify an 8-points scheme to compute first derivative only). However, one must be aware that tuning the parameters for finite differences is highly problem-dependent. Choosing the wrong step size or the wrong number of sampling points can lead to huge errors. Finite differences are also not well suited to compute high order derivatives. Here is an example on how this implementation can be used:

Note that using FiniteDifferencesDifferentiatora> in order to have a UnivariateDifferentiableFunction that can be provided to a Newton-Raphson's solver is a very bad idea. The reason is that finite differences are not really accurate and needs lots of additional calls to the basic underlying function. If user initially have only the basic function available and needs to find its roots, it is much more accurate and much more efficient to use a solver that only requires the function values and not the derivatives. A good choice is to use bracketing n th order Brent method, which in fact converges faster than Newton-Raphson's and can be configured to a highere order (typically 5) than Newton-Raphson which is an order 2 method.

Another implementation of the UnivariateFunctionDifferentiator interface is under development in the related project Apache Commons Nabla. This implementation uses automatic code analysis and generation at binary level. However, at time of writing (end 2012), this project is not yet suitable for production use.

Copyright © 2003-2021 The Apache Software Foundation. All Rights Reserved.


Differentiability in (R^n) and the gradient

Suppose that (S) is an open subset of (R^n) and consider a function (f:S o R) .

We will define differentiability in a way that generalizes definition (eqref). The idea is that (f) is differentiable at a point (mathbf xin S) if (f) can be approximated near (mathbf x) by a linear map (R^n o R) , with errors that are smaller than linear near (x) .

To make this precise, we will suppose that (mathbf xin S) is fixed, and we will consider the function (mathbf h mapsto f(mathbf x+mathbf h)-f(mathbf x)) of a variable (mathbf hin R^n) .

Remark. The notation (a mapsto b) defines the function (f(a)=b) .

We want (f) to be differentiable at (mathbf x iff f(mathbf x+mathbf h) - f(mathbf x)) is approximately a linear function of (mathbf h) , for (mathbf h) near (mathbf 0) .

Recall from linear algebra:

Another way of saying this is: a function (ell:R^n o R^m) is linear if [ ell(amathbf x+bmathbf y) = a ell (mathbf x) + b ell(mathbf y)quad ext< for all >a,bin R ext < and >mathbf x,mathbf y in R^n. ] If a function has the form (f(mathbf x) = Mmathbf x + mathbf b) , we will say that it is affine. We may also sometimes call it a first-order polynomial أو أ polynomial of degree 1.

In general, we know from linear algebra that if (ell:R^n oR) is a linear function, then (ell) can be written in the form [ ell(mathbf h) = mathbf m cdot mathbf hqquad ext< for some vector >mathbf min R^n. ]

So, combining all these, we are led to the following basic definition:

Note that ( abla f(mathbf x)) is uniquely determined by condition (eqref). Thus, the gradient ( abla f) (when it exists) is characterized by the property that [ lim_>frac < f(mathbf x+mathbf h) - f(mathbf x) - abla f(mathbf x) cdot mathbf h> <|mathbf h|>= 0. ]

We can also write a definition in the style of (eqref) :

These definitions can be understood as follows: temporarily fix (mathbf x) , view (mathbf h) as a variable, and view (f(mathbf x+mathbf h) - f(mathbf x)) as a function of (mathbf h) . Then (f) is differentiable at (mathbf x) if the linear function (mathbf mcdot mathbf h) approximates (f(mathbf x+mathbf h)-f(mathbf x)) , with errors that are smaller than linear as (mathbf h o ) .

We will soon see that there is a simple computational way of finding out what the gradient of (f) must be, if it exists. First, let’s do one example the hard way. This will help us to appreciate the theorems that will be proved shortly.

مثال 1.

Consider (f:R^2 o R) defined by [ f(x,y) = (x-1)^3(y+2). ] Is (f) differentiable at the origin?

Solution To check, let’s write a vector (mathbf h) in the form (mathbf h = (h, k)) . Then [egin f((0,0) + (h,k)) &= f(h,k) &=-2 + (6h-k) + (h^3k -3h^2k + 3hk + 2 h^3 - 6 h^2) &=f(0,0) + (6, -1)cdot (h,k) + E(mathbf h), end] where (E(mathbf h)= h^3k -3h^2k + 3hk + 2 h^3 - 6 h^2) . We can check that [lim_ frac< sqrt> = 0.] So (f) is differentiable at the origin and ( abla f(0,0) = (6, -1)) .

The next important property of differentiability generalizes a familiar fact about functions of a single variable.


Time Series Analysis: Methods and Applications

Hernando Ombao , in Handbook of Statistics , 2012

2.6 The SLEX and Other Localized Waveforms

Wavelets are mathematical functions with localized oscillatory features. They are commonly utilized to estimate functions that have sudden bursts and peaks at localized regions. See the study by Donoho and Johnstone (1994) , Donoho and Johnstone (1995) for seminal work on nonparametric function estimation using wavelets. Moreover, wavelets have also been developed in Nason et al. (2000) for representing time series with time-varying spectral and scale decompositions. For a comprehensive treatment on the applications of wavelets to various statistical problems, see the study by Vidakovic (1999) .

Wavelet packets form another class of localized waveforms. Wavelet packets are a generalization of wavelets. Analogously to SLEX, wavelet packets also form a library of orthonormal bases, which contains the wavelet basis. Due to their generality, wavelet packets offer more flexibility in representing signals that exhibit oscillatory or periodic behavior. One distinction between wavelet packets and SLEX is the manner in which they segment the time–frequency plane. Although the SLEX library is obtained by generating waveforms whose time support dyadically divides the time axis, the wavelet packet library consists of waveforms whose spectral power or frequency support dyadi-cally divides the frequency axis. The best wavelet packet orthonormal basis can also be selected using the best basis algorithm. Detailed discussion on the construction of the wavelet packets is given in the study by Wickerhauser (1994) .

Cosine packets are also another time and frequency localized waveforms Auscher et al. (1992) . The cosine packet transform (CPT) shares common features with the SLEX transform: both are time-localized trigonometric functions and both dyadically divide the time axis (rather than the frequency axis, as in WPT) of the time–frequency plane. Moreover, both waveforms are obtained by applying the same window pairs. An application of Ψ + and Ψ − (see Fig. 3 ) on the complex exponential function produces the SLEX waveform, whereas an application of the same windows on the cosine functions gives the cosine packet waveforms.

There are a number of advantages to using the SLEX rather than the wavelet packets or the cosine packets for analyzing multivariate time series. The SLEX waveforms are complex valued and hence can be directly used to estimate the lag between components of a multivariate time series. Moreover, the SLEX waveforms are time- and frequency-localized generalizations of the Fourier waveforms. Thus, the SLEX methods parallel classical spectral analysis of stationary processes that are based on the Fourier functions. Using the SLEX library, one can develop a family of models that is a time-dependent analog of the Cramèr spectral representation for stationary processes. This family of SLEX representations can be used to study time-evolving coherence and to select time–frequency spectral features for classification and discrimination of nonstationary time series.


شاهد الفيديو: الدرس الأول: الأعداد الحقيقية. الوحده 1 - الفصل 1. رياضيات الصف التاسع (شهر نوفمبر 2021).