Negladkie ili nedostatochno gladkie funkcii, kotorye, naprimer, ne imeüt wtoryh proizwodnyh, stali w nashi dni obychnym instrumentom issledowaniq. Metody optimizacii takih funkcij otlichaütsq ot metodow optimizacii gladkih (differenciruemyh) funkcij. Obychnogo w nashem ponimanii opredeleniq gradienta u negladkih funkcij ne suschestwuet. Zadacha optimizacii funkcij tesno primykaet k zadacham, swqzannym s izucheniem optimal'nyh processow w teorii uprawleniq. Dlq postroeniq bolee uskorennyh metodow optimizacii negladkih funkcij trebuetsq opredelit' takie konstrukcii, k kotorym primenimy metody optimizacii wtorogo porqdka dlq dwazhdy differenciruemyh funkcij. S pomosch'ü postroennyh funkcij my mozhem perejti ot lokal'noj optimizacii negladkih funkcij k lokal'noj optimizacii gladkih funkcij, a takzhe ocenit' skorost' shodimosti k tochke äxtremuma, chto bezuslowno wazhno. Dlq ätoj celi wwodqtsq nowye metody approximacii funkcij i mnogoznachnyh otobrazhenij. Aktual'nym na segodnqshnij den' qwlqetsq wwedenie takih mnogoznachnyh otobrazhenij, kotorye mozhno bylo by ispol'zowat' dlq postroeniq neprerywnyh rasshirenij subdifferenciala Klarka i postroeniq na ih osnowe metodow poiska stacionarnyh tochek.
Hinweis: Dieser Artikel kann nur an eine deutsche Lieferadresse ausgeliefert werden.
Hinweis: Dieser Artikel kann nur an eine deutsche Lieferadresse ausgeliefert werden.