首页 | 本学科首页   官方微博 | 高级检索  
     检索      


Iterative bounds on the relative value vector in undiscounted Markov renewal programming
Authors:P J Schweitzer
Institution:(1) Graduate School of Management, University of Rochester, 14627 Rochester, N.Y., USA
Abstract:The functional equations of Markov renewal programming with a scalar again rateg are v=max q (f)–gT (f)+P(f) v;f isinA] whereA is the Cartesian product set of allowed policies. When there functional equations are solved iteratively, convergent upper and lower bounds on the gain rateg were given by the author in J. Math. Anal. Appl. 34, 1971, 495–501. In this paper, an augmented iterative scheme is exhibited which supplies convergent upper and lower bounds on the value vector v as well.
Zusammenfassung Die Funktionalgleichungen für undiskontierte Markoffsche Erneuerungsprogramme mit skalarem Durschnittsgewinng lauten v=max q (f)–gT (f)+P (f)v;f isinA] wobeiA die Menge der zulässigen Politiken ist. Konvergierende obere und untere Schranken für den Durchschnittsgewinn wurden vom Autor in J. Math. Anal. Appl. 34, 1971, 495–501 hergeleitet. In dieser Arbeit wird ein verbessertes iteratives Verfahren vorgestellt, das auch konvergierende obere und untere Schranken für den relativen Gewinn liefert.
Keywords:
本文献已被 SpringerLink 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号