Iterative bounds on the relative value vector in undiscounted Markov renewal programming |
| |
Authors: | P J Schweitzer |
| |
Institution: | (1) Graduate School of Management, University of Rochester, 14627 Rochester, N.Y., USA |
| |
Abstract: | The functional equations of Markov renewal programming with a scalar again rateg are v=max q (f)–gT (f)+P(f) v;f A] whereA is the Cartesian product set of allowed policies. When there functional equations are solved iteratively, convergent upper and lower bounds on the gain rateg were given by the author in J. Math. Anal. Appl. 34, 1971, 495–501. In this paper, an augmented iterative scheme is exhibited which supplies convergent upper and lower bounds on the value vector v as well.
Zusammenfassung Die Funktionalgleichungen für undiskontierte Markoffsche Erneuerungsprogramme mit skalarem Durschnittsgewinng lauten v=max q (f)–gT (f)+P (f)v;f A] wobeiA die Menge der zulässigen Politiken ist. Konvergierende obere und untere Schranken für den Durchschnittsgewinn wurden vom Autor in J. Math. Anal. Appl. 34, 1971, 495–501 hergeleitet. In dieser Arbeit wird ein verbessertes iteratives Verfahren vorgestellt, das auch konvergierende obere und untere Schranken für den relativen Gewinn liefert. |
| |
Keywords: | |
本文献已被 SpringerLink 等数据库收录! |
|