´Ü¾î | ºÎºÐÀûÀ¸·Î °üÂûÇÒ ¼ö ÀÖ´Â Markov °áÁ¤ °úÁ¤ |
---|---|
POMDP: A Partially Observable Markov Decision Process | |
¼³¸í | ºÎºÐÀûÀ¸·Î °üÂûÇÒ ¼ö ÀÖ´Â Markov °áÁ¤ °úÁ¤ (POMDP: A Partially Observable Markov Decision Process)Àº Markov °áÁ¤ °úÁ¤ÀÇ È®ÀåÀÌ´Ù. POMDP´Â ¿ÏÀüÇÑ ¼¼°è³ª »óÅ °ø°£À» Ç×»ó Á÷Á¢ÀûÀ¸·Î °üÂûÇÒ ¼ö ¾øÀ» ¶§ »ç¿ëµÈ´Ù. ´Ù¸¥ ¸»·Î ÇÏ¸é ´ç½ÅÀÌ ¼¼°èÀÇ ¾îµð¿¡ ÀÖ´ÂÁö ¹«¾ùÀ» ÇؾßÇÏ´ÂÁö Áï½Ã ¾ËÁö ¸øÇÒ ¶§ »ç¿ëµÇ´Â °ÍÀÌ´Ù. ¿¹¸¦ µé¾î¼ ü½º´Â Á÷Á¢ °üÂûÇÒ ¼ö ÀÖ´Â °ÔÀÓÀÌ´Ù. ´ç½ÅÀº Ç×»ó ¸ðµç Á¶°¢ÀÇ À§Ä¡¸¦ º¼ ¼ö ÀÖ´Ù. ±×·¯³ª Æ÷Ä¿´Â ºÎºÐÀûÀ¸·Î ¹Û¿¡ º¼ ¼ö ¾ø´Ù. ´ç½ÅÀº Ä«µåµéÀ» »ó´ë¹æ ¸ô·¡ º¼ ¼ö´Â ÀÖÁö¸¸ Á÷Á¢ÀûÀ¸·Î ±×°ÍÀ» º¼ ¼ö´Â ¾ø´Ù. |
Copyright(c) Computer Science Engineering Research Information Center. All rights reserved.