在模糊变量的期望值和连续阿基米德三角形范数的期望值下,讨论了模糊决策系统中与T无关的LR模糊变量的更新过程和更新奖励过程。 首先,讨论了具有T无关的LR模糊到达时间的更新过程,获得了更新变量,平均更新时间和(模糊)测度中的长期更新率的一些极限定理,并证明了模糊基本更新定理长期预期续订率的上限。 其次,讨论了具有独立于T的LR模糊到达时间和奖励的更新奖励过程,推导了(模糊)测度中奖励率的极限定理,并证明了期望奖励率的极限值的模糊更新奖励定理。 最后,与随机对应项的比较显示出收敛模式之间的有趣且合理的同源性,以及模糊更新过程中的结果与随机更新过程中的相应结果之间的极限值,尽管它们建立在两个本质上不同的数学基石上,即可能性理论和概率理论分别。
1