多臂强盗 该模块实现了多臂 Bandit 算法,如 John Myles White 的书中所描述的, Bandit 算法有助于确定多个选项中的最高平均奖励,而不会在错误的选择上浪费时间。 传统的 A/B 测试使用事后结果的统计抽样; 这是一种尝试不同选项的探索性方法。 不幸的是,这种方法忽略了利用已知好的选择。 这些算法平衡了探索新的、更好的选项的愿望,同时仍然通过使用已知的好的选项来获得尽可能多的奖励。 此代码源自 Bandit Algorithms for Website Optimization提供的。 改进包括文档和简化的更新,使代码更加“pythonic”。 包括测试以使用每个实现的算法生成测试数据。 数据以制表符分隔值的形式保存在此目录中。 为了方便(?), generate_plots.sh脚本将执行包含的 R 脚本以提供每个算法性能的比较图。 最小的 R 设
2021-12-28 00:32:26 12KB Python
1
在线零售商的定价经理面临着独特的挑战。 他们必须决定大量需求信息不完整的产品的实时价格。 经理运行价格实验以了解每种产品的需求曲线和利润最大化价格。 平衡的现场价格实验在实践中会产生高机会成本,因为大量客户面临次优价格。 在本文中,我们提出了一种替代的动态价格实验政策。 所提出的方法将多臂老虎机 (MAB) 算法从统计机器学习扩展到包括微观经济选择理论。 我们的自动定价策略使用可扩展的无分发算法解决了这个 MAB 问题。 我们通过分析证明我们的方法对于任何弱向下倾斜的需求曲线是渐近最优的。 在一系列 Monte Carlo 模拟中,我们表明,与来自计算机科学的动态定价中的平衡现场实验和标准方法相比,所提出的方法具有更好的表现。 在基于现有定价现场实验的校准模拟中,我们发现我们的算法可以将测试月份的利润增加 43%,每年增加 4%。
2021-06-29 20:27:30 2.86MB dynamic pricing ecommerce
1
Contextual Bandits 算法在推荐场景中的应用源码