上传者: 42112658
|
上传时间: 2021-12-28 00:32:26
|
文件大小: 12KB
|
文件类型: -
多臂强盗
该模块实现了多臂 Bandit 算法,如 John Myles White 的书中所描述的,
Bandit 算法有助于确定多个选项中的最高平均奖励,而不会在错误的选择上浪费时间。
传统的 A/B 测试使用事后结果的统计抽样; 这是一种尝试不同选项的探索性方法。 不幸的是,这种方法忽略了利用已知好的选择。 这些算法平衡了探索新的、更好的选项的愿望,同时仍然通过使用已知的好的选项来获得尽可能多的奖励。
此代码源自 Bandit Algorithms for Website Optimization提供的。 改进包括文档和简化的更新,使代码更加“pythonic”。
包括测试以使用每个实现的算法生成测试数据。 数据以制表符分隔值的形式保存在此目录中。
为了方便(?), generate_plots.sh脚本将执行包含的 R 脚本以提供每个算法性能的比较图。
最小的 R 设