排名蒸馏
排名蒸馏的PyTorch实现:
,唐嘉喜和王珂,KDD '18
要求
Python 2或3
脾气暴躁的
科学
用法
训练学生模型(Model-S)
运行d=50 python train_caser.py以获得学生模型的性能。
完成后,我们会将模型保存在文件夹检查点/
培训教师模型(Model-T)
使用d=100运行python train_caser.py以获取教师模型的性能。
完成后,我们会将模型保存在文件夹检查点/
通过分级蒸馏训练学生模型(Model-RD)
使用d=100运行python train_caser.py以获得训练有素的教师模型。
完成后,我们将教师模型保存在文件夹检查点/
(您也可以跳过此步骤,因为checkpoint / gowalla-caser-dim = 100.pth.tar中有一个)
运行python distill_ca
2022-07-19 23:27:34
62.23MB
Python
1