NLP(ICL)课程:幽默检测
由于数据预处理和训练例程的差异,原始笔记本被复制了两次。
1个
第一个笔记本approach1_pretrained_roberta.ipynb包含方法1的最终RoBERTa模型,以及针对不同功能和头部架构的测试。 使用以下链接 或笔记本顶部的徽章以在Google Colab中查看。
可在以下位置获得经过训练的模型(〜0.5 GB): ://drive.google.com/file/d/1NSLn2pUc4TucEjXB4Se4w29YEqU2xH1i/view usp sharing
2个
第二个笔记本hyperparams_and_approach2.ipynb包括方法1的基本BERT植入以及超参数调整。 与此笔记本一起,还提供了关注方法2的BiLSTM。 使用以下链接 或笔记本顶部的徽章以在Google Colab中查看。
报告
项目报告已上
1