Transformers 为数以千计的预训练模型奠定了基础(包括我们熟知的Bert、GPT、GPT-2、XLM等),支持100多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨就是让最先进的 NLP 技术人人易用。Transformer还提供了便于快速下载和使用的API,让你可以把预训练模型用于给定文本上,在自己的数据集上对它们进行微调,然后通过modle hub与社区共享它们。此外,Transformer由三个最热门的深度学习库——Jax、PyTorch和TensorFlow支持,它们之间可以无缝整合。
1