MINILM: DEEP SELF-ATTENTION DISTILLATION FOR TASK-AGNOSTIC COMPRESSION OF PRE-TRAINED TRANSFORMERS

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:NeurIPS (34. : 2020 : Online) 34th Conference on Neural Information Processing Systems (NeurIPS 2020) ; Volume 8 of 27
1. Verfasser: Wang, Wenhui (VerfasserIn)
Weitere Verfasser: Wei, Furu (VerfasserIn), Dong, Li (VerfasserIn), Bao, Hangbo (VerfasserIn), Yang, Nan (VerfasserIn), Zhou, Ming (VerfasserIn)
Pages:34
Format: UnknownFormat
Sprache:eng
Veröffentlicht: 2021
Schlagworte:
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Beschreibung
Keine Beschreibung verfügbar.