ZeroQuant: Efficient and Affordable Post-Training Quantization for Large-Scale Transformers

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:NeurIPS (36. : 2022 : New Orleans, La.; Online) 36th Conference on Neural Information Processing Systems (NeurIPS 2022 ; Volume 35 of 50
1. Verfasser: Yao, Zhewei (VerfasserIn)
Weitere Verfasser: Yazdani Aminabadi, Reza (VerfasserIn), Zhang, Minjia (VerfasserIn), Wu, Xiaoxia (VerfasserIn), Li, Conglong (VerfasserIn), He, Yuxiong (VerfasserIn)
Pages:36
Format: UnknownFormat
Sprache:eng
Veröffentlicht: 2023
Schlagworte:
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Beschreibung
Keine Beschreibung verfügbar.