- Was ist QAT -Training??
- Was ist die Int8 -Quantisierung?
- Reduziert die Quantisierung die Modellgröße??
Was ist QAT -Training??
Quantisierungsbewusstseinstraining (QAT) Quantization Awesare Training zielt darauf ab, Faktoren im Training zu berechnen. Sobald das Netzwerk vollständig trainiert ist, werden quantisieren (q) und dequantize (DQ) -Knoten nach einem bestimmten Satz von Regeln in das Diagramm eingefügt.
Was ist die Int8 -Quantisierung?
Die Fähigkeit, die Genauigkeit eines Modells von FP32 bis INT8 zu senken, ist in die DL Workbench -Anwendung integriert. Dieser Prozess wird als Quantisierung bezeichnet und es ist eine große Praxis, die Leistung bestimmter Modelle auf Hardware zu beschleunigen, die INT8 unterstützt.
Reduziert die Quantisierung die Modellgröße??
Quantisierung kann die Größe eines Modells in all diesen Fällen verringern, möglicherweise auf Kosten einer Genauigkeit. Beschneiden und Clustering können die Größe eines Modells zum Download verringern, indem es leichter komprimierbar ist.