- Was ist ein Downsampling im maschinellen Lernen??
- Warum maschinelles Lernen aus dem Beispiel verkleinert?
- Verringert Downsampling die Genauigkeit??
- Warum verwenden wir Downsampling??
Was ist ein Downsampling im maschinellen Lernen??
Downsampling (in diesem Zusammenhang) bedeutet das Training mit einer unverhältnismäßig niedrigen Untergruppe der Mehrheitsklassenbeispiele. Upweighing bedeutet, der Down -Sampled -Klasse ein Beispielgewicht zu erweitern, der dem Faktor entspricht, mit dem Sie abgetastet sind.
Warum maschinelles Lernen aus dem Beispiel verkleinert?
Downsampling ist ein Mechanismus, der die Anzahl von Trainingsproben verringert, die unter die Mehrheitsklasse fallen. Wie es hilft, die Zählungen der Zielkategorien zu erhöhen. Indem wir die gesammelten Daten beseitigen, verlieren wir tendenziell so viel wertvolle Informationen.
Verringert Downsampling die Genauigkeit??
Mit zunehmender Down -Sampling -Rate steigt die Präzision aller Modelle, da im Trainingssatz mehr Hintergrundinformationen bereitgestellt werden, um Fehlalarme zu vermeiden. Im Gegensatz zu den zweistufigen Detektoren hat SSD eine viel geringere Erkennungsgenauigkeit.
Warum verwenden wir Downsampling??
Durch Downsampling können Sie auch kleinere Modelle erstellen, da der Algorithmus für maschinelles Lernen nicht so viele Trainingsdatenpunkte erfordert. Für eingebettete KI ist die Speicherverwendung von entscheidender Bedeutung. Erstellen eines kleineren, aber immer noch sehr genauen Modells können Sie Speicherplatz für andere Anwendungscode und Prozesse auf dem Gerät sparen.