python:python_hash_image_files
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
python:python_hash_image_files [2015/09/05 23:29] – [Performance Überlegungen] gpipperr | python:python_hash_image_files [2015/09/08 10:01] (aktuell) – [Einsatz - Erkennen von Dubletten in einen Verzeichnis Baum] gpipperr | ||
---|---|---|---|
Zeile 175: | Zeile 175: | ||
D.h. im aktuellen Fall ist die Puffergröße 262144 Byte am besten. | D.h. im aktuellen Fall ist die Puffergröße 262144 Byte am besten. | ||
+ | |||
+ | Auch mit openssl kann die Performance der aktuellen Maschine für verschiedene Hashs überprüft werden: | ||
+ | <code bash> | ||
+ | openssl speed | ||
+ | </ | ||
+ | Dient aber im Prinzip mehr dazu die Performance der Verschlüsselungsalgorithmen besser zu verstehen. | ||
+ | |||
Zeile 206: | Zeile 213: | ||
-- Info :: The run needs :: 33.66735999 seconds | -- Info :: The run needs :: 33.66735999 seconds | ||
--======================================== | --======================================== | ||
+ | </ | ||
- | </ | + | |
+ | Im nächsten Schritt stellt sich nun die Frage welche der doppelten Daten dann am Ende gelöscht werden sollen. | ||
+ | |||
+ | Werde das wohl so implementieren, | ||
+ | |||
+ | Der Anwender kann entscheiden, | ||
===Code=== | ===Code=== | ||
python/python_hash_image_files.txt · Zuletzt geändert: 2015/09/08 10:01 von gpipperr