-
Demande d'amélioration
-
Résolution: Non résolu
-
Majeur
-
master, branche 6.7
-
Aucune
-
VDM 6.7 - Evolution
-
0
Certains traitements du scansite doivent être optimisés car les algorithmes utilisés ne tiennent pas les volumétries importantes.
Pour commencer, la purge des fiche supprimées et des metatag orphelins.
Dans l'algo actuel, on charge la liste des fiches d'un type puis on charge la liste des métatag et on compare les deux listes.
Pour une volumétrie importante (> 1 millions d'enregistrements), on se retrouve avec des centaines de milliers de fiches et de métatag en mémoire. En plus, la liste des metatag est mise en cache (pour une utilisation quotidienne)