Optimisation temps ouverture et rafraîchissement Gsheet
Bonjour tout le monde,
J'arrive tout juste sur ce forum et je vous remercie de vous intéresser à ma question.
J'utilise beaucoup Spreadsheet et j'ai des feuilles de calcul qui sont de plus en plus chargées avec beaucoup de tableaux de données. J'ai pris l'habitude de ne pas tout mettre dans un même fichier. Je pratique plutot importrange et/ query(importrange), c'est selon.
Je constate que le rafraîchissement de mes résultats est parfois insupportablement long.
Ai je trop de données importées (limité pourtant par Google à 150 000 cell)
Ai je trop de lignes avec formules (là où Arrayformula ne fonctionne pas toujours), parfois 25000 lignes
Ai je trop de query ? (certaines cellules on une query pour un résultat... mais j'ai parfois une vingtaines de cellules)
Ai je trop de tableau croisé dynamique? (j'ai un cas avec 10 onglets pivot table)
Ai je trop de graphiques? j'ai les graphiques qui montrent les résultats de pivot table et des query(importrange)..
Ma question à la communauté est "Quelle est la meilleure approche pour que le temps d'ouverture et de rafraîchissement du Gsheet soit optimisé et donc rapide ?"
Voila, je serai intéressé de connaître vos recommandations. Ce qu'il faut faire et ce qu'il faut surtout éviter de faire...
Bonne journée
MXD38
Bonjour,
La demande reste très vague, car tous les points que vous soulevez sont susceptibles d'alourdir le fichier et réduire la vitesse de rafraîchissement.
Globalement, les TCD et query aussi je pense sont moins gourmands que les fonctions matricielles et fonctions telles que AVERAGEIFS, MAXIFS, SUMIFS, etc... Les graphiques, images et autres éléments insérables sont à utiliser avec parcimonie.
Dans tous les cas, Google Sheets supporte assez mal les fichiers de grande taille et offrira des performances inférieures à un tableur en local. En revanche il dispose de fonctionnalités propres intéressantes, et bien sûr de l'avantage du partage et du stockage sécurisé.
Bonjour Pedro22,
La demande est générale..
Merci d'avoir regardé le sujet
J'ai progressé un temps soit peu dans mes recherches web sur la question.
Si la base de données originelle est grosse (25000 lignes, 30 champs colonnes, par exemple)
A/ Le point clef c'est la "pré-traiter" dans une autre feuille de calcul dédiée
B/ Ensuite Les données doivent être "nettoyées" avant que les queries n'attaquent la base.
Si les données couvrent 20 champs, et que seuls 6 champs vont servir aux queries, il vaut mieux créé un onglet et faire une query qui récupère les 6 champs utiles..
C/ c'est cet onglet "nettoyé" qui sera importé dans le fichier de calcul des indicateurs avec les tableaux dynamiques et les autres queries
Voila j'ai fait ça et j'ai gagné un temps processing de malade
Bonne continuation
MXD
note - j'ai aussi pu constater que le PC et la liaison internet comptent beaucoup.. Un bon proc. et une bon débit, c'est aussi la clef