Je suis face à quelque chose d'étonnant.
Je réalise un programme qui a pour but de compter le nombre d'heure réalisé par chaque opérateur dans un planning
Pour faire des test de temps d'exécution de mon programme j'ai choisi une personne qui avait réalisé 160 heure sur un mois que j'ai copié collé 3 fois pour me faire un trimestre
Quand je le teste tout seul, le programme mets moins d'une seconde à se réaliser. Ce qui me donne un temps de <1s/personne
Quand je fais le test avec 25 fois cette personne (avec des noms bidons pour que le programme pense que ce sont des personnes différentes), le programme mets 2 min et 51s à s'exécuter soit 6,96s/personne et 0,044s/par heure réalisé par l'opérateur
J'ai donc essayer avec 50 fois cette personne et la j'en ai eu pour 10 min et 43s soit 12,86s/personne et 0,067s/heure réaliser par l'opérateur
comment est ce possible que le programme mette plus de temps à réaliser la même tache en fonction du nombre de fois qu'il a à la réaliser ? En sachant que j'ai fais écrire au programme le temps qu'il met à faire chaque personne et le temps n'augmente pas au fur et à mesure du programme. quand il y 25 personne que ce soit la première ou la dernière personne il va mettre 7 seconde à la réalisé. Idem à 50 il va mettre 13s pour toutes les personnes
J'espère avoir était clair, je me tient dispo pour envoyer mon code expliqué si cela est nécessaire à la compréhension du sujet