Histogramme du Temps de Flux
L’Histogramme de Temps de Flux (nommé Flow Time Histogram) représente la répartition des durées (ou temps de flux) des tickets traités sur un intervalle, représenté par une étape de début et une étape de fin du Flux à analyser.
L’histogramme visualise ces durées de manière agrégée afin d’aider à comprendre la performance globale en termes de temps de traitement, et de repérer des périodes où des processus ont pris plus de temps que prévu.
Le Flow Time Histogram est utilisé pour :
Évaluer la latence : Il montre comment les durées de traitement se répartissent dans un système. Un histogramme avec des valeurs concentrées autour de temps faibles suggère que la plupart des transactions ou des événements sont traités rapidement, tandis qu’un histogramme étalé vers des temps élevés peut indiquer des problèmes de latence.
Repérer les anomalies : En étudiant l’histogramme, il est possible de détecter des incohérences, telles que des pics inhabituels dans le temps de traitement, qui pourraient signaler des périodes de surcharge, des erreurs de configuration ou des problèmes de ressources.
Optimiser les performances : Le Flow Time Histogram permet d’identifier les cas où les temps de réponse sont trop longs et d’ajuster les ressources ou les processus pour améliorer la rapidité des transactions.
Comment lire un Flow Time Histogram ?
Comme tout histogramme, le Flow Time Histogram se présente sous la forme de barres verticales, où chaque barre correspond au nombre de fois qu’un certain intervalle de temps de flux a été observé.
Axe horizontal (x) : Cet axe représente les intervalles de temps de flux.
Axe vertical (y) : Cet axe représente la fréquence d’occurrence des différents temps de flux. Plus la barre est haute, plus le temps de flux correspondant a été fréquent.
Forme de l’histogramme :
Concentré vers la gauche (temps de flux courts) : Si la majorité des barres se trouvent à gauche de l’histogramme, cela signifie que la plupart des événements ou transactions sont traités rapidement, ce qui est généralement signe d’un système performant.
Étendu vers la droite (temps de flux longs) : Si l’histogramme montre des barres importantes à droite, cela peut indiquer que certains processus prennent beaucoup plus de temps que prévu, et pourrait signaler des problèmes de performance ou de surcharge.
Distribution bimodale ou multimodale : Si l’histogramme présente plusieurs pics, cela pourrait indiquer que le système a des performances variables selon le type de transactions ou la période d’exécution. Par exemple, certaines transactions rapides peuvent se dérouler sans encombre, tandis que d’autres, plus complexes, prennent plus de temps.
Utilité dans Wiveez
Le Flow Time Histogram dans Wiveez permet aux utilisateurs de :
Visualiser la répartition des temps de réponse dans un système ou une application, afin d’identifier la proportion de processus traités rapidement par rapport à ceux qui prennent plus de temps.
Diagnostiquer des problèmes de performance en détectant des périodes où les temps de flux sont élevés, permettant d’isoler les causes potentielles comme une surcharge de ressources, des problèmes de latence, ou des erreurs de configuration.
Améliorer l’efficacité en ajustant les processus ou les ressources en fonction des observations de l’histogramme. Par exemple, si un pic de temps de flux élevés est détecté à certains moments, l’utilisateur peut décider d’augmenter la capacité ou de revoir les processus pour éviter des retards importants.
Le graphique
Les filtres
Les Quartiles : Analyser la Répartition de la performance de votre Flux
Les quartiles – aussi nommées boite à Moustaches – divisent les données en quatre parties égales, permettant de comprendre comment elles sont réparties.
Ils sont particulièrement utiles pour obtenir une vue d’ensemble de la distribution des performances dans un processus.
Définition des Quartiles
Q1 (Premier quartile) : 25 % des données sont inférieures à cette valeur.
Q2 (Médiane ou second quartile) : 50 % des données sont inférieures à cette valeur.
Q3 (Troisième quartile) : 75 % des données sont inférieures à cette valeur.
Les écarts inter-quartiles (IQR) peuvent aussi être utilisés pour détecter des valeurs aberrantes (outliers).
L’IQR va représenter les limites basses et hautes admissible pour avoir une répartition du flux prédictible. Il s’agit des fameuses moustaches. Les valeurs se trouvant en dehors doivent être considérer comme des valeurs aberrantes et être analysées.
L’IQR est défini comme Q3−Q1.
Une règle commune est de considérer toute valeur en dehors de Q1 − 1,5 × IQR et Q3 + 1,5 × IQR comme une valeur aberrante.
Exemple de calcul de Quartiles
Trier les données par ordre croissant : 17 ; 18 ; 19 ; 19 ; 20 ; 20 ; 21 ; 22 ; 23 ; 24
Calculer le Premiers Quartile – Q1 en identifiant le temps de Cycle de 25% des mesures – Résultat : Q1 = 19
Calculer la Second Quartile, c’est çà dire la Médiane, représentant 50% des temps de cycle mesurés – Résultat Q2 = 20
Liste Impair : Lorsque le nombre de mesure est impair, prendre la valeur du milieu
Liste Pair : Lorsque le nombre de mesure est pair, comme dans notre exemple, Faire la somme des 2 valeurs centrale et les diviser par 2. Le résultat représente la Médiane.
Calculer le Troisième Quartile – Q3, représentant les 75% des mesures effectuées – Résultat : Q3 = 22
Identifier les Moustaches, c’est à dire la valeur la plus faible et la valeur la plus importante mesurée – Résultat :
Calculer l’inter-quartile (IQR)
IQR = Q3 – Q1 = 22 – 19 = 3
Limite basse = Q1 – 1.5*IQR = 19 + 1,5*3 = 14.5
Limite haute = Q3 + 1.5*IQR = 22 + 1*5*3 = 26.5
Utilité
Les Quartiles sont souvent utilisés pour visualiser la répartition des données et identifier les points où se situent la majorité des valeurs. Cela permet de voir où se trouvent les valeurs centrales (grâce à la médiane) et d’identifier les écarts ou les valeurs aberrantes.
Prenons l’exemple d’une équipe de développement qui livre des tickets toutes les deux semaines. En analysant le nombre de tickets livrés sur plusieurs périodes, les quartiles nous donnent un aperçu de la répartition des livraisons. Cela aide à comprendre combien de tickets sont livrés dans les 25 % les plus bas, les 50 % centraux, et les 25 % les plus hauts.
UCL/LCL : Garder votre Processus sous Contrôle
Les limites de contrôle (UCL et LCL) sont des seuils statistiques utilisés dans les cartes de contrôle. Ils permettent de surveiller un processus pour détecter des anomalies et déterminer si celui-ci est stable.
UCL (Upper Control Limit) : Limite supérieure de contrôle.
LCL (Lower Control Limit) : Limite inférieure de contrôle. Ces limites sont généralement fixées à 3 écarts-types au-dessus et en dessous de la moyenne, ce qui signifie que 99,73 % des données devraient se situer dans cette plage dans un processus « sous contrôle ».
Utilité
Les limites de contrôle sont idéales pour détecter des anomalies dans un processus. Si une donnée tombe en dehors de ces limites, cela peut indiquer un problème qui nécessite une investigation (comme un changement inattendu de la performance).
UCL/LCL : Comment les calculer ?
Les limites de contrôle (UCL/LCL) sont utilisées dans les cartes de contrôle pour surveiller un processus. Elles sont basées sur la moyenne et l’écart-type, et définissent une plage de variation normale. Elles sont calculées en appliquant la règle des 3-sigma, soit trois écarts-types au-dessus et en dessous de la moyenne.
UNPL/LNPL : Comprendre la Variabilité Naturelle
Contrairement aux UCL et LCL, les limites naturelles du processus (UNPL et LNPL) ne sont pas basées uniquement sur des calculs statistiques, mais plutôt sur une compréhension approfondie du processus et des tolérances acceptées.
UNPL (Upper Natural Process Limit) : Limite supérieure naturelle.
LNPL (Lower Natural Process Limit) : Limite inférieure naturelle. Ces limites reflètent la plage de variation naturelle du processus, définie par des spécifications ou des tolérances acceptées, et non par des écarts statistiques seuls.
Utilité
Les limites naturelles sont particulièrement utiles lorsque vous avez une bonne compréhension empirique du processus ou lorsque des tolérances spécifiques doivent être respectées (par exemple, des normes industrielles ou des exigences client). Elles permettent d’éviter de sur-réagir aux petites variations tout en garantissant que le processus fonctionne dans la plage définie comme acceptable.
Exemple d’application
1 – Collecte des données et analyse de la distribution
En général, la première étape est d’identifier si le processus suit une distribution normale ou non. Les limites naturelles peuvent parfois être calculées de manière différente selon la distribution des données.
2 – Déterminer les tolérances acceptables (ou les spécifications)
Les UNPL/LNPL peuvent être basées sur des tolérances acceptées ou spécifications de performance définies par des besoins métiers, des exigences clients ou des standards internes. Si ces tolérances existent (par exemple, une équipe s’attend à livrer entre 15 et 25 tickets par itération), elles peuvent guider directement les calculs.
Si des spécifications ou des tolérances sont déjà établies, les limites naturelles peuvent être fixées en conséquence. Par exemple, si l’équipe considère qu’en livrant moins de 16 tickets ou plus de 26, elle sort de son comportement normal, alors :
LNPL = 16
UNPL = 26
3 – Calculer les limites naturelles basées sur la variabilité observée
Si vous n’avez pas de tolérances pré-établies, vous pouvez calculer les UNPL/LNPL en fonction des données historiques du processus.
3.1 – Calculer la médiane ou une moyenne ajustée
La médiane est souvent utilisée à la place de la moyenne si le processus a des valeurs aberrantes ou des variations asymétriques. Cela donne une mesure centrale moins influencée par des valeurs extrêmes.
Dans notre cas, la médiane des tickets livrés sur 10 périodes est :
Médiane = 20
Si vous utilisez la moyenne, celle-ci est : Moyenne(xˉ) = 20,3
3.2 – Calculer la plage naturelle de variabilité
La variabilité naturelle du processus est souvent estimée à partir de l’écart interquartile (IQR), qui mesure la dispersion entre les 25 % des données les plus basses et les 25 % les plus hautes.
Pour notre exemple, les quartiles sont les suivants :
Q1 (1er quartile)=19 : 25 % des tickets livrés sont inférieurs ou égaux à 19.
Q3(3e quartile)=22 : 75 % des tickets livrés sont inférieurs ou égaux à 22.
L’écart interquartile (IQR) est : IQR = Q3−Q1 = 22−19 = 3
3.3 – Calculer les limites naturelles
Une méthode courante consiste à multiplier l’IQR par un facteur, souvent 1.5×IQR, pour identifier la plage de variation acceptable.
Ainsi, les limites naturelles peuvent être calculées comme suit :
UNPL = Q3+1,5×IQR = 22+1,5×3 =22+4,5 = 26,5
LNPL= Q1−1,5×IQR = 19−1,5×3 = 19−4,5 = 14,5
3.4 – Ajuster les limites en fonction des observations et des spécifications
Une fois les limites initiales calculées, vous pouvez les ajuster en fonction des observations empiriques ou des objectifs du processus.
Par exemple, si votre équipe constate que livrer moins de 16 tickets ou plus de 26 tickets est inacceptable, vous pourriez fixer les UNPL/LNPL respectivement à ces valeurs, même si les calculs indiquent une légère variation.
Vous voyez, sur la base de cet exemple, que le UNPL et le LNPL est très complémentaire de la mesure avec les Quartiles en intégrant les limites à ne pas dépasser pour rester dans un système stable.
Analyse de la Prédictibilité
L’analyse de la Prédictibilité permet de mesurer la qualité du débit et le niveau de confiance dans son utilisation pour les projections.
L’analyse se base sur le principe Thin-Tailed (Queue fine) - Fat-Tailed (Queue large)
Bien sûr ! Le concept des Thin-Tailed et Fat-Tailed distributions est souvent utilisé en analyse de risques, en statistiques et en finance pour comprendre et modéliser l'impact des événements rares et extrêmes. Voici une description que tu pourrais intégrer dans la documentation utilisateur de Wiveez, adaptée pour expliquer leur principe, leur fonctionnement et leur utilité dans ce contexte.
Thin-Tailed et Fat-Tailed : Principe et Utilité
Principe :
Dans la modélisation des données, en particulier en finance et en gestion des risques, on parle souvent de distributions de probabilité pour décrire la manière dont les événements ou les valeurs sont répartis. Deux types de distributions sont particulièrement importants : les distributions Thin-Tailed et Fat-Tailed.
Thin-Tailed (Queue fine) : Une distribution "thin-tailed" est caractérisée par une probabilité relativement faible que des événements extrêmes (ou déviations importantes par rapport à la moyenne) se produisent. Autrement dit, les valeurs extrêmes (très éloignées de la moyenne) sont rares. Un exemple typique serait la distribution normale (ou gaussienne), où la plupart des données se concentrent autour de la moyenne et les extrêmes sont très peu probables.
Fat-Tailed (Queue épaisse) : En revanche, une distribution "fat-tailed" a une probabilité plus élevée d'événements extrêmes. Cela signifie que les événements rares (mais très impactants) sont plus fréquents qu’on ne l'attendrait avec une distribution thin-tailed. Les distributions fat-tailed sont utilisées pour modéliser des phénomènes où les événements extrêmes ont un impact disproportionné, comme les crashs boursiers ou les crises économiques.
Analyse détaillée des tickets
Wiveez permet à l’utilisateur d’analyser en détail la performance de Temps de Flux en affichant la liste des tickets associé à une colonne et en affichant le détail des Métriques de Flux d’un ticket.
Analyser avec notre IA Alice
Wiveez met à votre disposition son IA, nommée Alice, afin de vous apporter une aide dans l’analyse des graphiques.
Cliquer sur l’icône d’Alice pour lancer l’analyse de votre graphique ;
Une page s’affiche contenant une analyse de l’état de santé de votre graphique et des conseils d’amélioration ;
Vous avez la possibilité de sauvegarder cette analyse dans un fichier PDF ;
Vous avez la possibilité de copier/coller l’analyse dans un autre type de document.
Tant qu’aucune modification n’a été effectué sur les filtres du graphique ou qu’aucun rafraichissement des données n’a été lancé, votre analyse reste accessible.