Histogramme de suivi du Débit
L’histogramme du Débit est un outil de visualisation couramment utilisé pour représenter la répartition des débits dans un Flux donné. En termes simples, il montre comment les valeurs de débit se distribuent sur une période de temps et permet de comprendre les performances ou le comportement du système en termes de débit.
L’Histogramme de Débit est un graphique qui représente la fréquence de différentes valeurs de débit sur un intervalle donné. En d'autres termes, il indique combien de fois un certain niveau de débit a été observé au cours d’une période ou d’une série d'événements.
Dans le contexte de Wiveez, le débit peut faire référence à une mesure comme la quantité de données traitées par unité de temps, le nombre de transactions ou d'événements réussis dans un système donné. L'histogramme aide à visualiser ces données en regroupant les valeurs de débit observées en différentes "tranches".
L’Histogramme de Débit est utilisé pour :
Identifier la performance globale : Il montre comment les valeurs de débit sont réparties. Par exemple, si un grand nombre d'événements ou de transactions se situe dans une fourchette de débit élevée, cela indique que le système fonctionne de manière performante.
Détecter des goulots d'étranglement : Un histogramme qui montre une concentration importante de faibles valeurs de débit pourrait indiquer des goulots d’étranglement ou des problèmes de performance dans certaines parties du système.
Analyser la variabilité des performances : L'histogramme permet de visualiser si les débits observés sont stables ou variables. Une distribution uniforme indique une performance relativement constante, tandis qu'une distribution très étalée peut signaler une grande variabilité dans le débit.
Le graphique
Les filtres
Les Quartiles : Analyser la Répartition de la performance de votre Flux
Les quartiles – aussi nommées boite à Moustaches – divisent les données en quatre parties égales, permettant de comprendre comment elles sont réparties.
Ils sont particulièrement utiles pour obtenir une vue d’ensemble de la distribution des performances dans un processus.
Définition des Quartiles
Q1 (Premier quartile) : 25 % des données sont inférieures à cette valeur.
Q2 (Médiane ou second quartile) : 50 % des données sont inférieures à cette valeur.
Q3 (Troisième quartile) : 75 % des données sont inférieures à cette valeur.
Les écarts inter-quartiles (IQR) peuvent aussi être utilisés pour détecter des valeurs aberrantes (outliers).
L’IQR va représenter les limites basses et hautes admissible pour avoir une répartition du flux prédictible. Il s’agit des fameuses moustaches. Les valeurs se trouvant en dehors doivent être considérer comme des valeurs aberrantes et être analysées.
L’IQR est défini comme Q3−Q1.
Une règle commune est de considérer toute valeur en dehors de Q1 − 1,5 × IQR et Q3 + 1,5 × IQR comme une valeur aberrante.
Exemple de calcul de Quartiles
Trier les données par ordre croissant : 17 ; 18 ; 19 ; 19 ; 20 ; 20 ; 21 ; 22 ; 23 ; 24
Calculer le Premiers Quartile – Q1 en identifiant le temps de Cycle de 25% des mesures – Résultat : Q1 = 19
Calculer la Second Quartile, c’est çà dire la Médiane, représentant 50% des temps de cycle mesurés – Résultat Q2 = 20
Liste Impair : Lorsque le nombre de mesure est impair, prendre la valeur du milieu
Liste Pair : Lorsque le nombre de mesure est pair, comme dans notre exemple, Faire la somme des 2 valeurs centrale et les diviser par 2. Le résultat représente la Médiane.
Calculer le Troisième Quartile – Q3, représentant les 75% des mesures effectuées – Résultat : Q3 = 22
Identifier les Moustaches, c’est à dire la valeur la plus faible et la valeur la plus importante mesurée – Résultat :
Calculer l’inter-quartile (IQR)
IQR = Q3 – Q1 = 22 – 19 = 3
Limite basse = Q1 – 1.5*IQR = 19 + 1,5*3 = 14.5
Limite haute = Q3 + 1.5*IQR = 22 + 1*5*3 = 26.5
Utilité
Les Quartiles sont souvent utilisés pour visualiser la répartition des données et identifier les points où se situent la majorité des valeurs. Cela permet de voir où se trouvent les valeurs centrales (grâce à la médiane) et d’identifier les écarts ou les valeurs aberrantes.
Prenons l’exemple d’une équipe de développement qui livre des tickets toutes les deux semaines. En analysant le nombre de tickets livrés sur plusieurs périodes, les quartiles nous donnent un aperçu de la répartition des livraisons. Cela aide à comprendre combien de tickets sont livrés dans les 25 % les plus bas, les 50 % centraux, et les 25 % les plus hauts.
UCL/LCL : Garder votre Processus sous Contrôle
Les limites de contrôle (UCL et LCL) sont des seuils statistiques utilisés dans les cartes de contrôle. Ils permettent de surveiller un processus pour détecter des anomalies et déterminer si celui-ci est stable.
UCL (Upper Control Limit) : Limite supérieure de contrôle.
LCL (Lower Control Limit) : Limite inférieure de contrôle. Ces limites sont généralement fixées à 3 écarts-types au-dessus et en dessous de la moyenne, ce qui signifie que 99,73 % des données devraient se situer dans cette plage dans un processus « sous contrôle ».
Utilité
Les limites de contrôle sont idéales pour détecter des anomalies dans un processus. Si une donnée tombe en dehors de ces limites, cela peut indiquer un problème qui nécessite une investigation (comme un changement inattendu de la performance).
UCL/LCL : Comment les calculer ?
Les limites de contrôle (UCL/LCL) sont utilisées dans les cartes de contrôle pour surveiller un processus. Elles sont basées sur la moyenne et l’écart-type, et définissent une plage de variation normale. Elles sont calculées en appliquant la règle des 3-sigma, soit trois écarts-types au-dessus et en dessous de la moyenne.
UNPL/LNPL : Comprendre la Variabilité Naturelle
Contrairement aux UCL et LCL, les limites naturelles du processus (UNPL et LNPL) ne sont pas basées uniquement sur des calculs statistiques, mais plutôt sur une compréhension approfondie du processus et des tolérances acceptées.
UNPL (Upper Natural Process Limit) : Limite supérieure naturelle.
LNPL (Lower Natural Process Limit) : Limite inférieure naturelle. Ces limites reflètent la plage de variation naturelle du processus, définie par des spécifications ou des tolérances acceptées, et non par des écarts statistiques seuls.
Utilité
Les limites naturelles sont particulièrement utiles lorsque vous avez une bonne compréhension empirique du processus ou lorsque des tolérances spécifiques doivent être respectées (par exemple, des normes industrielles ou des exigences client). Elles permettent d’éviter de sur-réagir aux petites variations tout en garantissant que le processus fonctionne dans la plage définie comme acceptable.
Exemple d’application
1 – Collecte des données et analyse de la distribution
En général, la première étape est d’identifier si le processus suit une distribution normale ou non. Les limites naturelles peuvent parfois être calculées de manière différente selon la distribution des données.
2 – Déterminer les tolérances acceptables (ou les spécifications)
Les UNPL/LNPL peuvent être basées sur des tolérances acceptées ou spécifications de performance définies par des besoins métiers, des exigences clients ou des standards internes. Si ces tolérances existent (par exemple, une équipe s’attend à livrer entre 15 et 25 tickets par itération), elles peuvent guider directement les calculs.
Si des spécifications ou des tolérances sont déjà établies, les limites naturelles peuvent être fixées en conséquence. Par exemple, si l’équipe considère qu’en livrant moins de 16 tickets ou plus de 26, elle sort de son comportement normal, alors :
LNPL = 16
UNPL = 26
3 – Calculer les limites naturelles basées sur la variabilité observée
Si vous n’avez pas de tolérances pré-établies, vous pouvez calculer les UNPL/LNPL en fonction des données historiques du processus.
3.1 – Calculer la médiane ou une moyenne ajustée
La médiane est souvent utilisée à la place de la moyenne si le processus a des valeurs aberrantes ou des variations asymétriques. Cela donne une mesure centrale moins influencée par des valeurs extrêmes.
Dans notre cas, la médiane des tickets livrés sur 10 périodes est :
Médiane = 20
Si vous utilisez la moyenne, celle-ci est : Moyenne(xˉ) = 20,3
3.2 – Calculer la plage naturelle de variabilité
La variabilité naturelle du processus est souvent estimée à partir de l’écart interquartile (IQR), qui mesure la dispersion entre les 25 % des données les plus basses et les 25 % les plus hautes.
Pour notre exemple, les quartiles sont les suivants :
Q1 (1er quartile)=19 : 25 % des tickets livrés sont inférieurs ou égaux à 19.
Q3(3e quartile)=22 : 75 % des tickets livrés sont inférieurs ou égaux à 22.
L’écart interquartile (IQR) est : IQR = Q3−Q1 = 22−19 = 3
3.3 – Calculer les limites naturelles
Une méthode courante consiste à multiplier l’IQR par un facteur, souvent 1.5×IQR, pour identifier la plage de variation acceptable.
Ainsi, les limites naturelles peuvent être calculées comme suit :
UNPL = Q3+1,5×IQR = 22+1,5×3 =22+4,5 = 26,5
LNPL= Q1−1,5×IQR = 19−1,5×3 = 19−4,5 = 14,5
3.4 – Ajuster les limites en fonction des observations et des spécifications
Une fois les limites initiales calculées, vous pouvez les ajuster en fonction des observations empiriques ou des objectifs du processus.
Par exemple, si votre équipe constate que livrer moins de 16 tickets ou plus de 26 tickets est inacceptable, vous pourriez fixer les UNPL/LNPL respectivement à ces valeurs, même si les calculs indiquent une légère variation.
Vous voyez, sur la base de cet exemple, que le UNPL et le LNPL est très complémentaire de la mesure avec les Quartiles en intégrant les limites à ne pas dépasser pour rester dans un système stable.
Analyse de la Prédictibilité
L’analyse de la Prédictibilité permet de mesurer la qualité du débit et le niveau de confiance dans son utilisation pour les projections.
L’analyse se base sur le principe Thin-Tailed (Queue fine) - Fat-Tailed (Queue large)
Bien sûr ! Le concept des Thin-Tailed et Fat-Tailed distributions est souvent utilisé en analyse de risques, en statistiques et en finance pour comprendre et modéliser l'impact des événements rares et extrêmes. Voici une description que tu pourrais intégrer dans la documentation utilisateur de Wiveez, adaptée pour expliquer leur principe, leur fonctionnement et leur utilité dans ce contexte.
Thin-Tailed et Fat-Tailed : Principe et Utilité
Principe :
Dans la modélisation des données, en particulier en finance et en gestion des risques, on parle souvent de distributions de probabilité pour décrire la manière dont les événements ou les valeurs sont répartis. Deux types de distributions sont particulièrement importants : les distributions Thin-Tailed et Fat-Tailed.
Thin-Tailed (Queue fine) : Une distribution "thin-tailed" est caractérisée par une probabilité relativement faible que des événements extrêmes (ou déviations importantes par rapport à la moyenne) se produisent. Autrement dit, les valeurs extrêmes (très éloignées de la moyenne) sont rares. Un exemple typique serait la distribution normale (ou gaussienne), où la plupart des données se concentrent autour de la moyenne et les extrêmes sont très peu probables.
Fat-Tailed (Queue épaisse) : En revanche, une distribution "fat-tailed" a une probabilité plus élevée d'événements extrêmes. Cela signifie que les événements rares (mais très impactants) sont plus fréquents qu’on ne l'attendrait avec une distribution thin-tailed. Les distributions fat-tailed sont utilisées pour modéliser des phénomènes où les événements extrêmes ont un impact disproportionné, comme les crashs boursiers ou les crises économiques.
Analyse détaillée des tickets
Wiveez permet à l’utilisateur d’analyser en détail la performance de chaque débit en affichant la liste des tickets associé à une colonne et en affichant le détail des Métriques de Flux d’un ticket.
Analyser avec notre IA Alice
Wiveez met à votre disposition son IA, nommée Alice, afin de vous apporter une aide dans l’analyse des graphiques.
Cliquer sur l’icône d’Alice pour lancer l’analyse de votre graphique ;
Une page s’affiche contenant une analyse de l’état de santé de votre graphique et des conseils d’amélioration ;
Vous avez la possibilité de sauvegarder cette analyse dans un fichier PDF ;
Vous avez la possibilité de copier/coller l’analyse dans un autre type de document.
Tant qu’aucune modification n’a été effectué sur les filtres du graphique ou qu’aucun rafraichissement des données n’a été lancé, votre analyse reste accessible.