Suivi du Débit
Le Suivi du débit (Throughput Run Chart) est un outil de suivi des performances qui visualise le débit en fonction du temps. Contrairement à l’histogramme, qui montre une répartition statique des valeurs de débit sur une période, le Suivi du Débit permet de voir comment le débit évolue dans le temps, souvent en temps réel. Ce type de graphique est particulièrement utile pour surveiller la performance d’un système ou d’une application sur une période donnée et pour repérer des tendances ou des fluctuations significatives.
Débit (Throughput) : Le débit représente la quantité de travail accompli par un système sur une période donnée. Cela peut inclure le nombre de transactions, de requêtes traitées, ou de données transférées par seconde, minute, heure, etc.
Évolution dans le temps : Le suivi du débit montre comment ces valeurs changent au fil du temps, en offrant une vue dynamique et temporelle des performances.
Fonctionnement et Utilité
Le Throughput Run Chart est particulièrement utile pour :
Suivre les tendances dans le débit : Il permet de visualiser les changements graduels ou brusques dans le débit au fil du temps, révélant des tendances croissantes, décroissantes, ou des périodes de stabilité.
Détecter les anomalies et les pics : En suivant l’évolution des débits, il devient facile de repérer des anomalies, comme des pics soudains (augmentation ou diminution rapide du débit) qui pourraient signaler des événements inattendus, des problèmes de performance ou des changements de comportement du système.
Optimiser les processus : Le run chart peut aider à identifier des périodes où le système fonctionne de manière optimale ou sous-optimale, permettant ainsi de prendre des décisions pour ajuster les ressources ou améliorer l’efficacité.
Mesurer l'impact des changements : Si une mise à jour ou une modification est appliquée à un système, le run chart peut être utilisé pour surveiller l’impact de ce changement sur le débit dans le temps.
Comment lire un Throughput Run Chart ?
Le Throughput Run Chart se présente sous la forme d’une ligne tracée sur un graphique où chaque point représente le débit observé à un moment donné.
Voici les éléments clés à comprendre lors de la lecture :
Axe horizontal (x) : Cet axe représente le temps, généralement divisé en intervalles réguliers, selon la période d’observation choisie.
Axe vertical (y) : Cet axe représente le débit (throughput).
Ligne de tendance : Cela permet de visualiser l’évolution du débit dans le temps, que ce soit une augmentation, une diminution ou une variation régulière.
Points clés à observer :
Pics (hautes valeurs de débit) : Si le débit augmente soudainement, cela peut indiquer une période de forte activité ou un pic de demande.
Creux (basses valeurs de débit) : Des baisses soudaines peuvent signaler une réduction de l’activité ou un problème de performance (comme une surcharge ou un ralentissement).
Plateaux : Si la ligne du débit est relativement stable, cela signifie que le système maintient un débit constant, ce qui peut être interprété comme un bon signe de stabilité, à moins que le plateau se situe à des niveaux de débit bas, ce qui pourrait indiquer un problème.
Utilité dans Flow Analytics Pro
Le Throughput Run Chart dans Flow Analytics Pro permet aux utilisateurs de :
Surveiller les performances en temps réel : En observant le débit en continu, les utilisateurs peuvent réagir rapidement aux variations de performances et ajuster les ressources en conséquence.
Diagnostiquer les problèmes : L’identification rapide des pics ou des baisses dans le débit permet de localiser des goulots d’étranglement ou des périodes de surcharge dans un système.
Prévoir les tendances futures : En étudiant l’évolution des débits sur une longue période, les utilisateurs peuvent anticiper les besoins futurs en ressources ou préparer des ajustements pour maintenir un débit optimal.
Le Graphique
Les filtres
Les Quartiles : Analyser la Répartition de la performance de votre Flux
Les quartiles – aussi nommées boite à Moustaches – divisent les données en quatre parties égales, permettant de comprendre comment elles sont réparties.
Ils sont particulièrement utiles pour obtenir une vue d’ensemble de la distribution des performances dans un processus.
Définition des Quartiles
Q1 (Premier quartile) : 25 % des données sont inférieures à cette valeur.
Q2 (Médiane ou second quartile) : 50 % des données sont inférieures à cette valeur.
Q3 (Troisième quartile) : 75 % des données sont inférieures à cette valeur.
Les écarts inter-quartiles (IQR) peuvent aussi être utilisés pour détecter des valeurs aberrantes (outliers).
L’IQR va représenter les limites basses et hautes admissible pour avoir une répartition du flux prédictible. Il s’agit des fameuses moustaches. Les valeurs se trouvant en dehors doivent être considérer comme des valeurs aberrantes et être analysées.
L’IQR est défini comme Q3−Q1.
Une règle commune est de considérer toute valeur en dehors de Q1 − 1,5 × IQR et Q3 + 1,5 × IQR comme une valeur aberrante.
Exemple de calcul de Quartiles
Trier les données par ordre croissant : 17 ; 18 ; 19 ; 19 ; 20 ; 20 ; 21 ; 22 ; 23 ; 24
Calculer le Premiers Quartile – Q1 en identifiant le temps de Cycle de 25% des mesures – Résultat : Q1 = 19
Calculer la Second Quartile, c’est çà dire la Médiane, représentant 50% des temps de cycle mesurés – Résultat Q2 = 20
Liste Impair : Lorsque le nombre de mesure est impair, prendre la valeur du milieu
Liste Pair : Lorsque le nombre de mesure est pair, comme dans notre exemple, Faire la somme des 2 valeurs centrale et les diviser par 2. Le résultat représente la Médiane.
Calculer le Troisième Quartile – Q3, représentant les 75% des mesures effectuées – Résultat : Q3 = 22
Identifier les Moustaches, c’est à dire la valeur la plus faible et la valeur la plus importante mesurée – Résultat :
Calculer l’inter-quartile (IQR)
IQR = Q3 – Q1 = 22 – 19 = 3
Limite basse = Q1 – 1.5*IQR = 19 + 1,5*3 = 14.5
Limite haute = Q3 + 1.5*IQR = 22 + 1*5*3 = 26.5
Utilité
Les Quartiles sont souvent utilisés pour visualiser la répartition des données et identifier les points où se situent la majorité des valeurs. Cela permet de voir où se trouvent les valeurs centrales (grâce à la médiane) et d’identifier les écarts ou les valeurs aberrantes.
Prenons l’exemple d’une équipe de développement qui livre des tickets toutes les deux semaines. En analysant le nombre de tickets livrés sur plusieurs périodes, les quartiles nous donnent un aperçu de la répartition des livraisons. Cela aide à comprendre combien de tickets sont livrés dans les 25 % les plus bas, les 50 % centraux, et les 25 % les plus hauts.
UCL/LCL : Garder votre Processus sous Contrôle
Les limites de contrôle (UCL et LCL) sont des seuils statistiques utilisés dans les cartes de contrôle. Ils permettent de surveiller un processus pour détecter des anomalies et déterminer si celui-ci est stable.
UCL (Upper Control Limit) : Limite supérieure de contrôle.
LCL (Lower Control Limit) : Limite inférieure de contrôle. Ces limites sont généralement fixées à 3 écarts-types au-dessus et en dessous de la moyenne, ce qui signifie que 99,73 % des données devraient se situer dans cette plage dans un processus « sous contrôle ».
Utilité
Les limites de contrôle sont idéales pour détecter des anomalies dans un processus. Si une donnée tombe en dehors de ces limites, cela peut indiquer un problème qui nécessite une investigation (comme un changement inattendu de la performance).
UCL/LCL : Comment les calculer ?
Les limites de contrôle (UCL/LCL) sont utilisées dans les cartes de contrôle pour surveiller un processus. Elles sont basées sur la moyenne et l’écart-type, et définissent une plage de variation normale. Elles sont calculées en appliquant la règle des 3-sigma, soit trois écarts-types au-dessus et en dessous de la moyenne.
UNPL/LNPL : Comprendre la Variabilité Naturelle
Contrairement aux UCL et LCL, les limites naturelles du processus (UNPL et LNPL) ne sont pas basées uniquement sur des calculs statistiques, mais plutôt sur une compréhension approfondie du processus et des tolérances acceptées.
UNPL (Upper Natural Process Limit) : Limite supérieure naturelle.
LNPL (Lower Natural Process Limit) : Limite inférieure naturelle. Ces limites reflètent la plage de variation naturelle du processus, définie par des spécifications ou des tolérances acceptées, et non par des écarts statistiques seuls.
Utilité
Les limites naturelles sont particulièrement utiles lorsque vous avez une bonne compréhension empirique du processus ou lorsque des tolérances spécifiques doivent être respectées (par exemple, des normes industrielles ou des exigences client). Elles permettent d’éviter de sur-réagir aux petites variations tout en garantissant que le processus fonctionne dans la plage définie comme acceptable.
Exemple d’application
1 – Collecte des données et analyse de la distribution
En général, la première étape est d’identifier si le processus suit une distribution normale ou non. Les limites naturelles peuvent parfois être calculées de manière différente selon la distribution des données.
2 – Déterminer les tolérances acceptables (ou les spécifications)
Les UNPL/LNPL peuvent être basées sur des tolérances acceptées ou spécifications de performance définies par des besoins métiers, des exigences clients ou des standards internes. Si ces tolérances existent (par exemple, une équipe s’attend à livrer entre 15 et 25 tickets par itération), elles peuvent guider directement les calculs.
Si des spécifications ou des tolérances sont déjà établies, les limites naturelles peuvent être fixées en conséquence. Par exemple, si l’équipe considère qu’en livrant moins de 16 tickets ou plus de 26, elle sort de son comportement normal, alors :
LNPL = 16
UNPL = 26
3 – Calculer les limites naturelles basées sur la variabilité observée
Si vous n’avez pas de tolérances pré-établies, vous pouvez calculer les UNPL/LNPL en fonction des données historiques du processus.
3.1 – Calculer la médiane ou une moyenne ajustée
La médiane est souvent utilisée à la place de la moyenne si le processus a des valeurs aberrantes ou des variations asymétriques. Cela donne une mesure centrale moins influencée par des valeurs extrêmes.
Dans notre cas, la médiane des tickets livrés sur 10 périodes est :
Médiane = 20
Si vous utilisez la moyenne, celle-ci est : Moyenne(xˉ) = 20,3
3.2 – Calculer la plage naturelle de variabilité
La variabilité naturelle du processus est souvent estimée à partir de l’écart interquartile (IQR), qui mesure la dispersion entre les 25 % des données les plus basses et les 25 % les plus hautes.
Pour notre exemple, les quartiles sont les suivants :
Q1 (1er quartile)=19 : 25 % des tickets livrés sont inférieurs ou égaux à 19.
Q3(3e quartile)=22 : 75 % des tickets livrés sont inférieurs ou égaux à 22.
L’écart interquartile (IQR) est : IQR = Q3−Q1 = 22−19 = 3
3.3 – Calculer les limites naturelles
Une méthode courante consiste à multiplier l’IQR par un facteur, souvent 1.5×IQR, pour identifier la plage de variation acceptable.
Ainsi, les limites naturelles peuvent être calculées comme suit :
UNPL = Q3+1,5×IQR = 22+1,5×3 =22+4,5 = 26,5
LNPL= Q1−1,5×IQR = 19−1,5×3 = 19−4,5 = 14,5
3.4 – Ajuster les limites en fonction des observations et des spécifications
Une fois les limites initiales calculées, vous pouvez les ajuster en fonction des observations empiriques ou des objectifs du processus.
Par exemple, si votre équipe constate que livrer moins de 16 tickets ou plus de 26 tickets est inacceptable, vous pourriez fixer les UNPL/LNPL respectivement à ces valeurs, même si les calculs indiquent une légère variation.
Vous voyez, sur la base de cet exemple, que le UNPL et le LNPL est très complémentaire de la mesure avec les Quartiles en intégrant les limites à ne pas dépasser pour rester dans un système stable.
Analyse de la Prédictibilité
L’analyse de la Prédictibilité permet de mesurer la qualité du débit et le niveau de confiance dans son utilisation pour les projections.
L’analyse se base sur le principe Thin-Tailed (Queue fine) - Fat-Tailed (Queue large)
Bien sûr ! Le concept des Thin-Tailed et Fat-Tailed distributions est souvent utilisé en analyse de risques, en statistiques et en finance pour comprendre et modéliser l'impact des événements rares et extrêmes. Voici une description que tu pourrais intégrer dans la documentation utilisateur de Wiveez, adaptée pour expliquer leur principe, leur fonctionnement et leur utilité dans ce contexte.
Thin-Tailed et Fat-Tailed : Principe et Utilité
Principe :
Dans la modélisation des données, en particulier en finance et en gestion des risques, on parle souvent de distributions de probabilité pour décrire la manière dont les événements ou les valeurs sont répartis. Deux types de distributions sont particulièrement importants : les distributions Thin-Tailed et Fat-Tailed.
Thin-Tailed (Queue fine) : Une distribution "thin-tailed" est caractérisée par une probabilité relativement faible que des événements extrêmes (ou déviations importantes par rapport à la moyenne) se produisent. Autrement dit, les valeurs extrêmes (très éloignées de la moyenne) sont rares. Un exemple typique serait la distribution normale (ou gaussienne), où la plupart des données se concentrent autour de la moyenne et les extrêmes sont très peu probables.
Fat-Tailed (Queue épaisse) : En revanche, une distribution "fat-tailed" a une probabilité plus élevée d'événements extrêmes. Cela signifie que les événements rares (mais très impactants) sont plus fréquents qu’on ne l'attendrait avec une distribution thin-tailed. Les distributions fat-tailed sont utilisées pour modéliser des phénomènes où les événements extrêmes ont un impact disproportionné, comme les crashs boursiers ou les crises économiques.
Analyse détaillée des tickets
Wiveez permet à l’utilisateur d’analyser en détail la performance de chaque débit en affichant la liste des tickets associé à une colonne et en affichant le détail des Métriques de Flux d’un ticket.
Analyser avec notre IA Alice
Wiveez met à votre disposition son IA, nommée Alice, afin de vous apporter une aide dans l’analyse des graphiques.
Cliquer sur l’icône d’Alice pour lancer l’analyse de votre graphique ;
Une page s’affiche contenant une analyse de l’état de santé de votre graphique et des conseils d’amélioration ;
Vous avez la possibilité de sauvegarder cette analyse dans un fichier PDF ;
Vous avez la possibilité de copier/coller l’analyse dans un autre type de document.
Tant qu’aucune modification n’a été effectué sur les filtres du graphique ou qu’aucun rafraichissement des données n’a été lancé, votre analyse reste accessible.