Temps de Flux en nuage de points

Le Temps de flux en nuage de points (Flow Time Scatterplot) est un graphique de dispersion qui montre les tickets traités dans un système ou un processus sur un intervalle donné. Il visualise chaque ticket en fonction du moment où il a atteint l'étape finale du processus et du temps nécessaire pour parcourir cet intervalle spécifique.

  • Axe horizontal (abscisse) : Représente la date à laquelle un ticket a atteint l’étape de fin de l’intervalle analysé.

  • Axe vertical (ordonnée) : Représente le temps nécessaire pour qu’un ticket parcoure l’intervalle donné, c’est-à-dire le temps écoulé entre le début et la fin de cet intervalle pour chaque ticket.

Ce type de graphique est utile pour visualiser les performances de traitement sur une période donnée, repérer des variations de temps de traitement, et identifier des anomalies ou des tendances.

Fonctionnement et Utilité

Le Flow Time Scatterplot est utilisé pour :

  1. Analyser les performances du processus : Il montre comment les temps de traitement des tickets varient au fil du temps. Chaque point sur le graphique représente un ticket individuel traité dans un intervalle spécifique du flux, et son temps de traitement associé.

  2. Repérer des anomalies ou des goulots d’étranglement : En identifiant des tickets dont le temps de traitement est particulièrement long ou court, il est possible de détecter des anomalies ou des goulots d'étranglement dans le processus.

  3. Suivre l’évolution des temps de traitement : Le scatterplot permet de voir si les temps de traitement augmentent, diminuent, ou restent stables dans le temps. Cela peut révéler des tendances liées à la charge de travail ou à l’efficacité du processus.

Comment lire un Flow Time Scatterplot ?

Le scatterplot est constitué de points de dispersion, où chaque point représente un ticket. Voici comment interpréter ces éléments :

  1. Axe horizontal (x) : Cet axe représente la date à laquelle chaque ticket a atteint l'étape finale de l'intervalle de flux observé. Cela permet de visualiser les tickets traités à différents moments dans le temps.

  2. Axe vertical (y) : Cet axe indique le temps de traitement (ou temps de flux) pour chaque ticket, soit la durée qu'il a fallu pour passer d'une étape à une autre dans le processus.

  3. Schémas à observer :

    • Dispersion verticale des points : Si les points sont très dispersés verticalement, cela signifie que les temps de traitement des tickets varient considérablement, et il peut être nécessaire d'examiner pourquoi certains tickets prennent plus de temps que d’autres.

    • Tendance horizontale : Si une tendance apparaît sur l'axe des abscisses (date), cela peut indiquer une évolution des performances dans le temps. Par exemple, si les temps de flux augmentent au fil du temps, cela pourrait signaler une surcharge du système ou un ralentissement du processus.

    • Points anormaux (outliers) : Les tickets qui présentent des temps de traitement anormalement longs ou courts par rapport aux autres peuvent être des exceptions ou des indicateurs de problèmes spécifiques à examiner.

Utilité dans Wiveez

Le Flow Time Scatterplot dans Wiveez permet aux utilisateurs de :

  • Suivre les performances des flux : En visualisant chaque ticket traité et son temps de passage dans l’intervalle, les utilisateurs peuvent repérer rapidement les inefficacités, les retards, ou les fluctuations de performances.

  • Identifier les tickets à problèmes : Les outliers (tickets avec des temps de traitement exceptionnellement longs ou courts) peuvent être identifiés et analysés pour déterminer s’il y a des problèmes spécifiques à résoudre.

  • Évaluer l’évolution des performances : En suivant l’évolution des temps de traitement des tickets dans le temps, les utilisateurs peuvent évaluer si le système ou le processus devient plus rapide, plus lent, ou reste constant en termes de performance.

Le graphique

Les filtres

Les Quartiles : Analyser la Répartition de la performance de votre Flux

Les quartiles – aussi nommées boite à Moustaches – divisent les données en quatre parties égales, permettant de comprendre comment elles sont réparties.

Ils sont particulièrement utiles pour obtenir une vue d’ensemble de la distribution des performances dans un processus.

Définition des Quartiles

  • Q1 (Premier quartile) : 25 % des données sont inférieures à cette valeur.

  • Q2 (Médiane ou second quartile) : 50 % des données sont inférieures à cette valeur.

  • Q3 (Troisième quartile) : 75 % des données sont inférieures à cette valeur.

Les écarts inter-quartiles (IQR) peuvent aussi être utilisés pour détecter des valeurs aberrantes (outliers).

L’IQR va représenter les limites basses et hautes admissible pour avoir une répartition du flux prédictible. Il s’agit des fameuses moustaches. Les valeurs se trouvant en dehors doivent être considérer comme des valeurs aberrantes et être analysées.

L’IQR est défini comme Q3−Q1.  

Une règle commune est de considérer toute valeur en dehors de Q1 − 1,5 × IQR et Q3 + 1,5 × IQR comme une valeur aberrante.

Exemple de calcul de Quartiles

  1. Trier les données par ordre croissant : 17 ; 18 ; 19 ; 19 ; 20 ; 20 ; 21 ; 22 ; 23 ; 24

  2. Calculer le Premiers Quartile – Q1 en identifiant le temps de Cycle de 25% des mesures – Résultat : Q1 = 19

  3. Calculer la Second Quartile, c’est çà dire la Médiane, représentant 50% des temps de cycle mesurés – Résultat Q2 = 20

    • Liste Impair : Lorsque le nombre de mesure est impair, prendre la valeur du milieu

    • Liste Pair : Lorsque le nombre de mesure est pair, comme dans notre exemple, Faire la somme des 2 valeurs centrale et les diviser par 2. Le résultat représente la Médiane.

  4. Calculer le Troisième Quartile – Q3, représentant les 75% des mesures effectuées – Résultat : Q3 = 22

  5. Identifier les Moustaches, c’est à dire la valeur la plus faible et la valeur la plus importante mesurée – Résultat :

    • Calculer l’inter-quartile (IQR)

      • IQR = Q3Q1 = 22 – 19 = 3

      • Limite basse = Q1 – 1.5*IQR = 19 + 1,5*3 = 14.5

      • Limite haute = Q3 + 1.5*IQR = 22 + 1*5*3 = 26.5

Utilité

Les Quartiles sont souvent utilisés pour visualiser la répartition des données et identifier les points où se situent la majorité des valeurs. Cela permet de voir où se trouvent les valeurs centrales (grâce à la médiane) et d’identifier les écarts ou les valeurs aberrantes.

Prenons l’exemple d’une équipe de développement qui livre des tickets toutes les deux semaines. En analysant le nombre de tickets livrés sur plusieurs périodes, les quartiles nous donnent un aperçu de la répartition des livraisons. Cela aide à comprendre combien de tickets sont livrés dans les 25 % les plus bas, les 50 % centraux, et les 25 % les plus hauts.

UCL/LCL : Garder votre Processus sous Contrôle

Les limites de contrôle (UCL et LCL) sont des seuils statistiques utilisés dans les cartes de contrôle. Ils permettent de surveiller un processus pour détecter des anomalies et déterminer si celui-ci est stable.

  • UCL (Upper Control Limit) : Limite supérieure de contrôle.

  • LCL (Lower Control Limit) : Limite inférieure de contrôle. Ces limites sont généralement fixées à 3 écarts-types au-dessus et en dessous de la moyenne, ce qui signifie que 99,73 % des données devraient se situer dans cette plage dans un processus « sous contrôle ».

Utilité

Les limites de contrôle sont idéales pour détecter des anomalies dans un processus. Si une donnée tombe en dehors de ces limites, cela peut indiquer un problème qui nécessite une investigation (comme un changement inattendu de la performance).

UCL/LCL : Comment les calculer ?

Les limites de contrôle (UCL/LCL) sont utilisées dans les cartes de contrôle pour surveiller un processus. Elles sont basées sur la moyenne et l’écart-type, et définissent une plage de variation normale. Elles sont calculées en appliquant la règle des 3-sigma, soit trois écarts-types au-dessus et en dessous de la moyenne.

UNPL/LNPL : Comprendre la Variabilité Naturelle

Contrairement aux UCL et LCL, les limites naturelles du processus (UNPL et LNPL) ne sont pas basées uniquement sur des calculs statistiques, mais plutôt sur une compréhension approfondie du processus et des tolérances acceptées.

  • UNPL (Upper Natural Process Limit) : Limite supérieure naturelle.

  • LNPL (Lower Natural Process Limit) : Limite inférieure naturelle. Ces limites reflètent la plage de variation naturelle du processus, définie par des spécifications ou des tolérances acceptées, et non par des écarts statistiques seuls.

Utilité

Les limites naturelles sont particulièrement utiles lorsque vous avez une bonne compréhension empirique du processus ou lorsque des tolérances spécifiques doivent être respectées (par exemple, des normes industrielles ou des exigences client). Elles permettent d’éviter de sur-réagir aux petites variations tout en garantissant que le processus fonctionne dans la plage définie comme acceptable.

Exemple d’application

1 – Collecte des données et analyse de la distribution

  • En général, la première étape est d’identifier si le processus suit une distribution normale ou non. Les limites naturelles peuvent parfois être calculées de manière différente selon la distribution des données.

2 – Déterminer les tolérances acceptables (ou les spécifications)

  • Les UNPL/LNPL peuvent être basées sur des tolérances acceptées ou spécifications de performance définies par des besoins métiers, des exigences clients ou des standards internes. Si ces tolérances existent (par exemple, une équipe s’attend à livrer entre 15 et 25 tickets par itération), elles peuvent guider directement les calculs.

  • Si des spécifications ou des tolérances sont déjà établies, les limites naturelles peuvent être fixées en conséquence. Par exemple, si l’équipe considère qu’en livrant moins de 16 tickets ou plus de 26, elle sort de son comportement normal, alors :

    • LNPL = 16

    • UNPL = 26

3 – Calculer les limites naturelles basées sur la variabilité observée

  • Si vous n’avez pas de tolérances pré-établies, vous pouvez calculer les UNPL/LNPL en fonction des données historiques du processus.

3.1 – Calculer la médiane ou une moyenne ajustée

  • La médiane est souvent utilisée à la place de la moyenne si le processus a des valeurs aberrantes ou des variations asymétriques. Cela donne une mesure centrale moins influencée par des valeurs extrêmes.

  • Dans notre cas, la médiane des tickets livrés sur 10 périodes est :

    • Médiane = 20

    • Si vous utilisez la moyenne, celle-ci est : Moyenne(xˉ) = 20,3

3.2 – Calculer la plage naturelle de variabilité

  • La variabilité naturelle du processus est souvent estimée à partir de l’écart interquartile (IQR), qui mesure la dispersion entre les 25 % des données les plus basses et les 25 % les plus hautes.

  • Pour notre exemple, les quartiles sont les suivants :

    • Q1 (1er quartile)=19 : 25 % des tickets livrés sont inférieurs ou égaux à 19.

    • Q3(3e quartile)=22 : 75 % des tickets livrés sont inférieurs ou égaux à 22.

    •  

  • L’écart interquartile (IQR) est : IQR = Q3−Q1 = 22−19 = 3

3.3 – Calculer les limites naturelles

Une méthode courante consiste à multiplier l’IQR par un facteur, souvent 1.5×IQR, pour identifier la plage de variation acceptable.

Ainsi, les limites naturelles peuvent être calculées comme suit :

  • UNPL = Q3+1,5×IQR = 22+1,5×3 =22+4,5 = 26,5

  • LNPL= Q1−1,5×IQR = 19−1,5×3 = 19−4,5 = 14,5

3.4 – Ajuster les limites en fonction des observations et des spécifications

  • Une fois les limites initiales calculées, vous pouvez les ajuster en fonction des observations empiriques ou des objectifs du processus.

  • Par exemple, si votre équipe constate que livrer moins de 16 tickets ou plus de 26 tickets est inacceptable, vous pourriez fixer les UNPL/LNPL respectivement à ces valeurs, même si les calculs indiquent une légère variation.

Vous voyez, sur la base de cet exemple, que le UNPL et le LNPL est très complémentaire de la mesure avec les Quartiles en intégrant les limites à ne pas dépasser pour rester dans un système stable.

Analyse de la Prédictibilité

L’analyse de la Prédictibilité permet de mesurer la qualité du Temps de Flux et le niveau de confiance dans son utilisation pour les projections.

L’analyse se base sur le principe Thin-Tailed (Queue fine) - Fat-Tailed (Queue large)

Bien sûr ! Le concept des Thin-Tailed et Fat-Tailed distributions est souvent utilisé en analyse de risques, en statistiques et en finance pour comprendre et modéliser l'impact des événements rares et extrêmes. Voici une description que tu pourrais intégrer dans la documentation utilisateur de Wiveez, adaptée pour expliquer leur principe, leur fonctionnement et leur utilité dans ce contexte.

Thin-Tailed et Fat-Tailed : Principe et Utilité

Principe :

Dans la modélisation des données, en particulier en finance et en gestion des risques, on parle souvent de distributions de probabilité pour décrire la manière dont les événements ou les valeurs sont répartis. Deux types de distributions sont particulièrement importants : les distributions Thin-Tailed et Fat-Tailed.

  • Thin-Tailed (Queue fine) : Une distribution "thin-tailed" est caractérisée par une probabilité relativement faible que des événements extrêmes (ou déviations importantes par rapport à la moyenne) se produisent. Autrement dit, les valeurs extrêmes (très éloignées de la moyenne) sont rares. Un exemple typique serait la distribution normale (ou gaussienne), où la plupart des données se concentrent autour de la moyenne et les extrêmes sont très peu probables.

  • Fat-Tailed (Queue épaisse) : En revanche, une distribution "fat-tailed" a une probabilité plus élevée d'événements extrêmes. Cela signifie que les événements rares (mais très impactants) sont plus fréquents qu’on ne l'attendrait avec une distribution thin-tailed. Les distributions fat-tailed sont utilisées pour modéliser des phénomènes où les événements extrêmes ont un impact disproportionné, comme les crashs boursiers ou les crises économiques.

Analyse détaillée des tickets

Wiveez permet à l’utilisateur d’analyser en détail la performance du Temps de Flux en affichant la liste des tickets associé à un point et en affichant le détail des Métriques de Flux d’un ticket.

Analyser avec notre IA Alice

Wiveez met à votre disposition son IA, nommée Alice, afin de vous apporter une aide dans l’analyse des graphiques.

  1. Cliquer sur l’icône d’Alice pour lancer l’analyse de votre graphique ;

  2. Une page s’affiche contenant une analyse de l’état de santé de votre graphique et des conseils d’amélioration ;

  3. Vous avez la possibilité de sauvegarder cette analyse dans un fichier PDF ;

  4. Vous avez la possibilité de copier/coller l’analyse dans un autre type de document.

Tant qu’aucune modification n’a été effectué sur les filtres du graphique ou qu’aucun rafraichissement des données n’a été lancé, votre analyse reste accessible.