Dan Vacanti
Durée : 38 min
Vues : 318
5 likes
Publié : novembre 17, 2022

Transcription (Traduit)

[00:00:07] Bonjour, mesdames et messieurs. Bonjour, mes amis. Bonjour à tous. Euh, merci d'être ici. C'est à peu près tout, vous aurez tout le français que vous obtiendrez de moi aujourd'hui, donc.
[00:00:23] Merci beaucoup pour cette aimable introduction. Euh, cette, cette session est très, très difficile pour moi pour, pour, j'allais dire pour une raison, mais j'en ai trouvé deux autres, donc pour trois raisons. Euh, premièrement, et avant tout, c'est une session juste après le déjeuner. J'ai vu beaucoup d'entre vous prendre du vin pendant le déjeuner, alors j'espère pouvoir vous garder tous éveillés. Euh, pour la prochaine heure environ, nous verrons comment ça se passe. Euh, numéro deux, euh, Je viens d'être présenté par quelqu'un dont le métier est de faire des statistiques et nous allons beaucoup parler de données, donc je vais presque certainement me tromper sur tout. Euh, et je suis sûr qu'il va me corriger. Fabrice va me corriger euh après, il est en train de prendre des notes là, euh après la session. Euh, enfin et potentiellement le plus important est que je suis désolé de vous l'annoncer, mais nous allons beaucoup parler de basket-ball aujourd'hui. Donc, euh, j'espère que vous savez tous un peu quelque chose euh sur le basket-ball. Euh, si ce n'est pas le cas, peut-être le saurez-vous d'ici la fin de la session. Euh, pour commencer, tout d'abord, euh, je tiens à remercier tout particulièrement le Dr Donald Wheeler. Si vous ne savez pas qui est Donald Wheeler, euh, veuillez euh vous assurer de le chercher. J'ai un lien vers son site web à la fin de la présentation. Euh, j'ai parlé au Dr Wheeler plusieurs fois de cette présentation, euh, et j'ai même volé le titre de cette conférence. euh, d'un de ses articles. Il a été assez aimable pour me laisser le voler, donc ce n'est pas mon idée, c'est euh, euh, c'est la sienne. Donc, un merci spécial au Dr Wheeler. Euh, plus plus d'informations sur euh Wheeler quand euh nous passerons à travers cela.
[00:02:02] Quelqu'un connaît-il l'auteur américain Malcolm Gladwell ? Quelqu'un ? Oui. Euh, je vais être honnête d'emblée. Personnellement, je ne suis pas un grand fan de Malcolm Gladwell, si vous l'avez lu. Et je ne dis pas qu'il est une mauvaise personne. Euh, je ne dis pas que son travail est terrible. Euh, je ne dis même pas qu'il a tort, bien que nous en parlerons aussi. Euh, je sais, il n'a juste jamais rien fait pour moi. Euh, mais vous savez peut-être ou non que Malcolm Gladwell fait un podcast appelé Revisionist History. Je n'écoute pas le podcast. Et donc un ami m'a appelé un jour et m'a dit : "Hé Dan, il y a ce super épisode sur le podcast de Malcolm Gladwell intitulé "The Big Man Can't Shoot"". Euh, il a été publié en juin 2016. Euh, donc vous pouvez imaginer à quel point j'étais sceptique quand il a dit, quand mon ami a dit, oh, tu dois absolument aller écouter ce podcast. Euh, alors j'ai essayé. Revisionist History, The Big Man Can't Shoot. Il s'agit, soi-disant, ce sont les mots de Malcolm Gladwell, pas les miens. Euh, les mots de Malcolm Gladwell, le plus grand match de basket-ball jamais joué, euh, en Amérique. Je suis sûr qu'il y a eu de grands matchs de basket-ball joués ici. Mais en Amérique, le plus grand match de basket-ball jamais joué a eu lieu dans un endroit appelé Hershey, en Pennsylvanie. Euh, en mars 1962. Je ne sais pas si quelqu'un connaît Hershey, en Pennsylvanie. Ils sont connus pour ils sont connus pour le chocolat. Je ne suis même pas sûr que j'appellerais ce qui sort de Hershey du chocolat, cependant. Euh, quelqu'un a-t-il déjà eu Hershey's ? Je veux dire, surtout comparé à ce que l'on trouve ici. Hershey euh oui. Hershey's c'est terrible, c'est juste horrible. Euh, mais à Hershey, en Pennsylvanie, en euh, mars, en mars 1962, euh, un monsieur du nom de Wilt Chamberlain a marqué 100 points en un seul match. C'est le match avec le plus grand nombre de points de l'histoire de la NBA. Euh, ça n'est jamais arrivé avant, ça n'est pas arrivé depuis. Quelques personnes s'en sont approchées dans les années 80.
[00:03:58] Euh, 100 points, euh, Will Chamberlain a marqué 100 points, euh, vous savez, dans ce match. Jouant pour euh, jouant pour les Philadelphia Warriors, je suppose que c'est c'est juste là, n'est-ce pas ? Euh, quelques petites choses à propos de Wilt en 1962. Si vous n'avez pas entendu parler de Wilt Chamberlain, si vous n'avez pas entendu le nom de Wilt Chamberlain. À l'époque, il était considéré comme le plus grand joueur de basket-ball euh de la ligue. Euh, il était le joueur dominant. C'était le joueur que les équipes détestaient affronter. Il avait remporté plusieurs prix jusqu'à présent. Je pense qu'il avait remporté un prix de recrue de l'année, si "rookie" signifie quelque chose pour vous. Euh, je ne sais pas quelle est la traduction française de "rookie". Euh, je devrai aller chercher ça. Euh, mais sa première année, sa première année de jeu. Euh, je pense qu'il avait gagné quelques prix de MVP. De toute façon, il était le joueur dominant euh dans la ligue. Les équipes détestaient jouer contre Will Chamberlain. Euh, mais il y avait un genre de chose contre lui et il était, il était réputé pour être un absolument un terrible tireur de lancers francs. Il n'était tout simplement pas bon au tir aux lancers francs, euh, du tout. Cependant, euh, en mars 1962 à Hershey, en Pennsylvanie, selon Malcolm Gladwell, encore une fois, ce sont ses mots, pas les miens. Will Chamberlain est un excellent tireur de lancers francs. Il dit en fait qu'il est un tireur de lancers francs incroyable. Son pourcentage de réussite aux lancers francs en carrière est de 51%. C'est la preuve, d'ailleurs, c'est la preuve que Gladwell nous donne. Le pourcentage de réussite aux lancers francs en carrière de Will Chamberlain est de 51%. Euh, cette nuit-là, lors du match à 100 points, il tire à 87,5 %.
[00:05:37] Quelqu'un, j'ai une note ici, et j'espère que je me souviendrai, mais si ce n'est pas le cas, quelqu'un me rappelle, je dois revenir et parler de pourquoi pourquoi cette comparaison ici est juste un peu douteuse. Euh, mais en carrière, 51 % de lancers francs, cette nuit-là, il tire à 87,5 %. Comme toute bonne histoire, il y a un rebondissement. N'est-ce pas ? Maintenant, euh, quiconque a regardé le basket-ball professionnel sait que la plupart des joueurs, en fait, la grande majorité des joueurs, lorsqu'ils tirent des lancers francs, ils tirent en utilisant ce qu'on appelle un mouvement par-dessus, comme ce qu'on voit sur cette image ici. Euh, Will Chamberlain, en essayant de faire bouger les choses et d'essayer quelque chose de différent, pour essayer d'augmenter son pourcentage de lancers francs, en 1962, il passe à ce qu'on appelle un mouvement par en dessous pour tirer ses lancers francs. Euh, en Amérique, nous utilisons le péjoratif, c'est un tir de mamie. Je ne sais pas si quelqu'un a déjà entendu le terme tir de mamie, ce qui, je pense, est offensant pour toutes les mamies. Euh, mais c'est comme ça qu'ils l'appellent. Donc, en 1962, il ne tire plus à bras levé, il tire à la cuillère. Et Gladwell dit que c'est à cause de ce changement, ce changement qui permet à Will Chamberlain de tirer à 87,5% de ce qu'il a fait cette nuit-là. Il dit que Will Chamberlain passe à une meilleure technique de tir de lancer franc, et cela porte ses fruits dans le plus grand match de basket jamais joué.
[00:07:01] Mais les lancers francs étaient-ils vraiment la raison pour laquelle Will Chamberlain a si bien joué cette nuit-là ?
[00:07:07] C'est de cela que nous allons devoir parler. Avant d'y arriver, euh, avant de pouvoir juger si les lancers francs étaient responsables ou non, nous devons examiner les données. Bien sûr, nous devons aller examiner les données. Euh, et c'est ce qu'on appelle un graphique de tendance, nous n'avons pas nécessairement besoin de savoir cela. Mais ce que j'ai fait ici, c'est euh séquentiellement, le temps progressant de gauche à droite, j'ai tracé combien de points Will Chamberlain a marqué dans chaque match cette saison. Maintenant, il est assez évident, j'espère, juste d'un coup d'œil, il est assez évident de voir ce qui s'est passé cette nuit de mars. Ce point est très loin. C'est assez évident à voir. Cependant, si nous regardons, donc c'est, pour être clair, ce sont ses points par match, n'est-ce pas ? Ce graphique représente ses points par match. Ce graphique montre son pourcentage de lancers francs par match. Donc, même chose, euh, les matchs séquentiellement de gauche à droite, maintenant ce que nous traçons est son pourcentage de lancers francs. Euh, c'est assez, encore une fois, je dirais que c'est un peu plus difficile de voir cette nuit du 2 mars là-bas. Mais comme, vous savez, quand j'ai fait ça pour la première fois et que j'ai regardé ce graphique, ce n'est pas ce point que j'ai mis en évidence en ce moment qui a réellement attiré mon attention. Quelqu'un a-t-il une idée de ce qui était le point sur lequel Dan s'est vraiment concentré ? Quel était celui que que j'ai vraiment dit, attendez, quoi, qu'en est-il de celui-ci ? Quelqu'un ? Tu veux crier à
[00:08:43] Le plus bas. Oui. Si vous regardez, c'est juste quatre matchs avant, quatre matchs avant son match à 100 points, Will Chamberlain tire à environ 30%. Moins d'un tiers de ses lancers francs rentrent. Maintenant, je suis allé et j'ai essayé de faire des recherches sur ce match particulier. Si vous cherchez le match à 100 points de Will, il y a toutes sortes d'articles, toutes sortes d'interviews, il y a même, je pense, des livres écrits sur ce match à 100 points. Quand tu essaies de trouver des informations sur ce match du 24 février, rien, silence radio.
[00:09:19] Euh, en fait, je pense que la seule information que j'ai trouvée était sur un site web de statistiques de la NBA vraiment, vraiment obscur, euh, où j'ai obtenu cette information. Il n'y a absolument aucune information, euh, euh, ou aucune histoire à propos de ce euh de ce point ici. Ce qui nous amène à la euh, la euh j'allais dire la chose principale, la chose principale dont nous devons parler est un peu plus tard. Mais avant que nous puissions approfondir cela un peu plus, ce qui se passe réellement ici avant que nous puissions approfondir cela un peu plus, nous devons prendre un peu de recul et parler de l'analyse des données juste un instant. Euh, et je vais essayer de faire ça à un niveau assez élevé, j'allais promettre qu'il n'y a pas de maths impliquées, mais il pourrait y en avoir, peut-être, peut-être pas. Euh, j'espère que nous allons juste faire de jolies images et nous en tiendrons là. Mais avant de parler de l'analyse des données, nous devons parler des données elles-mêmes. Euh, et le premier principe des données, point, toute donnée que vous collectez, en particulier les données de mesure, bien que cela s'applique réellement à toutes les données, est que toutes les données contiennent du bruit. Peu importe l'ensemble de données que vous regardez, toutes les données auront du bruit. Elles le feront, toutes les données, toutes les données ont du bruit. Certaines données pourraient contenir des signaux. N'est-ce pas ? Toutes les données ont du bruit, certaines données peuvent avoir des signaux. Donc, la première chose que nous devons faire, le but principal de l'analyse des données, c'est pourquoi nous parlons de l'analyse des données, le but principal de l'analyse des données est de pouvoir séparer le signal du bruit.
[00:10:47] Si vous ne pouvez pas séparer le signal du bruit, vous êtes susceptible de commettre l'une ou les deux de deux erreurs. La première erreur est de prendre le bruit pour un signal. N'est-ce pas ? Si vous regardez un ensemble de données et que vous n'êtes pas capable de séparer le signal du bruit, vous pourriez regarder des données très, très bruyantes et dire, hé, c'est un signal. De même, vous devinez probablement quelle est la deuxième erreur, euh, lorsque vous examinez des ensembles de données. Vous pourriez confondre le signal avec le bruit. Donc, si vous n'avez pas un moyen de séparer le bruit du signal, vous pourriez faire une ou deux de ces erreurs. Ce qui est euh, ce qui explique pourquoi le truc est, nous devons trouver un moyen de pouvoir séparer le signal du bruit dans notre ensemble de données, si nous le pouvons, s'il y a, s'il y a du signal, euh, séparer le signal du bruit, séparer le signal possible du bruit probable, d'une manière qui minimise l'impact économique de la commission d'une de ces erreurs ou des deux erreurs. Vous ne pouvez pas éliminer la possibilité de faire ces erreurs, mais nous pouvons probablement minimiser leur impact. N'est-ce pas ? Je vous donne tout le contexte. Oh, au fait, je devrais mentionner, euh, il y aura certainement des questions, euh, j'espère qu'il y aura du temps pour les questions à la fin. Mais si quelqu'un a une question pendant que je parle, gardons cela très informel, vous savez, j'aimerais vous impliquer. Posez des questions, levez la main, jetez-moi quelque chose, tout ce que vous avez à faire. Euh, si quelque chose n'a pas de sens, euh, n'hésitez pas à m'arrêter et nous pourrons en parler. Mais comme je l'ai dit, il y aura aussi une opportunité à la fin, mais ne vous sentez pas obligé de penser que je vais parler pendant les 60 heures ou 60 minutes, sinon nous serons tous les deux en difficulté. Euh, ok, voici ce monsieur. Quelqu'un sait-il qui est cette personne, juste d'après l'image, quelqu'un sait-il qui c'est ? Quelqu'un a-t-il déjà vu cette image ?
[00:12:39] Je crois que j'entends le nom. Si je devais si je devais vous dire, ce n'est pas lui, mais si je devais dire le nom W. Edwards Deming, est-ce que tout le monde a déjà entendu le nom Deming ? Oui.
[00:12:52] C'est le mentor de Deming.
[00:12:55] C'est la personne qui a enseigné à Deming tout ce qu'il y a à savoir sur la qualité, sur le contrôle statistique des processus et des choses comme ça. Le nom de ce monsieur est Walter Shewhart.
[00:13:05] Euh, et je mentionne Walter Shewhart parce que tout ce que je vais vous dire maintenant, rien ici n'est nouveau. Je régurgite tout, euh, littéralement il y a 100 ans. Je pense que Walter Shewhart a commencé ses travaux sur l'analyse de données il y a 100 ans. Pour une raison quelconque, nous ne le faisons pas vraiment dans la communauté Agile, euh, la communauté Lean est un peu meilleure, mais dans la communauté Agile, euh, personne ne parle vraiment de Shewhart. Et si vous lisez Deming, Deming parle de Shewhart tout le temps. Vous savez, il y a des gens qui appellent le cycle PDCA le cycle de Deming et Deming disait toujours, non, c'est un cycle de Shewhart, n'est-ce pas ? Euh, Deming parlait de Shewhart tout le temps.
[00:13:40] Donc ce que je vais mentionner ici, c'est l'approche de Shewhart parce que c'est lui qui a étudié les problèmes dont je viens de parler en termes d'analyse de données. C'est lui qui a vraiment été le pionnier de tout ce travail. Et ce que Shewhart a dit, c'est que si vous avez un ensemble de données comme celui-ci, la première chose que nous devons faire est, si nous le pouvons, ce que nous pouvons, euh, être capable de tracer des limites autour de ces données, de telle sorte que, euh, cela nous donne une idée claire de ce qui est signal par rapport à ce qui est bruit. Et ce que Shewhart dirait, c'est que tout ce qui se trouve en dehors de ces limites est un signal possible. Il a appelé cela une cause assignable. Euh, au fait, cause assignable, cause spéciale, exceptionnelle, peu importe, tous ceux-là, tous ceux-là signifient vraiment la même chose. Il a dit, hé, c'est, euh, c'est un signal possible ou une cause assignable. Tout ce qui se trouve dans ces limites, il dirait que c'est du bruit, c'est juste du bruit dans les données. N'est-ce pas ? Et il a il a appelé ça, euh, il a appelé ça cause fortuite. Je pense, mais vous pouvez le considérer comme une variation routinière, euh, Deming l'appelait la cause commune. Euh, je dois garder tous ces termes clairs dans ma tête. Euh, mais c'est juste du bruit dans les données. Si c'est à l'extérieur, c'est potentiel, c'est un signal potentiel, tout ce qui est à l'intérieur de ces limites, euh, est potentiel, euh, potentiel, c'est juste du bruit.
[00:14:58] Vous allez devoir me faire confiance, comme je l'ai dit, je ne vais pas entrer dans les mathématiques de la façon dont ces limites sont tracées, je ne vais pas entrer là-dedans. Si quelqu'un veut entrer dans les mathématiques de la façon dont ces limites sont tracées, par tous les moyens, allez lire le Dr Wheeler, euh, allez lire ses affaires. Vous allez juste devoir me faire confiance que tous les graphiques que j'ai dessinés ici suivent l'approche de Shewhart. Euh, nous parlerons de Lean Six Sigma peut-être un peu plus tard. Nous ne suivons pas nécessairement leur approche, nous suivons l'approche de Shewhart euh spécifiquement. En parlant de Lean Six Sigma, la plupart d'entre vous connaissent peut-être ce graphique comme étant un graphique de contrôle. Vous l'avez peut-être déjà entendu appeler un graphique de contrôle. Euh, parce que la méthode de Shewhart a été pervertie au fil des ans.
[00:15:39] Euh, usurpée peut-être par des organisations comme Lean ou des mouvements comme Lean Six Sigma. Euh, Wheeler appelle ces choses des diagrammes de comportement de processus. Donc si vous lisez le Dr Wheeler et que vous voyez quelque chose appelé un PBC ou un graphique de comportement de processus, c'est ce que c'est, d'accord ? Techniquement, c'est la même chose qu'un graphique de contrôle. Je dirais plus correctement que c'est un graphique de contrôle, euh, mais sachez juste que le langage de cela maintenant est un graphique de comportement de processus. Et l'idée est simple, comme je viens de le dire.
[00:16:09] Si vous êtes capable de créer l'un de ces graphiques, alors chaque fois que vous avez un signal potentiel, c'est une indication assez claire que votre processus est imprévisible. Et par imprévisible, nous entendons que les données que vous avez, les données passées que vous avez, ne seront pas nécessairement un bon prédicteur de l'avenir que vous essayez de prévoir. N'est-ce pas ? Shewhart dirait, vous savez quoi, si vous avez un de ces signaux, vous êtes imprévisible, euh, et euh, par conséquent, ce que vous devriez faire est d'aller chercher pourquoi ce point ou ces points sont en dehors de ces limites, euh, et de régler cela en premier parce que toute autre amélioration de processus que vous pourriez vouloir faire pendant que ces causes assignables se produisent est prématurée.
[00:16:55] N'est-ce pas ?
[00:16:57] Encore une fois, criez si vous entendez quoi que ce soit. Si vous avez contrôlé toute votre variation assignable, toute votre variation de cause assignable, alors ce qu'il vous reste, comme je l'ai dit, ce qu'il vous reste, c'est juste du bruit dans les données. Si vous voulez améliorer votre système, cela nécessitera un changement systémique fondamental. N'est-ce pas ? Il n'y a pas une seule chose que vous pouvez regarder et dire, oh, nous devons réparer ça. Maintenant, vous devez réellement aller changer le processus. Vous devez aller changer le système. Comme Will Chamberlain, nous devons passer du tir par-dessus la tête au tir par en dessous, n'est-ce pas ? C'est à peu près ce que vous devez faire. D'accord.
[00:17:32] D'accord. C'est le temps de cycle d'un euh d'un graphique de temps de cycle d'une équipe Scrum qui faisait des sprints de deux semaines. D'accord. Et au fait, ce n'est pas un commentaire sur Scrum. Je ne dis pas que Scrum est mauvais. Je ne dis pas de ne pas faire Scrum ou vos données ressembleront à ça. Je ne dis pas ça du tout. Je dis que c'était une équipe auprès de laquelle nous sommes allés recueillir un tas de données et c'était leur temps de cycle. Si vous deviez tracer ces limites de contrôle, les limites naturelles, je les appellerai les limites naturelles du processus pour cette équipe. Cette ligne supérieure est à 65 jours. Euh, la ligne inférieure est à zéro et cela va arriver souvent d'ailleurs quand nous parlerons des données de temps de cycle. Ce sont des données bornées à zéro, donc presque toujours cette ligne inférieure sera presque zéro. 65 jours, équipe Scrum faisant des sprints de deux semaines. Cette ligne supérieure est à 65 jours. Ce processus est-il prévisible ?
[00:17:41] Et au fait, ce n'est pas un commentaire sur Scrum. Je ne dis pas que Scrum est mauvais. Je ne dis pas, ne faites pas de Scrum ou vos données ressembleront à ça. Je ne dis pas ça du tout. Je dis que c'était une équipe auprès de laquelle nous sommes allés collecter des données, et c'était leur temps de cycle. Si vous deviez tracer ces limites de contrôle, les limites de processus naturelles, je les appellerai ainsi, pour cette équipe, cette ligne supérieure est à 65 jours. Euh la ligne du bas est zéro et ça va arriver souvent, d'ailleurs, quand on parle de données de temps de cycle, ce sont des données bornées à zéro, donc presque toujours cette ligne inférieure sera presque zéro. 65 jours. Équipe Scrum faisant des sprints de deux semaines. Cette ligne supérieure est de 65 jours. Ce processus est-il prévisible ?
[00:18:27] Que quelqu'un se mouille, quelqu'un, n'importe qui. J'ai entendu un oui.
[00:18:34] Quelqu'un veut voter non ?
[00:18:39] Devrions-nous lever la main ?
[00:18:42] Est-ce que tout le monde dort déjà ? Disons, qui dit, montrez juste les mains, qui dit que ce processus est prévisible ? Oui. On dirait un tiers, peut-être un quart. Qui dit que ce n'est pas prévisible ? La grande majorité des gens disent que ce n'est pas prévisible. Croyez-le ou non, ce processus est prévisible.
[00:19:01] Selon les règles de Schwartz, selon la définition de Schwartz de "prévisible", ce processus est prévisible. Ces données nous montrent exactement que cette équipe opère le processus exact qu'elle a conçu. N'est-ce pas ? Maintenant, cela pourrait ne pas être très utile. Mais ce processus est prévisible. Nous devons nous attendre, quand cette équipe opère, à ce que tout ce qui se passe dans les 65 jours soit à prévoir. N'est-ce pas ? S'ils veulent améliorer les choses, ils devront apporter un changement fondamental au processus, n'est-ce pas ? Ok. Qu'est-ce que cela signifie en termes d'analyse de données ? Assez de regarder les données, pourquoi nous devons regarder les données un peu plus. Euh qu'est-ce que cela signifie en termes d'analyse de données ? Eh bien, cela signifie vraiment que vous allez devoir jeter beaucoup de conseils qui vous ont peut-être été donnés lorsque vous examinez vos données. Vous lisez un tas de choses et peut-être avez-vous lu des choses que nous allons examiner, et ces choses que vous avez lues, vous pourriez vouloir les remettre un peu en question, potentiellement. Euh la première chose dont je veux parler est ce mot appelé valeurs aberrantes. Euh, assez curieusement, Malcolm Gladwell a également écrit un livre intitulé "Outliers" (Les Valeurs Aberrantes). Euh, je ne l'ai pas lu. Euh mais je ne pense pas que les valeurs aberrantes dont il parle soient ce dont je vais parler. Je pense qu'il parle de valeurs aberrantes qui sont des personnes. Je parle de valeurs aberrantes qui sont des données, je crois. Je sais que quelqu'un va me corriger là-dessus, mais je ne sais pas. Nous parlons de valeurs aberrantes. Qu'est-ce qu'une valeur aberrante ? Alors nous devons demander, qu'est-ce qu'une valeur aberrante ? Si nous revenons euh au pourcentage de lancers francs de Wilt, et que nous traçons nos limites de processus naturelles, euh ou avant de tracer les limites de processus naturelles, rappelez-vous que M. Gladwell voulait appeler ce point une valeur aberrante. Si nous traçons des limites de processus naturelles autour de cela, vous verrez que ce point n'est pas une valeur aberrante. Euh mais celui-là peut-être oui.
[00:20:50] D'accord. Euh, vous avez peut-être aussi entendu dire, hey, chaque fois que vous avez des valeurs aberrantes extrêmes dans vos données, l'une des premières choses à faire est de supprimer ces valeurs aberrantes extrêmes, euh parce qu'elles sont statistiquement insignifiantes. Euh, cela pourrait être vrai, mais ça ne l'est probablement pas. Euh si vous savez avec certitude que ce sont de mauvaises données alors oui, supprimez-les absolument. Mais du point de vue de Schwartz, ces valeurs aberrantes extrêmes, c'est là que se trouve tout le signal. Il y a une raison pour laquelle vous avez obtenu ce point, encore une fois, en supposant que ce sont de bonnes données. Il y a une raison pour laquelle vous avez eu ce point. Euh et donc au lieu de simplement l'ignorer, au lieu de le supprimer aveuglément, ce que nous devons vraiment faire est de demander pourquoi cela s'est produit, qu'est-ce qui a causé cette chose ? Qu'est-ce qui cause cette "valeur aberrante" entre guillemets ? Parce que encore une fois, si nous traçons ces lignes, par définition, celle-là est une cause assignable. Donc la première chose à faire est que quiconque vous parle de valeurs aberrantes, interrogez-le sur ce qu'il entend par valeurs aberrantes. Deuxièmement, s'ils vous disent de, ah, vous supprimez juste toutes les valeurs aberrantes. C'est une valeur aberrante, supprimez-la juste. Euh ça devrait vous donner la chair de poule un peu, euh vous faire poser des questions. C'est la chose la plus controversée. Tendances. N'est-ce pas ? Qu'est-ce qu'une tendance ? Si je dis le mot tendance et que je remets ce graphique. Ceci est le pourcentage de lancers francs par match de Wilt Chamberlain. Si je dis tendance, qu'est-ce qui vous vient à l'esprit quand vous regardez ces données ? Voyez-vous des tendances dans ces données ?
[00:22:25] Un peu. Quelqu'un voit-il une sorte de tendance ici, n'est-ce pas un peu comme la partie centrale, les données ne semblent-elles pas être en quelque sorte orientées à la hausse ? Peut-être, peut-être pas. Euh, si vous deviez tracer mais encore une fois, si nous devions tracer ces ces limites, euh, euh, vous savez, autour des données. Notez que tout cela est bien dans le bruit. Un tel modèle est en fait à prévoir. Il n'y a pas nécessairement de tendance là-bas. N'est-ce pas ? Tout ça, c'est du bruit. Ceci nous amène au titre de la présentation. C'est le pourcentage d'utilisation du tabac chez les adolescents. Si je vous demandais, y a-t-il une tendance dans ces données ?
[00:23:05] Vous êtes réticent maintenant, donc vous ne direz probablement rien. Euh mais la plupart des gens diraient, oui, il semble, n'est-ce pas qu'en général, au fil du temps, la consommation de tabac en équipe diminue. Oui, il semble que ce soit en baisse, n'est-ce pas ? Si nous traçons à nouveau ces limites, vous remarquerez que tout cela est bien dans le bruit.
[00:23:24] Euh, si nous ajoutons 2018, d'ailleurs, ce sont des données jusqu'à 2017, si nous ajoutons le point pour 2018, dirions-nous que l'utilisation repart à la hausse ?
[00:23:36] Parce que c'est exactement ce qu'a dit USA Today. Ils ont dit, hey, regardez, l'utilisation du tabac chez les adolescents est en augmentation. Euh, est-ce vraiment ce que cela signifie ?
[00:23:47] La morale de l'histoire est que, lorsque nous parlons de bruit, il n'y a, pour la plupart, pas de telle chose qu'une tendance dans le bruit. L'une des meilleures façons, je pense jusqu'à présent, de n'avoir pas trouvé une très bonne manière d'expliquer cela, donc j'espère que cela a du sens. L'une des meilleures façons que je pense avoir trouvées pour expliquer cela est d'imaginer que vous aviez un dé équitable à six faces.
[00:24:07] Et imaginez que vous avez commencé à lancer ce dé et que le premier lancer était un six et le second lancer était un cinq, et le troisième lancer était un quatre, et le quatrième lancer était un trois. Diriez-vous que vos lancers de dés sont en baisse ?
[00:24:22] Je dirais non, que tous ces résultats sont à prévoir. Tout comme lui, ces données nous disent que tous ces résultats sont à prévoir. Il n'y a vraiment aucune tendance là-bas. Pour la plupart. Nous verrons si vous êtes d'accord ou pas avec moi peut-être un peu plus tard. Euh, c'est juste pour le plaisir. Rappelez-vous, nous avons parlé de comparer un seul point à une moyenne. C'est ce que vous allez probablement voir le plus souvent. Euh, ne me lancez pas sur les équipes Scrum et la vélocité et la comparaison d'un seul sprint à la vélocité à long terme, ne me lancez pas là-dessus, mais j'espère que cela résonnera. Comparer un seul point à une moyenne. USA Today, vous vous souvenez quand il a dit que l'utilisation par les adolescents augmentait, comme preuve, il a dit, eh bien, vous savez quoi, la moyenne à long terme était de 16,2%.
[00:25:07] La valeur de 2018 était de 18,3 %. Cela signifie que les choses s'aggravent.
[00:25:15] Pourquoi pensez-vous qu'il est si dangereux de comparer une seule valeur à une moyenne ? Pourquoi pensez-vous que c'est dangereux ? Quelqu'un a des idées ?
[00:25:22] Il y a en fait deux raisons, peut-être plus, mais au moins deux.
[00:25:27] Permettez-moi de poser une question plus facile. Quelles sont vos chances, si vous comparez un seul point à une moyenne, quelles sont vos chances d'avoir raison ?
[00:25:38] Qu'est-ce que c'est ? Pardon. Les deux valeurs sont. Oh, les deux valeurs sont assez proches. Oui, nous allons y revenir dans une seconde. C'est le deuxième point que je veux faire. Mais si je compare un seul point, si je dis, hey, ma moyenne à long terme est ceci, la prochaine chose, le prochain point que j'aurai sera au-dessus de cette moyenne, quelles sont mes chances d'avoir raison ? Environ 50 %. Ce n'est pas nécessairement 50%, il faut qu'on entre dans les statistiques et les distributions et des choses comme ça, mais c'est probablement assez proche. J'ai 50% de chances d'avoir raison, 50% de chances de me tromper, grand-chose. N'est-ce pas ? Qu'ai-je vraiment appris là ? Mais plus important encore, est-ce que c'est euh à quel point c'est proche de la moyenne ? Ce n'est pas parce que c'est au-dessus ou en dessous de la moyenne que c'est probablement, comme dirait Schwart, presque certainement dans le bruit. Donc, cette prévision ne nous donne presque aucune information, quelle qu'elle soit. J'habite à Miami. Vous vous demandez peut-être, Dan, si tu vis à Miami, qu'est-ce que tu fais à Paris en octobre ? Euh ce à quoi je réponds c'est Paris et c'est Miami. Je ne sais pas si quelqu'un est déjà allé à Miami. Euh mais la vraie raison est que c'est le milieu de la saison des ouragans en ce moment en Floride. Euh, et j'aime m'enfuir chaque fois qu'il y a des ouragans, j'aime juste partir, partir de l'état le plus rapidement possible. Ceci euh est un titre, je crois, de Forbes. J'ai peut-être l'article ici. Forbes, oui.
[00:26:59] Euh, au début de la saison des ouragans, ils ont dit que les experts prévoyaient une saison des ouragans 2022 supérieure à la moyenne.
[00:27:06] Qu'est-ce que cela vous dit ?
[00:27:09] D'accord. Et si je vous disais que la moyenne à long terme des ouragans pour euh pour tout l'Atlantique Nord, ne parlons pas seulement de la Floride, pour tout l'Atlantique Nord est de 14 tempêtes. D'accord, donc ils disent que ça va être au-dessus de 14. Qu'est-ce que cela vous dit ?
[00:27:26] Rien. Presque, presque rien, presque rien.
[00:27:30] Euh au fait, pensez-vous qu'ils ont raison ou tort cette année ?
[00:27:34] Quelqu'un sait combien de tempêtes il y a eu jusqu'à présent ? Il faut vraiment suivre ça. Quelqu'un veut deviner combien de tempêtes il y a eu jusqu'à présent ?
[00:27:42] Pas trois.
[00:27:45] C'est une bonne supposition. C'est plus que trois.
[00:27:48] C'est en fait 11. 11 et la saison des ouragans se termine ici dans quelques semaines. Euh donc ils vont probablement se tromper là-dessus. Ils avaient 50% de chances d'avoir raison, ils vont avoir tort. Euh et non seulement ils se sont trompés, mais les prévisions qu'ils ont données étaient de toute façon bien dans le bruit. Euh, où avons-nous déjà vu cette fausse comparaison ?
[00:28:08] Quelqu'un était censé se souvenir de ça et me le rappeler, où avons-nous vu ça ? Comparer un seul point à une moyenne à long terme, où avons-nous vu ça avant ? Oui. Rappelez-vous, Monsieur Gladwell a dit, eh bien, regardez, sa moyenne à long terme est de 51%. Il a tiré à 87,5%. Si nous regardons les données, et je n'ai pas ce graphique sous la main, mais si nous regardons ces données, rappelez-vous que c'est bien dans le bruit, pas vraiment bien dans le bruit, mais c'est dans le bruit. Ce n'est pas parce qu'il a très très bien tiré ce soir-là qu'il n'y a aucune preuve, nécessairement aucune preuve, que son tir de lancer franc était la raison pour laquelle il a joué un si bon match. Les histogrammes, probablement ma bête noire la plus grande en matière d'analyse de données en général, surtout l'analyse de données de séries chronologiques, je suppose que je devrais dire que j'avais une chevelure fournie. Euh, jusqu'à ce que les gens commencent à parler d'histogrammes. Euh, c'est là que la plupart des erreurs flagrantes sont commises. Ceci est un histogramme de temps de cycle pour une autre équipe Scrum. C'est toujours une équipe Scrum, encore une fois, je sais que j'ai l'impression de m'acharner sur Scrum, mais je vous promets que non. Euh et vous pourriez regarder ça et n'importe qui ayant étudié le temps de cycle pourrait dire, oh, regardez, euh c'est ce que ça devrait être. Ceci est censé être une distribution log-normale ou une Weibull ou Weibull ou Weibull ou peu importe comment vous prononcez ce nom ou quoi que ce soit. oh regardez, regardez, c'est ce à quoi ça doit ressembler, n'est-ce pas ? Ce sont des données de temps de cycle.
[00:29:25] Si nous mettons cela dans un graphique que ce serait euh à prévoir, quelque chose comme ça. Que voyez-vous ? Ceci est maintenant, d'ailleurs, ceci est maintenant le temps de cycle au fil du temps. Je m'excuse, ce sont des dates américaines ici. Je ne sais pas si ça va marcher. Euh mais ce sont des dates américaines en bas. Oh non, non, désolé. Non, ce sont des dates européennes. Je l'ai changé pour vous. Euh donc c'est le 1er octobre, c'est le 1er janvier, bien que ce soit la même chose qu'en américain.
[00:29:55] Euh, qu'est-ce que vous voyez de différent dans ce graphique par rapport à celui-là ?
[00:30:02] Celui-là ? Celui-là ? C'est comme un test oculaire. Numéro un. Numéro deux. Numéro un. Quelqu'un crie quelques-unes des choses que vous voyez. Qu'est-ce que c'est ? Côté ici.
[00:30:15] Oui, oui. Donc il semble, pour moi, qu'il s'est passé quelque chose aux alentours du 1er octobre.
[00:30:21] Si je devais dire, Dan est venu faire une formation Kanban pour cette équipe le 1er octobre. Tu pourrais être comme, ah oui. Euh si je revenais à ce tableau et que je disais, hey, quand Dan est-il venu faire la formation composée pour cette équipe ?
[00:30:38] Votre argument pourrait être, eh bien, vous savez quoi, Dan, mais nous pouvons toujours tracer des limites autour d'un histogramme, tout comme nous pouvons tracer des limites autour de ce graphique. Quel est le problème avec cette approche ?
[00:30:49] Pensez-vous que les limites de processus naturelles que nous tracerions pour cette section des données devraient être les mêmes que les limites de processus naturelles nationales que vous traceriez pour cette section des données ? Probablement pas. Il y a eu un changement fondamental dans le processus. Vous ne savez pas où ce changement fondamental a eu lieu, euh sur ce graphique.
[00:31:11] Histogrammes. Euh pour un crédit supplémentaire, vous avez déjà un peu vu mon dédain pour cela. Euh mais pour un crédit supplémentaire, vous n'adaptez jamais vraiment une distribution de probabilité à vos données. Une distribution de probabilité n'a pas généré vos données. C'est votre processus qui a généré vos données. Ce n'était pas une chose mathématique fantaisiste là-bas, c'était votre processus. Euh, au mieux, vos données sont une approximation d'une de ces distributions, mais ce n'est probablement même pas ça. Plus important encore, ça n'a même pas d'importance. Parce que vous n'avez pas vraiment besoin de savoir tout ça pour faire ce type d'analyse. Enfin, n'oubliez pas votre carte "Sortez de prison sans payer", euh, et c'est que Comment on s'en sort avec le temps ? Je passe très vite sur ce point. Euh les données n'ont de sens qu'en fonction de leur contexte.
[00:31:57] Je me fiche de la technique d'analyse de données que vous utilisez. Je me fiche de qui vous a dit quoi. Vous comprenez votre contexte où vos données ont été collectées. Vous comprenez cela. Et donc encore une fois, si vous savez qu'il y a une raison pour laquelle ce point est apparu, que cela vous indique un signal ou non. Si vous savez que c'est un signal, alors c'est un signal. Si vous savez que ce n'est pas un signal, alors ce n'est pas un signal. N'est-ce pas ? Les données n'ont de sens qu'en dehors de leur contexte.
[00:32:21] Alors revenons à Wilt. Voyons comment nous.
[00:32:26] J'espère que tout le monde peut comprendre où je veux en venir. Euh pendant cette saison de 62. Oui, il y a un signal possible là si nous regardons les points par match, il y a un signal possible là. Quelque chose s'est passé qui a causé ce match à 100 points. Quelque chose, quelque chose d'exceptionnel s'est produit. Que cela ait été causé par le lancer franc, sa technique de lancer franc est douteuse.
[00:32:52] Parce que ce que les données pourraient suggérer, c'est que le tir de lancer franc en dessous de la main l'a en fait rendu pire. Je pense que c'est potentiellement euh une meilleure conclusion à tirer que celle qu'il a améliorée en utilisant son lancer franc par en dessous. Quelqu'un sait-il ce que Will Chamberlain a fait pendant la saison 1963 ? A-t-il continué à tirer en dessous ? Quelqu'un connaît-il cette histoire ? Quelqu'un sait-il ? Quelqu'un veut deviner, a-t-il continué à tirer en dessous ? Il ne l'a pas fait. C'est parce qu'il est allé regarder ces données, n'est-ce pas ? Quelqu'un veut savoir pourquoi Wilt Chamberlain est repassé au tir par-dessus la tête ?
[00:33:29] Des suppositions ?
[00:33:31] Non, ils n'ont pas changé les règles. C'est une bonne supposition. Ils n'ont pas changé les règles, vous pouvez toujours le tirer par le dessous si vous le souhaitez. Il s'est blessé. C'est une autre bonne supposition. Non, c'est parce qu'il se sentait juste ridicule.
[00:33:44] Il a dit qu'il avait l'air stupide. Je ne veux pas tirer. Je me fiche que ça me rende meilleur ou pire, je m'en fiche. J'ai l'air stupide en le faisant, alors je vais revenir au coup droit.
[00:33:54] Il s'avère que c'était probablement une chose raisonnable à faire, un résultat raisonnable, euh mauvaise euh mauvaise analyse. N'est-ce pas ?
[00:34:03] Euh si quelqu'un est intéressé. Non pas que je ne vous recommande habituellement d'aller consulter Wikipédia pour quoi que ce soit. Parce que ayant fait beaucoup de recherches à mon époque, j'ai trouvé, croyez-le ou non, que Wikipédia se trompe. Pouvez-vous croire cela ? Ça se trompe en fait de temps en temps. Euh mais c'est une histoire assez intéressante. Il s'avère qu'il y avait beaucoup d'autres choses qui se passaient cette nuit-là et qui n'avaient presque rien à voir avec son son tir de lancer franc. Euh et ce qui m'intéresse, c'est que cette histoire est beaucoup plus intéressante que ce que Gladwell présente dans son euh dans son podcast. Donc si quelqu'un est intéressé, allez chercher ce euh ce match du 2 mars 1962, et vous pourrez voir toutes les choses qui se passaient. Rien de tout cela n'avait vraiment à voir avec les lancers francs, les tirs de lancers francs. Alors. Pour résumer, Monsieur Gladwell, il commet cette erreur. Il prend le bruit pour un signal. D'accord. Cela arrive aux meilleurs d'entre nous.
[00:34:52] Euh d'accord, et alors ? Il doit toujours y avoir une section "et alors" de la euh de la keynote. Je sais que ce n'est pas votre keynote typique, euh mais il y a, il doit y avoir un 'et alors'.
[00:35:03] Nous devons reconnaître que notre monde de processus est dominé par l'aléatoire. C'est le monde dans lequel nous vivons. Je sais que beaucoup de gens aiment adopter une approche déterministe pour euh pour notre analyse de données, ça ne marche pas. C'est pourquoi je suis si content que nous ayons été présentés par un statisticien qui comprend probablement ces choses. Notre monde est dominé par l'aléatoire. Ce qui signifie que pour un ensemble de données donné, la toute première chose que nous devons faire est de demander si votre processus est prévisible. Votre processus présente-t-il un signal ? Parce que si cela présente un signal, ce que nous devons faire est d'aller inspecter pourquoi ce signal se produit. Euh.
[00:35:39] Si votre processus ne se comporte pas comme vous l'attendez, s'il n'est pas prévisible, savez-vous où le chercher ? Je suggère une approche, c'est une approche d'ailleurs. Je ne dis pas que c'est l'approche, mais c'est une approche. Une approche pour faire ça. Savez-vous où aller chercher ce signal ? D'accord. Euh une fois que vous avez apporté ce changement, comment savez-vous si ce changement a entraîné une amélioration ou une non-amélioration ? Avons-nous fondamentalement changé le système ? Comment le savons-nous ? Encore une fois, j'argumenterais que le graphique de comportement du processus est une excellente façon de voir cela. Euh et puis qu'est-ce que vous faites si nous avons déjà un processus qui est entre guillemets prévisible ? Si nous avons déjà ce processus,
[00:36:21] eh bien, maintenant, qu'est-ce qu'on fait ?
[00:36:24] La réponse à cela est
[00:36:26] tout le monde était attentif, quelle est la réponse à cela ? Si notre processus est prévisible, mais que ce n'est vraiment pas ce que nous voulons, que devons-nous faire ?
[00:36:33] Un changement systémique fondamental du processus. N'est-ce pas ?
[00:36:38] S'attaquer à de petites causes assignables spécifiques ne suffira pas. N'est-ce pas ?
[00:36:45] Euh enfin, et peut-être le plus important, une fois que vous avez votre euh une fois que vous avez euh ce que vous devez vraiment faire, c'est concevoir un processus qui puisse répondre. Euh quand sera-ce terminé ? C'est un peu un coup de pub éhonté là. Un merci spécial à un bon ami à moi, vous avez peut-être entendu son nom. J'espère que non. Euh je m'excuse si oui. Son nom est Prateek Singh. Nous n'aimons pas montrer des photos de Prateek, mais nous aimons son chien. Euh, alors, c'est Nisha, au fait. Donc, merci spécial à Prateek, mais surtout à Nisha, euh pour avoir aidé à la recherche et à l'analyse, vous savez, sur ce sujet. Pour la prochaine fois, peut-être, je ne sais pas. Je n'arrête pas de dire que je ne serai pas réinvité à ces choses, ils continuent de m'inviter. Je ne sais pas. Euh mais pour la prochaine fois, maintenant que nous comprenons un peu le hasard et euh et les résultats et des choses comme ça. Euh oui, c'est vraiment le résultat sur les résultats. Vous lisez ça correctement.
[00:37:36] Euh, je ne sais pas, vous entendez beaucoup de gens dans l'Agile parler de, non, c'est les résultats avant la production, c'est les résultats avant la production. Mm pas vraiment. C'est techniquement la production sur les résultats. Pour la prochaine fois, si quelqu'un est intéressé. Euh et bien sûr, euh n'utilisez pas de points d'histoire. Euh mais je ne veux pas forcément entrer là-dedans. Voici l'information que je vous avais promise. Le site web du Dr Wheeler est SPCpress.com. Euh vous pouvez en savoir plus euh à n'importe lequel de ces autres endroits, mais si vous voulez en savoir plus sur euh les diagrammes de comportement de processus et ce qu'ils sont et leur histoire et tout ça. Le site web du Dr Wheeler, SPCpress.com, est l'endroit où aller.