SCIQUOM   I  IDEEFORCE         

     

Le répertoire d'idées permettant d'exploiter la pleine puissance de l'information et de la connaissance dans le management des opérations industrielles et institutionnelles


Ammar Hadj Messaoud, Ing.; M.SC.

Diviser les choses n’est plus la solution : le tout est plus grand que la somme de ses parties

La plupart des gens souhaitent un moyen de simplifier leur travail. Qui peut leur en vouloir ? Nous sommes constamment bombardés par une myriade d’intrants. Les boîtes de courrier électronique débordent et le nombre de «pièces» du puzzle auquel chaque chef et responsable fait face au quotidien est sans fin. La technologie impose des mises à jour continues. L’approche défensive choisie par beaucoup consiste à «diviser pour régner». En d’autres termes, face à une multitude d’entrées, la réaction consiste à essayer de les contrôler en les décomposant en «morceaux» plus petits. L’hypothèse est ici de casser une grande situation en petits morceaux, plus de contrôle peut être exercé sur chaque morceau. C’est une hypothèse très imparfaite. Cela amène les organisations à concevoir leurs opérations en les divisant en plusieurs silos de départements, de fonctions et trop de niveaux hiérarchiques. Le problème est que toutes ces divisions sont artificielles.

Une approche segmentée a peut-être été utile il y a 50 ou 100 ans, mais notre réalité a changé. En effet, il existe aujourd’hui des niveaux d’interdépendance sans précédent. C’est ce qui crée la complexité. Nous vivons maintenant dans un monde interconnecté, interdépendant et de plus en plus complexe. Cela nous oblige à changer de cap et de comportement. La bonne nouvelle est que cela nous permet de fonctionner de manière plus évoluée. Pourquoi ? Parce que dans un monde interconnecté, les leviers du succès sont passés de la concurrence à la coopération, de gagnant-perdant à gagnant-gagnant.

Les leçons utiles de la science nous montrent qu’il faut passer de la pensée des parties à celle de l’ensemble. En effet, la dichotomie à laquelle les dirigeants et les managers sont confrontés aujourd’hui consiste à diriger et à gérer en « réduisant « la réalité en fragments (silos, fonctions, etc.) ou en adoptant la complexité. C’est la même dichotomie à laquelle les scientifiques ont fait face au cours des dernières décennies. Pourquoi est-ce important ? Parce que plus nous comprenons la nature, plus nous pouvons apprendre à gouverner efficacement notre réalité. Au dix-septième siècle, grâce à René Descartes, le paradigme était que la nature était une sorte de machine à remonter le temps. Le type de lois mécaniques développées par Isaac Newton était capable d’expliquer tous les phénomènes, du mouvement des boules de billard aux planètes. Les découvertes ultérieures de cellules et d’atomes ont révélé une réalité plus sophistiquée, mais encore comprise de manière mécanique. En conséquence, les usines et les organisations, des firmes d’assurance aux universités, ont continué à être organisées et gérées de manière mécaniste et divisée en silos.

Progressivement, un virage scientifique vers une compréhension systémique, par opposition à une compréhension mécaniste, a commencé à s’accélérer au XXe siècle. Les biologistes ont commencé à comprendre les organismes vivants comme des ensembles intégrés par opposition à une somme de leurs parties et les physiciens ont commencé à comprendre la nature à travers le prisme de la mécanique quantique où, au niveau subatomique, les lois de Newton ne sont plus appliquées.

Une prise de conscience croissante de la nature basée sur la théorie des systèmes a progressivement filtré. Nous commençons à comprendre les phénomènes dans un contexte plus large d’interrelations et à accepter la réalité des phénomènes émergents, ce qui signifie qu’il existe des propriétés qui apparaissent lorsque des parties d’un système interagissent qui ne sont pas présentes au niveau des parties individuelles. Chaque niveau de complexité donne lieu à de nouvelles propriétés émergentes. C’est le sens derrière l’expression que le tout est plus grand que la somme de ses parties. Lorsque nous reconnaissons cette nouvelle interprétation de la réalité, nous constatons inévitablement la nécessité d’une manière appropriée de penser, d’organiser et d’agir. Cela ne peut pas être la même manière de diriger et de gérer qui était appropriée pour un monde mécaniste.

L’énigme entre l’Explicite et le Tacite

Pensez pour un moment au fait d’aller chercher de l’information et de la connaissance sur des livres traitant de la gestion des opérations ou tout autre aspect des processus d’affaires. Pourquoi utilisons-nous des moyens explicites ? De plus, nous le faisons sans même y penser. Car, le genre humain, à vrai dire, a développé son intelligence à travers la parole, c’est-à-dire la transmission orale et plus récemment à travers le mot imprimé, où nous pouvons encapsuler et accéder aux connaissances, expériences et la sagesse des autres, c’est à-dire des gens de différents endroits et de différentes époques.

Cependant, si vous regardez la gestion des opérations relatives aux processus d’affaires modernes dans leurs sens le plus général, elles sont extrêmement tacites. Cette gestion est basée sur notre expérience personnelle et le «savoir» comment faire.  Par exemple, des systèmes comme les normes de la série ISO, essayent de rendre explicite cette connaissance tacite, mais en Algérie, le « savoir » du comment faire réfère plus à la conformité à la norme qu’à la recherche de l’efficience et de l’efficacité. Il en est de même en ce qui concerne les systèmes d’informations de type ERP (Entreprise Ressources Planning », du « supply chain », ou toute autre domaine du management.  Ainsi, les processus d’affaires sont basés sur la pratique, c’est-à-dire sur le «savoir-comment» faire.

Pourtant, on semble avoir oublié ceci : nous avons tendance à penser que nous pouvons absorber de nouvelles connaissances explicites et puis tout simplement les appliquer. En effet, nous devrions juste le faire, parce que c’est sensé, et là nous générons notre propre et essentielle nouvelle connaissance tacite.  Cependant, trop souvent dans notre société moderne, nous sommes inondés de connaissances nécessaires explicites et pourtant nous n’arrivons pas à agir correctement, nous manquons de faire la partie pratique. Pourquoi ?  La réponse est paradoxale ; c’est l’ancienne connaissance explicite que nous savons et croyons avoir confirmée tacitement qui nous arrête de regarder «de nouveau» à toute nouvelle connaissance explicite, et ensuite chercher à la confirmer ou à la réfuter.  En un mot, il est sacrément difficile d’être objectif et analytique sur de nouvelles idées, elles sont toujours examinées par rapport à nos vieilles idées.  L’histoire est pleine de telles choses.

Disons les choses autrement. Nous pouvons accéder au «savoir-pourquoi » par des moyens explicites, ce qui nous permet d’ordonner et de classer notre « savoir-comment », c’est-à-dire les faits, les mesures et les observations que nous faisons. Mais nous les faisons dans le cadre de notre compréhension actuelle tacite et l’expérience de nos «savoir-faire.»  Un nouveau « savoir- pourquoi » va générer de nouveaux «savoir-comment» et il y aura des faits nouveaux, des mesures et des observations qui vont nous positionner dans le domaine de gestion des «causes» plutôt que dans celui des «effets.»  C’est-à-dire que nous allons être en mesure de contrôler notre système, plutôt que de laisser notre système nous contrôler.  Toutefois, en premier lieu, nous devons aller au delà du vieux «savoir-faire.» Ce qui vous place dans quelque chose d’énigmatique.  Par exemple, notre approche holistique et les formations que nous donnons sont explicites, ce qui est nécessaire mais pas suffisant.  Notre intention a été de rendre nos formations et nos techniques de coaching aussi simples, aussi claires et aussi concises que possible.  Nous utilisons des schémas, du texte et des techniques en vue de contourner «ce que vous pensez que vous savez.»  Cependant, la simplicité donne un bon test de savoir si notre ancienne connaissance, notre vieux « savoir-faire » nous bloque ou non.

Naviguer dans la nouvelle complexité

Le plus grand défi pour les entreprises et les institutions aujourd’hui est la complexité. Elle est là pour rester, et les dirigeants et les managers doivent apprendre à naviguer dans une nouvelle réalité complexe. Une difficulté majeure réside dans le fait que le monde de l’entreprise ne comprend pas vraiment ce qu’est la complexité, son origine et quels changements profonds, et non pas seulement techniques et tactiques, sont nécessaires pour opérer et innover dans un monde complexe.

Lorsque des explorateurs ont découvert de nouveaux mondes, c’est grâce à leur capacité à naviguer dans les océans. Cette capacité était basée sur la connaissance de l’astronomie et l’utilisation des vents (les alizés), et les marins ne pouvaient compter que sur des instruments rudimentaires tels que la boussole, le sextant et les cartes marines. Au XXe siècle, il est devenu possible de voyager sur la Lune grâce aux nouvelles connaissances fournies par la théorie de la relativité et la technologie disponible pour construire une navette spatiale.

Au XXIe siècle, quelle que soit l’activité d’une entreprise ou de l’institution, de l’exploitation minière aux soins de santé, elle doit être capable de gérer la complexité et de nombreux dirigeants sont à la traîne. En effet, la manière dont les organisations sont structurées et leur fonctionnement repose toujours sur des modèles obsolètes. Personne ne songe à voyager dans l’espace sans le véhicule, l’équipement et les astronautes qui savent exactement quoi faire. Pourquoi, alors, autant de personnes essaient-elles encore de gérer des entreprises comme elles l’avaient été il ya 100, voire 50 ans ?

Le problème est que les entreprises, les institutions et les écoles de management sont encore très piégées dans un paradigme obsolète de silos, de fragmentation, de conflits et de jeu à somme nulle. Une vision du monde mécaniste, et dépassée, des organisations n’a pas encore été réellement abandonnée au profit d’une compréhension systémique urgente. Quelles que soient les techniques que les managers tournés vers l’avenir essaient d’adopter, le management reste largement ancrée dans l’idée de commandement et de contrôle, ce qui se reflète dans une conception organisationnelle traditionnelle, hiérarchique / fonctionnelle (mentalité de silo).

La raison pour laquelle il s’agit d’un problème est qu’elle impose de l’extérieur une structure qui ne reflète pas la nature inhérente de l’entreprise en tant qu’interaction. Se mettre au service de manières plus éclairées ne suffit pas. Pour naviguer dans la complexité, on doit abandonner l’approche mécaniste qui convenait au XIXe et au début du XXe siècle et comprendre véritablement ce qu’est la complexité. Sinon, on se retrouve dans la situation paradoxale d’essayer de gérer la complexité en la «simplifiant». On finit par employer même le mauvais langage, comme le font certaines des grandes firmes de conseil, lorsqu’elles parlent de « confronter » ou de « réduire à néant » la complexité et de la « décomposer en plusieurs parties. »

Pour trouver un moyen de gérer la complexité, on doit redonner à l’entreprise sa nature essentielle pour pouvoir l’organiser et la gérer de manière appropriée. On doit se doter des connaissances, des méthodes et des outils adéquats. Si on veut naviguer dans la complexité de nos entreprises, on a besoin de «la bonne substance», aux niveaux théorique, méthodologique et humain. La Théorie des Contraintes (TOC) est la bonne substance.

La TOC : une stratégie d’entreprise solide

Les gestionnaires et les employés du monde des affaires d’aujourd’hui sont confrontés à une situation de concurrence qui évolue de plus en plus rapidement. À une époque où le «time to market» (le temps entre l’idée d’un nouveau produit et sur le marché) et la réduction du cycle de vie des produits jouent un rôle important, les entreprises cherchent des solutions à ce type de problèmes. Car, cela peut jouer un rôle central dans le succès d’une entreprise.

Les deux concepts d’optimisation traditionnels et les plus récemment développés -Lean et Six Sigma- auront souvent déjà été appliqués. Les concepts de «bonnes pratiques» et de «leçons apprises» sont également largement utilisés. Alors, quelles options restent à toute entreprise pour aller de l’avant ?

Un véritable bond en avant en termes de productivité ne peut être atteint que par l’innovation. La «Théorie des Contraintes» (TOC) offre les moyens de découvrir et d’appliquer ces idées novatrices. Pour les mettre en pratique il faut un changement de paradigme. Un changement de paradigme est un changement de stratégie, mais un changement de stratégie est plus qu’un changement de paradigme.

La Théorie des Contrainte (TOC) permet de faire ressortir les exigences qui doivent être remplies par une stratégie d’entreprise solide. Une stratégie doit montrer comment l’entreprise entend atteindre les objectifs suivants, aujourd’hui et durablement :

  • Gagner de l’argent ;
  • Satisfaire et exciter les clients / marchés ;
  • Aspirer à une amélioration constante ;
  • fournir un emploi sûr ; et
  • Croître de manière rentable.

Il n’y a pas deux entreprises identiques, c’est pourquoi il n’est pas possible d’élaborer une stratégie universelle applicable à toutes les entreprises. Cependant, il existe une structure de base générale pour une stratégie d’entreprise solide qui peut être déduite des exigences que la Théorie des Contraintes TOC fait ressortir.

L’amélioration constante et la croissance sont deux composantes essentielles d’une stratégie saine. Voyons donc de plus près ces deux aspects :

Si on examine le développement de l’innovation et l’amélioration de l’économie mondiale dans son ensemble, on constatera que c’est exponentiel. Cela signifie inévitablement qu’une entreprise désirant rester compétitive à long terme devra également réaliser un développement exponentiel d’améliorations et d’innovations.

Si une entreprise met en œuvre des améliorations à un tel rythme, elle devra nécessairement croître aussi rapidement pour satisfaire à l’exigence d’un «emploi sûr». Le Dr Goldratt avait ceci à l’esprit lorsqu’il a écrit: «Lorsque je fais l’analyse d’une entreprise, je ne suis un peu satisfait que lorsque je vois clairement comment il est possible d’amener l’entreprise à générer en moins de quatre ans un bénéfice net égal à ses ventes totales actuelles.»

Cela donne une définition plus claire de la base d’une stratégie d’entreprise solide : on a besoin d’un processus d’amélioration qui conduit de manière répétée à des améliorations radicales. Mais ce type de croissance, ce développement d’améliorations constantes est-il possible dans une entreprise ?

Tant que les dirigeants s’en tiennent à l’idée répandue mais erronée selon laquelle l’optimisation d’un composant entraîne automatiquement l’optimisation de l’ensemble, et que tant que le système de leadership et de management d’une entreprise reposera sur ce principe, ce type de progrès ne sera pas possible. Les efforts de l’entreprise sont dispersés dans trop de domaines différents, tous axés sur la réduction des coûts plutôt que sur l’augmentation du Throughput (débit d’argent).

Une entreprise qui a compris et intériorisé le concept de «simplicité inhérente» se concentre avec succès sur la contrainte. Elle aura remplacé les indicateurs axés sur le coût et l’efficacité par des indicateurs axés sur le Throughput et utilisera des concepts tels que le « Drum-Buffer-Rope (DBR) », la distribution tirée (Pull distribution) ou la gestion de la chaîne critique, en fonction de son modèle d’affaires.

Donc, à la base d’une stratégie d’entreprise solide, on trouvera toujours un changement de paradigme qui guide l’entreprise d’un monde de «l’optima local» (l’optimisation d’un composant conduit automatiquement à l’optimisation de l’ensemble) dans un monde «d’optimisation holistique». Seule l’optimisation centrée sur la contrainte conduit automatiquement à l’optimisation de l’ensemble.

Contactez-nous (contact@sciquom.com) pour vous faire découvrir comment bâtir une stratégie d’entreprise solide maintenant et durablement

Le modèle Hoshin Kanri de planification stratégique et ses faiblesses

La défense concerne les périodes d’insuffisance, l’attaque concerne les périodes de surplus.

On a constaté que les approches traditionnelles en matière de planification stratégique ne fonctionnaient pas très bien. Dans la plupart des cas, elles ne développent pas de stratégie, même si elles sont embourbées dans les détails, en particulier les chiffres financiers. Dans les années 1960, les entreprises japonaises ont formulé une approche différente connue sous le nom de déploiement de politique, ou management par politique. Au moment de traverser le Pacifique en direction de l’Amérique du Nord, son nom japonais était : Hoshin Kanri. Ses partisans ont également fait la promotion de la planification stratégique.

Pour ceux et celles qui sont exposés à la planification stratégique traditionnelle, Hoshin Kanri est une façon de penser complètement différente. Cela va bien au-delà de l’approche traditionnelle, qui part essentiellement des hypothèses de base sur la nature de l’entreprise dans laquelle elle évolue, tente de développer des stratégies pour atteindre les objectifs liés à ces hypothèses, puis laisse à l’équipe de direction le soin de déterminer comment faire en sorte que ces choses se produisent.

Le modèle Hoshin Kanri, en revanche, est beaucoup plus « complet. »Il est basé sur un cycle ou une double boucle intégrée – Planifier-Faire-Réviser-Agir-. Il favorise le « faire » et « la révision » ainsi que la planification. Il intègre la planification opérationnelle et de projet, ainsi que le développement de stratégie.

Alors que les Japonais ont popularisé la méthode appelée « Plan-Do-Check-Act » (PDCA), ils l’ont appris de W. Edwards Deming et Joseph Juran dans les années 1950. Deming lui-même a attribué à Walter Shewhart, de l’American Telephone and Telegraph (AT & T), cette technique dans les années 1920, mais ses origines remontent encore plus loin que cela. Cette méthode, inhérente à la phase de « révision » de la planification de Koshin Kanri, est simple :

  • Planifier : Déterminez les objectifs à atteindre et les méthodes pour les atteindre.
  • Faire : Mettre en œuvre les méthodes.
  • Vérifier : Examiner les résultats. L’objectif a-t-il été atteint ? L’hypothèse d’amélioration a-t-elle été validée ?
  • Agir : Si les objectifs sont atteints, adoptez les nouvelles méthodes de manière permanente. Si ce n’est pas le cas, déterminez la cause de l’échec et retournez à « Planifier. » Continuez ce cycle jusqu’à ce que plus aucune amélioration ou progrès ne soit nécessaire.

Les personnes familiarisées avec la gestion de la qualité totale (TQM) et ses dérivés (Lean, Six Sigma, etc.) reconnaissent aisément ces étapes. Elles constituent la prescription de base de toutes les philosophies similaires d’amélioration continue. Cependant, de nombreux managers considèrent leur application uniquement au niveau du processus, afin d’améliorer des fonctions discrètes au sein de l’entreprise. Dans un sens plus large, l’élimination des écarts entre un plan stratégique et la performance réelle au niveau du système pourrait également être considérée comme un effort d’amélioration. La planification Hoshin inclut le cycle PDCA en tant que partie intégrante du déploiement de la politique.

Il a été observé également que la mise en œuvre de la stratégie – en d’autres termes, le passage des idées à l’action – est l’endroit où la plupart des modèles de planification stratégique deviennent très détaillés. La planification Hoshin ne fait pas exception. En fait, la majeure partie du processus de planification Hoshin est consacrée aux détails de la stratégie d’opérationnalisation : le cycle PDCA, à tous les niveaux de l’entreprise. Cela conduit fatalement, avec le temps, à la réduction du taux d’amélioration continue.

Ce souci du détail est évidemment nécessaire dans de nombreuses entreprises. Sans une telle structure formelle, de nombreuses entreprises seraient victimes d’entropie, telle qu’appliquée dans les systèmes d’organisation. Mais un PDG a fait observer : « La planification de Hoshin est conçue sur mesure pour l’anal rétentif. Elle est riche en détails de la conservation des enregistrements, la collecte de données, les calendriers, les ordonnancements, les revues de plan et d’avancement fréquentes et rigoureuses, ainsi que les rôles et les responsabilités associés à ces activités. » Il laissait entendre qu’un empire bureaucratique pourrait facilement résulter de l’application agressive du Hoshin Kanri sans un effort raisonnable pour le maîtriser. De toute évidence, cette intensité est souhaitable dans certaines entreprises, voire nécessaire. Mais ce n’est pas le cas dans d’autres, et il peut être difficile de faire la distinction entre « assez » et « trop. »

Trop peu de détails ou trop ? Un moyen de sortir du dilemme

Tout le monde porte des jugements de valeur, ce qui est juste contre ce qui est faux. Je ne fais pas exception. Mais en ce qui concerne l’application des méthodes, je suggère qu’il puisse exister plus d’une « bonne » voie. De plus, je suggère que la détermination de la « bonne voie» est hautement situationnelle. Ce qui est juste pour une entreprise dans une situation peut ne pas convenir pour une autre.

Il y a plus de quarante ans, deux chercheurs en systèmes ont conclu que le management des organisations était soit mécaniste, soit organique. Les systèmes de gestion mécanistes se caractérisent par une différenciation spécialisée des tâches, les individus considérant leurs tâches comme étant distinctes de l’ensemble, des droits et obligations définis avec précision, une structure hiérarchique, des interactions verticales entre supérieurs et subordonnés et des instructions descendantes (Top-Down). Les systèmes de management organiques, quant à eux, mettent l’accent sur les performances individuelles, sur la base de la connaissance de l’ensemble du système, de la redéfinition continue des tâches par l’interaction avec les autres et de nombreuses interactions et consultations latérales. Une approche de management mécaniste conviendra probablement mieux à des environnements organisationnels relativement stables, tandis que les entreprises qui doivent faire face à des conditions instables et changeantes sont probablement mieux adaptées à une approche organique.

On peut aller un peu plus loin. Une entreprise mécaniste serait probablement mieux adaptée à un modèle de planification stratégique qui fournit le type de détails et la structure inhérents à la fois au modèle militaire et au modèle de planification Hoshin. Une entreprise organique aurait besoin d’un modèle de planification stratégique moins complexe, moins détaillé et peut-être plus flexible.

Le problème, cependant, est qu’il est souvent difficile de caractériser les entreprises comme mécanistes ou organiques. Ces termes pourraient être mieux traités comme les extrémités opposées d’un continuum, dont les extrêmes pourraient être l’anarchie totale et la régulation totale. La plupart des entreprises se situeront à un point intermédiaire de ce continuum, exposant leurs caractéristiques à un certain degré.

Où se situerait Hoshin Kanri dans les 10 écoles de pensée stratégique ? De toute évidence, le détail de la pédagogie du Hoshin suggérerait l’école de planification formelle. Dans une moindre mesure, les caractéristiques des autres écoles pourraient également s’appliquer. Toute l’approche japonaise en matière de management, à partir de laquelle Hoshin est issue, intègre des éléments des écoles culturelle et environnementale. Le modèle Hoshin Kanri était à l’origine destiné à être un outil d’amélioration des processus et de déploiement de règles, et non un modèle de planification stratégique. Mais il est possible de synthétiser des éléments de différents systèmes pour former une nouvelle création. Le modèle de planification stratégique par les contraintes est une telle synthèse. Cela inclut des nuances de Hoshin Kanri, mais il vise également à résoudre le dilemme apparent de « trop ​​de détails par rapport à trop peu. »

Construire le succès avec une approche systémique de la stratégie d’entreprise

L’individualiste sans stratégie qui prend à la légère ses adversaires deviendra inévitablement le captif des autres.

Les systèmes ont presque toujours la particularité que la caractéristique de l’ensemble ne peut pas être comprise même par la compréhension la plus complète des composants individuels.

Comme il a été dit dans le blog précédent, il ne manque pas de preuves que les courants de pensée traditionnels en matière de planification stratégique (conception, planification et positionnement) laissent beaucoup à désirer. Et tandis que les écoles contemporaines traitent beaucoup des faiblesses des écoles traditionnelles, elles ont leurs propres faiblesses.

Le mécontentement avec les approches traditionnelles semble se centrer sur quatre caractéristiques : 1) Ignorer les dépendances ; 2) Inflexibilité ; 3) Mettre davantage l’accent sur « le plan » que sur « la stratégie » ; et 4) Difficulté de mise en œuvre.

Ignorer les dépendances : L’échec le plus grave des méthodes de planification stratégique traditionnelles est peut-être la manière dont elles compartimentent les fonctions d’une entreprise. En réalité, elle traite chacune des différentes fonctions organisationnelles principales – marketing / ventes, opérations et finance – comme largement indépendantes les unes des autres. Certes, l’interdépendance entre elles est dite du bout des lèvres, mais la planification tient rarement compte de cette interdépendance.

Inflexibilité : le processus de planification lui-même engendre une inflexibilité de base dans les entreprises, qui comprend une résistance aux changements importants. On soutient que la planification est fondamentalement un processus conservateur, servant l’orientation de base (établie) de l’entreprise. Tous les changements qu’il promeut ont tendance à se situer dans le contexte de l’orientation établie de l’entreprise. La planification semble mieux fonctionner lorsque les grandes lignes d’une stratégie sont déjà en place, et non lorsqu’un changement stratégique du processus lui-même est nécessaire. Ainsi, plutôt que de créer de nouvelles stratégies, la planification ne peut généralement pas continuer sans son existence antérieure.

« Le plan » versus « la stratégie » : Ce qui est impliqué, c’est que la « forme » stratégique semble suivre la « fonction » organisationnelle existante. Les entreprises développent leurs plans en fonction des sous-unités qu’elles ont déjà, qu’il s’agisse de fonctions, de divisions ou de départements. Cela peut être acceptable pour de nombreuses entreprises dans un environnement relativement stable, où les hypothèses et le paradigme sous-jacents ne changent pas beaucoup, ou évoluent lentement sur de longues périodes. L’agriculture et la construction automobile viennent à l’esprit à titre d’exemple. Les changements dans de tels cas sont, au mieux, des changements dans la position stratégique, plutôt que dans les stratégies elles-mêmes.

Toutefois, pour les entreprises opérant dans des environnements dynamiques et en rapide évolution, les règles du jeu sont davantage darwiniennes. « S’adapter ou mourir » est une philosophie de fonctionnement quotidien. L’inflexibilité est le baiser de la mort. Cependant, il faut garder à l’esprit que l’environnement stratégique ressemble probablement davantage à un continuum qu’à une structure d’absolus, avec la stabilité à une extrémité du continuum et le chaos à l’autre. Vers le point instable, il existe probablement différents degrés de «chaos ordonné», avec des temps de cycle évolutifs allant du très court au moyen terme. Vers le point stable, il existe également des degrés de stabilité variables, allant de rythmes de changements quasi glaciaires à une évolution plus ordonnée à moyen terme. Alors que les entreprises à extrémité stable peuvent tolérer un processus de planification stratégique qui inclut un changement progressif basé sur une stratégie prédéterminée, les entreprises à extrémité instable ont besoin d’un processus qui peut mettre l’accent sur la partie « stratégie », tout en maintenant la partie « plan » à un minimum absolu. En outre, Il est nécessaire également de souligner que, contrairement aux idées reçues, les stratégies réussies ont tendance à émerger de situations environnementales ou de la régression de l’entreprise aussi souvent qu’elles sont délibérément planifiées de haut en bas.

Difficulté de mise en œuvre : En supposant que la stratégie puisse être efficacement développée et exprimée dans un type de plan, la mise en œuvre de la stratégie est souvent un défi. Dans une enquête réalisée dans les années 90, 87% des répondants ont exprimé leur déception et leur frustration face à leurs systèmes de planification. Près des deux tiers ont attribué ce « mécontentement principalement aux difficultés rencontrées dans la mise en œuvre des plans, pas aux plans eux-mêmes ni au processus de planification. »

À la lumière de ce qui a été écrit plus haut au sujet du décalage entre «stratégie» et «planification», on hésite presque à utiliser les deux mots ensemble. Au lieu de cela, un meilleur concept pourrait être la navigation stratégique à travers une approche systémique de la stratégie d’entreprise qui est le modèle de management stratégique des contraintes (MMSC.)

Où se situe le modèle de management stratégique de contraintes dans le schéma des écoles de pensée stratégique ? Il incarne les caractéristiques de presque toutes les écoles, mais il en favorise probablement une de la catégorie traditionnelle (l’école de design) et une de la catégorie contemporaine (l’école d’apprentissage). Le modèle militaire fournit la structure préférée par les fans des écoles de design et la boucle OODA de Boyd apporte la flexibilité nécessaire pour tenir compte du chaos extérieur (école environnementale), de l’expérience sociale historique de l’école culturelle et du perfectionnement continu de l’école d’apprentissage.

Le modèle de management stratégique de contraintes est une synthèse de plusieurs autres théories et processus, qui équivalent à une fondation sur laquelle une maison est construite. Ce n’est peut-être pas l’équilibre optimal entre toutes les écoles de pensée stratégiques, mais il est suffisamment souple pour être utilisé à la fois pour l’élaboration et le déploiement de stratégies à long terme et pour la gestion de crises à court terme. Et le processus est pratiquement le même, ce qui est réconfortant pour les planificateurs. Seule la mise au point (le stratégique contre l’opérationnel) est différente.

Le modèle de management stratégique de contraintes tire sa force de la théorie valide (Théorie des Contraintes et boucle OODA de Boyd) et des pratiques éprouvées (Hoshin Kanri et planification stratégique militaire). Il fournit des outils flexibles pouvant donner une vision globale à tout le monde au sein de l’entreprise. Pourtant, ces outils sont faciles à maitriser et soutiennent les temps de cycle rapides pour des Observer-Orienter-Décider-Agir nécessaires pour « entrer dans le cycle de décision de l’adversaire ou des concurrents. »

L’individualiste sans stratégie qui prend à la légère ses adversaires deviendra inévitablement le captif des autres.

SCIQUOM dispense une formation de 3 jours intitulée : « Construire le succès avec approche systémique de la stratégie d’entreprise ».

Pour toute information contactez : contact@sciquom.com / (213) 023 85 56 09/26 ; 0552 528 327

Planification stratégique : Les Problèmes avec les Méthodes Traditionnelles, Contemporaines et Hoshin Kanri

Comme je l’ai présenté dans un précédent article sur ce blog, il ne manque pas de preuves que les courants de pensée traditionnels en matière de planification stratégique (conception, planification et positionnement) laissent beaucoup à désirer. Et tandis que les écoles contemporaines traitent beaucoup des faiblesses des écoles traditionnelles, elles ont leurs propres faiblesses.

Le mécontentement avec les approches traditionnelles semble se centrer sur quatre caractéristiques :

  1. Ignorer les dépendances ;
  2. Inflexibilité ;
  3. Mettre davantage l’accent sur « le plan » que sur « la stratégie » ;
  4. Difficulté de mise en œuvre.

Les critiques des écoles contemporaines (entrepreneuriales, cognitives, d’apprentissage, de pouvoir, environnementales, culturelles et de configuration) semblent être centrées sur trois caractéristiques :

  1. Contrôle limité par les responsables de la direction de l’entreprise ;
  2. Insistance excessive sur des facteurs relativement étroits ; et
  3. Une prédilection pour le statu quo (c’est-à-dire ne pas changer).

Les problèmes avec l’approche Hoshin

L’approche de planification Hoshin représente une amélioration considérable par rapport au modèle de planification stratégique traditionnel. Elle est nettement mieux centrée sur la relation fin-moyen. Cependant, elle est pédagogiquement intensive, insistant sur la mesure et la documentation à chaque tour et soulignant les examens presque obsessionnels. C’est beaucoup plus orienté processus que système. Il existe également des outils pour tous les goûts, préférences et besoins. Dans les bonnes situations, ces outils et techniques sont utiles, et plus la boîte à outils est grande, plus les choix sont nombreux.

Navigation stratégique

À la lumière au sujet du décalage entre «stratégie» et «planification», des différentes approches citées plus haut, on peut presque hésiter à utiliser les deux mots ensemble. Au lieu de cela, un meilleur concept pourrait être la navigation stratégique.

La planification stratégique n’est en réalité qu’un élément de la navigation stratégique des affaires, qu’il s’agisse de concurrence commerciale, de gouvernement efficace ou d’engagement militaire. Les propriétaires de l’affaire (ou du système) décident de la destination. C’est à la haute direction de décider du meilleur cours pour y arriver et de ce qui sera nécessaire pour faire le travail.

Parfois, cependant, le propriétaire décide de changer la destination du navire, souvent sans préavis. Prenons un exemple nautique. Dans cet exemple un bateau était en route vers la Grèce, le propriétaire est venu sur le pont depuis sa cabine et nous a dit : « Je ne veux pas vraiment aller en Grèce. Allons plutôt à Singapour ! » Nous sommes maintenant à deux tiers de la traversée de l’Atlantique, avec un cap à zéro-neuf-zéro, à 25 nœuds. Nous devons replanifier tout le voyage en cours, y compris les nouveaux arrêts imprévus pour le carburant et les provisions (et peut-être un répulsif contre les moustiques). En fonction de la période de l’année et des conditions météorologiques dans les océans Atlantique Sud et Indien, la stratégie globale pour atteindre la nouvelle destination pourrait avoir à changer.

Est-ce que cela arrive dans les affaires ? Bien sûr que si! Et parfois, ce n’est pas le propriétaire qui décide de changer de destination. Ce sont souvent des circonstances indépendantes de la volonté du propriétaire ou du capitaine. Peut-être qu’un marché pour un certain type de produit s’effondrera. Peut-être que les nouvelles technologies rendent nos produits, services ou processus existants obsolètes du jour au lendemain. Ou peut-être sommes-nous assez visionnaires pour voir un tel changement de paradigme et faire un petit changement de cap plus tôt. Chacune de ces circonstances peut complètement invalider un plan stratégique, voire même une orientation organisationnelle complète.

Développement de la stratégie : les écoles de pensée

Une chose est sûre : il n’ya pas d’accord général sur la manière de créer et de mettre en œuvre une stratégie. Mintzberg a identifié 10 écoles de pensée stratégique. Chacun diffère de l’autre par ses hypothèses, ses caractéristiques et ses domaines de prédilection.

Les trois premières de ces écoles sont assez différentes des sept autres. La conception, la planification et le positionnement pour ces écoles de pensée sont normatifs, délibérés et en grande partie objectifs. Elles sont normatives en ce que la stratégie qu’elles développent fournit des indications détaillées sur ce qu’il faut faire et comment le faire. Elles sont délibérées, en ce sens que la stratégie pour ces écoles est le résultat d’un effort délibéré pour la créer, elle ne fait pas que naître. Et ces écoles sont objectives dans la mesure où elles dépendent et utilisent de grandes quantités de données quantitatives. L’objectif sous-jacent de ces trois courants de pensée est le contrôle : elles cherchent à ce que la haute direction garde le contrôle de l’orientation de l’organisation.

Ces trois premières écoles pourraient être considérées comme des écoles de pensée « traditionnelles. » Ce sont elles qui constituent la plus grande littérature sur la planification stratégique. Ce n’est pas un hasard si ce sont aussi les écoles que Mintzberg et d’autres ont critiquées comme souffrant de divers degrés d’inefficacité. Cependant, si on accepte les conclusions de Mintzberg (et il est très difficile de ne pas le faire), la planification stratégique (processus formel et détaillé) ne répond pas vraiment au besoin d’une organisation de planifier son avenir. Ce processus est lent, fastidieux, peu flexible, ne tient pas compte des changements rapides dans les « règles du jeu des affaires » et n’aide pas beaucoup à rassembler les différentes entités dans un système cohérent et coordonné dont toutes les parties visent inlassablement un objectif unifié. Si ce processus ne fait pas toutes ces choses, que fait-il ?

Pendant les années d’intérêt général à la planification stratégique, de 1965 à 1985, les trois écoles traditionnelles ont dominé la littérature et la pratique en management. Le positionnement d’une école a toujours une influence. Au cours des dernières années, sept autres écoles de pensée stratégique, plus contemporaines, ont évolué et attirent beaucoup plus l’attention des professionnels et des étudiants en stratégie. Ces sept domaines sont l’entreprise, le cognitif, l’apprentissage, le pouvoir, le culturel, l’environnement et la configuration.

Les sept dernières écoles pourraient être qualifiées de descriptives, émergentes et subjectives. Elles sont descriptives, en ce sens qu’elles décrivent ce qui se passe dans l’environnement et comment se forment les stratégies, plutôt que de prescrire spécifiquement ce qu’il faut faire. Elles sont émergentes, en ce sens qu’elles supposent que les stratégies potentielles deviennent évidentes, ou se présentent comme des opportunités émergeant de l’environnement. Et elles sont subjectives, en ce sens qu’elles dépendent dans une large mesure de la vision, de l’intuition et de l’expérience personnelle des participants qui sont des caractéristiques tout sauf quantifiables et objectives. Comme ces écoles ne sont pas enfermées dans un processus normatif axé sur le contrôle, contrairement aux écoles traditionnelles, elles sont supposées être plus souples et plus réactives, et adaptables à l’incertitude d’un environnement externe en constante évolution.

Les promoteurs des écoles de contrôle accordent une grande importance à l’ordre, au processus et à la répétabilité. Les partisans des écoles de flexibilité accordent une grande importance à la créativité, à la réactivité et à l’unicité. Les partisans des écoles de flexibilité contemporaines ont une grande tolérance à l’ambiguïté, contrairement à celles des écoles de contrôle traditionnelles.

Chacune des écoles de pensée sur la stratégie offre des avantages et chacune porte des « bagages » d’inconvénients. La conception, la planification et le positionnement des écoles de pensée traditionnelle offrent le confort nécessaire pour maîtriser le processus d’élaboration de la stratégie, mais pas nécessairement la réalité qui en résulte. Ces écoles «délibérées» qui fournissent des processus de stratégie structurés, sont généralement objectives et analytiques dans leurs approches et utilisent généreusement des statistiques et des données.  Mais elles ne sont pas très flexibles. Les planificateurs ne sont généralement pas les mêmes que ceux qui mettent en œuvre la stratégie, ce qui signifie que la réflexion est souvent dissociée de l’action. De plus, l’environnement de l’entreprise peut souvent changer plus rapidement qu’un processus structuré ne peut réagir avec une stratégie mise à jour. Et nombre des problèmes les plus critiques concernant la stratégie ne sont pas facilement quantifiables ni se prêtent à une analyse par des données « consistantes.»

Les sept autres écoles de pensée stratégiques sont plus contemporaines, ce qui signifie que la pensée et la littérature sur celles-ci ont évolué au cours des deux dernières décennies. Ces écoles sont à la fois entrepreneuriales, cognitives, d’apprentissage, de pouvoir, culturelles, environnementales et de configuration. Elles sont considérées comme «émergentes» et intègrent des facteurs non quantifiables souvent absents des écoles délibérées traditionnelles. Elles sont moins déterministes et plus personnalisées, et elles s’adaptent généralement mieux aux changements de l’environnement réel que les écoles délibérées. En d’autres termes, elles sont autant tournées vers l’extérieur que vers l’intérieur. Et elles s’adaptent aux réalités politiques et au pouvoir, ce que ne font pas les écoles délibérées.

Mais les écoles émergentes ont aussi leurs inconvénients. Elles sont tellement dépendantes d’un grand leader visionnaire (entrepreneur) ou tellement réactives (apprentissage, pouvoir, culture) qu’elles ne produisent peut-être aucune stratégie réelle, qu’elles perdent leur stratégie ou qu’elles se dirigent vers une mauvaise stratégie. Certaines, comme l’école environnementale, favorisent l’uniformité et découragent les changements de stratégie.

Il peut exister une certaine corrélation entre une préférence pour une école donnée et la personnalité des dirigeants impliqués. Les personnalités ayant une prédilection pour l’ordre, les processus et le besoin de contrôler ont plus de chances d’être attirées par la stratégie délibérée des écoles traditionnelles et non par les écoles émergentes. L’expérience culturelle est également influente. Le leader occidental orienté management (technocrate) a eu plus de difficulté à comprendre le type d’influence décentralisée et les méthodes d’apprentissage couramment utilisées au Japon.

Avec autant d’options parmi lesquelles choisir (10 écoles, émergentes ou délibérées, objectives ou subjectives.) Comment peut-on espérer avoir le meilleur des deux mondes ? Comment peut-on réaliser le contrôle inhérent aux écoles de pensée traditionnelle tout en préservant la flexibilité des écoles de pensée contemporaine ? Est-il même possible de combiner les avantages des différentes écoles tout en atténuant ou en éliminant les inconvénients ?

C’est possible, mais cela nécessitera une approche différente : la synthèse plutôt que l’analyse. On devra synthétiser des éléments de formes connues en quelque chose de nouveau. Cette solution consiste à avoir une pensée systémique en adoptant une approche holistique par l’utilisation des concepts de la Théorie des Contraintes (TOC). La stratégie développée fera en sorte que tous chanteront partir de la même partition systémique (voir l’article :  https://ideeforce.dz/blog/2019/08/10/lapproche-holistique-cest-quoi-au-juste/)

Les victoires de bons guerriers ne sont pas connues pour leur intelligence ou leur courage. Par conséquent, leurs victoires au combat ne sont pas des chances ou des hasards. Leurs victoires ne sont pas des doutes parce qu’ils se placent là où ils gagneront sûrement, l’emportant sur ceux qui ont déjà perdu.

SCIQUOM offre une formation de 3 jours, et des services conseil, sur tous ces aspects de développement de stratégie, la planification stratégique, avec les concepts de la Théorie de Contraintes.

Pour en savoir plus, contactez nous : contact@sciquom.com / 0552 528 327 

Planification stratégique traditionnelle

Planification stratégique, ce terme implique que la formulation de la stratégie et la planification vont de pair, la main dans la main. Et en fait, c’est ainsi que la stratégie est traitée depuis plus de 40 ans. Les praticiens de la planification stratégique ont fondé leurs efforts sur une hypothèse de base : que la tâche, en grande partie créative, consistant de concevoir et de formuler une stratégie peut être normalisée en une série d’actions pédagogiques – la planification – avec pour effet que les résultats souhaités sont à la fois atteints et répétable. Est-ce que cela arrive vraiment ? Regardons de plus près.

Si on demande à la plupart des gens comment ils définiraient la stratégie ils donneront généralement la définition d’un plan : « une direction, un guide ou un plan d’action pour l’avenir ». Pour ma part je défini la planification comme « la conception d’un avenir souhaité et de moyens efficaces de le réaliser.» Mais la stratégie est aussi un modèle de comportement, c’est-à-dire la façon dont les choses sont faites, mais à une plus grande échelle.

La planification est l’une des cinq fonctions classiques du management. La planification est donc l’une de ces choses que les gestionnaires font simplement : « Les poissons doivent nager, les oiseaux doivent voler, les gestionnaires doivent faire des plans et planifier jusqu’à ce qu’ils meurent. » Mais pourquoi se donner la peine de planifier ? Les organisations planifient généralement pour quatre raisons : 1) coordonner leurs activités ; 2) s’assurer que l’avenir est pris en compte ; 3) être « rationnel » ; et 4) contrôler.

Fondamentalement, tout se résume à «contrôler». Ils veulent être capitaines de leur propre navire, maîtres de leur destin. Ils veulent être sûrs de nager, même si les autres coulent, et ne pas dépendre du destin. Comme Elbert Hubbard a dit un jour : « Tout ce qui est positif vaut mieux que rien du tout. » Tout dirigeant qui relève d’une autorité supérieure, telle qu’un conseil d’administration, se sent obligé de contrôler ses opérations. Les quatre autres fonctions de gestion, dont la planification est la première, permettent de satisfaire ce besoin de contrôle.

Il existe un terme typiquement américain « Monday morning quarterback » le quarterback du lundi matin, qui explique le comportement du contrôle. Cela signifie que le lendemain du match, il ne manque pas de personnes prêtes à critiquer ce qui a été fait et comment cela aurait dû être fait. La principale caractéristique du quarterback du lundi matin est que cela se fait toujours dans le confort et la sécurité du recul, en sachant comment les choses se sont déroulées et en ignorant la chaleur et la pression de la bataille réelle.

Prenons comme exemple le cas ultime du quarterback du lundi matin, le rapport d’accident d’avion : « cause principale : erreur du pilote, en ce sens que le pilote n’a pas réussi à garder le contrôle de l’aéronef.» Pratiquement tous les rapports d’accident ont mis l’accent sur la perte de contrôle. Peu importe que des facteurs contributifs aient pu rendre cela impossible à éviter. Le capitaine est en dernier ressort responsable de son navire, le commandant de bord de son avion. Et la plupart des gestionnaires estiment que s’ils veulent être tenus pour responsables, ils veulent pouvoir contrôler tout le monde. Ou aussi près que le destin le permettra.

Afin de maximiser les chances de succès, ils planifient délibérément, puis planifient des imprévus (les moments critiques à haut risque pour les résultats critiques lorsque le plan délibéré peut échouer). Et le défi consistant à maintenir le contrôle du navire dans un avenir incertain est encore plus convaincant. Ils veulent donc planifier à long terme. La planification à long terme nécessite généralement de répondre aux questions suivantes : « Où allons-nous et comment allons-nous y arriver ? » L’alternative simplement prendre la route est inacceptable, car elle n’implique «aucun contrôle». Si on ne se soucie pas de la destination, alors n’importe quel chemin fera l’affaire.

Qu’en est-il de la stratégie ? C’est un terme quelque peu insaisissable. Les gens aiment faire la distinction entre stratégie et tactique, où la stratégie fait référence à des choses « importantes » et la « tactique » à de simples détails. Malheureusement, les choses ne sont pas intrinsèquement stratégiques ou tactiques. Votre point de vue sur cela dépend de la position que vous occupez. La stratégie d’une personne correspond à la tactique d’une autre personne. La stratégie englobe également des éléments de positionnement – c’est-à-dire la détermination de produits et de marchés particuliers, ainsi que sa perspective – selon son concept de la manière dont les affaires sont menées.

D’où dérive l’échec de la planification stratégique ? Voyons un peu la question des résultats indéterminés. Quelles sont les preuves permettant de penser que la planification stratégique – appelée à l’origine planification d’entreprise – ne répondait pas aux attentes qui en découlent ? Mintzberg a observé que les planificateurs sont particulièrement réticents à évaluer leurs propres efforts, à la fois ce qu’ils font et ce qu’ils réalisent. D’autres, cependant, ne le sont pas. Voici quelques conclusions typiques de personnes ayant étudié les efforts de planification stratégique avec différents degrés d’intensité, c’est-à-dire des preuves anecdotiques, enquêtes et analyses complètes :

  • Aucune étude n’a été trouvée qui a « évalué les conséquences de l’adhésion ou de la déviation des plans à long terme. »
  • Une des premières études a indiqué que, si les entreprises qui se livraient à leurs activités de manière « systématique planifiée » obtenaient en moyenne des performances plus prévisibles, les autres entreprises qui ne se livraient pas à la planification surpassaient les performances des meilleurs planificateurs.
  • Certaines études réalisées dans les années 1970, par exemple par Malik et Karger, ont révélé des résultats favorables pour la planification, alors que d’autres, par Sheehan, Grinyer et Norburn, ne l’ont pas été. Mintzberg cite encore plus de telles études avec des résultats contraires. En fait, il a conclu que « la planification n’est pas le meilleur moyen, qu’elle ne paie certainement pas en général et qu’elle peut, au mieux, convenir dans des contextes particuliers, tels que les grandes organisations, celles de la production de masse, etc. »
  • Après avoir visité diverses entreprises européennes et américaines entre 1967 et 1972, un partisan bien connu de la planification a conclu : « La plupart des entreprises trouvent que la planification formelle n’a pas été la panacée ni la solution initialement envisagée facile. »
  • Igor Ansoff, l’un des universitaires les plus renommés dans ce domaine, a observé que « malgré près de 20 ans d’existence de la technologie de planification stratégique, la majorité des entreprises se livrent aujourd’hui à une planification à long terme extrapolative, beaucoup moins menaçante et perturbante. »
  • Porter quant à lui a dit : « La critique de la planification stratégique était bien méritée. Dans la plupart des entreprises, la planification stratégique n’a pas contribué à la réflexion stratégique. »

La littérature sur la planification stratégique ne manque pas. Les conclusions prématurées ne manquent pas non plus. Ansoff a cité General Electric comme « le principal praticien de la planification stratégique, après avoir essayé et régressé deux fois avant que le processus actuellement couronné de succès ne soit mis en place dans le cadre de la direction générale de l’entreprise. » Mais au moment où la déclaration d’Ansoff a été publiée, le « processus réussi » de GE s’est également effondré, avec beaucoup de publicité. Le PDG de General Motors, après trois «tentatives infructueuses» d’établir un système centralisé de planification, aurait déclaré : « nous avons élaboré ces grands projets, nous les avons mis sur les tablettes et nous avons décidé de faire ce que nous ferions de toute façon. Il nous a fallu un certain temps pour comprendre que cela ne nous mènerait nulle part. »

Planifier, planification et plans veulent dire quoi au juste ? Pourquoi toutes ces mauvaises critiques pour la planification stratégique ? Mintzberg fait la distinction entre planifier (un verbe), planification (un nom caractérisant un processus formel) et plans (autre nom faisant référence à des documents qui sortent du processus). Le fait qu’on ait un plan ne signifie pas nécessairement qu’on s’est engagé dans la planification, ou planifié. Si on peut garder tout ça droit, on s’en sort bien ! Ce que Mintzberg sous-entend, c’est que la nécessité de planifier (verbe) n’est pas invalide, au contraire, elle est essentielle au succès. Le plan (le nom, qui signifie un document) n’est pas non plus en faute. Les résultats de l’effort de planifier (verbe) doivent être communiqués d’une manière ou d’une autre à ceux qui ont besoin de le savoir. C’est plutôt la planification (processus formel) qui a échoué.

La Comptabilité de Débit (Throughput Accounting – TA) : Un Remède aux Lacunes des Systèmes de Comptabilité Basés sur les Coûts

La comptabilité de débit (TA) peut être la chose la plus importante dont vous n’avez jamais entendu parler. Pendant des années, les gestionnaires ont recherché de meilleurs outils financiers pour relever de nombreux défis de gestion, notamment la mesure de la performance, le calcul du coût des produits et la modélisation des décisions. Poussés par le constat que les anciens systèmes basés sur les coûts ne racontaient pas toute l’histoire qu’ils avaient cherché de remédier à la situation avec des approches telles que la comptabilité analytique, l’ABC / ABM (Activity Based Costinng/Activity Based Management) et la gestion stratégique des coûts.

Le Throughput Accounting (TA) est la première approche qui prend en compte l’élément le plus important manquant dans toutes les approches de comptabilité basée sur les coûts : le débit (le Throughput). Le débit peut être défini comme le taux auquel l’entreprise génère de l’argent par le biais des ventes. Il suffit de lire tout rapport annuel, d’examiner la mission de votre entreprise ou de parler à un dirigeant, on obtiendra le même message : on doit augmenter le débit. Ceci est communiqué de nombreuses manières, mais il s’agit d’une orientation de croissance qui vise à élargir les marchés, les produits, les clients, etc. Aucune entreprise n’a pour objectif de réduire ses effectifs en tant que stratégie d’entreprise à long terme. Pourtant, presque tous les outils financiers disponibles se concentrent sur les coûts, plaçant les dépenses au centre du processus de prise de décision et de mesure du rendement.

Dans presque toutes les revues comptables (USA/Canada), on peut trouver des articles et des études de cas mettant en évidence les diverses lacunes des systèmes de comptabilité basés sur les coûts. Et tout gestionnaire financier expérimenté informera librement des failles du processus et de la nécessité d’une «interprétation» extensive des chiffres pour prendre des décisions éclairées. Bien entendu, le contrôle des coûts est important, mais aucun haut dirigeant sensé ne vous dira que c’est le facteur le plus important pour réaliser les ventes et la croissance des bénéfices de l’entreprise.

Le Throughput Accounting (TA) répond au besoin que les entreprises ressentent depuis des années d’aligner l’ensemble de leurs systèmes, en particulier leurs systèmes financiers, sur l’objectif de leur stratégie axé sur le débit. Un nombre croissant d’entreprises, et les experts en comptabilité s’accordent pour dire que c’est le moyen de construire la vraie solution au problème de la comptabilité. Des articles ont paru dans des revues comptables et des périodiques de gestion attestant de l’impact réel du Throughput Accounting sur l’amélioration du résultat net (ROI, Profit Net et Cash Flow).

Les modèles de comptabilité basés sur les coûts sont-ils vraiment imparfaits ?

C’est une question cruciale qui doit être abordée non pas sur le plan académique mais dans un contexte réel. En d’autres termes, les modèles fondés sur les coûts empêchent-ils réellement une entreprise de réaliser des bénéfices ? La réponse est malheureusement, oui, de plusieurs manières critiques. Et cela vaut même pour la variante la plus récente de cette approche, la comptabilité de gestion ABC/ABM. En ce qui concerne cette dernière on peut dire que « la conviction que ABC améliore les performances à long terme d’une entreprise est une illusion ! »

Les systèmes de comptabilité de gestion basés sur les coûts souffrent initialement du fait qu’ils concentrent presque toute l’attention sur le contrôle des coûts. La Théorie des Contraintes (TOC) a clairement démontré le rôle central des contraintes dans la détermination du débit et la nécessité de synchroniser les efforts de chacun pour soutenir la contrainte.

Le débit n’est atteint que grâce aux efforts coordonnés de tous les secteurs de l’entreprise -développement de produits, ventes, marketing, fabrication, finances, etc. – qui doivent tous faire leur travail pour atteindre le débit. Si un «lien» de cette «chaîne» ne fournit pas, le débit est en danger. L’implication est que le débit dépend de la force de la chaîne entière en tant que système, et non de la performance isolée d’un seul «lien». Comme la force d’une chaîne n’est que celle de son maillon le plus faible, cette «contrainte» détermine le débit du système entier. Les autres ressources, par définition, ont une capacité supplémentaire par rapport à la contrainte. Les systèmes basés sur les coûts ne reconnaissent pas le rôle critique des contraintes et traitent tous les secteurs de la même manière.

Sans définir la contrainte, aucun système de coûts ne peut prendre en compte l’impact d’une zone locale sur le débit de l’entreprise. Au lieu de cela, les systèmes basés sur les coûts encouragent le management à sous-optimiser les performances partout avec le résultat presque inévitable de la réduction du débit. Quelques illustrations peuvent aider :

  • Si une opération alimentant une contrainte choisit d’exécuter une grande taille de lot de produits afin de réduire son coût de mise en course (setup), mais que dans le processus la contrainte n’est pas alimentée en produits, le débit de l’entreprise diminuera. Et a-t-elle réellement épargné quelque chose en éliminant un setup dans une non- contrainte, qui a par définition une capacité supplémentaire par rapport à la contrainte ?
  • Si l’ingénierie de fabrication découvre un moyen d’accélérer le temps de traitement sur une non-contrainte de 5%, en achetant de nouveaux outils, le débit sera-t-il accru pour l’entreprise si la contrainte reste inchangée ? Les coûts vont-ils baisser si on ne licencie personne en conséquence ?
  • Si les achats trouvent une pièce à moindre coût en s’adressant à un fournisseur qui fait en sorte que la contrainte n’est pas parfois alimentée, l’entreprise est-elle vraiment mieux lotie ? Malheureusement, le service des achats sera probablement récompensé pour avoir économisé de l’argent.

Ces systèmes de comptabilité montreront presque toujours qu’une amélioration locale a été apportée à un secteur ou département. Lorsque ces systèmes sont utilisés de manière classique pour mesurer et motiver un comportement, ils créent activement ces décisions sous-optimales, réduisant ainsi le débit. Aucun système basé sur les coûts ne dit aux gestionnaires l’impact d’une action ou d’une décision sur le débit, élément essentiel manquant pour prendre de bonnes décisions. Et cette omission est ressentie par toutes les entreprises qui cherchent aujourd’hui à mettre en œuvre les initiatives d’amélioration axées sur le débit à travers des projets tels que la Gestion de la qualité totale (TQM), le Juste-à-Temps (JIT), la TOC, ERP, Lean, Chaîne d’approvisionnement, etc. On ne peut pas implémenter avec succès une initiative orientée débit en conduisant l’entreprise avec des mesures et des outils de décision basés sur les coûts.

L’une des tâches les plus préjudiciables des systèmes de comptabilité de gestion axée sur les coûts (comme la comptabilité analytique) est la répartition des coûts entre les produits. Chacun de ces systèmes, y compris ABC/ABM, tente de lier les coûts à la production d’une unité incrémentielle de débit. En d’autres termes, ils essaient de prétendre que les frais de matériel, de main-d’œuvre et les frais généraux varient directement avec le volume de travail produit. En réalité, les gestionnaires savent que si le matériel varie directement avec le volume (chaque unité supplémentaire produite nécessite des matières premières supplémentaires), les coûts de main-d’œuvre et les frais généraux sont généralement fixés en fonction du volume supplémentaire. On n’engage pas systématiquement de la main-d’œuvre supplémentaire, on n’augmente pas les rangs du management ni on n’ajoute de nouveaux équipements et installations uniquement pour traiter une autre commande d’un client. De même, ces coûts ne disparaissent pas simplement parce qu’on a choisi de ne pas produire de nouvelle commande.

Ce qui est vraiment dévastateur ici, ce sont les implications pour les entreprises et la façon dont elles fonctionnent. Même si chaque contrôleur sait ne pas avoir entièrement confiance dans les chiffres fournis par son département, les entreprises prennent des décisions critiques sur la base de ces informations : comment déterminer le prix des produits, fabriquer ou acheter un composant, qu’une usine soit rentable ou non, où et comment devrait-on faire des investissements supplémentaires et une foule d’autres problèmes de gestion.

Un autre résultat dommageable des processus comptables de gestion basés sur les coûts est l’effort de capitaliser les coûts en les absorbant dans les stocks. Cela crée une incitation directe à constituer des stocks et crée un puissant désincitatif pour les réduire. Ce mécanisme permet aux gestionnaires de surproduire en période de faible demande et de différer la main-d’œuvre et les frais généraux de leurs coûts jusqu’à la vente des produits. Cela donne l’impression qu’une usine ou une entreprise est plus rentable dans une période qu’elle ne l’est réellement, et moins rentable qu’elle ne l’est que lorsqu’elle vend ces excédents de stock. Plus important, cependant, cela motive les gestionnaires à constituer et à maintenir des stocks élevés, ce qui est exactement le contraire de ce que la plupart des méthodologies d’amélioration de pointe telles que JIT, TQM et TOC qui ont montré ce qui est nécessaire pour être compétitifs aujourd’hui.

Comment la comptabilité des coûts est-elle arrivée à cet état ?

Les racines historiques de la comptabilité analytique et les hypothèses sur lesquelles elle reposait sont bien décrites dans de nombreuses sources ayant examiné le sujet de manière approfondie (RELEVANCE LOST : The Rise and Fall of Management Accounting ; par H. THOMAS JOHNSON et ROBERT S. KAPLAN). En résumé, la comptabilité analytique a été inventée à une époque où la grande majorité des coûts de production étaient directement variables en fonction du volume produit. Les matières premières et la main-d’œuvre constituaient les composantes les plus importantes des coûts et la main-d’œuvre étant payée à la pièce, chaque unité supplémentaire produite nécessitait le paiement de coûts de main-d’œuvre supplémentaires. Les frais généraux ne représentaient qu’une très petite fraction des coûts totaux. Aujourd’hui, les frais généraux représentent une part importante, parfois même majeure, des coûts, et la main-d’œuvre est payée à l’heure, et non à la pièce. Les hypothèses sur lesquelles reposait l’invention de la comptabilité analytique (Sloan chez GM en 1925) ne sont plus valables et, au fil des années, les gestionnaires ont été de plus en plus sensibles aux faiblesses de leurs systèmes.

Les lacunes des modèles basés sur les coûts ont été mises en évidence dans beaucoup de recherches sur le sujet. Au cours des 30 dernières années, des milliers de dirigeants et des centaines d’entreprises ont été intérogés, et ils semblent tous utiliser le même modèle décisionnel fondamental. Voici ce qu’ils nous ont dit : « Pour prendre toute décision importante, leur entreprise a un processus approuvé ou un formulaire à utiliser. Si un responsable estime qu’une décision est très importante et aura une valeur réelle pour l’entreprise, il analyse les chiffres à l’aide du processus. Si les chiffres justifient la décision qu’il veut, il la soumet pour approbation. »  

Mais que se passe-t-il si les chiffres ne justifient pas cette décision ? Que pense-t-on que tous ces gestionnaires ont dit faire ? La réponse a été un chœur retentissant, selon lequel ils «reverraient les chiffres», «affûteraient leurs crayons», «changeraient les hypothèses», et une foule d’autres euphémismes pour faire dire aux chiffres ce qu’ils pensaient qu’ils devraient.

Et quand on leur a demandé pourquoi ils ressentaient le besoin de le faire, ils ont répété la même histoire encore et encore. Le modèle dont ils disposaient ne racontait tout simplement pas toute l’histoire. Les chiffres qu’ils ont pourraient être massés pour dire à peu près tout ce qu’ils voulaient. Par conséquent, ils ont ressenti le besoin d’intervenir et de déroger au système pour s’assurer que les bonnes mesures étaient prises.

Au cours des 30 dernières années, le processus de prise de décision dans chaque entreprise combinait : des procédures approuvées basées sur les coûts, ainsi qu’une dose d’intuition du management, selon les besoins. Le message est assez clair : personne n’avait suffisamment confiance dans le système pour lui permettre de prendre la décision tout seul. Un tel consensus écrasant dans toutes les industries, les entreprises, les domaines fonctionnels et les gestionnaires ne peut pas être un accident. Et tandis que tous ces systèmes étaient basés sur les coûts, ils étaient loin d’être identiques. Beaucoup incluaient des techniques ABC / ABM, d’autres étaient basées sur les coûts directs ; il y avait un éventail de stratégies d’allocation différentes et une multitude de structures de coûts différentes. Le seul dénominateur commun était qu’ils cherchaient tous à lier le coût à une décision en tant que critère principal pour la prise de décision.

On pense que l’Activity Based Costing / l’Activity Based Management/ abordent ces problèmes

Dans l’article « Mettons les choses au clair sur ABC» de Tom Johnson, qui avait travaillé en étroite collaboration avec l’un des développeurs d’ABC, sa conclusion est sans équivoque : «pour devenir de classe mondiale, les entreprises américaines doivent changer la façon de penser des gestionnaires, et aucun système de coûts, pas même ABC, ne le fera.»

Des études de cas approfondies sur des entreprises ayant appliqué ABC ont seulement montré que les systèmes ABC produisent des données qui conduisent à des décisions différentes et non meilleures. L’une d’elles a fait une recherche approfondie en comparant l’ancien système d’allocation fondé sur la main-d’œuvre de John Deere et son nouveau système ABC. L’une des divisions étudiées présentait des capacités excédentaires considérables et pouvait effectivement produire un volume supplémentaire au seul coût des matières premières. L’ancien système de coûts leur faisait payer le travail de manière à remporter 30% de leurs offres. Le système ABC, en dépit de la capacité excédentaire qui était claire pour tout le monde, fournissait des informations différentes à partir desquelles ils ne remportaient que 14% des nouvelles offres. Eric Noreen, auteur éminent de nombreux livres de comptabilité, a conclu de cette étude et de toutes ses autres recherches : «Les systèmes ABC génèrent des coûts trompeurs pour la prise de décision».

Le problème fondamental avec ABC est identique à celui d’autres approches basées sur les coûts, il se concentre sur les coûts à l’exclusion du débit et cherche à allouer des coûts, qui ne sont pas totalement variables, aux produits. Le résultat final est des données qui ne correspondent pas à la réalité. Cela on le démontre, dans un «workshop de 2 jours» de SCIQUOM, que l’ABC et la comptabilité analytique ne permettent pas des décisions optimales.

Comptabilité de débit (Throughput Accounting – TA)

Le TA n’est pas un système de calcul des coûts, bien qu’il inclue des processus permettant de prendre des décisions plus rentables en matière de tarification et de vente / marketing. Il s’agit d’un changement fondamental de l’attention portée aux coûts et à leur allocation aux produits. Les entreprises ont ressenti le besoin d’un système plus global et plus réactif, et le Throughput Accounting répond aux besoins de l’entreprise dans son ensemble.

La base critique du TA provient directement des principes de la Théorie des Contraintes (TOC). En particulier, il découle de la conclusion intuitivement évidente que l’objectif de chaque entreprise devrait être d’accroître le débit. Les actionnaires et les marchés concurrentiels d’aujourd’hui imposent aux entreprises de s’améliorer continuellement, en termes de bénéfices, de produits, de service, de qualité, etc. Une approche axée sur les coûts, qui met principalement l’accent sur le contrôle des dépenses, est intrinsèquement limitée. Il y’a uniquement jusqu’à présent que la plus grande entreprise qui peut réduire ses coûts. Et accorder la priorité à cet effort n’est rien de plus qu’une recette pour un désastre à long terme.

On sait tous intuitivement que le débit, qui génère plus de revenus par le biais des ventes, devrait être la priorité des entreprises. Malheureusement, la plupart des entreprises privilégient les coûts en raison de leurs systèmes de comptabilité et de l’inertie des pratiques antérieures. Dans la plupart des entreprises, cela se traduit par des actions directement contraires à la stratégie d’entreprise définie, toujours fondée sur l’augmentation du débit. Avec le débit comme objectif approprié d’une entreprise, un ensemble différent d’exigences apparaît. Le plus important est la compréhension de la contrainte de l’entreprise. Deuxièmement, il faut comprendre comment un changement dans une non-contrainte aura un impact sur la contrainte.

Avant l’arrivée de la Théorie des Contraintes (TOC), les gestionnaires manquaient d’informations essentielles sur lesquelles fonder leurs décisions. Car, il n’existait aucun moyen efficace de lier l’impact d’une action ou d’une décision à l’impact sur le débit. En décrivant le rôle des contraintes et des non-contraintes fournies par ce lien, la TOC permet pour la première fois aux gestionnaires de comprendre ce qu’il adviendrait du débit. À partir de ce moment, il devient beaucoup plus facile d’évaluer l’impact financier total d’une décision. On peut comprendre l’impact d’une action potentielle sur le débit grâce à la contrainte, qui peut ensuite être comparée à l’impact sur les frais d’exploitation et enfin comparée à tout investissement requis pour déterminer le retour sur investissement d’une action. La comptabilité de débit (Throughput Accounting) est devenue un outil permettant aux gestionnaires de lier les décisions à leur impact sur toutes les mesures financières globales, débit, investissement (valeurs des stocks) et charges d’exploitation.

En revanche, l’approche basée sur les coûts ne montre que l’impact d’une action sur les charges d’exploitation par rapport à l’investissement (valeur des stocks). Même ici, les chiffres sont parfois trompeurs, comme le savent les responsables les plus expérimentés. Souvent, ces systèmes montrent une «réduction des coûts» dans une zone locale lorsque le temps de travail est réduit d’une opération. Toutefois, si le travail économisé ne suffit pas à l’entreprise pour réduire ses effectifs, cette économie est totalement non réalisée : c’est un fantôme. Les entreprises peuvent réaliser des «économies de coûts» annuelles de plusieurs millions de dollars sans nuire à leurs résultats financiers (ROI, Profit Net et Cash Flow).

Les actions ou décisions améliorant la contrainte ont un impact direct sur le débit. Les actions ou décisions sur les non-contraintes qui n’aident pas la contrainte n’augmentent pas le débit. En ajoutant cet élément essentiel, la comptabilité de débit permet aux responsables d’examiner l’ensemble des ramifications d’une action et de faire des choix beaucoup plus éclairés. Sans cette compréhension du rôle critique des contraintes, les méthodes de comptabilité de gestion sont condamnées à ne prendre en compte que le côté coûts de l’équation.

Les implications du Throughput Accounting (la comptabilité du débit)

Le caractère simple et sensé de la nécessité de se concentrer sur le débit et la prise de conscience du fait que les contraintes sont d’une importance capitale ne doivent pas conduire à la conclusion que les implications sont minimes. Comme une roquette lancée à seulement quelques secondes de degré hors cours d’un cap, elle se retrouvera loin de sa cible, donc une hypothèse fondamentale mal placée conduira à des actions loin de la cible prévue. Étant donné le rôle central de la comptabilité de gestion dans toutes les fonctions de l’entreprise, le passage au Throughput Accounting a un impact considérable. Ses effets se font sentir dans toutes les fonctions de l’entreprise, incluant : les coûts et la tarification des produits, la mesure de la performance, les bilans, les prix de transfert, la justification des investissements, les structures de récompense et les décisions fabriquer acheter.

Note : Le prix de transfert est la fixation du prix des biens et services vendus entre des entités juridiques contrôlées (ou liées) au sein d’une entreprise. Par exemple, si une filiale vend des biens à une société mère, le coût de ces biens payé par la société mère à la filiale correspond au prix de transfert.

On va explorer quelques études de cas illustrant le changement requis et son impact sur les entreprises. Après avoir abordé la manière dont les structures de récompense déterminent une approche locale axée sur les coûts, c’est un bon point de départ. Avec la comptabilité analytique sous-jacente aux systèmes financiers, les récompenses génèrent presque universellement des actions visant directement à réduire les coûts, ou sur la base de ces données.

Entreprise 1

L’entreprise produit des moulages de précision pour l’industrie aérospatiale, principalement pour les moteurs à réaction. Les moulages suivent 70 à 80 étapes du début à la fin de la fabrication. Avant de découvrir la comptabilité de débit, la mesure principale dans l’entreprise était le «nombre d’heures standard gagnées» dans les usines. Pour chaque étape de chaque numéro de pièce, une norme de travail définie précisait le temps qu’il fallait pour terminer le travail. Ces normes ont été minutieusement déterminées par les ingénieurs qui observent de près les opérateurs et qui s’efforcent de concevoir le processus le plus efficace pour chaque tâche et chaque pièce. Malgré ces efforts, les normes applicables aux pièces varient énormément. Certaines étaient très difficiles à atteindre pour les opérateurs, d’autres beaucoup plus faciles et les autres à peu près équitables. Depuis le sommet de l’entreprise, chacun a mesuré et surveillé le nombre d’heures gagnées en tant qu’indicateur numéro un de la performance de l’entreprise. Plus il y a d’heures, meilleure est la performance.

En réalité, les clients de l’entreprise étaient de plus en plus mécontents des longs délais, des livraisons manquées et du service généralement médiocre qu’ils recevaient. Un client était tellement frustré qu’il était sur le point de financer une entreprise en démarrage pour la fabrication des pièces moulées dont elle avait besoin pour remplacer l’entreprise en tant que fournisseur. Malgré l’amélioration constante des chiffres des heures gagnées, l’entreprise fait de plus en plus de retard et perd de plus en plus d’argent.

Les dirigeants ont fini par reconnaître l’impact que leur principale mesure avait eu sur la performance locale. Les opérateurs de l’usine faisaient du «cherry-picking », c’est-à-dire qu’ils choisissaient les travaux avec des normes plus simples, et des travaux de réparation (qui ne gagnaient pas d’heures) étaient enterrés au plus profond de la pile de stocks. De nouveaux travaux ont été continuellement introduits dans l’atelier malgré le déclin des expéditions, ce qui a laissé encore plus de travail aux opérateurs. Mais comme les travaux faciles standards n’étaient pas universels sur un numéro de pièce, toutes les pièces ont été retardées. Toute personne recevant une visite de l’usine se verrait montrer la ressource de contrainte qui ne travaillait pas autant qu’elle travaillait.

Les dirigeants ont mis en place un changement global dans le système de mesure, qui passe de la mesure des heures gagnées locales, basée sur les coûts, à une simple priorité de date de livraison. C’était le virage le plus simple et le plus brutal vers un objectif de débit imaginable, mais cela a fonctionné de façon spectaculaire. Tout le monde dans l’entreprise a été sensibilisé à l’impact des anciennes mesures et à la puissance du nouvel objectif. Les travaux les plus récents sont devenus une priorité absolue et les travaux ont commencé à se dérouler deux fois plus vite que les périodes précédentes. L’entreprise s’est clairement focalisée sur les contraintes du processus et a mené des actions pour les améliorer. La production a considérablement augmenté et, au cours de la première année, l’entreprise est passée d’une rentabilité à la limite à l’ajout de 17 millions de dollars au résultat net. Aucune personne n’a été embauchée et les efforts d’amélioration ont été dirigés vers les domaines les plus critiques, les contraintes, de sorte que tout l’argent dépensé a directement augmenté le débit de l’entreprise.

Entreprise 2

Un autre exemple de passage à une approche de comptabilité centrée sur le débit peut être vu dans une société de circuits imprimés. Parmi les nombreux changements qu’ils ont entrepris, il a fallu modifier leur approche pour déterminer les produits les plus rentables et les assortiments à vendre sur le marché. Comme la plupart des entreprises, cette société calculait les marges et les bénéfices des produits en allouant des coûts de main-d’œuvre et des frais généraux aux produits. Cela leur a donné une idée des produits qui semblaient avoir les marges les plus élevées, contribuant le plus aux bénéfices. Encore une fois, il s’agissait d’une approche locale, considérant la main-d’œuvre et les frais généraux de manière égale pour toutes les ressources, comme s’il n’y avait pas de contrainte.

La compréhension des contraintes a permis de reconnaître que le déterminant central du profit sur un produit n’était pas la marge, mais le débit généré à l’heure sur la contrainte (Throughput/h). Ce concept est devenu le nouveau centre pour déterminer les bénéfices sur les travaux, les familles de produits et les clients. Ce calcul simple a montré une grande disparité entre le débit le plus bas et le plus élevé. Plus important encore, beaucoup de produits haut de gamme étaient auparavant considérés comme des articles à faible marge, et de nombreux articles à marge élevée étaient en fait des articles à faible débit. Le tableau ci-dessous présente des données représentatives.

Les chiffres étaient si surprenants que la direction n’y croyait presque pas. Ils sont allés dans les ateliers pour les vérifier et on leur a dit que le produit A était un produit horrible à fabriquer, il se présentait comme de la mélasse dans l’usine, en particulier à cause de la contrainte. En revanche, pour le produit C, ils adoraient voir venir car il fallait très peu de temps à la contrainte et que le délai de livraison dans le magasin était très court.

Les stratégies marketing ont été réorientées vers les nouveaux produits à débit (Throughput) élevé et des efforts considérables ont été déployés pour s’approprier davantage cette activité. La base de commission pour les commerciaux est passée de la marge brute au Throughput, motivant de nouvelles priorités. Grâce à cette initiative et à d’autres initiatives axées sur le débit, l’entreprise est passée de 25 millions de dollars de ventes à plus de 125 millions de dollars, alors que son secteur dans son ensemble était en déclin. La société a finalement été rendue publique et ensuite vendue, rendant ses fondateurs et ses actionnaires extrêmement riches.

Entreprise 3

Un autre exemple provient d’une entreprise produisant des composants pour camions lourds. La mesure opérationnelle centrale utilisée était l’absorption de main-d’œuvre, conçue comme une mesure globale de la productivité. L’hypothèse sous-jacente à cette mesure était que si davantage de travail était effectué sur plus de stocks, l’entreprise serait mieux lotie. Malheureusement, cette mesure a entraîné des actions qui ont augmenté les stocks, prolongé les délais de livraison et créé des produits de stock aux dépens des commandes réelles des clients.

La réduction des coûts était l’un des principaux moteurs des actions d’amélioration. Les ingénieurs de fabrication s’efforceraient de réduire les temps de traitement de toutes les ressources afin de réduire le travail nécessaire à la production d’une pièce. Malheureusement, cela a été fait pour toutes les opérations, contraintes et non-contraintes. Le résultat final a été que beaucoup de non-contraintes ont été accélérées, ce qui leur a permis de traiter encore plus de travail que les contraintes ne pouvaient en absorber. Alors que l’absorption s’améliorait, les stocks augmentaient considérablement et il devenait de plus en plus difficile de respecter les dates de livraison et de prioriser correctement les travaux dans l’usine. Ces mesures locales conduisaient l’entreprise sur une voie de plus en plus dangereuse, et les gestionnaires étaient récompensés pour l’avoir fait.

Avec l’éducation aux concepts du Throughput Accounting de la Théorie des Contraintes, les dirigeants ont commencé à voir leurs actions sous un jour différent et plus clair, et à comprendre les résultats inévitables de leurs actions. Cela a conduit à un changement d’orientation de l’opération, qui se focalisait sur l’absorption des coûts indirects, mais sur l’augmentation de la vitesse de travail dans l’entreprise. L’accent a été immédiatement mis sur les contraintes qui ont conduit à la conclusion qu’un petit investissement (100 000 dollars) dans un centre de travail de 5 millions de dollars, avec l’ajout d’un employé supplémentaire par quart de travail, entraînerait une augmentation de 80% de la production. Sous le système comptable précédent, cette action n’aurait pas été justifiée car l’efficacité de la production locale aurait diminué par heure de travail. Mais le coût de l’employé supplémentaire était insignifiant (environ 40 000 dollars) par rapport au débit résultant, qui se chiffrait à des dizaines de millions de dollars par an. Ils ont déclaré : «La concurrence pense qu’on devait investir 5 millions de dollars dans un centre de travail complet pour obtenir un tel gain.»

Entreprise 4

Une autre implication très intéressante des systèmes basés sur les coûts concerne la façon dont ils induisent en erreur les décisions concernant la fabrication ou l’achat de pièces. Les systèmes basés sur les coûts allouent des dépenses aux produits pour déterminer un coût de produit. Cela comprend généralement trois composants principaux : les matériaux, la main-d’œuvre et les frais généraux (également appelé charge). Dans les années 1980, un grand conglomérat américain a commencé à appliquer de manière rigoureuse une politique d’achat auprès de fournisseurs externes de toutes les pièces moins chères qu’elles ne pourraient produire en interne. Cela a conduit à un vaste effort pour mettre à jour les coûts et obtenir des devis sur toutes les pièces de cette entreprise de plusieurs milliards de dollars. Toute pièce pouvant être achetée à un prix inférieur à son propre coût de fabrication est achetée à l’extérieur au lieu de la fabriquer. Les efforts initiaux ont abouti à la sous-traitance de centaines de pièces.

Peu de temps après, l’entreprise a procédé à une nouvelle révision du coût des pièces recherchant des économies supplémentaires, car le premier cycle n’avait en aucune manière effacé les faibles résultats qui bloquaient la société. À la suite de la première vague de sous-traitance, la société avait été en mesure de procéder à un très petit nombre de licenciements mais n’avait pas été en mesure de réduire ses frais généraux. Par conséquent, les pièces restantes entraînaient désormais des frais généraux plus importants, et dans la deuxième réévaluation des coûts beaucoup de pièces fabriquées étaient maintenant moins cher d’acheter que de les faire et ont été une nouvelle fois sous-traitée. Il n’est donc pas surprenant que cela n’ait à nouveau aucune incidence sur les résultats de l’entreprise. En fait, les pertes se sont aggravées. Et avec les pertes, les actionnaires sont devenus plus agités.

L’action suivante a été la dernière goutte qui a fait déborder le vase. Sachant que le plus gros investissement de l’entreprise était dans ses énormes usines de montage, le président a ordonné à la production de travailler 24 heures sur 24 pour mieux absorber les frais généraux de ces usines. Des prêts considérables ont été obtenus afin d’acheter suffisamment de pièces pour que ces opérations se poursuivent, et ils ont géré à plein régime au cours de la dernière partie de l’exercice fiscal. Alors que le marché des produits de l’entreprise n’avait pas du tout augmenté, la production massive de cette période a été imposée aux revendeurs de la société, ce qui a gonflé leurs stocks et fait apparaître un bénéfice énorme sur les résultats nets de la société. Le président a été récompensé par un bonus stupéfiant pour ses efforts et les mesures basées sur les coûts semblaient fantastiques.

Ne sachant pas quoi faire ensuite, le président a démissionné et, six mois plus tard, la société International Harvester a dû demander la protection contre la faillite. Des dizaines de milliers de personnes ont été licenciées, la taille de l’entreprise étant réduite à une fraction de sa taille précédente, et elle s’est sentie obligée de changer de nom. La véritable leçon de cet épisode regrettable n’a pas touché la plupart des entreprises. Bien qu’il s’agisse d’un exemple extrême, il n’en reste pas moins qu’ils ont suivi à la lettre leurs informations chiffrées, récompensé leurs dirigeants, et qu’elles ont été la cause directe de la disparition de la l’entreprise.

La voie à suivre

Avant l’avènement du Throughput Accounting (la comptabilité de débit), les entreprises n’avaient guère le choix de mener des efforts d’amélioration. L’amélioration de la productivité était justifiée et orientée selon un système de comptabilité basé sur les coûts, qui par définition visait à attirer l’attention sur la réduction des coûts et l’amélioration des zones locales. Si l’effort de productivité visait principalement un objectif de débit, le succès du programme était souvent directement lié à la capacité des individus de voir entre les lignes et de prendre leurs propres décisions en dehors des données de coûts disponibles.

Le Throughput Accounting offre désormais un moyen de comprendre, d’analyser et de cibler les efforts d’amélioration de la productivité en fonction de leur impact sur les coûts et le débit. Les entreprises cherchant à améliorer les systèmes basés sur le débit devraient comprendre la logique consistant à utiliser un modèle de comptabilité de gestion capable de leurs faire atteindre leurs objectifs. Sans une telle approche, les efforts continueront d’être dispersés, mal alignés et inefficaces. Reconnaître ce besoin n’est pas suffisant en soi. Changer de modèle de comptabilité de gestion signifie modifier le mécanisme fondamental qui régit le comportement dans les entreprise. Cela nécessite que les gens comprennent et adoptent un nouvel état d’esprit, avec de nouveaux outils et moyens de prendre des décisions, ce n’est pas une mince tâche pour un individu, et encore moins pour une entreprise.

Heureusement, la plupart des gens ont déjà une forte intuition quant à la manière de fonctionner en mode débit. Le défi consiste à entamer le cheminement vers le Throughput Accounting et il incombe à la direction de prendre les devants. La plupart des entreprises étant mal alignées en raison d’informations erronées et basées sur les coûts, toute étape dans la focalisation sur le débit produira des résultats. Les entreprises qui s’engagent dans ce virage vont sans aucun doute tirer un bien plus grand profit de leurs efforts de productivité et se positionner pour devenir les leaders de demain. Il est maintenant temps de commencer à apprendre et à mettre en œuvre.

Télécharger la publication en pdf   https://www.sciquom.com/uploads/download/publications/TXT_BLOG_120819_Throughput-Accounting.pdf