SCIQUOM   I  IDEEFORCE         

     

Le répertoire d'idées permettant d'exploiter la pleine puissance de l'information et de la connaissance dans le management des opérations industrielles et institutionnelles


Ammar Hadj Messaoud, Ing.; M.SC.

La Comptabilité de Débit (Throughput Accounting – TA) : Un Remède aux Lacunes des Systèmes de Comptabilité Basés sur les Coûts

La comptabilité de débit (TA) peut être la chose la plus importante dont vous n’avez jamais entendu parler. Pendant des années, les gestionnaires ont recherché de meilleurs outils financiers pour relever de nombreux défis de gestion, notamment la mesure de la performance, le calcul du coût des produits et la modélisation des décisions. Poussés par le constat que les anciens systèmes basés sur les coûts ne racontaient pas toute l’histoire qu’ils avaient cherché de remédier à la situation avec des approches telles que la comptabilité analytique, l’ABC / ABM (Activity Based Costinng/Activity Based Management) et la gestion stratégique des coûts.

Le Throughput Accounting (TA) est la première approche qui prend en compte l’élément le plus important manquant dans toutes les approches de comptabilité basée sur les coûts : le débit (le Throughput). Le débit peut être défini comme le taux auquel l’entreprise génère de l’argent par le biais des ventes. Il suffit de lire tout rapport annuel, d’examiner la mission de votre entreprise ou de parler à un dirigeant, on obtiendra le même message : on doit augmenter le débit. Ceci est communiqué de nombreuses manières, mais il s’agit d’une orientation de croissance qui vise à élargir les marchés, les produits, les clients, etc. Aucune entreprise n’a pour objectif de réduire ses effectifs en tant que stratégie d’entreprise à long terme. Pourtant, presque tous les outils financiers disponibles se concentrent sur les coûts, plaçant les dépenses au centre du processus de prise de décision et de mesure du rendement.

Dans presque toutes les revues comptables (USA/Canada), on peut trouver des articles et des études de cas mettant en évidence les diverses lacunes des systèmes de comptabilité basés sur les coûts. Et tout gestionnaire financier expérimenté informera librement des failles du processus et de la nécessité d’une «interprétation» extensive des chiffres pour prendre des décisions éclairées. Bien entendu, le contrôle des coûts est important, mais aucun haut dirigeant sensé ne vous dira que c’est le facteur le plus important pour réaliser les ventes et la croissance des bénéfices de l’entreprise.

Le Throughput Accounting (TA) répond au besoin que les entreprises ressentent depuis des années d’aligner l’ensemble de leurs systèmes, en particulier leurs systèmes financiers, sur l’objectif de leur stratégie axé sur le débit. Un nombre croissant d’entreprises, et les experts en comptabilité s’accordent pour dire que c’est le moyen de construire la vraie solution au problème de la comptabilité. Des articles ont paru dans des revues comptables et des périodiques de gestion attestant de l’impact réel du Throughput Accounting sur l’amélioration du résultat net (ROI, Profit Net et Cash Flow).

Les modèles de comptabilité basés sur les coûts sont-ils vraiment imparfaits ?

C’est une question cruciale qui doit être abordée non pas sur le plan académique mais dans un contexte réel. En d’autres termes, les modèles fondés sur les coûts empêchent-ils réellement une entreprise de réaliser des bénéfices ? La réponse est malheureusement, oui, de plusieurs manières critiques. Et cela vaut même pour la variante la plus récente de cette approche, la comptabilité de gestion ABC/ABM. En ce qui concerne cette dernière on peut dire que « la conviction que ABC améliore les performances à long terme d’une entreprise est une illusion ! »

Les systèmes de comptabilité de gestion basés sur les coûts souffrent initialement du fait qu’ils concentrent presque toute l’attention sur le contrôle des coûts. La Théorie des Contraintes (TOC) a clairement démontré le rôle central des contraintes dans la détermination du débit et la nécessité de synchroniser les efforts de chacun pour soutenir la contrainte.

Le débit n’est atteint que grâce aux efforts coordonnés de tous les secteurs de l’entreprise -développement de produits, ventes, marketing, fabrication, finances, etc. – qui doivent tous faire leur travail pour atteindre le débit. Si un «lien» de cette «chaîne» ne fournit pas, le débit est en danger. L’implication est que le débit dépend de la force de la chaîne entière en tant que système, et non de la performance isolée d’un seul «lien». Comme la force d’une chaîne n’est que celle de son maillon le plus faible, cette «contrainte» détermine le débit du système entier. Les autres ressources, par définition, ont une capacité supplémentaire par rapport à la contrainte. Les systèmes basés sur les coûts ne reconnaissent pas le rôle critique des contraintes et traitent tous les secteurs de la même manière.

Sans définir la contrainte, aucun système de coûts ne peut prendre en compte l’impact d’une zone locale sur le débit de l’entreprise. Au lieu de cela, les systèmes basés sur les coûts encouragent le management à sous-optimiser les performances partout avec le résultat presque inévitable de la réduction du débit. Quelques illustrations peuvent aider :

  • Si une opération alimentant une contrainte choisit d’exécuter une grande taille de lot de produits afin de réduire son coût de mise en course (setup), mais que dans le processus la contrainte n’est pas alimentée en produits, le débit de l’entreprise diminuera. Et a-t-elle réellement épargné quelque chose en éliminant un setup dans une non- contrainte, qui a par définition une capacité supplémentaire par rapport à la contrainte ?
  • Si l’ingénierie de fabrication découvre un moyen d’accélérer le temps de traitement sur une non-contrainte de 5%, en achetant de nouveaux outils, le débit sera-t-il accru pour l’entreprise si la contrainte reste inchangée ? Les coûts vont-ils baisser si on ne licencie personne en conséquence ?
  • Si les achats trouvent une pièce à moindre coût en s’adressant à un fournisseur qui fait en sorte que la contrainte n’est pas parfois alimentée, l’entreprise est-elle vraiment mieux lotie ? Malheureusement, le service des achats sera probablement récompensé pour avoir économisé de l’argent.

Ces systèmes de comptabilité montreront presque toujours qu’une amélioration locale a été apportée à un secteur ou département. Lorsque ces systèmes sont utilisés de manière classique pour mesurer et motiver un comportement, ils créent activement ces décisions sous-optimales, réduisant ainsi le débit. Aucun système basé sur les coûts ne dit aux gestionnaires l’impact d’une action ou d’une décision sur le débit, élément essentiel manquant pour prendre de bonnes décisions. Et cette omission est ressentie par toutes les entreprises qui cherchent aujourd’hui à mettre en œuvre les initiatives d’amélioration axées sur le débit à travers des projets tels que la Gestion de la qualité totale (TQM), le Juste-à-Temps (JIT), la TOC, ERP, Lean, Chaîne d’approvisionnement, etc. On ne peut pas implémenter avec succès une initiative orientée débit en conduisant l’entreprise avec des mesures et des outils de décision basés sur les coûts.

L’une des tâches les plus préjudiciables des systèmes de comptabilité de gestion axée sur les coûts (comme la comptabilité analytique) est la répartition des coûts entre les produits. Chacun de ces systèmes, y compris ABC/ABM, tente de lier les coûts à la production d’une unité incrémentielle de débit. En d’autres termes, ils essaient de prétendre que les frais de matériel, de main-d’œuvre et les frais généraux varient directement avec le volume de travail produit. En réalité, les gestionnaires savent que si le matériel varie directement avec le volume (chaque unité supplémentaire produite nécessite des matières premières supplémentaires), les coûts de main-d’œuvre et les frais généraux sont généralement fixés en fonction du volume supplémentaire. On n’engage pas systématiquement de la main-d’œuvre supplémentaire, on n’augmente pas les rangs du management ni on n’ajoute de nouveaux équipements et installations uniquement pour traiter une autre commande d’un client. De même, ces coûts ne disparaissent pas simplement parce qu’on a choisi de ne pas produire de nouvelle commande.

Ce qui est vraiment dévastateur ici, ce sont les implications pour les entreprises et la façon dont elles fonctionnent. Même si chaque contrôleur sait ne pas avoir entièrement confiance dans les chiffres fournis par son département, les entreprises prennent des décisions critiques sur la base de ces informations : comment déterminer le prix des produits, fabriquer ou acheter un composant, qu’une usine soit rentable ou non, où et comment devrait-on faire des investissements supplémentaires et une foule d’autres problèmes de gestion.

Un autre résultat dommageable des processus comptables de gestion basés sur les coûts est l’effort de capitaliser les coûts en les absorbant dans les stocks. Cela crée une incitation directe à constituer des stocks et crée un puissant désincitatif pour les réduire. Ce mécanisme permet aux gestionnaires de surproduire en période de faible demande et de différer la main-d’œuvre et les frais généraux de leurs coûts jusqu’à la vente des produits. Cela donne l’impression qu’une usine ou une entreprise est plus rentable dans une période qu’elle ne l’est réellement, et moins rentable qu’elle ne l’est que lorsqu’elle vend ces excédents de stock. Plus important, cependant, cela motive les gestionnaires à constituer et à maintenir des stocks élevés, ce qui est exactement le contraire de ce que la plupart des méthodologies d’amélioration de pointe telles que JIT, TQM et TOC qui ont montré ce qui est nécessaire pour être compétitifs aujourd’hui.

Comment la comptabilité des coûts est-elle arrivée à cet état ?

Les racines historiques de la comptabilité analytique et les hypothèses sur lesquelles elle reposait sont bien décrites dans de nombreuses sources ayant examiné le sujet de manière approfondie (RELEVANCE LOST : The Rise and Fall of Management Accounting ; par H. THOMAS JOHNSON et ROBERT S. KAPLAN). En résumé, la comptabilité analytique a été inventée à une époque où la grande majorité des coûts de production étaient directement variables en fonction du volume produit. Les matières premières et la main-d’œuvre constituaient les composantes les plus importantes des coûts et la main-d’œuvre étant payée à la pièce, chaque unité supplémentaire produite nécessitait le paiement de coûts de main-d’œuvre supplémentaires. Les frais généraux ne représentaient qu’une très petite fraction des coûts totaux. Aujourd’hui, les frais généraux représentent une part importante, parfois même majeure, des coûts, et la main-d’œuvre est payée à l’heure, et non à la pièce. Les hypothèses sur lesquelles reposait l’invention de la comptabilité analytique (Sloan chez GM en 1925) ne sont plus valables et, au fil des années, les gestionnaires ont été de plus en plus sensibles aux faiblesses de leurs systèmes.

Les lacunes des modèles basés sur les coûts ont été mises en évidence dans beaucoup de recherches sur le sujet. Au cours des 30 dernières années, des milliers de dirigeants et des centaines d’entreprises ont été intérogés, et ils semblent tous utiliser le même modèle décisionnel fondamental. Voici ce qu’ils nous ont dit : « Pour prendre toute décision importante, leur entreprise a un processus approuvé ou un formulaire à utiliser. Si un responsable estime qu’une décision est très importante et aura une valeur réelle pour l’entreprise, il analyse les chiffres à l’aide du processus. Si les chiffres justifient la décision qu’il veut, il la soumet pour approbation. »  

Mais que se passe-t-il si les chiffres ne justifient pas cette décision ? Que pense-t-on que tous ces gestionnaires ont dit faire ? La réponse a été un chœur retentissant, selon lequel ils «reverraient les chiffres», «affûteraient leurs crayons», «changeraient les hypothèses», et une foule d’autres euphémismes pour faire dire aux chiffres ce qu’ils pensaient qu’ils devraient.

Et quand on leur a demandé pourquoi ils ressentaient le besoin de le faire, ils ont répété la même histoire encore et encore. Le modèle dont ils disposaient ne racontait tout simplement pas toute l’histoire. Les chiffres qu’ils ont pourraient être massés pour dire à peu près tout ce qu’ils voulaient. Par conséquent, ils ont ressenti le besoin d’intervenir et de déroger au système pour s’assurer que les bonnes mesures étaient prises.

Au cours des 30 dernières années, le processus de prise de décision dans chaque entreprise combinait : des procédures approuvées basées sur les coûts, ainsi qu’une dose d’intuition du management, selon les besoins. Le message est assez clair : personne n’avait suffisamment confiance dans le système pour lui permettre de prendre la décision tout seul. Un tel consensus écrasant dans toutes les industries, les entreprises, les domaines fonctionnels et les gestionnaires ne peut pas être un accident. Et tandis que tous ces systèmes étaient basés sur les coûts, ils étaient loin d’être identiques. Beaucoup incluaient des techniques ABC / ABM, d’autres étaient basées sur les coûts directs ; il y avait un éventail de stratégies d’allocation différentes et une multitude de structures de coûts différentes. Le seul dénominateur commun était qu’ils cherchaient tous à lier le coût à une décision en tant que critère principal pour la prise de décision.

On pense que l’Activity Based Costing / l’Activity Based Management/ abordent ces problèmes

Dans l’article « Mettons les choses au clair sur ABC» de Tom Johnson, qui avait travaillé en étroite collaboration avec l’un des développeurs d’ABC, sa conclusion est sans équivoque : «pour devenir de classe mondiale, les entreprises américaines doivent changer la façon de penser des gestionnaires, et aucun système de coûts, pas même ABC, ne le fera.»

Des études de cas approfondies sur des entreprises ayant appliqué ABC ont seulement montré que les systèmes ABC produisent des données qui conduisent à des décisions différentes et non meilleures. L’une d’elles a fait une recherche approfondie en comparant l’ancien système d’allocation fondé sur la main-d’œuvre de John Deere et son nouveau système ABC. L’une des divisions étudiées présentait des capacités excédentaires considérables et pouvait effectivement produire un volume supplémentaire au seul coût des matières premières. L’ancien système de coûts leur faisait payer le travail de manière à remporter 30% de leurs offres. Le système ABC, en dépit de la capacité excédentaire qui était claire pour tout le monde, fournissait des informations différentes à partir desquelles ils ne remportaient que 14% des nouvelles offres. Eric Noreen, auteur éminent de nombreux livres de comptabilité, a conclu de cette étude et de toutes ses autres recherches : «Les systèmes ABC génèrent des coûts trompeurs pour la prise de décision».

Le problème fondamental avec ABC est identique à celui d’autres approches basées sur les coûts, il se concentre sur les coûts à l’exclusion du débit et cherche à allouer des coûts, qui ne sont pas totalement variables, aux produits. Le résultat final est des données qui ne correspondent pas à la réalité. Cela on le démontre, dans un «workshop de 2 jours» de SCIQUOM, que l’ABC et la comptabilité analytique ne permettent pas des décisions optimales.

Comptabilité de débit (Throughput Accounting – TA)

Le TA n’est pas un système de calcul des coûts, bien qu’il inclue des processus permettant de prendre des décisions plus rentables en matière de tarification et de vente / marketing. Il s’agit d’un changement fondamental de l’attention portée aux coûts et à leur allocation aux produits. Les entreprises ont ressenti le besoin d’un système plus global et plus réactif, et le Throughput Accounting répond aux besoins de l’entreprise dans son ensemble.

La base critique du TA provient directement des principes de la Théorie des Contraintes (TOC). En particulier, il découle de la conclusion intuitivement évidente que l’objectif de chaque entreprise devrait être d’accroître le débit. Les actionnaires et les marchés concurrentiels d’aujourd’hui imposent aux entreprises de s’améliorer continuellement, en termes de bénéfices, de produits, de service, de qualité, etc. Une approche axée sur les coûts, qui met principalement l’accent sur le contrôle des dépenses, est intrinsèquement limitée. Il y’a uniquement jusqu’à présent que la plus grande entreprise qui peut réduire ses coûts. Et accorder la priorité à cet effort n’est rien de plus qu’une recette pour un désastre à long terme.

On sait tous intuitivement que le débit, qui génère plus de revenus par le biais des ventes, devrait être la priorité des entreprises. Malheureusement, la plupart des entreprises privilégient les coûts en raison de leurs systèmes de comptabilité et de l’inertie des pratiques antérieures. Dans la plupart des entreprises, cela se traduit par des actions directement contraires à la stratégie d’entreprise définie, toujours fondée sur l’augmentation du débit. Avec le débit comme objectif approprié d’une entreprise, un ensemble différent d’exigences apparaît. Le plus important est la compréhension de la contrainte de l’entreprise. Deuxièmement, il faut comprendre comment un changement dans une non-contrainte aura un impact sur la contrainte.

Avant l’arrivée de la Théorie des Contraintes (TOC), les gestionnaires manquaient d’informations essentielles sur lesquelles fonder leurs décisions. Car, il n’existait aucun moyen efficace de lier l’impact d’une action ou d’une décision à l’impact sur le débit. En décrivant le rôle des contraintes et des non-contraintes fournies par ce lien, la TOC permet pour la première fois aux gestionnaires de comprendre ce qu’il adviendrait du débit. À partir de ce moment, il devient beaucoup plus facile d’évaluer l’impact financier total d’une décision. On peut comprendre l’impact d’une action potentielle sur le débit grâce à la contrainte, qui peut ensuite être comparée à l’impact sur les frais d’exploitation et enfin comparée à tout investissement requis pour déterminer le retour sur investissement d’une action. La comptabilité de débit (Throughput Accounting) est devenue un outil permettant aux gestionnaires de lier les décisions à leur impact sur toutes les mesures financières globales, débit, investissement (valeurs des stocks) et charges d’exploitation.

En revanche, l’approche basée sur les coûts ne montre que l’impact d’une action sur les charges d’exploitation par rapport à l’investissement (valeur des stocks). Même ici, les chiffres sont parfois trompeurs, comme le savent les responsables les plus expérimentés. Souvent, ces systèmes montrent une «réduction des coûts» dans une zone locale lorsque le temps de travail est réduit d’une opération. Toutefois, si le travail économisé ne suffit pas à l’entreprise pour réduire ses effectifs, cette économie est totalement non réalisée : c’est un fantôme. Les entreprises peuvent réaliser des «économies de coûts» annuelles de plusieurs millions de dollars sans nuire à leurs résultats financiers (ROI, Profit Net et Cash Flow).

Les actions ou décisions améliorant la contrainte ont un impact direct sur le débit. Les actions ou décisions sur les non-contraintes qui n’aident pas la contrainte n’augmentent pas le débit. En ajoutant cet élément essentiel, la comptabilité de débit permet aux responsables d’examiner l’ensemble des ramifications d’une action et de faire des choix beaucoup plus éclairés. Sans cette compréhension du rôle critique des contraintes, les méthodes de comptabilité de gestion sont condamnées à ne prendre en compte que le côté coûts de l’équation.

Les implications du Throughput Accounting (la comptabilité du débit)

Le caractère simple et sensé de la nécessité de se concentrer sur le débit et la prise de conscience du fait que les contraintes sont d’une importance capitale ne doivent pas conduire à la conclusion que les implications sont minimes. Comme une roquette lancée à seulement quelques secondes de degré hors cours d’un cap, elle se retrouvera loin de sa cible, donc une hypothèse fondamentale mal placée conduira à des actions loin de la cible prévue. Étant donné le rôle central de la comptabilité de gestion dans toutes les fonctions de l’entreprise, le passage au Throughput Accounting a un impact considérable. Ses effets se font sentir dans toutes les fonctions de l’entreprise, incluant : les coûts et la tarification des produits, la mesure de la performance, les bilans, les prix de transfert, la justification des investissements, les structures de récompense et les décisions fabriquer acheter.

Note : Le prix de transfert est la fixation du prix des biens et services vendus entre des entités juridiques contrôlées (ou liées) au sein d’une entreprise. Par exemple, si une filiale vend des biens à une société mère, le coût de ces biens payé par la société mère à la filiale correspond au prix de transfert.

On va explorer quelques études de cas illustrant le changement requis et son impact sur les entreprises. Après avoir abordé la manière dont les structures de récompense déterminent une approche locale axée sur les coûts, c’est un bon point de départ. Avec la comptabilité analytique sous-jacente aux systèmes financiers, les récompenses génèrent presque universellement des actions visant directement à réduire les coûts, ou sur la base de ces données.

Entreprise 1

L’entreprise produit des moulages de précision pour l’industrie aérospatiale, principalement pour les moteurs à réaction. Les moulages suivent 70 à 80 étapes du début à la fin de la fabrication. Avant de découvrir la comptabilité de débit, la mesure principale dans l’entreprise était le «nombre d’heures standard gagnées» dans les usines. Pour chaque étape de chaque numéro de pièce, une norme de travail définie précisait le temps qu’il fallait pour terminer le travail. Ces normes ont été minutieusement déterminées par les ingénieurs qui observent de près les opérateurs et qui s’efforcent de concevoir le processus le plus efficace pour chaque tâche et chaque pièce. Malgré ces efforts, les normes applicables aux pièces varient énormément. Certaines étaient très difficiles à atteindre pour les opérateurs, d’autres beaucoup plus faciles et les autres à peu près équitables. Depuis le sommet de l’entreprise, chacun a mesuré et surveillé le nombre d’heures gagnées en tant qu’indicateur numéro un de la performance de l’entreprise. Plus il y a d’heures, meilleure est la performance.

En réalité, les clients de l’entreprise étaient de plus en plus mécontents des longs délais, des livraisons manquées et du service généralement médiocre qu’ils recevaient. Un client était tellement frustré qu’il était sur le point de financer une entreprise en démarrage pour la fabrication des pièces moulées dont elle avait besoin pour remplacer l’entreprise en tant que fournisseur. Malgré l’amélioration constante des chiffres des heures gagnées, l’entreprise fait de plus en plus de retard et perd de plus en plus d’argent.

Les dirigeants ont fini par reconnaître l’impact que leur principale mesure avait eu sur la performance locale. Les opérateurs de l’usine faisaient du «cherry-picking », c’est-à-dire qu’ils choisissaient les travaux avec des normes plus simples, et des travaux de réparation (qui ne gagnaient pas d’heures) étaient enterrés au plus profond de la pile de stocks. De nouveaux travaux ont été continuellement introduits dans l’atelier malgré le déclin des expéditions, ce qui a laissé encore plus de travail aux opérateurs. Mais comme les travaux faciles standards n’étaient pas universels sur un numéro de pièce, toutes les pièces ont été retardées. Toute personne recevant une visite de l’usine se verrait montrer la ressource de contrainte qui ne travaillait pas autant qu’elle travaillait.

Les dirigeants ont mis en place un changement global dans le système de mesure, qui passe de la mesure des heures gagnées locales, basée sur les coûts, à une simple priorité de date de livraison. C’était le virage le plus simple et le plus brutal vers un objectif de débit imaginable, mais cela a fonctionné de façon spectaculaire. Tout le monde dans l’entreprise a été sensibilisé à l’impact des anciennes mesures et à la puissance du nouvel objectif. Les travaux les plus récents sont devenus une priorité absolue et les travaux ont commencé à se dérouler deux fois plus vite que les périodes précédentes. L’entreprise s’est clairement focalisée sur les contraintes du processus et a mené des actions pour les améliorer. La production a considérablement augmenté et, au cours de la première année, l’entreprise est passée d’une rentabilité à la limite à l’ajout de 17 millions de dollars au résultat net. Aucune personne n’a été embauchée et les efforts d’amélioration ont été dirigés vers les domaines les plus critiques, les contraintes, de sorte que tout l’argent dépensé a directement augmenté le débit de l’entreprise.

Entreprise 2

Un autre exemple de passage à une approche de comptabilité centrée sur le débit peut être vu dans une société de circuits imprimés. Parmi les nombreux changements qu’ils ont entrepris, il a fallu modifier leur approche pour déterminer les produits les plus rentables et les assortiments à vendre sur le marché. Comme la plupart des entreprises, cette société calculait les marges et les bénéfices des produits en allouant des coûts de main-d’œuvre et des frais généraux aux produits. Cela leur a donné une idée des produits qui semblaient avoir les marges les plus élevées, contribuant le plus aux bénéfices. Encore une fois, il s’agissait d’une approche locale, considérant la main-d’œuvre et les frais généraux de manière égale pour toutes les ressources, comme s’il n’y avait pas de contrainte.

La compréhension des contraintes a permis de reconnaître que le déterminant central du profit sur un produit n’était pas la marge, mais le débit généré à l’heure sur la contrainte (Throughput/h). Ce concept est devenu le nouveau centre pour déterminer les bénéfices sur les travaux, les familles de produits et les clients. Ce calcul simple a montré une grande disparité entre le débit le plus bas et le plus élevé. Plus important encore, beaucoup de produits haut de gamme étaient auparavant considérés comme des articles à faible marge, et de nombreux articles à marge élevée étaient en fait des articles à faible débit. Le tableau ci-dessous présente des données représentatives.

Les chiffres étaient si surprenants que la direction n’y croyait presque pas. Ils sont allés dans les ateliers pour les vérifier et on leur a dit que le produit A était un produit horrible à fabriquer, il se présentait comme de la mélasse dans l’usine, en particulier à cause de la contrainte. En revanche, pour le produit C, ils adoraient voir venir car il fallait très peu de temps à la contrainte et que le délai de livraison dans le magasin était très court.

Les stratégies marketing ont été réorientées vers les nouveaux produits à débit (Throughput) élevé et des efforts considérables ont été déployés pour s’approprier davantage cette activité. La base de commission pour les commerciaux est passée de la marge brute au Throughput, motivant de nouvelles priorités. Grâce à cette initiative et à d’autres initiatives axées sur le débit, l’entreprise est passée de 25 millions de dollars de ventes à plus de 125 millions de dollars, alors que son secteur dans son ensemble était en déclin. La société a finalement été rendue publique et ensuite vendue, rendant ses fondateurs et ses actionnaires extrêmement riches.

Entreprise 3

Un autre exemple provient d’une entreprise produisant des composants pour camions lourds. La mesure opérationnelle centrale utilisée était l’absorption de main-d’œuvre, conçue comme une mesure globale de la productivité. L’hypothèse sous-jacente à cette mesure était que si davantage de travail était effectué sur plus de stocks, l’entreprise serait mieux lotie. Malheureusement, cette mesure a entraîné des actions qui ont augmenté les stocks, prolongé les délais de livraison et créé des produits de stock aux dépens des commandes réelles des clients.

La réduction des coûts était l’un des principaux moteurs des actions d’amélioration. Les ingénieurs de fabrication s’efforceraient de réduire les temps de traitement de toutes les ressources afin de réduire le travail nécessaire à la production d’une pièce. Malheureusement, cela a été fait pour toutes les opérations, contraintes et non-contraintes. Le résultat final a été que beaucoup de non-contraintes ont été accélérées, ce qui leur a permis de traiter encore plus de travail que les contraintes ne pouvaient en absorber. Alors que l’absorption s’améliorait, les stocks augmentaient considérablement et il devenait de plus en plus difficile de respecter les dates de livraison et de prioriser correctement les travaux dans l’usine. Ces mesures locales conduisaient l’entreprise sur une voie de plus en plus dangereuse, et les gestionnaires étaient récompensés pour l’avoir fait.

Avec l’éducation aux concepts du Throughput Accounting de la Théorie des Contraintes, les dirigeants ont commencé à voir leurs actions sous un jour différent et plus clair, et à comprendre les résultats inévitables de leurs actions. Cela a conduit à un changement d’orientation de l’opération, qui se focalisait sur l’absorption des coûts indirects, mais sur l’augmentation de la vitesse de travail dans l’entreprise. L’accent a été immédiatement mis sur les contraintes qui ont conduit à la conclusion qu’un petit investissement (100 000 dollars) dans un centre de travail de 5 millions de dollars, avec l’ajout d’un employé supplémentaire par quart de travail, entraînerait une augmentation de 80% de la production. Sous le système comptable précédent, cette action n’aurait pas été justifiée car l’efficacité de la production locale aurait diminué par heure de travail. Mais le coût de l’employé supplémentaire était insignifiant (environ 40 000 dollars) par rapport au débit résultant, qui se chiffrait à des dizaines de millions de dollars par an. Ils ont déclaré : «La concurrence pense qu’on devait investir 5 millions de dollars dans un centre de travail complet pour obtenir un tel gain.»

Entreprise 4

Une autre implication très intéressante des systèmes basés sur les coûts concerne la façon dont ils induisent en erreur les décisions concernant la fabrication ou l’achat de pièces. Les systèmes basés sur les coûts allouent des dépenses aux produits pour déterminer un coût de produit. Cela comprend généralement trois composants principaux : les matériaux, la main-d’œuvre et les frais généraux (également appelé charge). Dans les années 1980, un grand conglomérat américain a commencé à appliquer de manière rigoureuse une politique d’achat auprès de fournisseurs externes de toutes les pièces moins chères qu’elles ne pourraient produire en interne. Cela a conduit à un vaste effort pour mettre à jour les coûts et obtenir des devis sur toutes les pièces de cette entreprise de plusieurs milliards de dollars. Toute pièce pouvant être achetée à un prix inférieur à son propre coût de fabrication est achetée à l’extérieur au lieu de la fabriquer. Les efforts initiaux ont abouti à la sous-traitance de centaines de pièces.

Peu de temps après, l’entreprise a procédé à une nouvelle révision du coût des pièces recherchant des économies supplémentaires, car le premier cycle n’avait en aucune manière effacé les faibles résultats qui bloquaient la société. À la suite de la première vague de sous-traitance, la société avait été en mesure de procéder à un très petit nombre de licenciements mais n’avait pas été en mesure de réduire ses frais généraux. Par conséquent, les pièces restantes entraînaient désormais des frais généraux plus importants, et dans la deuxième réévaluation des coûts beaucoup de pièces fabriquées étaient maintenant moins cher d’acheter que de les faire et ont été une nouvelle fois sous-traitée. Il n’est donc pas surprenant que cela n’ait à nouveau aucune incidence sur les résultats de l’entreprise. En fait, les pertes se sont aggravées. Et avec les pertes, les actionnaires sont devenus plus agités.

L’action suivante a été la dernière goutte qui a fait déborder le vase. Sachant que le plus gros investissement de l’entreprise était dans ses énormes usines de montage, le président a ordonné à la production de travailler 24 heures sur 24 pour mieux absorber les frais généraux de ces usines. Des prêts considérables ont été obtenus afin d’acheter suffisamment de pièces pour que ces opérations se poursuivent, et ils ont géré à plein régime au cours de la dernière partie de l’exercice fiscal. Alors que le marché des produits de l’entreprise n’avait pas du tout augmenté, la production massive de cette période a été imposée aux revendeurs de la société, ce qui a gonflé leurs stocks et fait apparaître un bénéfice énorme sur les résultats nets de la société. Le président a été récompensé par un bonus stupéfiant pour ses efforts et les mesures basées sur les coûts semblaient fantastiques.

Ne sachant pas quoi faire ensuite, le président a démissionné et, six mois plus tard, la société International Harvester a dû demander la protection contre la faillite. Des dizaines de milliers de personnes ont été licenciées, la taille de l’entreprise étant réduite à une fraction de sa taille précédente, et elle s’est sentie obligée de changer de nom. La véritable leçon de cet épisode regrettable n’a pas touché la plupart des entreprises. Bien qu’il s’agisse d’un exemple extrême, il n’en reste pas moins qu’ils ont suivi à la lettre leurs informations chiffrées, récompensé leurs dirigeants, et qu’elles ont été la cause directe de la disparition de la l’entreprise.

La voie à suivre

Avant l’avènement du Throughput Accounting (la comptabilité de débit), les entreprises n’avaient guère le choix de mener des efforts d’amélioration. L’amélioration de la productivité était justifiée et orientée selon un système de comptabilité basé sur les coûts, qui par définition visait à attirer l’attention sur la réduction des coûts et l’amélioration des zones locales. Si l’effort de productivité visait principalement un objectif de débit, le succès du programme était souvent directement lié à la capacité des individus de voir entre les lignes et de prendre leurs propres décisions en dehors des données de coûts disponibles.

Le Throughput Accounting offre désormais un moyen de comprendre, d’analyser et de cibler les efforts d’amélioration de la productivité en fonction de leur impact sur les coûts et le débit. Les entreprises cherchant à améliorer les systèmes basés sur le débit devraient comprendre la logique consistant à utiliser un modèle de comptabilité de gestion capable de leurs faire atteindre leurs objectifs. Sans une telle approche, les efforts continueront d’être dispersés, mal alignés et inefficaces. Reconnaître ce besoin n’est pas suffisant en soi. Changer de modèle de comptabilité de gestion signifie modifier le mécanisme fondamental qui régit le comportement dans les entreprise. Cela nécessite que les gens comprennent et adoptent un nouvel état d’esprit, avec de nouveaux outils et moyens de prendre des décisions, ce n’est pas une mince tâche pour un individu, et encore moins pour une entreprise.

Heureusement, la plupart des gens ont déjà une forte intuition quant à la manière de fonctionner en mode débit. Le défi consiste à entamer le cheminement vers le Throughput Accounting et il incombe à la direction de prendre les devants. La plupart des entreprises étant mal alignées en raison d’informations erronées et basées sur les coûts, toute étape dans la focalisation sur le débit produira des résultats. Les entreprises qui s’engagent dans ce virage vont sans aucun doute tirer un bien plus grand profit de leurs efforts de productivité et se positionner pour devenir les leaders de demain. Il est maintenant temps de commencer à apprendre et à mettre en œuvre.

Télécharger la publication en pdf   https://www.sciquom.com/uploads/download/publications/TXT_BLOG_120819_Throughput-Accounting.pdf

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *