Comptabilité analytique

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

La comptabilité analytique est un système de comptes, ajustés à la comptabilité générale, permettant d’identifier et de valoriser les éléments constitutifs du résultat de l’exercice et d’en permettre l’interprétation et l’exploitation par les directions des entreprises. Elle rapproche chaque produit de ses coûts, qu’ils aient été encourus dans l’exercice ou dans des périodes précédentes. Elle divise les résultats par centre de décision permettant un meilleur pilotage, ou les consolide par ligne d’activité, afin de mieux en apprécier la situation. Elle est parfois associée à d’autres techniques de management comme la gestion budgétaire ou la gestion par les objectifs, à qui elle fournit les éléments de comparaison comme comptabilité de gestion.

Longtemps réservée aux grandes entreprises industrielles (on parlait au XIXe siècle de comptabilité industrielle), du fait de sa complexité et des coûts de mise en œuvre la comptabilité analytique s’est généralisée avec l’apparition de l’informatique et des progiciels de gestion qui ont fortement abaissé le coût de la collecte et du traitement d’une information détaillée. Elle concerne désormais toutes les formes et toutes les tailles d’entreprises, dont elle est un des éléments clefs du système d'information.

La difficulté primordiale de la connaissance du résultat d’exercice[modifier | modifier le code]

Le résultat de l’exercice est facile à déterminer, lorsque les recettes correspondent à la vente de produits ou de services dont les coûts ont été encourus dans l’exercice. Dans ce cas le constat fait en comptabilité générale suffit à le calculer par simple différence entre les deux éléments du compte d’exploitation. Mais cette circonstance est exceptionnelle. En général une partie des dépenses de la période concernent des produits qui seront vendus ultérieurement et une partie des produits vendus intègre des frais qui proviennent d’une production antérieure. La comptabilité générale qui recueille les flux par nature de dépense ne permet pas de résoudre cette difficulté.

Deux exemples permettront de comprendre la complexité organisationnelle du problème.

  • Un promoteur va mettre plusieurs années à concevoir et fabriquer un immeuble. Si l’immeuble est en cours de construction à la fin de l’exercice, l’ensemble des coûts encourus sur cet immeuble doivent être isolés pour ne pas charger les résultats de l’exercice. Ces coûts sont un regroupement par chantier des comptes de charges de la comptabilité générale. Ils sont accumulés en cours à l’actif du bilan pour ne pas charger les résultats. Lorsque les appartements sont mis en vente on va sortir des comptes d’encours les charges correspondantes qui vont être rapprochées de la valeur des ventes pour faire apparaître le résultat. Les ventes pouvant s’écouler sur plusieurs années, les en cours vont être vidés au fur et à mesure. Les sociétés de promotion ont donc un besoin crucial de comptabilité analytique par immeuble ne serait-ce que pour déterminer leur résultat de comptabilité générale. Le recoupement avec les charges et produits de la comptabilité générale est également indispensable : compte tenu des sommes en jeu il ne peut y avoir de fuite de valeur d’un exercice à l’autre. Un système estimatif ne suffit pas.
  • Un fabricant actuel d’outils coupants produit plusieurs milliers de produits différents. Un catalogue de vente contient souvent plus de 10 000 articles. En général les séries de production de chaque article planifiées chaque année ne correspondent qu’en partie aux ventes de l’année. En fin d’exercice, des séries seront en cours (des coûts ont été engagés mais les produits ne sont pas finis) et de nombreux produits finis ne seront pas encore vendus. Autrement dit il faut savoir, produit par produit, quelle est la valeur qui a été accumulée pendant l’exercice dans les produits restant en stock, et quelle partie de la valeur reportée des exercices précédents correspond à des produits vendus dans l’exercice en cours. Il est donc indispensable de connaître la variation de valeur des stocks et des en cours, ce qui ne peut se faire qu’article par article. Un reclassement des charges pour valoriser les entrées en stock est donc nécessaire et implique une comptabilité analytique. Ici encore notons que l’objectif est de permettre la production du résultat comptable général, défini comme la différence entre les ventes et le prix de revient des ventes.

Tant que l’industrie était constituée de petits ateliers, produisant en petites séries des articles peu nombreux, les chevauchements de valeur entre exercice étaient de peu d’importance. Quand le développement du capitalisme a fait apparaître des entreprises fortement capitalisées produisant en masse une grande variété d’articles, le besoin a été de plus en plus pressant. C’est pourquoi la comptabilité analytique est née d’abord dans la sidérurgie et dans les grosses industries mécaniques, chimiques ou verrière (par exemple Saint Gobain) et y a pris toute son ampleur à la fin du XIXe siècle et au début du XXe. L’étude des temps, notamment autour des innovations de Charles Taylor, a donné de l’élan aux méthodes de production et donné un cadre à la ventilation des coûts dans les différents produits. Le « costing » est devenu de règle dans l’industrie et a permis de dégager beaucoup des concepts utilisés dans les systèmes de comptabilité analytique.

La résolution du problème précédent sans comptabilité analytique[modifier | modifier le code]

Si la question de la production du coût des produits vendus dans l’exercice est générale et se présente à toute entreprise de production, il ne faut pas croire qu’elle a été et qu’elle est encore résolue seulement par la mise en place d’une comptabilité analytique.

Pendant longtemps et c’est encore le cas dans nombre d’entreprises, la difficulté a été traitée par des travaux extra comptables d’inventaire périodique, permettant de dégager les variations de stocks et les valorisant avec des procédés empiriques. À partir des gammes et des nomenclatures les ingénieurs définissaient par exemple les temps et les consommations nécessaires à la production d’un article. Il suffisait de donner une valeur au taux horaires et aux ingrédients, puis de tenir compte de l’amortissement des machines, pour aboutir à une valorisation considérée comme raisonnable des stocks. Il n’était pas nécessaire de mettre en œuvre des systèmes coûteux de suivi détaillé des opérations de production. La loi n’imposant pas de méthodes particulières mais simplement la continuité de leur emploi, ce pragmatisme pouvait suffire. Notamment si les décalages de temps entre production et vente n’étaient pas trop importants. Si les stocks représentent par exemple moins de 10 % du chiffre d’affaires, une erreur de valorisation de 10 % fait varier très peu le résultat et de toute façon sera corrigée à l’exercice suivant.

L’inconvénient des méthodes stochastiques et pragmatiques devient discrimant lorsque les encours et les stocks représentent une très large fraction du chiffre d’affaires de l’exercice. Les erreurs, indétectables, faute de recoupement avec la comptabilité générale, peuvent alors faire perdre toute signification aux résultats de période, tout en faussant les décisions de gestion prises sur des valorisations trop loin des réalités.

C’est pourquoi de nombreuses entreprises ont reconnu la nécessité de mettre en œuvre une véritable comptabilité analytique permettant l’enregistrement en continu des flux de production afin d’obtenir des résultats recoupant le plus parfaitement possible les valeurs de la comptabilité générale.

Les principales méthodes de comptabilité analytique[modifier | modifier le code]

La méthode des sections homogènes et des coûts complets[modifier | modifier le code]

Article détaillé : Méthode des coûts complets.

Cette méthode permet de redistribuer les valeurs de charges de la comptabilité générale, réfléchies en comptabilité analytique, par destination. Des comptes de section vont recevoir les valeurs ventilées. Il en existe trois sortes :

  • Les sections intermédiaires
  • Les sections de production
  • Les sections de stocks et d’en cours.

Les sections intermédiaires sont ventilées périodiquement dans les sections de production. Les sections de productions alimentent les sections de stocks et d’en cours.

Au final apparaît facilement le résultat des ventes, produit par produit et le résultat général est bien égal à la somme des résultats détaillés des produits. L’utilisation de comptes parfaitement recoupés avec ceux de la comptabilité générale justifie bien le terme de comptabilité analytique par rapport à d’autres méthodes plus statistiques ou pragmatiques. C’est pourquoi elle fut retenue comme méthode de base par la codification comptable officielle associé au PCG de 47 qui servira de modèle jusqu’en 1999.

En vérité cette méthode est difficile à employer pour de très nombreuses raisons.

  • Elle est extrêmement lourde et demande un appareil d’enregistrement des éléments détaillés dont le coût a pu être longtemps considéré comme hors de proportion avec le gain de fiabilité par rapport à des méthodes plus empiriques.
  • Elle est largement arbitraire. Les clefs de répartition qui doivent régler la ventilation des sections ne sont pas toujours évidentes à imaginer et encore moins à constater. Ce qui aboutit à des constructions parfois bancales et peu significatives.
  • La sortie des résultats peut se faire attendre très longtemps. Attendre plusieurs mois pour avoir des chiffres éventuellement arbitraires a découragé plus d’une entreprise.

Mais surtout elle entraîne une variation arbitraire du coût complet d’un produit en fonction de circonstances qui ne sont pas de la responsabilité des producteurs. De ce fait elle ne permet pas un dialogue fécond pour l’amélioration de la gestion. Ce point mérite un développement spécifique.

La délicate question des frais généraux et du niveau de l’activité[modifier | modifier le code]

Imaginons une entreprise produisant les produits A et B. Ils absorbent chacun la moitié des frais généraux. Pour une raison quelconque le produit B n’est plus fabriqué. La méthode des coûts complets provoque le reversement des frais généraux absorbés par B sur A, dont le coût unitaire est augmenté d’autant et la rentabilité éventuellement compromise.

De même la fixité relative des frais généraux, en terme économique son absence d’élasticité en fonction de l’activité, entraine un chargement des prix unitaires en cas de ralentissement général des affaires. Cela limite la perte de résultat dans l’exercice concerné mais cela l’étale dans le temps. On traîne à sortir de la crise en portant la croix du passé. Ces variations qui ne sont pas reliées à l’activité des différents responsables ne peuvent pas servir à juger de leur action et peuvent troubler la fixation raisonnable des prix.

Le coût d’un système permanent d’enregistrement des flux analytiques étant très élevé, ne pas pouvoir l’utiliser pour contrôler la gestion et, qui plus est, risquer de perturber la gestion a été dénoncé comme inacceptable par de très nombreux auteurs qui ont proposé diverses méthodes visant à éliminer les variations considérées comme parasites.

La méthode de l’imputation rationnelle[modifier | modifier le code]

La méthode dite de « l’imputation rationnelle » est l’une d’entre elles.

L’idée en elle-même est simple. On sépare les frais généraux qui ne sont pas directement imputables et dans les sections de production on définit un niveau normal de production. On détermine alors un coefficient d’imputation rationnelle ratio entre l’activité normale et l’activité constatée. Les coûts unitaires calculés ne dépendent plus de l’activité, que ce soit pour un produit donné ou pour l’ensemble des produits. Les boni et mali d’incorporation de frais généraux sont laissés en frais de période et vont bien être pris dans le résultat global, mais sans rendre impossible le contrôle de gestion. Les variations de coûts que l’on constatera refléteront nécessairement des comportements de production, plus efficaces ou moins efficaces, entraînant des correctifs utiles sans toucher à la politique de prix.

Cette méthode peut être raffinée pour tenir compte des variations saisonnières dans la production de résultats mensuels.

Le Plan Comptable Général a largement fait droit à cette méthode de raisonner : « Les coûts d’acquisition et de production du stock ne comprennent que les seuls éléments qui interviennent normalement dans leur formation. Les pertes et les gaspillages en sont exclus. L’imputation des charges fixes …est basée sur la capacité normale de production. »

Cet exemple montre bien la liaison beaucoup plus forte qu’on ne le pense parfois entre les concepts généraux et analytiques.

La difficulté de la méthode est évidemment de définir des niveaux « normaux » qui peuvent être définis soit par rapport au passé, soit par rapport à une prévision soit par rapport à la capacité de l’usine ou de la ligne de production.

La méthode du direct costing[modifier | modifier le code]

Article détaillé : direct costing.

Cette méthode vise à privilégier l’effet dynamique des ventes dans la gestion en se proposant de déterminer leur contribution à l’absorption des coûts fixes et au résultat global. La comparaison des contributions dans le temps donne une vision pertinente de l’activité des lignes de produits et des commerciaux. Elle évite de fermer une ligne de produits qui contribue et qui serait déficitaire en coût complet, le report des frais généraux sur les produits restant les entraînant à leur tour dans le déficit.

L’inconvénient de la méthode est qu’elle ne permet pas de valoriser les stocks car elle est incompatible avec les règles du Plan Comptable. Cela force à tenir deux comptabilités analytiques ou à trouver des méthodes pour fusionner tous les besoins en un seul système dont le direct costing sera l’une des sorties.

Si une partie du processus de fabrication est externalisée, les coûts transférés sont des prix de vente qui intègrent des frais de structure et le bénéfice du sous traitant. La comparaison d’une année sur l’autre devient impossible.

Une autre évolution qui pénalise la méthode est la tendance générale à l’augmentation des frais de structures dans le prix de revient d’un produit. Les frais directs ne représentent plus qu’une fraction des coûts et jouent dès lors un trop grand rôle dans la méthode.

L’admission d’une contribution positive même faible peut conduire à des politiques de prix dangereuses pour la survie de l’entreprise.

La méthode des coûts standards[modifier | modifier le code]

Article détaillé : coût standard.

Cette méthode est particulièrement utile pour les entreprises qui fabriquent de très nombreux produits selon des processus de fabrication bien déterminés. Le bureau des méthodes est alors capable de fixer les gammes, les nomenclatures et les séries économiques de fabrication.

En fin de série de production on sait déterminer les quantités normales des principaux composants du coût et les comparer aux coûts réels encourus. Si on n’a pas lancé la quantité optimale, si on a été obligé de relancer la production à la suite d’incidents, entraînant des temps d’utilisation machine plus long et des pertes de matières ou de sous produits, s’il y a eu une panne de machine, bref si on n’a pas suivi la norme des boni ou plus sûrement des mali de production vont apparaître.

Dans la cascade des déversements de coûts de section en section, les boni et les mali ne sont pas transférés. Chaque entité sera donc jugée sur ses écarts propres et non pas sur les conséquences des erreurs des autres. Les stocks sont tenus en coûts standards. Les boni et mali restent dans les résultats de période.

Elle présente théoriquement tous les avantages :

  • Les marges sur cout standard permettent de suivre les contributions de produits, lignes de produits et entités commerciales mieux qu’en direct costing (le coût est plus réaliste et ne dépend pas de l’intensité capitalistique du système de production)
  • Les variations d’activités parasites et les effets de bords des autres produits dans l’absorption des coûts fixes sont évités.
  • Les stocks sont évalués de façon conforme aux règles comptables
  • L’affectation des boni et mali à la période est de bonne gestion.
  • La méthode crée une tension dynamique vers l’optimum de production. Le contrôle peut se faire quasiment en temps réel et il n’est pas nécessaire d’attendre des mois pour constater les dérives.
  • La méthode est insensible aux politiques de sous-traitance.
  • Elle permet d’associer une gestion budgétaire fine à la gestion analytique.

Le seul inconvénient est la possibilité effective de définir les coûts standard ce qui n’est pas toujours possible ainsi que l’énorme travail de saisie et de traitement en continu des données opérationnelles qui rend la méthode impraticable sans le secours de l’informatique.

La méthode GP[modifier | modifier le code]

Inventée par George Perrin, dans la foulée des travaux de Taylor sur les temps de travail, cette méthode visait principalement à simplifier le calcul des coûts de revient dans les entreprises de mécaniques fabriquant de nombreux produits sur un même ensemble de machines.

L’idée principale est que la majorité des produits sont dans un rapport de coûts fixe entre eux. Les méthodes de fabrication ne changeant que lentement la stabilité de ce rapport peut être considérée comme acquise. Plutôt que de suivre produit par produit les temps et les consommations, ce qui peut être exagérément coûteux et ralentir la production, on se contente de constater les quantités produites. Les rapports de coût étant stables, il est facile de les transformer en une quantité de production unique qui est rapprochée des coûts de production globaux de la période.

On en déduit un coût unitaire de l’unité de production, opportunément appelée le GP, et on s’applique à la valorisation des stocks. On peut dans cette méthode se contenter d’un nombre de sections réduites et de l’inventaire des produits fabriqués. Elle peut donc s’avérer très économique. Elle suppose que le bureau des méthodes ait coté en GP tous les articles. C’est pour cela que la méthode a été poussée par des sociétés de conseils spécialisés dans les études de temps (MTM etc.). Cette méthode fort astucieuse est désormais remplacée par la méthode UVA.

La méthode UVA : une extension de la méthode GP[modifier | modifier le code]

Article détaillé : Méthode UVA.

Cette méthode perfectionne la méthode des coûts complets et sert d'alternative à la méthode ABC. Elle se fonde aussi sur une analyse minutieuse des activités (sous forme de gammes opératoires), mais surtout sur celle des postes (opération élémentaire de travail constituée d'un ensemble de moyens matériels et humains, qui fonctionnent de façon homogène). Cette méthode diffusée et élargie entre autres par J. Fievez, R. Zaya et J.P. Kieffer est née des travaux de Georges Perrin réalisés au début des années 1950 sur le concept de l'unification de la mesure de la production qui aboutit au modèle de la méthode GP rebaptisée UVA en 1995.

La méthode UVA se pose comme objectif premier de calculer le résultat (bénéfice ou perte) de chaque vente (concrètement il peut s'agir d'une facture, d'une commande, d'une livraison ...). La réalisation d'une vente est considérée comme le processus transversal élémentaire dans l'entreprise regroupant tout le travail fait par toutes les fonctions depuis l'enregistrement de la commande, en passant par la production des produits, jusqu'à leur livraison et l'encaissement de la facture.

Ainsi, on peut considérer que des activités dites "de support", ou indirectes par rapport aux produits sont directement consommées par chaque vente, ce qui réduit considérablement les imputations arbitraires des charges indirectes.

En tant que processus transversal élémentaire, la vente constitue la « brique » de base qui permet de réaliser toute autre analyse de la rentabilité. Cette méthode permet de réaliser un très grand nombre de simulations sans analyse supplémentaire à partir du moment où nous disposons de l'équivalent UVA.

L'UVA est une unité de mesure, qui permet de valoriser les activités, propre à chaque entreprise, c'est le mètre-étalon spécifique auquel seront comparées toutes les consommations de ressources de tous les postes UVA. L'avantage fondamental de l'utilisation de cette unité est qu'elle est indépendante des variations monétaires et permet de gérer de façon simple des entreprises complexes (ayant beaucoup de produits et beaucoup de clients), faire comme si l'entreprise était mono-produit. Le prix de cette précision est le besoin d'une certaine stabilité dans le temps du rapport entre les ressources consommées par les postes de l'entreprise. Par conséquent en cas de changement profond technologique, il faut réactualiser l'analyse des postes touchés par ce changement, mais pas les autres. En conditions normales, il est recommandé de faire une réactualisation tous les 5 ans. Cette analyse des postes doit être très pointue. De plus l'article (le produit) utilisé pour calculer l'UVA doit être représentatif. Comme elle simplifie le recueil et le calcul des données, cette méthode peut être aussi utilisée dans les organisations qui n’ont pas la taille suffisante pour disposer d’un contrôleur de gestion. Ces organisations peuvent aussi bien être des petites entreprises que des unités opérationnelles atypiques de grands groupes.

La méthode ABC[modifier | modifier le code]

Article détaillé : Méthode ABC.

Cette méthode a été développée par une association, CAM-I (Computer Aided Manufacturing International), créée en 1972 aux États-Unis et située à Austin au Texas, qui s’est spécialisée sur la recherche collaborative visant à l’amélioration de la gestion des coûts et des méthodes de production[réf. nécessaire]. Ses membres sont de grandes entreprises américaines et des éditeurs de progiciels de gestion comme SAP, un des leaders mondiaux dans le domaine de l’informatique de production qui a intégré la méthode ABC dans ses progiciels et lui fait une propagande active[réf. nécessaire].

Le principe de la méthode est le suivant : les objets de coûts (produits, clients...) consomment des activités qui, elles-mêmes, consomment des ressources. En pratique, les différentes étapes pour la mise en place d'une démarche ABC sont les suivants:[réf. nécessaire]

  • Modéliser les processus de l'entreprise pour en appréhender les circuits. Ces activités peuvent être, par exemple : le traitement d'une commande, la gestion des références, ou encore la réception des marchandises[réf. nécessaire].
  • Pour chaque activité, un inducteur (le driver) sera retenu et suivi (par exemple, le nombre de commandes, les quantités de référence). Cet inducteur sera l'unité qui permettra de répartir le coût total de l'activité. Certains inducteurs ne seront pas utilisés pour éviter des modèles trop lourds. On préférera un inducteur typique de l'activité. Pour chaque activité étudiée, le modèle précisera donc les inducteurs consommés.
  • Ainsi le calcul du coût de revient, en réalisant un tableau de répartition des charges par produit peut-il être réalisé. Les inducteurs ont pour objectif principal de répartir les charges indirectes alors que les charges directes sont réparties généralement de manière ordinaire.

La méthode ABC présente l'avantage d'affecter de manière plus précise les coûts aux produits sans procéder à une répartition des coûts indirects à l'aide d'une unité de mesure souvent arbitraire (par exemple, les heures machines). Une meilleure connaissance des processus permet de dégager les forces et faiblesses d'une organisation à la mise en place de cette méthode. L'utilisation de cette méthode gagne en pertinence lorsque les processus de production sont "en ligne" avec un personnel qualifié et polyvalent, que les processus sont flexibles, et que la technique utilisée est celle de la production en série de taille différentes avec utilisation de la méthode du Juste-à-temps[réf. nécessaire].

Elle est associée à des méthodes globales de management comme la méthode PBM Process Based Management[réf. nécessaire].

La Méthode de calcul des coûts par les caractéristiques[modifier | modifier le code]

Il existe plusieurs méthodes ayant pour objet de rapprocher les caractéristiques des produits avec le coût de ceux-ci. Selon les principes de mercatique un produit doit pour être le mieux vendu, adopter un positionnement précis de son image de marque sur les segments de clientèle choisis. Ceci implique d'investir un coût plus important vis-à-vis des caractéristiques (attributs ou fonctions) du produit qui ont été détectées comme valorisées par le public.

Ainsi, la méthode des coûts cibles établit un rapport d'importance des fonctions attendues par le client et la marge sur coût variable. Cette technique a pour avantage sa simplicité de calcul. Cette méthode a aussi une capacité à convaincre la force de vente qui est payée en fonction du chiffre d'affaires, ce qui la rapproche du mode de calcul.

Mais il est possible de lier ce rapport avec des coûts qui ne sont pas liés a priori au chiffre d'affaires. L'américain J.A. Brimson propose dans les années 1990 le "Feature Costing"[1] sous le nom de méthode de "Calcul des Coûts par les Caractéristiques" (ou méthode des coûts stables (MCS) aussi connue sous MCCC). Cette méthode analyse aussi le lien entre les caractéristiques des produits et les coûts à chaque activité. L'objectif est de simplifier la prise de décision concernant un portefeuille produit. La comparaison entre les attentes des clients et le coût des produits est facilité. D'autres méthodes proposent des approches multicritère pour l'analyse des liens entre les coûts et les caractéristiques des produits en s'approchant au mieux de la réalité économique du processus de l'entreprise. Ces méthodes sont basées, à chaque activité du processus de l'entreprise et pour chaque type de charge, sur un système de pondération de la difficulté générée par les caractéristiques des produits.

Il en résulte une évaluation multicritère précise utilisée en contrôle de gestion (calcul du prix de revient d'un produit réalisé), dans une optique prévisionnelle (préparation des devis, offres et tarifs) ou en management stratégique (analyse de la valeur des caractéristiques des produits).

Évolution de l’emploi des méthodes analytiques[modifier | modifier le code]

La comptabilité analytique allait connaître une révolution complète à partir des années 1970 et 1980 sous une double influence:

  • Les besoins quittent le domaine purement industriel : on prend conscience qu'il faut contrôler les coûts et les recettes par activités, y compris dans les activités de service. Le résultat d'une énorme entreprise n'est pas en lui-même utilisable : il faut le fractionner en entités plus restreintes et plus significatives. Le cadre de gestion cesse d'être l'entreprise légale mais la division, le département ou le service. De même on peut chercher à consolider les résultats d'activités qui sont de même nature mais exercées par des entités juridiques différentes. De même l'État devenu le gestionnaire de nombreuses activités comprend qu'il doit imposer des systèmes analytiques pour en contrôler le rendement, un changement d'attitude fondamental dans un monde où le "service public" n'avait pas à tenir compte de préoccupations comptables.

Beaucoup d’entreprises d'État se sont mises à la comptabilité analytique à partir de la fin des années 1980. La Banque de France met en place la première comptabilité analytique permettant de connaître avec une fiabilité suffisante le prix de revient des billets à la fin des années 1980. Le coût révélé fut tellement plus haut que ce que croyait la direction que des plans de modernisation drastiques furent mis en place pour le réduire, conduisant à une restructuration complète des processus de production de billets à Chamalières et à l'usine de fabrication de papier. La Sealink, filiale de la SNCF, met en place un système de contrôle analytique informatisé des résultats de chaque bateau de sa flotte au milieu des années 1980. Les résultats sortent immédiatement à la fin de chaque traversée et de chaque « marée » pour les bateaux équipés. Jusque là les résultats d'ensemble n'étaient connus qu'en fin d'année et noyés dans ceux de la SNCF. L'amélioration des résultats a été spectaculaire.

Aujourd'hui les techniques de comptabilité analytique informatisée concernent aussi bien les universités que les hôpitaux, les ministères que les collectivités locales.

  • L'informatique connaît une révolution importante avec l'apparition de terminaux de saisie qui permettent de décentraliser au plus près des événements le constat des mouvements tout en réduisant fortement les coûts de traitement de l'information. L'informatisation de processus techniques comme l'ordonnancement lancement des séries de production permet facilement de produire les éléments d'une comptabilité analytique. La gestion de stocks passe en inventaire permanent. L'apparition de progiciels adaptés à des modes standards de fonctionnement réduit encore le coût d'implantation de solutions analytiques. Les valeurs de stocks et d'en-cours sortent automatiquement. Le recoupement avec la comptabilité générale devient plus facile. Chaque gestionnaire reçoit désormais avec des périodicités accélérées les informations de coûts et de résultats nécessaires à l'orientation de ses décisions.

Désormais la comptabilité analytique fait partie de la plupart des Systèmes d’Information (SI) des entreprises importantes, des PMI et d’une part notable quoiqu’encore très améliorable des PME.

Notes et références[modifier | modifier le code]

  1. James Brimson, Feature costing : beyond ABC, journal of cost management, 1998

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

Articles connexes[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • Comptabilité analytique de gestion, Dunod, 2007
  • Comptabilité analytique, économica, 2006
  • Comptabilité analytique et contrôle de gestion, Vuibert, 2005