la prévision de la faillite fondée sur l'analyse

22
HAL Id: hal-01391654 https://hal.archives-ouvertes.fr/hal-01391654 Submitted on 3 Nov 2016 HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés. La prévision de la faillite fondée sur l’analyse financière de l’entreprise : un état des lieux Catherine Refait-Alexandre To cite this version: Catherine Refait-Alexandre. La prévision de la faillite fondée sur l’analyse financière de l’entreprise : un état des lieux. Economie et Prévision, Minefi - Direction de la prévision, 2004, 162, pp.129 - 147. 10.3406/ecop.2004.6937. hal-01391654

Upload: others

Post on 16-Jun-2022

2 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: La prévision de la faillite fondée sur l'analyse

HAL Id: hal-01391654https://hal.archives-ouvertes.fr/hal-01391654

Submitted on 3 Nov 2016

HAL is a multi-disciplinary open accessarchive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come fromteaching and research institutions in France orabroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, estdestinée au dépôt et à la diffusion de documentsscientifiques de niveau recherche, publiés ou non,émanant des établissements d’enseignement et derecherche français ou étrangers, des laboratoirespublics ou privés.

La prévision de la faillite fondée sur l’analyse financièrede l’entreprise : un état des lieux

Catherine Refait-Alexandre

To cite this version:Catherine Refait-Alexandre. La prévision de la faillite fondée sur l’analyse financière de l’entreprise :un état des lieux. Economie et Prévision, Minefi - Direction de la prévision, 2004, 162, pp.129 - 147.10.3406/ecop.2004.6937. hal-01391654

Page 2: La prévision de la faillite fondée sur l'analyse

Économie & prévision

La prévision de la faillite fondée sur l’analyse financière del’entreprise : un état des lieuxCatherine Refait

Citer ce document / Cite this document :

Refait Catherine. La prévision de la faillite fondée sur l’analyse financière de l’entreprise : un état des lieux. In: Économie

& prévision, n°162, 2004-1. pp. 129-147;

doi : 10.3406/ecop.2004.6937

http://www.persee.fr/doc/ecop_0249-4744_2004_num_162_1_6937

Document généré le 17/06/2016

Page 3: La prévision de la faillite fondée sur l'analyse

RésuméLa prédiction de la faillite des entreprises fait l ’ objet de nombreux travaux empiriques , depuisune trentaine d ’ années . Elle se fonde sur l ’ analyse économique et financière d ’ entreprisesdéfaillantes et d ’ entreprises non défaillantes , afin de déterminer les variables , principalementcomptables , qui distinguent au mieux les deux catégories de firmes . Nous proposons un état deslieux afin de rendre compte de l ’ efficacité relative des différentes méthodes de classificationutilisées . Dans ce but , nous exposons la démarche commune tout en mettant en évidence lesdifférentes modalités d ’ application empirique . Nous présentons le principe des techniquesdisponibles et une comparaison de leur performance , en mettant l ’ accent , de manière nonexhaustive , à la fois sur les études fondatrices et sur les études les plus récentes . Mots-clés :prévision , faillite d ’ entreprise , analyse financière

AbstractA Review of Business Failure Prediction Based on Financial Analysis of the Firm

Many studies of business failure prediction have been carried out in the last thirty years or so .Prediction is based on an economic and financial analysis of failing and non-failing firms with theaim of determining the variables , mainly of an accounting nature , that best distinguish the twocategories . The purpose of this review is to assess the relative effectiveness of the differentclassification methods employed . To that end we identify the common elements while highlightingthe different ways in which they are applied empirically . We describe the principle of the availabletechniques and compare their performance , focusing non-exhaustively on both the foundingstudies and on more recent research . Key-words : prediction , business failure , financial analysis

Page 4: La prévision de la faillite fondée sur l'analyse

129

La prévision de la faillite fondée surlanalyse financière de lentreprise :un état des lieuxCatherine Refait(*)

La prédiction de la faillite des entreprises fait lobjet de nombreux travaux empiriques, depuis unetrentaine dannées. Elle se fonde sur lanalyse économique et financière dentreprises défaillantes etdentreprises non défaillantes, afin de déterminer les variables, principalement comptables, quidistinguent au mieux les deux catégories de firmes. Nous proposons un état des lieux afin de rendrecompte de lefficacité relative des différentes méthode de classification utilisées. Dans ce but, nousexposons la démarche commune tout en mettant en évidence les différentes modalités dapplicationempirique. Nous présentons le principe des techniques disponibles et une comparaison de leurperformance, enmettant laccent, de manière non exhaustive, à la fois sur les études fondatrices et surles études les plus récentes.

(*) Université Paris IX Dauphine CERPEM CREFED.E-mail : [email protected]

Je tiens à remercier Mme. Bardos pour ses précieuses remarques. Merci également au rapporteur anonyme qui ma permisdaméliorer la qualité de mon travail. Je demeure seule responsable du contenu de cet article.

Économie et Prévision n°162 2004/1

Page 5: La prévision de la faillite fondée sur l'analyse

Laccroissement actuel de la taille des entreprises enfaillite, donc des montants de dettes concernés,rappelle vivement la nécessité de prévoir ladéfaillance. La protection des intérêts descréanciers, voire le rétablissement de la pérennité delentreprise, passent par lanticipation des gravesdifficultés économiques et financières quuneen t repr i se es t suscep t ib le de rencon t re r.Actuellement le problème se pose aux banques avecune acuité particulière. Dans le cadre du Comité deBâle et du ratio Mac Donough, les banques sedevront en effet de proposer une évaluationsystématique des risques quelles encourent. Ceciimplique notamment une estimation précise de laprobabilité de défaut de leurs clients entreprises,donc un éventuel remaniement de leurs méthodesdévaluation (Altman, 2002).

Si lanalyse des causes de la faillite est plus ancienne,sa prédiction, cest-à-dire lévaluation quantitativedu risque de défaillance, sest principalementdéveloppée à partir de la fin des années soixante(1).Lapproche la plus fréquente consiste à recourir àlanalyse financière afin de déterminer les variables,principalement comptables, qui différencient aumieux les entreprises défaillantes et les entreprisesnon défaillantes. Lobjectif est détablir une relationstatistique stable entre les variables explicativesretenues et lappartenance des entreprises à lun desdeux groupes. Différents outils sont à la dispositiondes auteurs, dont le plus fréquemment utilisé estlanalyse discriminante linéaire, mais les méthodesalternatives sont nombreuses.

Lobjet de cet article est de présenter de manièresynthétique les évolutions et la situation actuelle dela recherche, tant exploratoire quopérationnelle, ence domaine. En proposant une explication succinctedes différentes techniques util isées et unecomparaison des résultats obtenus, il souhaite offrirune vue densemble des problèmes soulevés par laprédiction de la faillite. Il ne constitue cependant pasun recensement exhaustif des études réalisées. Nonseulement un tel recensement eut été très difficile àréaliser compte tenu du nombre élevé de ces études,mais en plus il nous a semblé plus intéressant demettre laccent sur certains travaux représentatifs.Cet article sinscrit donc dans la lignée de travauxtels que ceux de Malécot (1986), Dumontier (1991),voire Altman et Narayan (1997). Le développementrécent de nouvelles méthodologies fondées surlintelligence artificielle et limportance de leursapplications justifient quun nouvel état des lieuxsoit réalisé. Nous proposons à la fin de larticle untableau récapitulatif des principales études citées, enprivilégiant celles qui permettent une comparaisonrigoureuse des différentes techniques disponibles.La première partie expose la méthodologiecommune à lensemble des travaux considérés maisaussi les différentes modalités dapplicationempirique, dans la construction de léchantillon, lechoix des variables explicatives et la méthode de

validation des résultats. La deuxième partie metensuite laccent sur la variété des techniques declassification utilisées : les méthodes statistiquesparamétriques et non-paramétriques ainsi que lesméthodes dintelligence artificielle.Nous concluonsen proposant une synthèse de lefficacité de chacunedes techniques présentées.

Démarche commune et différentesmodalités dapplication empirique

Depuis les travaux de Tamari (1964), de nombreuxauteurs ont tenté avec succès dévaluer le risque dedéfaut des entreprises en se fondant sur leur analysefinancière. Même si les techniques utilisées sontvariées, le principe général qui sous-tend les diversesétudes est similaire : exploiter la connaissance expost de lavenir des entreprises. Les auteursdisposent des données comptables dentreprisesdont ils savent si elles ont été ou non défaillantes à lafin de la période dobservation. Ils parviennent ainsià sélectionner les variables comptables les plusdiscriminantes puis à établir une relation statistiqueentre ces variables et létat dichotomique dêtre oude ne pas être défaillant. Une probabilité de failliteest parfois également estimée. La qualité delindicateur de risque ainsi élaboré est jugée auregard des erreurs de classement : quel est lepourcentage dentreprises défaillantes considéréescomme saines erreur de type I et, inversement,quel est le pourcentage dentrepr ises nondéfaillantes considérées comme risquées erreur detype II ? Quatre étapes successives sont ainsinécessaires à la prévision de la faillite : laconstruction dun échantillon, cest-à-dire lasélection dentreprises, la sélection a priori desvariables explicatives de la faillite, le choix dumodede classification des entreprises entre le groupe desdéfaillantes et celui des non-défaillantes que noustraiterons de façon détaillée dans la deuxième partie,enfin lestimation de la qualité de la prévisioneffectuée. Nous explicitons ces étapes afin de mettreen évidence les distinctions entre les différentesétudes.

La construction de léchantillon

Lélaboration de léchantillon joue un rôle importantdans la qualité de la prévision proposée. En premierlieu, la définition de la défaillance et le choix delhorizon de prévision par les auteurs sont cruciaux,car ils déterminent lobjectif de lindicateurconstruit ainsi que la sélection des entreprises quiconstituent léchantillon utilisé. Le choix descaractéristiques des entreprises sélectionnées estégalement primordial, puisquil conditionnelhomogénéité et la représentativité de léchantillonet influence donc la qualité de la prévision.

130

Page 6: La prévision de la faillite fondée sur l'analyse

Définition de la défaillance et choix de l horizon deprévision

Ladéfinition de la défaillance est primordiale dans laconst ruct ion de léchant i l lon , puisquel lecaractérise les deux populations qui fondentlindicateur de risque. En effet, à partir dunéchan t i l lon g loba l d en t repr i ses , deuxsous-échanti l lons doivent être construits :léchantillon des entreprises dites défaillantes etl échan t i l lon des en t repr i ses d i t es non-défaillantes. La détermination de ce quest uneentreprise défaillante est un problème délicat,susceptible de nuire à la robustesse de lindicateur.

La majorité des auteurs considère la défaillancecomme louverture dune procédure judiciaire(2).Cependant, certains auteurs considèrent commedéfaillante toute entreprise qui a connu un défautde paiement, arguant que cet événement en lui-mêmepréoccupe les créanciers. Le comité de Bâle met eneffet laccent sur lestimation du risque de défaut etnon sur celle du risque de faillite. La définition dudéfaut de paiement peut prendre plusieurs formes.Généralement, le risque de défaut réside en lenon-respect par le débiteur de ses obligationsfinancières : non-remboursement du capital ounon-versement des intérêts, violation duncovenant(3). Mais la définition peut être plus large etconsister en une dégradation de la qualité designature de lentreprise : restructuration de la dette,diminution des dividendes versés, voire avisdéfavorable dun audit ou encore détérioration durating du débiteur.

Plusieurs possibilités sont alors envisageables. Laplus traditionnelle consiste à opposer les entreprisesqui ont fait lobjet dune procédure collective auxautres entreprises. Il est également possibledopposer les entreprises qui ont connu un défaut depaiement, y compris celles qui ont fait faillite, auxautres (Beaver, 1966). Au contraire, dautres auteurslimitent léchantillon des entreprises défaillantesà celles qui ont fait faillite. Ils excluent alors de lapopulation des entreprises non défaillantes cellesqui présentent une santé financière fragile lesentreprises vulnérables, répondant à un critèreplus large que le simple défaut de paiement afindobtenir une discrimination plus marquée (Altmanet Loris, 1976 ; Altman, 1977 ; Taffler 1982). Laqualité de la prévision nest cependant pas accrue demanière significative. Une dernière approche a étéenvisagée : prévoir louverture dune procédurejudiciaire,mais en sélectionnant exclusivement pourles deux sous-échantillons des entreprises qui ontconnu des défauts de paiement (Flagg et alii, 1991)ou plus généralement des entreprises vulnérables. Laqualité de la prévision peut se trouver affaiblie(4) àcause de la plus grande similitude des deuxsous-échantillons(5).

Parallèlement à la définition de la défaillance, lechoix de lhorizon de prévision est important. Il

conditionne la date de la défaillance des entrepriseset la date des données qui vont fonder ladiscrimination, lécart de temps entre les deux étantlhorizon de prévision. Un arbitrage est à faire entreune échéance trop proche, dont lintérêt est limité carelle nautorise pas les décisions àmêmede limiter lespertes, voire déviter la faillite, et une échéance troplointaine, qui interdit une prévision précise. Lesétudes différent légèrement sur ce point, mais trèsgénéralement, deux horizons sont choisis : un an ettrois ans avant la défaillance.

Les caractéristiques des entreprises : représentativitéet homogénéité de léchantillon

La construction des deux sous-échantillons pose ledouble problème de la représentativité et delhomogénéité des deux sous-échantillons. Afin quelindicateur de risque puisse être appliqué à uneentreprise quelconque, léchantillon à partir duquelil est établi doit être représentatif de léconomie : dupoint de vue des secteurs dactivité, de la taille desentreprises mais également du rapport entre lenombre dentreprises défaillantes et dentreprisesnon-défaillantes. Cependant, cette représentativitécrée une hétérogénéité qui est susceptible de créer unbiais statistique : des facteurs explicatifs peuventêtremasqués par des effets sectoriels ou des effets detaille. Afin de concilier ces deux exigences etdaméliorer la prédiction de la défaillance, plusieurssolutions ont été préconisées.

Soulignons en premier lieu que le problème ne sepose pas de manière identique selon la taille deléchantillon. Si les premières études, de nature plusexploratoire, recouraient à un nombre restreintdentreprises (66 pour Altman, 1968, par exemple),les études actuelles se fondent sur de largeséchantillons (presque 1 000 entreprises pourLennox, 1999, et plus de 40 000 pour le score de laBanque de France, cf. Bardos, 1998, par exemple).Lorsque le nombre dentreprises exploitées estélevé, une bonne représentativité est possible. Elledoit cependant être vérifiée par la comparaison entreles caractéristiques de léchantillon et celles de lapopulation globale. Une autre manière dobtenir unéchantillon représentatif est de limiter la portée delindicateur à une population cible, définie par unsecteur économique limité ou un intervalle restreintde taille des entreprises. Les entreprises deléchantillon se situent alors dans ce secteuréconomique ou dans cet intervalle de taille(Trieschmann et Pinches, 1973 ; Altman, 1977 ;Altman et Loris, 1976 ; Calia et Ganuci, 1997).Linconvénient dune telleméthode est quelle exigeque soit élaboré un indicateur par secteur et par taille.Se pose alors le problème du choix dagrégation dessecteurs économiques et de lampleur des intervallesde taille. Comment estimer le degré optimaldhomogénéité de léchantillon ? Cependant, cetteméthode présente lavantage certain de concilierreprésentativité et homogénéité.

131

Page 7: La prévision de la faillite fondée sur l'analyse

Si un échantillon hétérogène est utilisé, commentéviter le biais statistique qui en découle ? Unepremière possibilité est lutilisation de ratiosrelatifs. Rapporter la valeur prise par un ratio dansune entreprise donnée à sa valeurmoyenne au sein dusecteur considéré permet en effet datténuer laspécificité sectorielle (Lev, 1969 ; Izan, 1984, ouencore Platt et Platt, 1990). Platt et Platt (1991)élaborent deux indicateurs, à partir des mêmesdonnées, mais lun utilise les ratios relatifs, lautreles ratios absolus. Le premier est plus performant (cf.tableau récapitulatif). Néanmoins, peut-être à causede sa lourdeur, comme le supposent les auteurs, cettesolution est peu utilisée. La méthode la plus usitéeconsiste à procéder par appariement, en faisantcorrespondre à toute entreprise défaillante uneentreprise non-défaillante de même taille etappar tenant au même secteur économique(Mossman et alii, 1998). Lorsquune contrainterelative à la disponibilité des données existe, cetteméthode est celle qui réduit au mieux le biaisstatistique lié à lhétérogénéité de la population.

Linconvénient est que léchantillon des entreprisesdéfaillantes est alors nécessairement de la mêmetaille que celui des entreprises non-défaillantes : unautre biais peut apparaître dans lestimation desparamètres, car la structure de la population globalenest pas respectée (Malécot, 1986). Ce problème sepose da i l l eurs que l que so i t l e modedéchantillonnage à cause de la rareté de ladéfaillance. Or le résultat de certaines techniques declassification dépend de la taille respective des deuxéchantillons(6). Afin de limiter ce biais, il est possible sauf pour la méthode dappariement de rendre lerapport de taille des deux échantillons conforme à laprobabilité de défaillance a priori. Cette probabilitécorrespond au taux de défaillance de la populationglobale ou de la population cible. Il est néanmoinsplus fréquent(7) que le biais créé soit corrigé lors delélaboration de lindicateur, en tenant compte alorsde la probabilité de défaillance a priori.

Le choix des ratios explicatifs de la défaillance

La prévision de la défaillance est réalisée à partir dedonnées comptables, parfois des données demarché(8). Une première sélection est réalisée apriori, afin de nenvisager que des variablesconsidérées par les analystes financiers commereprésentatives de la santé dune entreprise (engénéral une cinquantaine). Puis, grâce auxtechniques de classification statistique, une secondesélection est opérée afin de ne conserver quunnombre réduit de variables, les plus discriminantes(entre 1 Beaver, 1966 et 20 Calia et Ganuci,1997)

Les variables explicatives retenues,majoritairementdes ratios comptables, sont diverses. Rose et Giroux(1984) en ont recensé plus de 130 différentes.Cependant, les caractéristiques des entreprisesprises en compte sont généralement similaires.

Conformément à lenseignement de lanalysefinancière, la rentabilité de lentreprise (économiqueou financière), la structure de son bilan et sa capacitéde remboursement sont les trois éléments les pluscorrélés à la défaillance.

La rentabilité économique met en relation unevariable de résultat économique avec lactif total, lecapital engagé(9), les immobilisations productives oule capital économique(10). Le résultat considéré peutêtre le résultat dexploitation (Altman, 1968 ;Taffler, 1982 ; Flagg et alii, 1991 ; Michalopoulos etalii, 1993), le résultat global pour la mesure dureturn on assets par exemple (Weiss, 1996) ou lerésultat net (Burgstahler et alii, 1989 ; Calia etGanugi, 1997). La rentabilité financière met enrapport une variable de résultat avec le capitalfinancier. Elle est souvent exprimée par le ratiorésultat global sur capitalisation boursière (return onequity) (Mensah, 1984).

La structure du bilan met en rapport un élémentdactif et un élément du passif ou deux éléments depassif, voire deux éléments dactif. Elle permet derendre compte déventuels déséquilibres quipeuvent mener lentreprise au non-respect de sesengagements financiers. Elle est principalementappréhendée de trois manières. Le rapport entrelactif total et lendettement total rend compte de lasolvabilité de lentreprise (Deakin, 1972 ; Rose etGiroux, 1984 ; Burgstahler et ali i , 1989 ;Michalopoulos et alii, 1993 ; Altman et alii, 1994) ;la solvabilité est également mesurée par le ratioendettement total sur fonds propres (Mensah, 1984 ;Weiss, 1996 ; Flagg et alii, 1991 ; Platt et Platt, 1991).Le rapport entre les actifs liquides souvent horsstocks et le passif exigible à court terme mesure lerisque dilliquidité (Deakin, 1972 ;Houghton, 1984 ;Burgstahler et alii, 1989 ; Michalopoulos et alii,1993). Enfin, le ratio dettes à court terme sur dettes àlong terme permet dintégrer la nature delendettement (Platt et Platt, 1991). Dautres ratiosde structure de bilan sont envisagés, plusmarginalement, comme le ratio dettes à long termesur fonds propres (Houghton, 1984 ; Rose et Giroux1984) ou le ratio actifs liquides sur actif total(Deakin, 1972 ; Taffler, 1982).

Le dernier des trois facteurs les plus explicatifs, lacapacité de remboursement, est mesuré dedifférentes manières : par le ratio cash flow(11) surdette totale (Deakin, 1972 ; Frydman et alii, 1985 ;Calia et Ganugi, 1997), par le ratio intérêts dus surchiffre daffaires (Rose et Giroux, 1984), par le ratiorevenu dexploitation sur intérêts dus (Calia etGanugi, 1997)(12).

Parallèlement à lutilisation standard de ratioscomptables, certains auteurs ont tenté dexploiterdes données différentes. Une première idée a été deprévoir la faillite à partir des flux de trésorerie delentreprise, donc de grandeurs absolues et non plus

132

Page 8: La prévision de la faillite fondée sur l'analyse

de grandeurs relatives (Gentry et alii, 1985 ; Aziz etalii, 1988 ; Reilly, 1990). La faillite est en effetsupposée survenir lorsque la valeur de lentreprisedevient trop faible pour quun créancier accepte decontinuer à la financer en cas de défaut de paiement.Le recours aux flux de trésorerie est donc légitimepuisque la valeur dune entreprise est égale à lasomme actualisée de ses cash flows futurs. Ajouterdes flux de trésorerie aux ratios comptables améliorela qualité de la prévision de la faillite, quelle que soitla technique de classification utilisée, dans les troismodèles cités.

Une autre idée a été de prendre en compte lévolutiondu cours de laction de lentreprise (Beaver, 1966 ;Altman et Brenner, 1981 ; Clark et Weistein, 1983).Le cours se détériore de un an à trois ans avant ledépôt de bilan. Aharony et alii (1980) ont élaboré unmodèle de prédiction de la faillite en se fondant sur lavariation du taux de rendement des actions. Ilsconstatent que plus la faillite est imminente plus lerisque spécifique(13) des titres saccroît. Les deuxméthodes ont été utilisées par Mossman et alii(1998) : elles procurent une prévision de la faillitemoins performante quune analyse discriminantemenée sur les données comptables des mêmesentreprises. Le recours aux données de marché estpeu courant, ne serait-ce que parce quil exclut lamajorité des PME, notamment en France.

Enfin, conjointement aux données comptables, desinformations liées à lorganisation de lentreprise ouà la nature de son financement, par exemple, peuventêtre utilisées. Citons létude de Foglia et alii (1998)qui introduit comme variable explicative duneanalyse discriminante le nombre de banques auprèsdesquelles les entreprises sont endettées. Le lienpositif qui existe entre cette variable et le risque delentreprise permet daméliorer la prévision de ladéfaillance(14).

La méthode de validation

Une fois léchantillon constitué, il convient détablirun lien statistique entre lappartenance à lun desdeux groupes et les variables explicatives retenues.Différentes méthodes de classification sont alorsdisponibles. Leur étude fait lobjet de la partiesuivante. La qualité de prévision de lindicateur derisque ainsi élaboré doit être mesurée. Un dernierélément de divergence entre les différentes étudesapparaît alors : la méthode de validation.

Lensemble des études juge cependant lefficacité deleur indicateur par une mesure commune : le taux debons classements quil procure. Le taux de bonsclassements des entreprises non-défaillantes est lapart des entreprises non défaillantes correctementclassées dans lensemble des entreprises non-défai l lantes considérées . Le taux de bonsclassements des entreprises défaillantes est la partdes entreprises défaillantes correctement classéesdans lensemble des entreprises défaillantes

considérées. Une mesure globale est égalementenvisageable : la moyenne des taux de bonsclassements pondérés par leffectif respectif dechaque sous-échantillon (taux de bons classementsapparent) ou pondérés par les probabilités a priori dedéfaillance et de non-défaillance.

La divergence entre les études se situe dans laconstruction de léchantillon qui sert à calculer lestaux de bons classements, nommé échantillon test.Les auteurs qui disposent dune très vaste base dedonnées mesurent les taux de bons classements àpartir dun échantillon dentreprises défaillantes etdent repr i ses non-défa i l lan tes dis t inc t deléchantillon qui a servi à lélaboration delindicateur (léchantillon initial) :Bardos (1998a) etVaretto (1998) par exemple.

Dans dautres études, léchantillon qui sert à lavalidation est léchantillon initial (Platt et Platt,1991 ; Altman et alii, 1994). Une telle validation estsujette à caution : lindicateur élaboré peut êtreperformant pour léchantillon initial et ne pas lêtrepour lensemble des entreprises ; le taux de bonsclassements ainsi calculé le taux apparent neconstitue pas un estimateur sans biais du tauxde bonsclassements de la population globale. Or cest en faitce taux le taux réel de bons classements etuniquement ce tauxqui rendpleinement compte de laqualité dun indicateur du risque de faillite. Aussi, lamajorité des auteurs optent-ils pour des méthodes devalidation qui permettent de réduire le biais danslestimation du taux réel de bons classementslorsquils ne disposent pas dun échantillon testdistinct de léchantillon initial : validation croisée,Jack-knife et Bootstrap(15).

Les t ro i s méthodes se fonden t sur unrééchantillonage des n entreprises qui constituentléchantillon initial. La validation croisée dordre Vconsiste à découper léchantillon initial en Vsous-échantillons de taille approximativementégale, puis à estimer lindicateur de risque à partir deV-1 groupes pour enfin calculer le taux de bonsclassements sur le Vième groupe. Lopération estréalisée V fois, chaque sous-groupe servantsuccessivement au calcul dun taux de bonsclassements. Le taux de bons classements théoriqueest estimé par la moyenne des V taux de bonsclassements empiriques. Le Jack-knife consiste àconstruire n sous-échantillons de n -1 entreprises, ennégl igeant success ivement chacune des nentreprises de léchantillon initial. À partir des nsous-échantillons sont estimés n indicateurs derisque pour lesquels n taux de bons classements sontcalculés sur léchantillon initial. Le taux de bonsclassements théorique est estimé par la moyenne desn taux de bons classements empiriques. Le bootstrapconsiste à construire un échantillon à partir duntirage aléatoire avec remise des entreprises deléchantillon initial. Léchantillon construit estgénéralement de même taille que léchantillon

133

Page 9: La prévision de la faillite fondée sur l'analyse

initial. Un indicateur est élaboré à partir deléchantillon construit et le taux derreur declassement quil procure est calculé sur léchantilloninitial. Un taux derreur apparent est égalementcalculé sur léchantillon construit. Lécart entre lesdeux taux derreur de classement est mesuré.Lopération est réitérée un nombre de fois suffisantpour réduire voire éliminer le biais. Le taux derreurde classement théorique est estimé par le tauxderreur apparent calculé sur léchantillon initialauquel sajoute la moyenne empirique des écarts.

Il convient donc de comparer les performances desdifférentes études avec circonspection, le niveau destaux de bons classements dépendant du mode devalidation choisi par les auteurs. Cependant, les troisméthodes de rééchantillonage citées permettent nonseulement de calculer unemoyenne des taux de bonsclassements mais également un intervalle deconfiance de cette moyenne. La précision de laprévision est donc connue et peut être comparéedune étude à lautre.

Les différentes techniques declassification utilisées pour la prévisionde la faillite

Lobjet commun des modèles de prévision de lafaillite est de tenter, grâce aux ratios comptablessélectionnés, daffecter une entreprise quelconque àlun des deux groupes : les entreprises défaillantes etles entreprises non-défaillantes. Les études peuventêtre répertoriées en trois classes, selon laméthode declassification utilisée. Les plus nombreusesrecourent auxméthodes de classification statistiquesparamétriques : les analyses discriminantes quelles soient linéaires (Altman, 1968) ouquadratiques (Lachenbruch et alii, 1973) et lestechniques économétriques sur données qualitatives(Ohlson, 1980 ; Zmijewski, 1984). Dautres étudesrecouren t à des méthodes s ta t i s t iquesnon-paramétriques comme le partitionnementrécursif (Frydman et alii, 1985) et les estimateurs ànoyau (Calia et Ganuci, 1997). Plus récemment ontété développées des analyses sinspirant delintelligence artificielle comme les réseaux deneurones (Altman et alii, 1994 ;Bardos et Zhu, 1997)ou les algorithmes génétiques (Varetto, 1998)(16).Nous exposons les différentes techniques à la lecturedes articles fondateurs puis nous présentons lesdiverses améliorations ultérieures.

Les études fondées sur les méthodesparamétriques de classification statistique

Les méthodes paramétriques de classificationstatistique établissent une relation fonctionnelleentre les variables explicatives dont la loi dedistribution est supposée connue et la variable

expliquée, relation dont la forme est donnée a priori.Trois grandes familles de méthodes existent : laméthodologie unidimensionnelle fondatrice deBeaver (1966), lanalyse discriminante (linéaire etnon linéaire) et les régressions sur variablesqualitatives.

La méthodologie unidimensionnelle de Beaver, 1966

Bien que les premiers travaux relatifs à la prédictiondes faillites dentreprises à partir de donnéescomptables soient luvre de Tamari (1964), lesarticles de Beaver (1966) puis dAltman (1968)semblent avoir été le réel point de départ et laréférence des nombreuses études empiriquespubliées depuis trente ans. Beaver (1966) élaboreune classification dichotomique unidimensionnelle,cest-à-dire fondée sur un ratio unique. Sa méthode,de nature exploratoire, nest plus appliquéeac tue l l ement . Nous la présen tons doncsuccinctement.

Lobjectif de Beaver est de classer les entreprises surla base du ratio le plus discriminant. Pour ce faire, ilsélectionne initialement pour chaque entreprise deson échantillon différents ratios comptables, censés,daprès lanalyse financière, être dautant plusélevés que la santé financière des entreprises estsaine. Il estime la valeur prédictive de chaque ratio dela maniè re su ivan te . Dans un premiersous-échantillon, il classe les entreprises en fonctionde la valeur prise par un ratio particulier. Il choisit unseuil critique : toute entreprise présentant un ratioinférieur au seuil est considérée commedéfaillante etau contraire toute entreprise présentant un ratiosupérieur est considérée comme non-défaillante. Leseuil critique est déterminé de manière à maximiserle taux de bons classements dans le premiersous-échantillon. Un classement des entreprises dusecond sous-échantillon est ensuite réalisé à partir duseuil critique précédemment déterminé et un autretaux de bons classements est calculé. Cest ce tauxqui fonde la sélection finale du ratio le plusdiscriminant.

À un an de la défaillance, le ratio cash flow surendettement total est le plus discriminant ; il permetde classer correctement 87% des entreprises. Ceratio est également celui qui fournit la meilleureprévision trois ans avant la faillite : le taux de bonsclassements est alors égal à 77%. La méthode deBeaver (1966) fournit donc un indicateur à la foissimple et efficace. Le manque de robustesse lié àlunicité du ratio utilisé explique sans doute que cetteméthode nait été que rarement exploitée par la suite(Deakin, 1972 ; Gebhardt, 1980). Les analysesmultidimensionnelles, permettant une descriptionplus riche de la situation de lentreprise, sontmaintenant utilisées de manière systématique.

134

Page 10: La prévision de la faillite fondée sur l'analyse

Les modèles de prédiction fondés sur lanalysediscriminante

Dès 1968, Altman affirme quune analyseunidimensionnelle rendmal compte de la complexitédu processus de défaillance. Aussi est-il le premier àexploiter simultanément plusieurs ratios, au traversdune ana lyse d i sc r iminan te l inéa i remultidimensionnelle(17). Afin de classer uneen t repr i se parmi l un des deux groupesdentreprises : défaillantes ou non-défaillantes,Altman (1968) utilise la règle de décision simple quiconsiste à affecter lentreprise au groupe dont elle estle plus proche. Il recours à lanalyse discriminante deFisher fondée sur un critère métrique. Lanalyseaboutit à la construction dune fonction appeléescore , combinaison l inéaire des var iablesexplicatives retenues, dont la réalisation exprime leniveau de risque de lentreprise.

Des ratios, au nombre de K, sont sélectionnésinitialement au sein de lensemble vaste des ratiossusceptibles dêtre explicatifs de la défaillance. Sontconservés ceux qui limitent le problème demulticolinéarité tout en possédant le pouvoir dediscrimination le plus élevé. Lensemble desentreprises peut ainsi être représenté dans lespaceℜK . Lobjectif de lanalyse discriminante est deséparer lespace ℜK en deux sous-espaces : lesous-espace des entreprises défaillantes et lesous-espace des entreprises non-défaillantes.Chaque sous-espace contient des entreprises delautre groupe, puisque les K ratios ne caractérisentqu impar fa i t ement les deux ca tégor iesdentreprises. Lanalyse discriminante vise àdéterminer lhyperplan H* qui sépare au mieux lesdeux groupes. H* doit donc être tel quà la fois lenombre dentreprises défaillantes présentes dans lesous-espace des entreprises non-défaillantes soitminimal et que le nombre dentreprises nondéfaillantes inclues dans le sous-espace desentreprises défaillantes soit minimal. Lentreprisedont on désire connaître le risque de faillite quenous appellerons lentreprise A est ensuite affectéeau groupe qui correspond au sous-espace où sescoordonnées x A la situent. Cette démarche revient àrattacher lentreprise A au groupe dont le centre luiest le plus proche. Il convient donc détablir unemesure de distance : la distance à un groupe estdéfinie comme la distance aupointmoyendugroupe,suivant une métrique particulière(18).

Soit S x( )=0 léquation de lhyperplan H* danslespace ℜK . S est une combinaison linéaire des Kratios considérés. La valeur prise par la fonction S(.)au point x A détermine laffectation de lentreprise àpartir du vecteur x A de ses K ratios : si S x A( )>0,lentreprise A est classée parmi les non-défaillantes,si S x A( )<0, lentreprise A est classée parmi lesdéfaillantes et si S x A( )=0 il est impossible declasser lentreprise A. La valeur prise par la fonctionscore fournit également un indicateur du risque defaillite de lentreprise. Lanalyse discriminante

linéaire permet ainsi de raisonner dans un espace àune dimension au lieu de K, nombre de variablesexplicatives exploitées. Elle permet également deconnaître directement la contribution de chaquevariable au risque de lentreprise.

Lanalyse dAltman (1968) se révèle plus efficaceque celle menée par Beaver (1966) un an avant ladéfaillance puisquelle aboutit à un taux de bonsclassements global de 95% sur léchantillon initial.Cependant, calculé sur un échantillon test distinct deléchantillon initial, le taux de bons classements unan avant la défaillance est égal à 82% et doncinférieur au taux fourni par lanalyse de Beaver (quiétait égal à 87%, calculé sur un échantillon testdistinct de léchantillon initial). Il peut semblersurprenant quajouter des variables explicativesnaméliore pas la prévision. Cependant, comparerlefficacité de deux prévisions réalisées à partir dedeux échantillons différents est délicat, ce dautantplus que leur taille est réduite (158 entreprises pourlétude de Beaver, 1966, et 66 pour celle dAltman,1968). De plus leur objectif est différent : Beaver(1966) désire prévoir tout défaut de paiement alorsquAltman (1968) se concentre sur le dépôt de bilan.Une comparaison entre les deux études ne peut doncêtre faite quavec prudence. Deakin (1972), enconfrontant les deux méthodes à partir dun mêmeéchantillon, tend à montrer la supériorité delanalyse discriminante linéaire pour prévoir ledépôt de bilan. À un an de la faillite, elle classecorrectement 87% des entreprises, alors que laclassification unidimensionnelle élaborée parBeaver ne classe correctement que 80% desentreprises.

Plusieurs inconvénients sont liés à lutilisation delanalyse discriminante linéaire. Des modificationsimportantes ont été réalisées pour y remédier et elle aété la technique la plus usitée pendant 30 ans(19), touspays confondus(20). La première modification de laméthode est liée à lintégration des coûts derreurs declassement et de la probabilité de défaut a priori. Eneffet, il peut tout dabord être important pour ledécideur principalement un banquier ou unassureur crédit de prendre en compte le fait que lecoût des erreurs de type I (considérer quuneentreprise défaillante est non-défaillante) estdifférent du coût des erreurs de type II (considérerquune entreprise non-défaillante est défaillante). Lecoût dune erreur de type I noté cD

ND représente laperte totale ou partielle sur les nouveaux créditsoctroyés à cause dune mauvaise estimation durisque. Le coût dune erreur de type II noté cND

D représente un coût dopportunité pour la banque(21).Par ailleurs, le seuil de décision présenté ci-dessus netient pas compte de la probabilité a priori quuneentreprise soit défaillante ou non-défaillante(22). Si,par exemple, les deux types derreur ont le mêmecoût, mais que la probabilité de défaut a priori estfaible, une entreprise située à équidistance des deux

135

Page 11: La prévision de la faillite fondée sur l'analyse

groupes devra i t ê t re cons idérée commenon-défaillante.

La règle de décision de Bayes permet dutiliser lafonction score tout en prenant en compte les coûtsderreur de classement et la probabilité de défaut apriori. Notons π j la probabilité a priori quuneentreprise quelconque appartienne au groupe j, où jpeut désigner le groupe des défaillantes ( )j D= oucelui des non-défail lantes ( )j ND= . Notonsf x jA( | ) la fonction de densité du vecteur descoordonnées x A de lentreprise A conditionnelle àlappartenance au groupe j. Lexpression f x jA( | )correspond à la probabilité conditionnelle quelentreprise soit caractérisée par les coordonnéesx A alors quelle appartient au groupe j. Alorsf j x A( | ), l a p robab i l i t é a pos ter ior i pourlentrepriseAdappartenir au groupe j sachant x A , sedédu i t du théorème de Bayes :

f j xf x jf xAA j

A

( | )( | )( )

=π. Les probab i l i t é s a

posteriori ne donnent pas lieu directement à uneclassification binaire des entreprises mais à laconstruction de classes de risques(23).

Si les coûts derreur de classement sont intégrés aucritère de décision bayesienne, A est affectée augroupe des défaillantes si et seulement si :f x D c c f x NDA D

NDD ND

DND A( | ) ( | )π π≥ . Ce la

signifie que la proportiondes entreprises affectées augroupe des entreprises défaillantes croît avec le coûtassocié au mauvais classement dune entreprisedéfaillante. Au contraire, plus le fait de considérerune entreprise non-défaillante commedéfaillante estcoûteux, plus la proportion dentreprises affectéesau groupe des non-défaillantes augmente.

Si les fonctions de densité des deux sous-populationssontmultinormales et homoscédastiques, la fonctionscore S(.) permet de classer une entreprise A à partirdu vecteur x A de ses K ratios en fonction de la règlebayesienne de la manière suivante :

si S xccADND

D

NDD

ND

( ) ln>

ππ

,

A est classée parmi les non-défaillantes,

si S xccADND

D

NDD

ND

( ) ln<

ππ

,

A est classée parmi les défaillantes.

Une lecture directe de la fonction score permet ainsila classification des entreprises. Soulignonscependant que la détermination dun seuil declassification est secondaire par rapport à la valeurde la fonction score en-elle même qui fournit uneindication du risque de lentreprise. La premièreraison en est la difficulté dévaluer les coûts derreur

de classement. La seconde raison est quune fonctionscore a pour fonction daider à la décision et non defonder seule la décision.

Dautres modifications ont été apportées, afin delimiter les inconvénients liés à la linéarité de lafonction score construite par lanalyse discriminantede Fisher. Cette caractéristique implique que chaqueratio influence toujours dans le même sens le risquede faillite. Or certaines variables nont pas un impactmonotone sur la santé de lentreprise. Par exemple, lelien entre la taille de lentreprise et son risque estcroissant pour les petites entreprises puis il estdécroissant au delà dune certaine taille(24). De plus,la linéarité signifie que lélasticité du score parrapport au ratio est monotone. Le lien entre le risqueet les ratios choisis est donc soumis à des contraintesstructurelles qui peuvent nuire à lefficacité delanalyse discriminante. Pour lever ces contraintes,Bardos (1989) applique à la prévision de la faillite laméthode DISQUAL, établie par Saporta (1977). Lesvariables comptables continues sont réparties enintervalle et ainsi transformées en variablesqualitatives. Labsence de monotonie dans le lienentre le niveau des ratios et le niveau de risque delentreprise peut alors être pris en compte.Lindicateur ainsi construit est cependant moinsperformant que le score construit par unediscrimination linéaire appliquée aux mêmesdonnées. La plus grande robustesse du score estinvoquée par Bardos (1989) pour expliquer cerésultat.

Lanalyse discriminante linéaire présente un autreinconvénient majeur : elle requiert des conditionsstatistiques strictes. Les variables comptablesutilisées doivent en effet suivre une loimultinormaleet leursmatrices de variance-covariance doivent êtreles mêmes pour léchantillon des entreprisesdéfa i l lan tes e t pour ce lu i des ent repr isesnon-défa i l l an tes ( 2 5 ) . Face à la con t ra in tedhomoscédasticité, certains auteurs ont recouru auxanalyses discriminantes quadratiques, qui nexigentque lhypothèse de multinormalité des ratios(Lachenbruch et alii, 1973 ; Marks et Dunn, 1974 ;Rose et Giroux, 1984, par exemple). À notreconnaissance, lanalyse discriminante quadratiquenest plus utilisée depuis le milieu des annéesquatre-vingt. Si théoriquement elle est plusper t inen te que l ana lyse l inéa i re en casdhétéroscédasticité, dans les faits elle est moinsperformante, principalement pour deux raisons.Premièrement, labsence de multinormalité desratios est beaucoup plus nuisible à lefficacité delanalyse quadratique quà celle de lanalyse linéaire(Lachenbruch, 1975) ; deuxièmement, même en casde respect de lhypothèse de multinormalité,l analyse discr iminante quadra t ique nes tperformante que si elle est appliquée à un échantillontrès large. La complexité du modèle quadratiquerend par ailleurs difficile lanalyse du rôle joué dans

136

Page 12: La prévision de la faillite fondée sur l'analyse

le processus de défaillance par les différentesvariables considérées.

Lanalyse discriminante linéaire reste actuellementlaméthode la plus utilisée. La fonction score, grâce àlanalyse de la contribution de chaque ratio,constitue une aide à la compréhension de la faillite.De surcroît, grâce à sa robustesse temporelle, elleoffre la meilleure classification. De nombreusesétudes principalement dans les années quatre-vingtdix confrontent lanalyse discriminante linéaireaux autres techniques de classification (Collins,1980 ; Rose et Giroux, 1984 ; Altman et alii, 1994 ;Calia et Ganuci, 1997 ; Kira et alii, 1997 ; Bardos etZhu, 1997 ; Varetto, 1998). La majorité aboutit aurésultat suivant : les taux de bons classementsobtenus par lanalyse discriminante linéaire sontsupérieurs à ceux fournis par les autres méthodespour les mêmes données. La supériorité de lapremière nest cependant pas systématique (Bardoset Zhu, 1997 ; Calia et Ganuci, 1997, notamment).

Les modèles de prédiction recourant aux régressionssur variables qualitatives

Face à la contrainte de multinormalité rarementrespec tée empi r iquement des ana lysesdiscriminantes linéaires et quadratiques, certainsauteurs ont préféré recourir à dautres méthodes. Lapremière possibilité est lutilisation dautrestechniques paramétriques, qui supposent unedistribution différente des variables comptables : lestechn iques économét r iques sur var iab lesqualitatives que sont le modèle Probit et le modèleLogit. Ils diffèrent dans la distribution supposée deserreurs : une loi logistique pour le Logit et une loinormale pour le Probit. La régression Logit a étéappliquée à la prévision de la faillite par Ohlson(1980), puis notamment par Mensah (1984), Aziz etalii (1988), Bardos (1989), Burgstahler et alii(1989), Flagg et alii (1991), Platt et Platt (1991),Weiss (1996), Bardos et Zhu ( 1997), Mossman etalii (1998). Le modèle Probit a été plus rarementutilisé (Zmijjewsji, 1984 ; Gentry et alii, 1985 ;Lennox, 1999).

Dans les deux modèles, la variable endogène y estune variable qualitative, ici dichotomique(26) : elleprend la valeur 0 ou 1, selon que lentreprise estdéfaillante ou non. Supposons que y soit nul pour lesentreprises défaillantes et égal à un pour lesentreprises non-défaillantes. Le vecteur x desvariables exogènes est composé de K ratioséconomiques et financiers retenus pour leur qualitédiscriminante et leur faible corrélation entre elles. Lemodèle requiert que les ratios choisis soient liés aurisque de lentreprise de façon linéaire. Le modèleestimé sécrit :

y si xi i i= + >1 0β ε

y si xi i i= + ≤0 0β ε

où ε iexprime lerreur associée à lentreprise i etβ levecteur des coefficients.

Des probabilités de défaut a posteriori sont alorsaisément calculables ; la probabilité a posteriori quelentreprise i soit défaillante est égale à :

P y P x P xi i i i i ( )= = + ≤ = ≤ −0 0β ε ε β

= −F x i( )β

où F est la fonction de répartition des erreurs ε.Rappelons que la loi normale et la loi logistique sontsymétriques. Lerreur ε est despérance nulle.

La probabilité a posteriori que lentreprise i ne soitpas défaillante est :

P y P x P xi i i i i = = + > = > −1 0β ε ε β

= − ≤ − =1 P x F xi i i ( )ε β β

Soit :

P y F xi i ( )= =1 β

P y F x F xi i i ( ) ( )= = − = −0 1 β β

Le modèle Logit suppose que les erreurs suivent uneloi logistique ; leur fonctionde répartitionF sécrit :

F x e x( ) ( )= + − −1 1

La probabilité a posteriori que lentreprise i soitdéfaillante sécrit alors P y ei

xi ( )= = + −0 1 1β

LemodèleProbit suppose que les erreurs suivent uneloi normale ; leur fonction de répartition F sécrit :

F x e dtx t

( )=−∞

∫12

2

2

π.

La probabilité a posteriori que lentreprise i soit

défaillante sécrit alorsP y e dti

x ti

= =−∞

−−

∫0 12

2

2

π

β

.

Comme précédemment, les probabilités a posterioriconstituent des aides à la décision ; elles permettentla construction de classes de risque. Si lon désireaffecter une entreprise A à lun des deux groupes àpartir de la probabilité de faillite, il est possible dedéterminer un seuil de décision, ici un seuil deprobabilité P. Si sa probabilité de faillite estimée estsupérieure à P, alors lentreprise A est considéréecomme défaillante ; inversement, si sa probabilité defaillite estimée est inférieure à P, elle est considéréecomme non-défaillante. P est choisi de manière àmaximiser la qualité du classement.

137

Page 13: La prévision de la faillite fondée sur l'analyse

Lesprévisions élaborées à partir desmodèlesLogit etProbit sont de bonne qualité : à un horizon dun an,Platt et Platt (1991) aboutissent à des estimations dutaux réel de bons classements égales à 85% pour lesentreprises défaillantes et à 88% pour les entreprisesnon-défaillantes ; Mossman et alii (1998) estimentleur taux de bons classements des entreprisesdéfaillantes égal à 80% et celui des entreprisesnon-défaillantes égal à 70%. Si Bardos (1989),comparant la discrimination linéaire aux modèlesProbit à partir des mêmes données, tend à montrer lasupériorité de la première, a priori grâce à sa plusgrande robustesse, des études plus récentesaboutissent à la conclusion inverse. Par exemple,Kira et alii (1997) et Lennox (1999) obtiennent demeilleurs taux de bons classements respectivementpar un modèle Logit et Probit que par un modèledanalyse discriminante linéaire.

Les modèles recourant aux techniques nonparamétriques de classification statistique

Lorsque les ra t ios ne suivent pas de loismultinormales et quune loi logistique ou une loinormale ne semble pas adaptée pour décrire leserreurs, une solution est de recourir aux méthodesnon-paramétr iques , ne nécess i tant aucunehypothèse relative à la distribution des variables.Deux catégories de techniques ont été utilisées : lepartitionnement récursif et lanalyse discriminantefondée sur une estimation locale de la fonction dedistribution des ratios comptables.

Les modèles de prévision de la faillite fondés sur latechnique du partitionnement récursif

La première méthode de c lass i f i ca t ionnon-paramétrique appliquée à la prévision de lafaillite est lalgorithme de partitionnement récursif(Frydman et alii, 1985). La méthode consiste àconstruire un arbre décisionnel. Léchantillon,constitué dentreprises défaillantes et non-défa i l l an tes , es t décomposé de maniè reséquentielle : à chaque nud de larbre, unsous-groupe est décomposé en deux sous-groupesplus petits, jusquaux groupes finals, qui contiennent100% dent repr ises défa i l lan tes ou 100%dentreprises non-défaillantes. On obtient alors desnuds dits purs. Un seuil de tolérance inférieur à100% peut être accepté afin de limiter le nombre denuds, les nuds finals sont alors impurs.L impure té dun nud rend compte delhétérogénéité du sous-groupe qui le caractérise.

À chaque nud, le sous-groupe est scindé en deuxsous-groupes au regard dun ratio unique, qui doitavoir un lien monotone avec le risque de faillite. Unratio et un seuil de décision sont choisis : lesentreprises qui présentent une valeur de ce ratioinférieure au seuil sont classées dans le premiersous-groupe, les autres dans le second sous-groupe.Le ratio et le seuil sont fixés de manière à réduire aumieux limpureté. Lun des sous-groupes contient

une proportion plus forte dentreprises défaillanteset lautre une proportion plus forte dentreprisesnon-défaillantes. Chaque sous-groupe ainsi forméest ensuite également décomposé en deux autressous-groupes, à laide dun autre ratio, jusquà ceque la pureté du nud donc lhomogénéité dessous-groupes dentreprises soit jugée suffisante.Afin de classer une entreprise quelconque, il suffit delui appliquer larbre décisionnel. Elle est considéréedéfaillante si in fine elle se situe dans un groupecons t i tué major i t a i rement den t repr i sesdéfaillantes. Soulignons que cette méthode permetde prendre en compte le coût des erreurs declassement et les probabilités de défaut a priori.

Pour un horizon temporel de un an, Frydman et alii(1985) aboutissent à un taux de bons classementségal à 89%ou 80%(27). Bardos (1989) obtient un tauxde bons classements égal à 69,6% pour lesentreprises non-défaillantes ; pour les entreprisesdéfaillantes, le taux est égal à 74,9% à un an de lafaillite et égal à 61,2% à trois ans de la faillite.Mêmesi dans létude de Bardos (1989) le partitionnementrécursif est un peu moins efficace que lanalysediscriminante linéaire réalisée sur les mêmesdonnées, cette méthode de classification estperformante.

Le partitionnement récursif est cependant peu utilisédans la prévision de la faillite. Une des explicationsenvisageables est que cette méthodologie,contrairement à lanalyse discriminante linéaire, esttrès sensible au choix des probabilités de défaut apriori et des coûts derreur de classement. Cesvariables conditionnent en effet à chaque nud leratio sélectionné. De plus, le partitionnementrécursif requiert quà chaque nud soit déterminéeune valeur seuil pour le ratio considéré, ce qui nuit àla stabilité temporelle de lindicateur.

Les modèles de prévision de la faillite fondés sur uneestimation non-paramétrique des lois de distributiondes ratios

Si lapplication de la règle de décision bayesienne àlanalyse discriminante nécessite que soient connuesles fonctions de densité des ratios, elle nexigecependan t pas que ces fonc t ions so ien tmultinormales. Afin de résoudre le problème de lanon-multinormalité des ratios, une autre loi dedistribution est envisageable. Il est notammentpossible destimer la loi de probabilité des ratios pardes méthodes non-paramétriques(28) (Murphy etMoran, 1986, puis Calia et Ganuci, 1997).

Rappelons que les méthodes paramétriquesdestimation des lois de probabilités consistent àconsidérer une loi donnée, par exemple la loinormale, puis à évaluer empiriquement sesparamètres, en loccurrence lespérance et lavariance ; elles supposent quun nombre fini deparamètres parviennent à décrire de façonsuffisamment fidèle lintégralité des évolutions

138

Page 14: La prévision de la faillite fondée sur l'analyse

possibles de la variable considérée. Le principe desméthodes non-paramétriques est, au contraire, de nepas sappuyer sur une forme spécifique de loidéterminée a priori. Elles supposent quen présencede points extrêmes, les méthodes paramétriques enrendent compte imparfaitement. Lidée est alors delisser les observations afin de mettre en évidence lesévolutions principales. Le lissage consiste à estimerlocalement la fonction de densité par une moyennepondérée locale des fréquences.Unpoint est pondérédautant plus fortement quil est proche du point x enlequel la fonction de densité est estimée. Leparamètre de lissage est crucial car il détermine lataille du voisinage, cest-à-dire le nuage de pointspris en considération pour estimer localement lafonction de densité ; il fixe également la pondérationde chaque point. Il conditionne donc la précision delestimation.

Calia et Ganuci (1997) utilisent laméthode du noyauet laméthode du plus proche voisin, qui sont les deuxmodalités destimation les plus utilisées. Elles sedifférencient par la détermination du voisinage. Laméthode du noyau considère un intervalle de largeurdonnée autour du point x, le nombre de pointsconsidérés pour lestimation étant variable. Laméthode du plus proche voisin, au contraire, neprend en considération que les k points les plusproches de x, lintervalle étant variable. Après avoirainsi estimé la fonction de densité de chaque ratiopour léchantillon des entreprises défaillantes et desentreprises non-défaillantes, les auteurs appliquentla règle de décision de Bayes afin de classer lesentreprises. Les paramètres de lissage de chaqueméthode sont fixés de manière à obtenir la meilleureprévision possible.

À un an de la faillite, le taux global de bonsclassements estimé par Calia et Ganuci (1997) àpartir dun échantillon test distinct de léchantilloninitial est égal à 68% lorsque lestimateur du noyauest utilisé et il est égal à 74,2% pour lestimateur duplus prochevoisin.Lindicateur ainsi élaboré est plusperformant que lanalyse discriminante linéaire etquadratique sur les mêmes données, puisque cestechniques fournissent un taux de bons classements,estimé dans les mêmes conditions, respectivementégal à 60,9% et 61,8%. Le principal défaut de cetteméthode statistique est le nombre important dedonnées quelle requiert, par rapport à lestimationparamétrique de la loi de distribution des ratios.

Les algorithmes de lintelligence artificielle

Face aux nombreuses contraintes liées auxméthodesstatistiques traditionnelles, des méthodologiesrelevant dune logique différente ont été utilisées :les réseaux de neurones et les algorithmesgénétiques. Elles relèvent de lintelligenceartificielle, plus précisément de la branche relative àl apprent issage automat ique. La premièreapplication des réseaux de neurones à lestimationdu risque de faillite a été réalisée sur données

bancaires (Bell et alii, 1990). Lutilisation desréseaux de neurones puis des algorithmes génétiquesà partir de données dentreprises non-financièressest ensuite intensifiée.

La prévision de la faillite fondée sur les réseaux deneurones

Le principe des réseaux de neurones consiste enlélaboration dun algorithme dit dapprentissagequi imite le traitement de linformation par lesystème neurologique humain(29). Chaque neuroneréside en une fonction, dite de transfert, qui traite unensemble dinformations (les inputs) afin dobtenirun résultat (loutput). La fonction de transfert,choisie par lutilisateur, consiste en un traitementmathématique, généralement non-linéaire, delinput. À chaque input est attribué un poids quiinfluence le résultat. Lobjectif est daboutir, aprèsune phase dite dapprentissage, à la combinaison despoids dinputs de chaque neurone qui conduit à lameilleure description de la réalité, cest-à-dire aumeilleur classement des entreprises dans les deuxgroupes de f i rmes , les défa i l lantes et lesnon-défaillantes.

Trois sortes de neurones existent : les neuronesdentrée, les neurones de sortie et les neuronescachés. Les neurones dentrée ont pour inputs les Kratios comptables pré-sélectionnés ; les neurones desortie ont pour output la variable dichotomiquedéfaillant / non-défaillant. Les neurones cachés sontdes neurones qui traitent linformation entre lesneurones dentrée et les neurones de sortie. Le réseauutilisé peut être plus oumoins complexe, cest-à-direêtre constitué dun nombre variable de couches deneurones. Une couche est un ensemble de neuronesqui ne séchangent pas dinformation entre eux. Enrevanche, au sein de chaque couche les neurones sontconnectés aux neurones de la couche précédente :lensemble des outputs dune couche constitue parconséquent lensemble des inputs de la couchesuivante. Les poids attribués à chaque inputdéterminent ainsi la transmission de linformation.Lanalyse discriminante peut être considérée commeun réseau de neurones constitué dun neurone uniquedont les inputs seraient les valeurs des ratioscomptables et loutput la valeur du score, outputgénéré par transformation linéaire, qui constitue lafonction de transfert.

Pendant la phase dapprentissage, le réseau estappliqué successivement à toutes les entreprises deléchantillon. Lerreur de classement est calculéepuis les poids des inputs sont modifiés de manière àréduire cette erreur ; cest en effet par la variationprogressive de ces pondérations que se réalise leprocessus dapprentissage. Lensemble de ces étapesest réitéré jusquà lobtention de la classificationoptimale, cest-à-dire de la minimisation de lerreurde classement. À la fin de la phase dapprentissage,le réseau permet de classer une entreprisequelconque dans le groupe des entreprises

139

Page 15: La prévision de la faillite fondée sur l'analyse

défaillantes ou dans celui des entreprises non-défaillantes, avec un seuil derreur connu.

Les différents modèles de prévision de la faillite quirecourent aux réseaux de neurones se distinguent parla complexité du réseau (cest-à-dire son nombre decouches et le nombre de neurones par couche) et parla fonction de transfert utilisée(30). De nombreusesétudes récentes se sont attachées à comparer lesperformances des réseaux de neurones auxtechniques statistiques citées précédemment.Certaines tendent à montrer leur supériorité parrapport à lanalyse discriminante (Chung et Tam,1993 ; Coats et Fant, 1993). Létude dAltman et alii(1994) présente un bilan plus mitigé : à un an de lafaillite, les réseaux de neurones aboutissent à un tauxde bons classements égal à 91,8% pour lesentreprises défaillantes et à un taux égal à 95,3%pour les entreprises non-défaillantes. Lanalysediscriminante l inéaire menée sur le mêmeéchantillon aboutit à un classement légèrementmeilleur : 92,8% pour les entreprises défaillantes et96,5% pour les entreprises non-défaillantes. Kira etalii (1997) aboutissent à la même conclusion. Letaux global de bons classements à un an de ladéfaillance est égal à 93,3% lorsque lanalysediscriminante est utilisée ; il est égal à 90% avec unréseau de neurones. La régression Logit est plusperformante , fournissant un taux de bonsclassements égal à 95,5%. Cependant , lesdifférences sont ténues, comme le confirme létudede Bardos et Zhu (1997) : lanalyse discriminantelinéaire classe correctement 68,3% des entreprisesdéfail lantes et 75,3% des entreprises non-défaillantes alors que le réseau de neurones le plusperformant classe correctement 61,3% desentreprises défaillantes et 82,8% des entreprisesnon-défaillantes.

Les réseaux de neurones permettent donc uneprévision efficace de la faillite des entreprises.Lavantage principal de ce procédé consiste enlabsence de restrictions statistiques relatives à ladistribution des variables et des erreurs et enlabsence de spécification ex ante dune formefonctionnelle. Cependant, plusieurs problèmesexistent : le mécanisme dapprentissage peut êtrelong ; la robustesse du réseau à des modifications delenvironnement économique nest pas encoreprouvée, une mise à jour fréquente peut savérernécessaire ; enfin la logique qui sous-tend le réseauest difficile à interpréter alors que la fonction scorefournit des outils simples danalyse de la défaillance.

La prévision de la faillite fondée sur les algorithmesgénétiques

Varetto (1998) et Barney et alii (1999) ont lespremiers envisagé une autre méthode, relevantégalement de lintelligence artificielle : lesalgorithmes génétiques(31). Le fonctionnement estassez proche de celui des réseaux de neurones. Unalgorithme traite les informations disponibles, les

ratios comptables sélectionnés et la situation dechaque entreprise (défaillante ou non défaillante).Lalgorithme, par itérations successives, déduit desrégularités, des règles générales du processus dedéfaillance quil peut ensuite appliquer à dautresentreprises(32).

Le principe dun algorithme génétique est dimiter leprocessus dévolution naturelle des espèces. Il sefonde sur les trois principes du Darwinisme :sélections et reproductions des individus lesmeilleurs, croisements génétiques et mutationsaléatoires des gènes. Lalgorithmegénétique analysedonc des populations de solutions cest-à-dire desmodes de traitement de linformation propres àprévoir la défaillance et évalue leur qualité, enloccurrence le taux de bons classements desentreprises quelles fournissent. Lalgorithmeconserve alors les modes de résolution les plusefficaces et les combine, éventuellement en génèrede nouveaux de façon aléatoire. Il aboutit alors à unenouvelle population de solutions, plus homogène. Laprocédure est réitérée et elle sarrête lorsque lapopulation de solutions atteint un certain niveaudhomogénéité, fixé préalablement, tel quil estdifficile daméliorer lespèce par de nouveauxcroisements. Lalgorithme peut finalement classertoute entreprise dans le groupe des entreprisesdéfaillantes ou dans le groupe des entreprises nondéfaillantes.

Varetto (1998) compare lefficacité dun algorithmegénétique à celle dune analyse discriminantelinéaire. Il considère deux formes dalgorithmesgénétiques. Le premier algorithme génère descombinaisons linéaires de ratios comptables. Lescoefficients des ratios ainsi que la constante sontsuccessivement modifiés afin daboutir à lacombinaison la plus discriminante. Le secondalgorithme génère une fonction score non-linéaire.Les résultats sont presque aussi bons que ceuxfournis par lanalyse discriminante linéaire alors quela méthodologie de lalgorithme génétique nexigepas les restrictions statistiques induites par lanalysediscriminante. Barney et alii (1999) incorpore unalgorithme génétique dans un réseau de neurones.Les taux de bons classements obtenus sontsupérieurs à ceux donnés par une régression Logit,effectuée sur lemêmeéchantillon. Shin etLee (2002)obtiennent également des résultats prometteurs puisque cette technique est encore dans une phaseexploratoire. Cependant, les algorithmes génétiquesprésentent le même inconvénient que les réseaux deneurones, la difficile interprétation du rôle joué parchaque variable dans le processus de défaillance.Soulignons néanmoins que larticle de Shin et Lee(2002) prouve que les algorithmes génétiquespeuvent fournir des règles de décision claires.

140

Page 16: La prévision de la faillite fondée sur l'analyse

Conclusion

Les recherches académiques de méthodes deprévision de la faillite restent actives, pendant queleur utilisation opérationnelle sintensifie. Nouspourrions rappeler les avantages systématisationdu traitement de linformation, gain de temps et decoût et les inconvénients problème de larobustesse temporelle et sectorielle, problèmesstatistiques communs à lensemble des techniquesévoquées(33), mais notre objet est plutôt de mettre enperspective les différentes méthodes.

Lanalyse discriminante linéaire, après une phaseexploratoire lors des années soixante-dix, est laméthode la plus utilisée dupoint de vueopérationnel.Elle fournit en effet pour lemoment les prévisions lesplus robustes. De plus, la fonction score quellepermet détablir est riche dapplications utiles pourles praticiens, comme le calcul de probabilité aposterioriou la constructionde classes de risques(34).

Dautres méthodologies ont été mises au pointcomme lanalyse discriminante quadratique, lesrégressions sur variables qualitatives ou encore lestechniques non-paramétriques comme lestimateurfondé sur la méthode du noyau. Leur objectif étaitprincipalement déviter les contraintes statistiquesimposées par la discrimination linéaire. Cestechniques ne sont néanmoins pas aussi utilisés dansla pratique que la discrimination linéaire,principalement à cause de problèmes de robustesse(pour lanalyse discriminante quadratique) ou dedisponibilité des données (pour les techniquesnon-paramétriques). Cependant, la qualité desprévisions fournies par les régressions sur variablesqualitatives est proche de celle offerte par lanalysediscriminante linéaire.

Les récentes techniques empruntées à lintelligenceartificielle, tels les réseaux de neurones et lesalgorithmes génétiques, connaissent un très grandengouement académique. Elles permettent en effetde bonnes prévisions tout en présentant lavantagede ne pas exiger de restrictions statistiques. De plus,les algorithmes génétiques sont particulièrementrobustes, notamment parce quils ne sont pas soumisà des contraintes mathématiques telles que ladérivabili té ou la continuité des fonctionsutilisées(35). Leur utilisation, principalement celledes algorithmes génétiques, reste exploratoire. Leurhaut degré de technicité ne leur permettait pas defournir déléments explicatifs clairs de ladéfaillance, inconvénient qui semble pouvoir êtreréduit (Shin et Lee, 2002).

Une critique souvent formulée (Dumontier, 1991,par exemple) porte sur lutilisation exclusive dedonnées comptables : une amélioration significativede la détection de la faillite serait sans doute plusapportée par lexploitation dinformations autres

que comptables et financières que par unecomplexification croissante des techniques deprévision. Des travaux récents amendent dans cesens les méthodes présentées dans cet article. Citonspar exemple létude de Gudmundsson (1999) quiaméliore la qualité de sa prévision en ajoutant auxvariables quantitatives traditionnelles desvariables qualitatives, obtenues par enquête,relatives à la stratégie globale des entreprises. Ledéveloppement des systèmes-experts sinscrit dansla même logique. Ils sont construits par lapplicationdes arbres de décision puis des réseaux neuronaux etdes algorithmes génétiques (voir Kim et Han, 2003,par exemple) à des critères qualitatifs utilisés par lesexperts, tels que la qualité de la gestion desressources humaines ou le degré de concentrationdes clients. Les systèmes-experts permettent nonseulement une compréhension plus riche duprocessus de défaillance mais également une bonneprévision de la faillite. Rappelons néanmoins pourfinir que les modèles de prédiction du risque defaillite ne constituent quune aide à la décision parmidautres et se doivent dêtre enrichis par dautresformes dinformation.

141

Page 17: La prévision de la faillite fondée sur l'analyse

142

Notes

(1) Cf. par exemple Guilhot (2000) pour une présentationglobale des analyses relatives à la faillite.(2) En France, la procédure judiciaire actuelle sappelle uneprocédure de redressement judiciaire, quelle aboutisse à uneliquidation, une cession ou un plan de redressement. AuxÉtats-Unis, une entreprise peut déposer son bilan dans le cadredu Chapter 11 du code des procédures collectives si seul unplan de restructuration semble nécessaire ou dans le cadre duChapter 7 si une liquidation semble inévitable.(3) Un covenant est une clause dun contrat de prêt limitantlaction du dirigeant dans lintérêt du créancier. Elle peutporter sur la vente dactifs, le versement de dividendes,lémission ultérieure de dette de même rang, lesinvestissements mis en place etc.(4) Cf. tableau récapitulatif.(5) Altman et alii (1994) ont conjugué les deux dernièresapproches en réalisant une double classification : la premièredistingue les entreprises saines des entreprises fragiles, puis laseconde détecte, au sein des entreprises fragiles, celles qui sontsusceptibles de faire lobjet dune procédure judiciaire.(6) Ceci est vrai lorsquun échantillon rétrospectif i.e. tel quechaque sous-échantillon est obtenu par tirage aléatoire au seinde chaque sous-population est utilisé et que le taux desondage ne respecte pas le taux de défaillance de la populationglobale (cf. Bardos et Zhu, 1997).(7) Cette méthode est souvent plus robuste. En effet, lorsqueles hypothèses de multinormalité et dhomoscédasticité deséchantillons ne sont pas respectées, les résultats de laclassification sont moins biaisés lorsque les deuxsous-échantillons sont de tailles similaires.(8) Le recours aux données relatives aux cours boursiers estdifficile en France, où un pourcentage très faible desentreprises se finance sur les marchés.(9) Le capital engagé est égal à la somme de lendettementfinancier total, du financement propre et des dettes du groupeet des associés.(10) Le capital économique est égal à la somme desimmobilisations productives et du besoin en fonds deroulement dexploitation.(11) Le cash-flow de lentreprise peut être défini comme leflux de trésorerie global, égal à lexcédent brut global réduit dela variation des besoins en fonds de roulement (Charreaux,2000).(12) Lintégralité des ratios que nous venons de citer, quilsrendent compte de la rentabilité, de la structure ou de lacapacité de remboursement, présente lavantage davoir undénominateur systématiquement positif. Le problème dunnumérateur et dun dénominateur simultanément négatifs nese pose donc pas.(13) Le risque spécifique est la part de la variance du coursdune action qui nest pas liée aux évolutions du marché destitres dans son ensemble mais à des facteurs propres àlentreprise.(14) Le nombre de banques est fortement lié à la taille delentreprise. Les auteurs ont donc constitué deuxsous-échantillons : les entreprises de plus de 50 employés et lesentreprises de moins de 50 employés. Le nombre de banquesne permet daméliorer la prévision que pour ce dernieréchantillon.(15) Pour plus de détails, voir par exemple Efron et Tibshirani(1993).

(16) La prédiction de la défaillance des banques sest vueappliquer dautres méthodes : la technique denveloppementdes données (Barr et alii, 1994) et les modèles de durée de vie(Henebry, 1996), qui permettent de prévoir léchéance de lafaillite. Cette dernière méthode a été appliquée par Li (1999)afin destimer la durée dun redressement des entreprisesindustrielles soumises au Chapter 11 aux États-Unis et parHonjo (2000) afin de déterminer les causes de faillite desentreprises jeunes.(17) Pour plus de détails, voir par exemple Bardos (2001).(18) Afin de tenir compte de la covariance entre les variables,la distance de Mahalanobis est souvent utilisée. Soit Ω lamatrice de variance-covariance des K variables explicativesconsidérées. La distance de Mahalanobis entre lentreprise Aet le groupe j est alors ( )' ( )ker kerx x x xA

jA

j− −Ω où x jker est levecteur des coordonnées du centre de gravité du groupe j.(19) Une liste exhaustive des articles est difficile à établir etsurtout trop longue pour être présentée ici. Nous ne citons queles études qui nous semblent les plus importantes en termesdamélioration de la prédiction de la faillite : Lev (1969) ;Eisenbeis et Avery (1972) ; Trieschmann et Pinches (1973) ;Altman et Loris (1976) ; Altman et alii (1977) ; Taffler(1982) ; Izan (1984) ; Rose et Giroux (1984) ; Gentry et alii(1985) ; Platt et Platt (1990 et 1991) ; Reuilly (1990) ; Bardos(1998a).(20) Pour un recensement international non exhaustif desmodèles de classification des entreprises selon leur risque defaillite, voir Altman et alii (1997).(21) Le problème principal de la prise en compte des coûts deserreurs de classification consiste en leur quantification.Altman et alii (1977) première étude qui les intègre estimeque le rapport de CD

ND à CDND est égal à 35, Malécot (1986)

lestime égal à 30. Taffler (1982) utilise un rapport entre lecoût des erreurs de type I et le coût des erreurs de type II delordre de 200.(22) Rappelons que la probabilité de défaut a priori delentreprise A est la probabilité estimée sans quaucuneinformation ne soit connue ; elle est égale au taux dedéfaillance observé sur la population totale des entreprises.(23) Voir Bardos (2001).(24) Cf. les études relatives aux caractéristiques desentreprises défaillantes, comme par exemple Blazy et alii(1993) ou Augory et alii (1996).(25) Cf. par exemple la critique de Malécot (1986).(26) Voir par exemple Greene (2000) pour plus de détails.(27) Le chiffre de 89% est obtenu en considérant un rapportentre le coût des erreurs de type I et celui des erreurs de type IIégal à 20. Le taux de bon classement est plus faible (80%)lorsque ce rapport est égal à 50.(28) Pour plus de détails, voir par exemple Yatchew (1998).(29) Pour une description détaillée des principaux types deréseaux neuronaux et de fonctions de transfert utilisés, voir parexempleCottrell et alii (1996) ouBlayo etVerleysen (1996).(30) À titre dillustration, Altman et alii (1994) utilisent deuxréseaux de neurones pour reconstituer à partir de ratioscomptables les valeurs du score élaboré par analysediscriminante linéaire et pour discriminer les entreprisesdéfaillantes des entreprises non défaillantes. Le premierréseau est constitué de trois couches : une de dix neurones, unede quatre et la dernière, destinée à produire loutput final,constituée dun neurone unique. 1000 cycles ditérations ontété nécessaires au processus dapprentissage. Le secondréseau est également constitué de trois couches, contenantrespectivement 15, 6 et 1 neurones ; 2000 cycles de traitementont été nécessaires.

Page 18: La prévision de la faillite fondée sur l'analyse

143

(31) Voir par exemple Goldberg (1994).(32) Pour une illustration simple, voir lapplication au choixdun portefeuille dactions proposée par Alexandre (2001).(33) Voir notamment Malécot (1986), Dumontier (1991) ouGrice et Dugan (2001).(34) Voir Bardos (2001).(35) Voir Alexandre (2001).

Bibliographie

Aharony J., Jones C. et Swary I. (1980). An analysis of riskcharacteristics of corporate bankruptcy firms using capital marketdata, Journal of Finance, vol. 35, pp. 1001-1016.Alexandre H. (2001). Lindividu face au marché. Investisseurs,spéculateurs et crises boursières, Éditions EMS, collectionLactualité de la Gestion.Altman E.I. (1968). Financial Ratios, Discriminant Analysisand the Predictions of Corporate Bankruptcy, Journal ofFinance, vol. 23, n° 4, pp. 589-609.Altman E.I. (1977). Predicting Performances in the Saving andLoans Association Industry, Journal of Monetary Economics,vol. 3, pp. 433-466.Altman E.I. (2002). Corporate distress prediction models in aturbulent economic and Basel II environment, Document detravail.Altman E.I., Haldeman R.G. et Narayan P. (1977). Zetaanalysis: A New Model to Identify Bankruptcy Risk ofCorporations, Journal of Banking and Finance, vol. 1, Juin,pp. 29-54.Altman E.I. et Brenner M. (1981). Information effects andstocks market response to signs of firm deterioration, Journal ofFinancial and Quantitative Analysis, vol. 16, pp. 35-51.Altman E.I. et Loris B. (1976). A financial early warningsystem for the over-the-counter broker-dealers, Journal ofFinance, vol. 31, pp. 1201-1217.Altman E.I., MarcoG. et Varetto F. (1994). Corporate distressdiagnosis: Comparisons using linear discriminant analysis andneural networks (the Italian experience), Journal of Bankingand Finance, vol. 18, pp. 505-529.Altman E.I. et Narayan P. (1997). An international survey ofbusiness failure classification models, Financial Markets,Institutions and Instruments, vol. 6, n° 2, pp. 1-54.Augory C., Avouyi-Dovi S., Busque P. et Quéron A. (1996).Les défaillances dentreprises au début des années 90" Lettreéconomique de la CDC, Octobre.Aziz A., Emmanuel D. et Lawson G. (1988). Bankruptcyprediction an investigation of cash flow based models, Journalof Management Studies, vol. 25, pp. 55-63.Bardos M. (1989). Trois méthodes danalyse discriminante,Cahiers Économiques et Monétaires, Banque de France, 2èmetrimestre, n°33.BardosM. (1998a). Detecting the risk of company failure at theBanque de France, Journal of Banking and Finance, vol. 22,pp. 1405-1419.BardosM. (1998b). Le Score BDFI Du diagnostic individuel àlanalyse de portefeuille, Les Études de lObservatoire desEntreprises, Banque de France, janvier, 76 pages.BardosM. (2001), Analyse discriminante : Application au ratinget scoring financier, Dunod.Bardos M. et Zhu W.H. (1997). Comparaison de lanalysediscriminante linéaire et des réseaux de neurones Application àla détection de défaillance dentreprises, Revue StatistiqueAppliquée, vol. XLV, n° 4, pp. 65-92.Barney D.K., Graves O.F. et Johnson J.D. (1999). The farmerhome administration and farm failure prediction, Journal ofAccounting and Public Policy, vol. 18, pp. 99-139.Barr R.S., Seiford L.M. et Siems T.F. (1994). ForecastingBank Failure: A non-Parametric Frontier Estimation Approach,RecherchesÉconomiques deLouvain, vol. 60, n° 4, pp. 417-429.

Page 19: La prévision de la faillite fondée sur l'analyse

144

Beaver W. (1966). Financial Ratios as Predictors of Failure,Empirical Research in Accounting: Selected Studies, Journal ofAccounting Research, supplément au vol. 4, pp. 71-111.Bell T., Ribar G. et Verchio J. (1990). Neural networks versuslogistic regression in predicting bank failures, in P. SrivastavaEd., Auditing Symposium X, University of Kansas.Blayo F. et Verleysen M. (1996). Les réseaux de NeuronesArtificiels, Que sais-je ?Blazy R., Charletty P. et Combier J. (1993). Les défaillancesdentreprises : des difficultés visibles plusieurs années àlavance, INSEE Economie et Statistiques, n° 268-269,pp. 101-109.BurgstahlerD., Jiambalvo J. et Noreen E. (1989). Changes inthe Probability of Bankruptcy and Equity Value, Journal ofAccounting and Economics, vol. 11, pp. 207-224.Calia P. et Ganugi P. (1997). Kernel and nearest neighbourdiscriminant analysis: Business failure classification in industrialdistrict, Applied Stochastic Models and Data Analysis,Colloque Capri 1997.Charreaux G. (2000). Gestion Financière, Litec, CollectionExpertise Comptable.Chung H. et Tam K.Y. (1993). A comparative analysis ofinductive learning algorithms, Intelligence Systems inAccounting, Finance and Management.Clark T. et Weinstein M. (1983). The behaviour of commonstock of bankrupt firms, Journal of Finance, 38, pp. 489-504.Coats P. et Fant L. (1993). Recognizing financial distresspatterns using a neural network tool, Financial Management,novembre, pp. 142-155.Collins R. (1980). An empirical comparison of bankruptcyprediction models, Financial Management, Eté, pp. 51-57.Cottrell M., de Bodt E. et Levasseur M. (1996). Réseaux deneurones en finance : Principes et revue de la littérature,Finance,vol. 16, pp.25-92.Deakin E.B. (1972). A Discriminant Analysis of Predictors ofBusiness Failure, Journal of Accounting Research, vol. 10, n°1,printemps, pp. 167-179.Dumontier P. (1991). Vices et vertus des modèles de prévisionde défaillance, La Revue Banque, n°514, mars, pp. 275-282.Efron B. et Tibshirani R.J. (1993). An Introduction to thebootstrap, Chapman & Hall Ed.Eisenbeis R. et Avery R.B. (1972). Discriminant Analysis andClassificationProcedures: Theory andApplications,Lexington.Flagg J.C.,GirouxG.A. etWiggins C.E. Jr.(1991). PredictingCorporate Bankruptcy using failing firms, Review of FinancialStudies, vol. 1, n°1, pp. 67-78.Foglia A., Laviola S., Marullo Reedtz P. (1998). Multiplebanking relationships and the fragility of corporate borrowers,Journal of Banking and Finance , vol. 22, n° 10-11,pp. 1441-1456.Frydman H., Altman E. et Kao D.-L. (1985). Introducingrecursive partitioning for financial classification: the case offinancial distress, Journal of Finance, vol. 40, n°1, pp. 269-291.Gebhardt G. (1980). Insolvency Prediction Based on AnnualFinancial Statements According to the Company Law AnAssessment of the Reform of Annual Statements by the Law of1956 from the View of External Addresses, in H. Bester et alii,eds . Bochumer Bei trage Zur Untennehmungs undUnternehmens-forschung, vol. 22.Gentry J.A., Newblod P. Et Whiteford D.T. (1985).Classifying Bankrupt Firms With Funds Flow Components,Journal of Accounting Research, vol. 23, n°1, pp. 146-160.Goldbger D.E. (1994). Algorithmes génétiques. Exploration,optimisation et apprentissage, Ed. Addison-Wesley.

GreeneW.H. (2000). Econometrics Analysis, Prentice Hall, 4èmeédition.Grice J.S. etDuganM.T. (2001). The limitations of bankruptcymodels: some cautions for the researcher,Review ofQuantitativeFinance and Accounting, 17, pp. 151-166.Gudmundsson S. V. (1999). Airline failure and distressprediction: a comparison of quantitative end qualitative models,Transportation Research Part E, 35, pp. 155-182.GuilhotB. (2000). Défaillances dentreprises Soixante-dix ansdanalyses théoriques et empiriques, Revue Française deGestion, n° 130, septembre-octobre, pp. 52-67.Henebry K.-L. (1996). Do Cash Flow Variables Improve thePredictive Accuracy of a Cox Proportional Hazards Model forBank Failure?, Quarterly Review of Economics and Finance,vol. 36, n° 3, pp. 395-409.Honjo Y. (2000). Business failure of new firms: An empiricalanalysis using a multiplicative hazards model, InternationalJournal of Industrial Organization, vol. 18, pp. 557-574.Houghton K.A. (1984). Accounting Data and the Prediction ofBusiness Failure: The Setting of Priors and the Age of Data,Journal of Accounting Research, vol. 22, n° 1, printemps,pp. 361-368.Izan H. (1984). Corporate distress in Australia, Journal ofBanking and Finance, vol. 8, pp. 303-320.KimM.-J. et Han I. (2003). The discovery of experts decisionrules from qualitative bankruptcy data using genetic algorithms,Expert Systems with Applications, 25, pp. 637-646.Kira D.S., Doreen D. et Nguyen D. (1997). An application ofartificial neutral networks and statistical methods in qualitativeevaluation of small business loans, Applied Stochastic Modelsand Data Analysis, Colloque Capri 1997.Lachenbruch P.A., Sneeringer C.A. et Revo L.T.(1973).Robustness of the linear and quadratic discriminant function tocertain type of non-normality, Commun.Statistique., vol. 1,pp. 39-56.Lachenbruch P.A. (1975).Discriminant Analysis, Hafner Press,New York.Lennox C. (1999). Identifying Failing Companies: ARevaluation of the Logit, Probit and DA approaches, Journal ofEconomics and Business, vol. 51, pp. 347-364.Lev B. (1969). Industry averages as targets for financial ratios,Journal of Accounting Research, vol. 7, pp. 31-51.Li K. (1999). Bayesian analysis of duration models: Anapplication to Chapter 11 bankruptcy, Economics Letters, vol.63, n° 3, pp. 305-312.Malécot J.-F. (1986). Sait-on vraiment prévoir les défaillancesdentreprises ?,Économies et Sociétés, vol. 20, n° 12, décembre,pp. 55-82.Marks S. et Dunn O.J. (1974). Discriminant functions whencovariance matrices are unequal, Journal of American StatisticAssociation, vol. 69, pp. 555-559.Mensah Y.M. (1984). An Examination of the Stationarity ofMultivariate Bankruptcy Prediction Models: A methodologicalStudy , Journal of Accounting Research, vol. 22, n°1, printemps,pp. 380-395.Michalopoulos M., Zopounidis C. et Kouris I. (1993). Anintegrated DSS for the assessment of the risk of failure, AppliedStochastic Models and Data Analysis, J. Janssen et C.H. SjiadasEd.Mossman C.E., Bell G.G. Swartz L.M. etTurtle H. (1998).An empirical comparison of bankruptcy models, FinancialReview, vol. 33, pp. 35-54.

Page 20: La prévision de la faillite fondée sur l'analyse

145

Murphy B.J. et Moran M.A. (1986). Parametric and kerneldensity estimation in discriminant analysis: another comparison,Comput. Math. Applic., 12A.Ohlson J. (1980). Financial Ratios and Ratios and theProbabilistic Prediction of Bankruptcy, Journal of AccountingResearch, vol. 18, Printemps, pp. 109-131.Platt H.D. et Platt M.B. (1990). Improving ex ante bankruptcyclassification using stable predictive variables, Journal ofBusiness Finance and Accounting, vol. 17, pp. 31-51.Platt H. D. et Platt M.B. (1991). A note on the use ofindustry-relative ratios in bankruptcy prediction, Journal ofBanking and Finance, vol. 15, pp. 1183-1194.Reilly F.K. (1990). Using Cash Flows and Financial Ratios toPredict Bankruptcies, in Analysing Investment Opportunities inDistressed and Bankrupted Companies, T.A. Bowman Ed.,Charlottville, VA.Rose P. S. et Giroux G.A. (1984). Predicting CorporateBankruptcy: An Analytical and Empirical Evaluation, Review ofBusiness and Economic Research, vol. XIX, n° 2, pp. 1-12.Saporta G. (1977). Une méthode et un programme danalysediscriminante pas à pas sur variables qualitatives, INRIA,septembre.Shin K.-S. Et Lee Y.J. (2002). A genetic algorithm applicationin bankruptcy prediction modelling, System Experts withApplications, 23, pp. 637-646.Taffler R.J. (1982). Forecasting Company Failure in the UKusing Discriminant Analysis and Financial Ratio Data, Journalof Royal Statistical Society, SeriesA, vol. 145, Part 3, pp. 342-358.Tamari M. (1964). Financial Ratios as a Means of ForecastingBankruptcy, Economic Review, Bank of Israel, Jérusalem.Trieschmann J.S. et Pinches G.E. (1973). A multivariatemodel for predicting financially distressed P-L insurers, Journalof Risk and Insurance, vol. 40, pp. 327-338.Varetto F. (1998). Genetic Algorithms Applications in theAnalysis of Insolvency Risk, Journal of Banking and Finance,vol. 22, n° 10-11, octobre, pp. 1421-39.Weiss, L.-A. (1996). The Impact of Incorporating the Cost ofErrors Into Bankruptcy Prediction Models, INSEAD WorkingPaper, 96/27/AC, mai.Yatchew A. (1998). Nonparametric Regression Techniques inEconomics, Journal of Economic Literature, vol. XXXVI, juin,pp. 669-721Zmijewski M.E. (1984). Methodological issues related to theestimation of financial distress prediction models, Journal ofAccounting Research, Supplément au vol. 22, pp. 59-86.

Tableau récapitulatif des principales études citées

Le tableau ci-après propose un récapitulatif des principalesétudes citées. Compte tenu de lampleur des travauxréalisés, à une liste exhaustive nous avons préféré unesélection des articles fondateurs des différentes méthodes,ainsi que les études les plus récentes. Pour chacune dentreelles les caractéristiques de léchantillon global sontdécrites : la nature des entreprises (nationalité et secteur), ladate des observations, la définition de la défaillance retenueet la structure de léchantillon (cest-à-dire la taillerespective de la population des entreprises défaillantes etdes entreprises non défaillantes). Ensuite sont présentés lenombre de ratios sélectionnés, la technique de classificationretenue et les taux de bons classements. Ceux-ci sont donnéspour les entreprises défaillantes et pour les entreprises nondéfaillantes à un an de la défaillance et, entre parenthèses, àtrois ans de la défaillance. La méthode de validation desrésultats est citée afin de pouvoir comparer les études.Soulignons quune confrontation véritable des différentesméthodes de classification ne peut se faire que si elles ontété appliquées aux mêmes données. Nous avons doncprivilégié dans notre sélection les études proposant une tellepossibilité.

Page 21: La prévision de la faillite fondée sur l'analyse

Référence

Nature

desentreprises

Date

desobservations

Définition

dela

défaillanceStructure

del’échantillon

(Dversus

ND

)N

atureetnom

brede

variablesutilisées

Méthodologieutilisée

Méthode

devalidation

Taux

deB

onsC

lassements

(*)B

eaver,1966E

ntreprisesindustrielles

américaines

1954-1964Incidents

depaiem

entoudépôtde

bilan79

Det79

ND

coupléespar

taille14

ratioscom

ptablesC

lassificationunidim

ensionnelleE

chantillontestdifférent

Global87%

(77%)

Altm

an,1968E

ntreprisesindustrielles

américaines

1945-1965D

épôtdebilan

33D

et33N

Dcouplées

partaille

etparsecteur

5ratios

comptables

AD

chantilloninitial

D94%

(n.d.)N

D97%

(n.d.)

Échantillon

testdifférentD

96%(n.d.)

ND

79%(n.d.)

Deakin,1972

Entreprises

industriellesam

éricaines1962-1966

Dépôtde

bilan32

Det32

ND

14ratios

comptables

Classification

unidimensionnelle

Échantillon

testdistinctG

lobal80%(78%

)

AD

LG

lobal87%(82%

)

Ohlson,1980

Entreprises

industriellesam

éricaines1970-1976

Dépôtde

bilan105

Det2058

ND

9ratios

comptables

Logit

Échantillon

initialD

79,8%(n.d.)

ND

91,4%(n.d.)

Taffler,1982E

ntreprisesindustrielles

britanniquescotées

1963-1973D

épôtdebilan

23D

et45N

D5

ratioscom

ptablesA

DL

Jack-knife(échantillon

testde33

Det10

ND

)D

87,9%(48%

)N

D100%

(n.d.)

Élim

inationdes

ND

vulnérables

Rose

etG

iroux,1984E

ntreprisesindustrielles

américaines

1963-1978D

épôtdebilan

46D

et46N

D18

ratioscom

ptablesA

DL

Échantillon

testdifférentD

84,6%(87,5%

)N

D97,1%

(96,2%)

coupléespar

secteuret

partaille

AD

QD

88,5%(93,8%

)N

D80,0%

(57,7%)

Frydm

an,Altm

anet

Kao,1985

Entreprises

industriellesam

éricaines1971-1980

Dépôtde

bilan58

Det142

ND

sélectionnéesaléatoirem

ent6

ratioscom

ptablesPartionnem

entrécursifB

ootstrapG

lobal85%

(n.d.)

10ratios

comptables

AD

LG

lobal96,3%(n.d.)

Flagg

etalii,1991E

ntreprisesindustrielles

etdeservices

américaines

1970-1981Incidents

depaiem

entousignaldéfavorable

202entreprises

ayantconnudes

difficultésfinancières

dont26ont

déposéleur

bilan

6ratios

comptables

Régression

LogitÉ

chantilloninitial

D73%

(n.d.)N

D97%

(n.d.)

PlattetP

latt,1991E

ntreprisesindustrielles

américaines

1972-1986D

épôtdebilan

182D

et182N

Dcouplées

partaille

etpar

secteur7

ratioscom

ptablesrelatifs

Régression

LogitÉ

chantilloninitial

D85%

(n.d.)N

D88%

(n.d.)D

82%(n.d.)

ND

78%(n.d.)

7ratios

comptables

absolusPM

Eindustrielles

italiennes404

entreprisesen

redressement

Ratios

comptables

Altm

anetalii,1994

(représentativesde

l’économie)

1985-1992D

ifficultésde

paiementou

procédurejudiciaire

404entreprises

endifficultés

Nom

bren.d.

AD

chantilloninitial

D92,8%

(90,3%)

ND

96,5%(86,4%

)404

entreprisessaines

RN

D91,8%

(89,4%)

ND

95,3%(86,2%

)

Bardos

etZhu,1997E

ntreprisesindustrielles

françaises1986-1992

Ouverture

d’uneprocédure

judiciaire809

DR

atioscom

ptablesN

ombre

n.d.A

DL

Validation

croiséeD

68,3%(n.d.)

ND

75,3%(n.d.)

1381N

DR

ND

61,3%(n.d.)

ND

82,8%(n.d.)

41D

AD

LG

lobal60,9%(n.d.)

Calia

etG

anuci,1997E

ntreprisesdu

secteurtextile

italiennes1993-1996

Dépôtde

bilan917

ND

20ratios

comptables

AD

chantillontestdifférent

Global61,8%

(n.d.)

Méthode

dunoyau

Global68%

(n.d.)Plus

prochevoisin

Global74,2%

(n.d.)

Kira

etalii,1997PM

Ecanadiennes

n.d.O

ctroideprêtou

non36

entreprisesà

quiprêtrefuséR

atioscom

ptableset

informations

qualitativesA

DL

Global93,3%

(n.d.)

99entreprises

àquiprêtaccepté

Nom

bren.d.

LogitÉ

chantillontestdifférent

Global95,5%

(n.d.)

(Sélectionaléatoire)

RN

Global90%

(n.d.)

Page 22: La prévision de la faillite fondée sur l'analyse

Référence

Nature

desentreprises

Date

desobservations

Définition

dela

défaillance

Structurede

l’échantillon(D

versusN

D)

Nature

etnombre

devariables

utiliséesM

éthodologieutilisée

Méthode

devalidation

Taux

deB

onsC

lassements

(*)

Bardos,1998a

Entreprises

industriellesfrançaises

1991-1995D

épôtdebilan

Environ

900D

et38000N

D(échantillon

nonconstant)

7ratios

comptables

Analyse

discriminante

Échantillon

testdifférentD

78,1%(n.d.)

ND

77,3%(n.d.)

5R

atioscom

ptablesD

80,0%(48,7%

)N

D71,1%

(44,7%)

Mossm

anetalii,1998

Entreprises

américaines

1977-1991D

épôtdebilan

95D

et95N

Dcouplées

partaille

etparsecteur

5C

ash-flows

Régression

Logistique

Jack-Knife

D71,1%

(50%)

ND

68,9%(63,2%

)R

endementdes

actionsD

66,7%(60,5%

)N

D57,8%

(57,9%)

Variance

durendem

entdesactions

D62,2%

(65,8%)

ND

42,2%(50%

)

Varetto,1998

Entreprises

industriellesitaliennes

1982-1995D

épôtdebilan

ouentreprise

déclaréeinsolvable

parune

banque

1920D

et1920N

DR

atioscom

ptablesA

DL

Échantillon

testdifférentD

95,3%(n.d.)

ND

93,5%(n.d.)

Nom

bren.d.

AG

D96,5%

(n.d.)N

D89,1%

(n.d.)

Barney

etalii,1999E

xploitationsagricoles

américaines

1990-1992D

éfautdepaiem

ent54

Det184

ND

14ratios

comptables

Logit

Échantillon

testdifférentD

95%(n.d.)

ND

85%(n.d.)

5ratios

comptables

RN

etAG

D90%

(n.d.)N

D95%

(n.d.)

Lennox,1999E

ntreprisesbritanniques

1987-1994D

épôtdebilan

160D

et789N

DV

ariablesde

tailleetde

secteurProbit

Échantillon

testdifférentD

72,7%(n.d.)

ND

91,5%(n.d.)

Logit

D69,7%

(n.d.)N

D93,3%

(n.d.)A

DL

D78,8%

(n.d.)N

D85,4%

(n.d.)

ShinetLee,2002

Entreprises

industriellescoréennes

1995-1997D

épôtdebilan

264D

et264N

D9

ratioscom

ptablesA

chantillontestdifférent

Global80,8%

(n.d.)

(*)Prévision

àun

ande

ladéfaillance

(à3

ansde

ladéfaillance)

AD

L:analyse

discriminante

linéaireR

N:réseaux

deneurones

AG

:algorithme

génétiqueD

:entreprisesdéfaillantes

ND

:entreprisesnon

défaillantesn.d.:non

disponible