Upload
others
View
2
Download
0
Embed Size (px)
Citation preview
MODÈLES PRÉDICTIFS IDENTIFICATION DE CIBLES POTENTIELLES
D’ACQUISITION
CHRISTIAN ROY
RÉSUMÉ
L’identification de cibles potentielles d’acquisition permet d’obtenir un rendement anormal élevé à cause de la prime versée lors de la transaction. Au fil des ans, plusieurs modèles prédictifs ont été développés afin de déceler les entreprises qui sont les plus susceptibles de faire l’objet d’une offre publique d’achat. Cette étude se distingue des recherches antérieures en combinant des approches théoriques traditionnelles (analyse discriminante et arbre de décision) avec des approches innovatrices (Gene Expression Programming et TreeBoost). De plus, le choix de développer des modèles s’articulant autour d’une seule industrie, soit l’informatique, permet un raffinement que ne permettent pas des modèles plus généraux. Les résultats obtenus démontrent qu’une approche dite consensuelle qui tient compte de l’ensemble des modèles parvient à surpasser les résultats obtenus individuellement par ces mêmes modèles.
2
TABLE DES MATIERES
1. Introduction ............................................................................................................................ 3
2. Revue de la littérature ............................................................................................................ 4
2.1 Les déterminants d’une acquisition .................................................................................. 4
2.2 Le choix d’une seule industrie .......................................................................................... 5
3. Description des données ......................................................................................................... 7
3.1 Les variables ..................................................................................................................... 7
3.2 L’échantillon ................................................................................................................... 10
4. Description des modèles ....................................................................................................... 11
4.1 Analyse discriminante ..................................................................................................... 12
4.2 Arbre de décision ............................................................................................................ 14
4.3 Gene Expression Programming (GEP) ........................................................................... 17
4.6 TreeBoost ........................................................................................................................ 19
5. Analyse comparative des modèles ....................................................................................... 20
5.1 Analyse comparative des performances .......................................................................... 20
5.2 Analyse comparative de l’importance des variables ....................................................... 22
6. Scoring ................................................................................................................................. 23
6.1 Échantillon 1996-2002 .................................................................................................... 23
6.2 Échantillon 2004-2006 .................................................................................................... 24
7. Évaluation du rendement d’un portefeuille constitué des cibles prédites ............................ 25
8. Conclusion ............................................................................................................................ 26
9. Bibliographie ........................................................................................................................ 27
3
1. INTRODUCTION
Au cours des dernières années, les marchés financiers ont été associés à une véritable frénésie
entourant les fusions et les acquisitions. Les primes versées lors de ces opérations ont
contribué à propulser les indices boursiers vers de nouveaux sommets historiques. Bien que la
moyenne de ces primes était de 30% en 2006 sur le marché canadien, certaines primes ont
atteint jusqu’à 70%.
Ainsi, un investisseur qui serait en mesure d’identifier avec un haut taux d’efficacité les
entreprises qui sont le plus susceptibles d’être la cible d’une acquisition pourrait réaliser un
rendement anormalement élevé. Un modèle prédictif ayant pour objet les cibles d’acquisitions
pourrait donc servir de base méthodologique à une lucrative stratégie d’investissement. Une
seconde fonction de ce type de modèle pourrait être de fournir un outil supplémentaire aux
firmes de capital d’investissement (private equity) qui se spécialisent dans le rachat
d’entreprises et qui cherchent à identifier des cibles potentielles.
L’objectif de ce travail sera donc de développer différents modèles de prévision des cibles
d’acquisition. Ces modèles reposeront sur les quatre approches théoriques vues en classe :
l’analyse discriminante, les arbres de décision, ainsi que les méthodes TreeBoost et GEP.
4
2. REVUE DE LA LITTERATURE
2.1 LES DETERMINANTS D’UNE ACQUISITION
La revue de la littérature a permis de dégager quatre causes principales qui amènent une
entreprise à faire l’objet d’une prise de contrôle par une autre firme. Ces déterminants sont
importants puisqu’ils justifient par la suite le recours à certaines variables pour développer un
modèle prédictif.
Une première cause associe les acquisitions à un mécanisme par lequel une équipe de
gestionnaires inefficaces est remplacée. Certains auteurs ont même avancé que la menace
d’une acquisition qui pèse sur la tête des gestionnaires d’une entreprise publique les
encourage à gérer de façon optimale la firme. Un exemple canadien d’une acquisition de ce
genre pourrait être l’achat de Bell par Teachers, même si cela reste ouvert à la discussion. Ce
genre d’acquisition est souvent opéré par de grandes firmes d’investissements tels que les
fonds de pension (CDPQ, Teachers, Omers, etc.) ou les fonds de capitaux privés (Blackstone,
Cerberus, KKR, etc.)
Une seconde cause identifiée par les différents auteurs est l’exploitation de synergies entre
deux entreprises oeuvrant dans un même domaine (ex. Domtar et Weyerhaeuser) ou dans des
domaines complémentaires (ex. Alcan et Rio Tinto). Les synergies peuvent être de plusieurs
natures. Par exemple, il peut s’agir de synergies visant à augmenter les revenus (élimination
d’un concurrent, partage de compétences telles que le réseau de distribution ou la force de
vente) et/ou à diminuer les coûts (économies d’échelle liées à un meilleur pouvoir de
négociation auprès des fournisseurs, élimination de postes en double). Il peut également s’agir
de synergies visant à équilibrer la structure du capital (ex. entreprise non endettée qui acquiert
une entreprise surendettée ou vice-versa) ou à faire son entrée en bourse (ex. entreprise privée
qui fait l’acquisition d’une firme publique). Il est à noter que les acquisitions dont le but
premier est d’exploiter des synergies sont la plupart du temps amicales alors que les
acquisitions qui ont pour objet le remplacement d’une équipe de gestionnaires jugés
inefficaces sont dans la plupart des cas hostiles.
La troisième cause est liée aux problèmes d’agence puisque les gestionnaires procèdent à des
acquisitions pour accroître leur prestige personnel et maximiser leur propre intérêt au
détriment de ceux des actionnaires. Ce genre d’acquisition était très en vogue dans les années
80, période au cours de laquelle sont apparus de grands conglomérats. Il s’agissait d’une
période faste et effervescente dans le monde des fusions et acquisitions. Ironiquement,
plusieurs de ces conglomérats ont été démembrés au cours du mouvement de downsizing qui
5
s’est opéré dans le milieu des années 90. L’avenir nous dira probablement si la frénésie
entourant les acquisitions qui caractérise les marchés financiers depuis quelques années était
elle aussi causée en partie par ce désir typiquement humain des dirigeants de bâtir des
empires.
La dernière cause est la sous-évaluation d’une firme par le marché. Un gain substantiel peut
être réalisé dès le moment où le marché ajuste son évaluation de l’entreprise et attribue un
prix qui reflète davantage la valeur réelle de la firme. Un exemple de ce type d’acquisition est
donné par la firme Berkshire Hathaway et son célèbre dirigeant, Warren Buffet. Ce dernier a
la réputation d’acheter des entreprises qui sont sous-évalué par le marché alors que leur valeur
intrinsèque est plus élevée.
2.2 LE CHOIX D’UNE SEULE INDUSTRIE
L’ensemble des auteurs qui ont développé un modèle d’acquisition ont choisi d’exclure une
ou plusieurs industries de leur étude afin de ne pas biaiser les résultats ou afin d’obtenir un
taux de prédiction plus élevé. C’est le cas notamment de Palepu (1986) qui articule son
modèle autour des entreprises manufacturières et minières, sans toutefois préciser les motifs
derrière ce choix.
Ambrose et Megginson (1992), qui reprennent le modèle de Palepu en y intégrant des
variables reliées aux moyens de défense contre les acquisitions et à la composition de
l’actionnariat, ratissent plus large, mais excluent tout de même les entreprises financières et
les firmes de services publiques (électricité, eau, transport ferroviaire, etc.). Ils affirment que
ces deux industries sont soumises à des régulations sévères qui affectent la probabilité pour
une firme œuvrant dans ce secteur d’être acquise, ce qui compromet la capacité de prédire une
acquisition dans un modèle.
Barnes (1999) développe pour sa part un modèle qui cherche à tenir compte de cette
spécificité de chaque industrie. Concrètement, il divise l’ensemble des ratios retenus par la
moyenne de l’industrie dans laquelle œuvre la firme observée, ce qui lui permet de mesurer
l’écart entre la norme de l’industrie et une entreprise. Selon lui, cet écart pourrait être
révélateur d’une probabilité d’acquisition. Barnes affirme également que le choix d’un
modèle qui prend en considération l’industrie dans laquelle opère une firme se justifie par le
fait que les motivations derrière une acquisition ne sont pas consistantes d’une industrie à
l’autre.
6
En conséquence, les modèles développés dans le cadre de ce travail s’articulent autour d’une
seule industrie. De cette façon, il est possible de capter les caractéristiques d’une cible qui
sont propres à une industrie en particulier. Par exemple, les causes d’une acquisition dans une
industrie à maturité (ex. synergies d’exploitation) ne sont pas les mêmes que dans une
industrie naissante (ex. possibilités de croissance).
L’industrie retenue dans le cadre de ce travail est celle de la fabrication d’ordinateurs
(computer & peripheral equipment manufacturing). Une des raisons qui a motivé ce choix est
le fait que ce secteur est entré depuis une dizaine d’années dans une phase de consolidation et
que les acquisitions ont donc été nombreuses au cours de cette période.
7
3. DESCRIPTION DES DONNÉES
3.1 LES VARIABLES
Il existe deux types de variables dans les modèles développés au cours des dernières années
pour prévoir les acquisitions : les variables qualitatives et quantitatives. Les variables
qualitatives sont la plupart du temps binaires (dummy) et servent à intégrer dans le modèle la
présence d’une caractéristique de la firme jugée importante. Ces variables qualitatives sont
surtout utilisées pour étudier la présence de mesures de défenses sur les probabilités
d’acquisition. Ces mesures peuvent prendre différentes formes : parachutes dorés, actions à
vote multiple, pilules empoisonnées.
Il y a également les variables quantitatives qui sont des ratios financiers qui sont en lien avec
les théories présentées précédemment dans le but d’expliquer les causes des acquisitions. Le
tableau ci-dessous identifie les ratios retenus ainsi que les items correspondants dans la base
de données Compustat. Il est à noter que l’article cité comme support académique est en fait
le premier article à identifier une variable. Par la suite, la plupart des modèles reprennent les
variables des modèles précédents.
Tableau : Liste des variables financières
Variables Support académique Items de Compustat Signe attendu
Retour sur fonds
propres (ROE)
Palepu (1986) 13/60 -
Rendement boursier
(RB)
Palepu (1986) 24 -
Endettement (LEV) Ambrose et
Megginson (1992)
9/6 -
Taille (SIZE) Palepu (1986) 6 -
8
Actifs tangibles
(TA)
Ambrose et
Megginson (1992)
7/6 +
Flux monétaires
libres (FCF)
Powell (1997) (308+311)/6 +
Croissance (GRO) Powell (1997) 12 -
Valeur marchande /
Valeur comptable
(MTB)
Palepu (1986) 24X25/60 -
Cours/bénéfice (PE) Palepu (1986) 24/58 -
Recherche &
développement
(RD)
Yrkkö, Hyytinen et
Pajarinen (2004)
46/6 +
Retour sur fonds propres (ROE)
Il s’agit de la moyenne géométrique sur 3 ans des bénéfices avant taxes et amortissement
(EBITDA) divisés par les fonds propres. Dans l’hypothèse d’une mauvaise gestion, le
rendement comptable devrait être faible, voire nul ou négatif, ce qui devrait augmenter la
probabilité d’acquisition.
Rendement boursier (RB)
Il s’agit de la moyenne géométrique sur 3 ans du rendement sur le marché du prix de l’action.
Comme pour le rendement comptable (ROE), une stagnation du prix de l’action est associée à
une équipe de gestionnaire inefficace, ce qui hausse la probabilité d’une acquisition.
9
Endettement (LEV)
Il s’agit de la dette à long terme divisé par les actifs totaux. L’endettement, calculé en
pourcentage, peut être un élément rébarbatif pour un acquéreur. Certains auteurs ont même
émis l’hypothèse que l’endettement pouvait constituer une mesure de défense contre les
acquisitions en période de crise.
Taille (SIZE)
Il s’agit tout simplement du logarithme naturel des actifs. Normalement, il est plus facile
d’acquérir une cible qui est plus petite.
Actifs tangibles (TA)
Il s’agit de la part d’actifs tangibles exprimée en pourcentage au sein de tous les actifs. Pour
les acquisitions qui visent les synergies d’exploitation, le fait que ce ratio soit élevé devrait
constituer un signe favorable pour une éventuelle acquisition. Ce ratio peut également être vu
comme un proxy de la capacité d’endettement de la cible puisque les actifs tangibles peuvent
servir de garanties pour l’acquéreur qui peut emprunter plus facilement les montants
nécessaires à l’achat.
Flux monétaires libres (FCF)
Il s’agit des flux monétaires libres divisé par les actifs totaux. Deux hypothèses parallèles se
complètent pour ce ratio. D’abord, il est généralement admis que les flux monétaires libres
peuvent servir directement à financer l’achat par l’acquéreur. En même temps, l’absence de
flux monétaires libres peut signifier un manque de moyens financiers pour une entreprise qui
vit une croissance trop rapide.
Croissance (GRO)
Il s’agit de la moyenne géométrique sur 3 ans de la croissance des ventes. Comme pour les
rendements comptables et boursiers, une croissance moribonde peut être révélatrice d’une
mauvaise gestion, ce qui augmente la probabilité d’une acquisition.
10
Valeur marchande / Valeur comptable (MTB)
Il s’agit de la valeur marchande de l’entreprise, c’est-à-dire la capitalisation boursière telle
qu’exprimée par le marché, divisée par la valeur aux livres. Ce ratio, connu en anglais sous le
nom de market-to-book, est généralement élevé lorsque les opportunités de croissance sont
grandes alors qu’il est plus bas lorsque la gestion de l’entreprise ne permet pas aux marchés
d’appréhender une croissance importante. Pour cette raison, ce ratio devrait être négativement
corrélé avec la probabilité d’une acquisition.
Cours/bénéfice (PE)
Il s’agit là aussi d’un ratio qui exprime les anticipations du marché. Le ratio se calcule en
divisant le prix de l’action sur le marché par les bénéfices. Un faible ratio peut signifier que la
croissance n’est pas au rendez-vous, ce qui rend plus probable une acquisition.
Recherche & développement (RD)
Des auteurs ont démontré la corrélation entre la valeur totale des brevets d’une entreprise et
ses chances de faire l’objet d’une acquisition. Selon l’étude, une cause des acquisitions
pourrait être de mettre la main sur les brevets des concurrents. Puisque Compustat ne contient
pas de données directement sur la valeur des brevets, j’ai décidé d’employer les
investissements en R&D comme proxy pour le nombre de brevets. Ainsi, des investissements
importants dans la R&D entraîneront un grand nombre de brevets, ce qui augmentera les
probabilités d’acquisition.
3.2 L’ÉCHANTILLON
Les données ont été extraites de la base de données Compustat qui contient de l’information
financière sur les entreprises cotées en bourse. La période retenue pour l’échantillon va de
1996 à 2002. Seules les entreprises œuvrant dans le domaine de l’informatique ont été
retenues. La période choisie couvre la bulle technologique au cours de laquelle de nombreuses
acquisitions ont eu lieu dans le monde de l’informatique.
L’échantillon équilibré contient 124 firmes, soit 62 cibles et 62 non-cibles. L’échantillon a été
constitué de façon aléatoire à partir d’une population beaucoup plus grande qui contenait au
départ des milliers d’observations.
11
4. DESCRIPTION DES MODELES
La première composante à identifier pour construire les différents modèles est la probabilité
antérieure d’être l’objet d’une cible. Pour obtenir cette valeur, il a fallu retourner dans la
population extraite de Compustat qui compte 3429 observations au total. On y dénombre 175
acquisitions, ce qui fait une probabilité antérieure de 5,1035%. Dans le logiciel DTREG, ce
nombre s’exprime sous forme de proportion, soit 19,5943 non-cibles pour chaque cible.
La seconde composante qui affecte les modèles est associée aux coûts de mauvaises
classifications. Pour calculer ces coûts, il faut regarder, d’une part, la prime qui constitue un
coût d’opportunité considérable lorsque le modèle ne parvient pas à identifier une cible.
D’autre part, il faut prendre en compte le rendement des actions d’entreprises qui sont
classées dans le groupe des cibles, mais qui ne font pas l’objet d’une acquisition. Le coût
d’opportunité associé au versement de la prime est assez facile à calculer puisqu’un nombre
important d’études se sont penchées sur le sujet. Par exemple, Rossi et Volpin, dans un article
paru dans le Journal of Financial Economics, identifie une prime moyenne de 44,3% pour les
entreprises américaines entre 1990 et 2002. En revanche, le rendement positif ou négatif
associé au fait de détenir l’action d’une compagnie qui était classée parmi les cibles et qui
demeure finalement indépendante est beaucoup plus difficile à déterminer.
Pour cette raison, plusieurs scénarios ont été examinées. Les coûts de mauvaise classification
qui ont fait l’objet d’un modèle sont 2:1, 5:1, 10:1, 15:1 et 20:1. Le chiffre de gauche signifie
que l’erreur associée au fait de classer une cible dans le groupe des non-cibles est X fois plus
coûteuse que l’erreur inverse. Le principal facteur qui a été retenu pour choisir le coût de
mauvaise classification optimal est la pureté du groupe des cibles dans l’échantillon de
validation, ce qui représente le nombre de cibles actuelles prédites sur le nombre total de
cibles prédites.
C’est le coût 15:1 qui a été retenu puisque c’est avec cette valeur que la pureté du groupe des
cibles sur l’échantillon de validation était la plus grande. Cependant, il est à noter que la
meilleure performance sur l’échantillon de validation est obtenue avec l’approche de l’arbre
de décision avec un coût de mauvaise classification de 20:1, ce qui occasionne une pureté du
groupe des cibles de 69,39% contre 60,32% pour le coût de 15:1. Exceptionnellement, l’arbre
associé au coût de 20:1 sera décrit.
12
4.1 ANALYSE DISCRIMINANTE
Liste des coefficients
ROE 0.02659259 (signe attendu : -)
RB -1.64250101 (signe attendu : -)
LEV -0.52777226 (signe attendu : -)
SIZE -0.02397068 (signe attendu : -)
TA 1.85764657 (signe attendu : +)
FCF 0.38211008 (signe attendu : +)
GRO -0.89553760 (signe attendu : -)
MTB 0.04223101 (signe attendu : -)
PE 0.00486885 (signe attendu : -)
RD -2.28163498 (signe attendu : +)
La variable la plus importante est la proportion d’actifs tangibles et la valeur du coefficient est consistante avec le signe qui était attendu selon les théories sur le sujet. Ces théories affirment qu’une entreprise dont les actifs sont tangibles est plus susceptible d’être l’objet d’une acquisition.
Importance relative des variables
13
Tableaux des mauvaises classifications
--- Training Data ---
--------Actual-------- -------------Misclassified-------------
Category Count Weight Count Weight Percent Cost
---------- -------- ------------ -------- ------------ ------- ------
Cibles 62 62 41 41 66.129 9.919
Non-cibles 62 62 11 11 17.742 0.177
---------- -------- ------------ -------- ------------ ------- ------
Total 124 124 52 52 41.935 5.048
--- Validation Data ---
--------Actual-------- -------------Misclassified-------------
Category Count Weight Count Weight Percent Cost
---------- -------- ------------ -------- ------------ ------- ------
Cibles 62 62 43 43 69.355 10.403
Non-cibles 62 62 16 16 25.806 0.258
---------- -------- ------------ -------- ------------ ------- ------
Total 124 124 59 59 47.581 5.331
Matrice des confusions:
-------- Training Data --------
Actual : ----Predicted Category---
Category : Cibles Non-cibles
----------: ------------ ------------
Cibles: 21 41
Non-cibles: 11 51
-------- Validation Data --------
Actual : ----Predicted Category---
Category : Cibles Non-cibles
----------: ------------ ------------
Cibles: 19 43
Non-cibles: 16 46
14
4.2 ARBRE DE DECISION
Description de l’arbre
L’arbre ci-dessous comporte un premier nœud qui exclut de la suite de l’analyse les entreprises plus petites que 3,233. Pour les entreprises plus grandes, on recherche celles qui ont un rendement sur fonds propres inférieur à 31,24% et dont la taille est inférieure à 6,759. Bien que le modèle se raffine par la suite, ces distinctions identifient la grande majorité des cibles. Principalement, cet arbre est caractérisé par la présence d’un nœud qui tient compte du rendement sur fonds propres qui est plus faibles pour les cibles, ce qui est consistent avec l’approche du Boston Consulting Group selon laquelle les cibles seraient des entreprises en croissance, mais avec une rentabilité plus faible.
15
Importance relative des variables
Tableaux des mauvaises classifications
--- Training Data ---
--------Actual-------- -------------Misclassified-------------
Category Count Weight Count Weight Percent Cost
---------- -------- ------------ -------- ------------ ------- ------
Cibles 62 62 16 16 25.806 5.161
Non-cibles 62 62 3 3 4.839 0.048
---------- -------- ------------ -------- ------------ ------- ------
Total 124 124 19 19 15.323 2.605
--- Validation Data ---
--------Actual-------- -------------Misclassified-------------
Category Count Weight Count Weight Percent Cost
---------- -------- ------------ -------- ------------ ------- ------
Cibles 62 62 28 28 45.161 9.032
Non-cibles 62 62 15 15 24.194 0.242
---------- -------- ------------ -------- ------------ ------- ------
Total 124 124 43 43 34.677 4.637
16
Matrice de confusion
-------- Training Data --------
Actual : ----Predicted Category---
Category : Cibles Non-cibles
----------: ------------ ------------
Cibles: 46 16
Non-cibles: 3 59
-------- Validation Data --------
Actual : ----Predicted Category---
Category : Cibles Non-cibles
----------: ------------ ------------
Cibles: 34 28
Non-cibles: 15 47
17
4.3 GENE EXPRESSION PROGRAMMING (GEP)
Expression mathématique générée
Cible/Non-cible =
(PE-(MTB*PE)) + (FCF+(((MTB+LEV+ROE)*PE)/SIZE)) + ((ROE/FCF)*((RB+LEV)*LEV)*PE) + ((MTB*PE)/(SIZE+(TA+LEV)))
Importance relative des variables
Tableaux des mauvaises classifications
--- Training Data ---
--------Actual-------- -------------Misclassified-------------
Category Count Weight Count Weight Percent Cost
---------- -------- ------------ -------- ------------ ------- ------
Cibles 62 62 25 25 40.323 4.032
Non-cibles 62 62 7 7 11.290 0.113
---------- -------- ------------ -------- ------------ ------- ------
Total 124 124 32 32 25.806 2.073
18
--- Validation Data ---
--------Actual-------- -------------Misclassified-------------
Category Count Weight Count Weight Percent Cost
---------- -------- ------------ -------- ------------ ------- ------
Cibles 62 62 26 26 41.935 4.194
Non-cibles 62 62 35 35 56.452 0.565
---------- -------- ------------ -------- ------------ ------- ------
Total 124 124 61 61 49.194 2.379
Matrice de confusion
-------- Training Data --------
Actual : ----Predicted Category---
Category : Cibles Non-cibles
----------: ------------ ------------
Cibles: 37 25
Non-cibles: 7 55
-------- Validation Data --------
Actual : ----Predicted Category---
Category : Cibles Non-cibles
----------: ------------ ------------
Cibles: 36 26
Non-cibles: 35 27
19
4.6 TREEBOOST
Importance relative des variables
Taille de l’arbre et taux de mauvaise classification
Le graphique ci-dessous montre la très grande différence entre le taux de mauvaise classification sur l’échantillon de validation (courbe supérieure) et l’échantillon d’apprentissage (courbe inférieure), ce qui s’explique par un surajustement du modèle sur l’échantillon d’apprentissage. La courbe inférieure nous permet de constater que l’ajout d’arbres améliore la performance alors que le minimum de taux de mauvaises classifications est rapidement atteint avec la courbe supérieure pour ensuite cesser de progresser.
20
5. ANALYSE COMPARATIVE DES MODELES
5.1 ANALYSE COMPARATIVE DES PERFORMANCES
Les tableaux présentés dans cette section permettent de comparer la performance des différents modèles. Les deux facteurs retenus pour comparer les approches sont le taux de mauvaises classifications et la pureté du groupe des cibles.
Dans une perspective de construction de portefeuille de titres boursiers, des contraintes ont été identifiées pour discriminer les modèles qui ne performent pas bien. Ainsi, le nombre de cibles prédites doit être supérieur à 20 afin d’obtenir un portefeuille minimalement diversifié, alors que le nombre total de cibles prédites ne doit pas dépasser 100 titres afin d’éviter des coûts de transaction qui seraient alors trop élevés.
Le seuil minimal (benchmark) auquel il faut comparer les résultats des différentes approches est évidemment 50% puisqu’une sélection aléatoire d’entreprises parmi l’échantillon retenu donnerait un taux de 50%.
Les tableaux nous permettent de constater que l’approche Gene Expression Programming performe très bien sur l’échantillon d’apprentissage avec une pureté de 84,09%, mais s’effondre littéralement sur l’échantillon de validation. Une hypothèse possible serait la présence de surajustement auquel il n’a pas été possible de remédier.
Les approches qui performent le mieux sur l’échantillon de validation est l’arbre de décision suivi de l’analyse discriminante. Les degrés de pureté obtenus sont de 60,32% et de 54,29% respectivement.
21
Échantillon d’apprentissage
Taux de mauvaise classification
Rang Pureté du groupe des cibles
Rang
Analyse discriminante
41,94%
(52/124)
4 65,63%
(21/32)
3
Arbre de décision 28,23%
(35/124)
2 70,77%
(46/65)
2
Gene Expression Programming
25,81%
(32/124)
1 84,09%
(37/44)
1
TreeBoost 30,65%
(38/124)
3 63,33%
(57/90)
4
Échantillon de validation
Taux de mauvaise classification
Rang Pureté du groupe des cibles
Rang
Analyse discriminante
47,58%
(59/124)
2 54,29%
(19/35)
2
Arbre de décision 39,52%
(49/124)
1 60,32%
(38/63)
1
Gene Expression Programming
49,19%
(61/124)
3 50,7%
(36/71)
3
TreeBoost 51,61%
(64/124)
4 48,96%
(47/96)
4
22
5.2 ANALYSE COMPARATIVE DE L’IMPORTANCE DES VARIABLES
Le tableau qui suit classe en ordre d’importance les différentes variables. La seule variable qui est retenue par tous les modèles est la taille, ce qui est consistent avec la littérature sur le sujet. Il est étonnant de constater que la variable la plus importante du modèle Gene Expression Programming (recherche et développement) ainsi que celle ayant la plus haute importance pour l’approche TreeBoost (rendement boursier) n’ont pas été retenues par le modèle de l’arbre de décision.
Aussi, on remarque que les variables les plus importantes pour le modèle paramétrique de l’analyse discriminante (croissance et rendement boursier) ne sont pas les mêmes que pour les modèles non paramétriques (taille et ratio cours/bénéfices). On peut donc émettre l’hypothèse qu’une méthode consensuelle de scoring performera mieux puisqu’elle captera davantage de phénomènes qu’une seule approche, ce qui sera confirmé dans la section suivante.
Variables Analyse discriminante
Arbre de décision
Gene Expression Programming
TreeBoost Moyenne
Taille 20,78% 100% 36,34% 15,90% 43,25%
Ratio cours / bénéfices
0% 0% 72,35% 92,28% 41,16%
Recherche et développement
7,79% 0% 100% 44,38% 38,04%
Rendement boursier
38,96% 0% 11,94% 100% 37,72%
Actifs tangibles 100% 0% 0% 25,59% 31,40%
Croissance 55,84% 0% 0% 48,83% 26,17%
Valeur marchande / Valeur comptable
0% 0% 65,30% 28,86% 23,54%
Flux monétaires libres
0% 0% 6,40% 59,63% 16,51%
Endettement 0% 0% 12,01% 45,53% 14,39%
Rendement sur fonds propres
0% 0% 19,72% 35,16% 13,72%
23
6. SCORING
6.1 ÉCHANTILLON 1996‐2002
La première méthode qui a été expérimentée fut une approche dite consensuelle qui consiste à retenir la prédiction qui est prescrite par le plus grand nombre de modèles. Lorsqu’il y a égalité numérique, c’est-à-dire 2 modèles qui prédisent une acquisition et 2 modèles qui prédisent le contraire, c’est cette dernière option qui est retenue.
Sur l’échantillon d’apprentissage, le modèle le plus performant est le Gene Expression Programming avec un taux d’erreur de 25,81% et une pureté du groupe des cibles de 84,09%. En utilisant la méthode consensuelle, les résultats obtenus surperforment ce résultat puisque le taux d’erreur n’est que de 7,26% (9/124) alors que la pureté du groupe des cibles est de 93,22% (55/59).
Une autre approche a également été expérimentée. Elle consiste en une régression linéaire à partir des prédictions des différents modèles. La variable dépendante est la valeur actuelle et les variables explicatives sont les valeurs prédites par les différents modèles.
La liste des coefficients qui suit résulte de cette régression linéaire :
Coefficients
Constante -0,0386887
GEP 0,4142869
DT 0,3154667
AD 0,0719123
TB 0,2862471
Il est intéressant de constater la faible importance accordée au modèle paramétrique de l’analyse discriminante par rapport aux modèles non paramétriques. En appliquant la fonction associée à cette régression et en établissant le seuil à 0,5, on obtient un taux d’erreur de 18,55% et une pureté de 77,46%, ce qui est moins intéressant que la méthode consensuelle qui est également plus parcimonieuse.
24
6.2 ÉCHANTILLON 2004‐2006
Pour valider de façon plus précise les résultats, un second scoring sur un échantillon hors période, soit de 2004 à 2006, a été effectué. L’échantillon retenu comporte 74 observations (11 cibles et 63 non-cibles). La proportion de cibles est donc de 14,86% (11/74), ce qui constitue le seuil minimal à surpasser en ce qui a trait à la pureté du groupe des cibles.
En utilisant la méthode consensuelle avec les 4 approches décrites précédemment, on obtient un taux d’erreur de 33,78% et une pureté du groupe des cibles de 26,67%. Ainsi, le modèle prédictif consensuel identifie correctement 8 cibles (sur une possibilité de 11) par rapport à 30 cibles prédites au total, ce qui donne une pureté de 26,67%. La performance individuelle de chacun des modèles a également fait l’objet d’une analyse. Les taux de mauvaises classifications des approches de l’arbre de décision et du Gene Expression Programming sont de 35,14%, ce qui est très semblable aux résultats obtenus à l’aide de la méthode consensuelle.
Enfin, les coefficients obtenus précédemment par régression linéaire ont été réutilisés, ce qui a permis d’obtenir un taux d’erreur de 41,89% et une pureté de 23,68%, ce qui est encore une fois moins intéressant que les méthodes consensuelles.
25
7. ÉVALUATION DU RENDEMENT D’UN PORTEFEUILLE CONSTITUE DES CIBLES PREDITES
Idéalement, il faudrait bâtir un portefeuille à partir des 38 cibles identifiées par l’approche consensuelle et examiner le rendement de ce portefeuille et le comparer avec un indice sectorielle associé à l’informatique. Cependant, l’ampleur de la tâche dépasse de loin le cadre de ce travail. Une analyse superficielle des primes versées a donc été complétée au sujet des 8 cibles qui se sont avérées de bonnes prédictions sur l’échantillon hors-période (2004-2006). Le résultat moyen est une prime de 47,13%. On peut donc émettre l’hypothèse que, si les 30 autres titres performent de façon similaire au marché, le modèle présenté dans ce travail permettra d’obtenir un rendement anormal intéressant. Cependant, cette hypothèse est difficilement prouvable puisqu’on ne connaît pas le rendement des entreprises qui sont prédites pour être des cibles, mais qui ne font pas l’objet d’une acquisition.
Entreprise acquise Prime versée
Computer Network Technology 17%
Fargo Electronics 60%
Maxtor 60%
Metrologic Instruments 23%
MSystems 25%
Paradyne Networks 107%
Pinnacle 30%
SBS Technologies 55%
Moyenne 47,13%
26
8. CONCLUSION
Le présent travail a permis de constater que la construction de modèles à partir de différentes approches théoriques permet de faire des prédictions avec un niveau de précision relativement élevé. L’arbre de décision demeure le modèle qui performe le mieux, mais d’autres approches innovatrices ont également un potentiel indéniable. Il a également été possible de soumettre des données hors période aux différents modèles construits. Les résultats obtenus sont inférieurs, ce qui était prévisible, mais demeurent à un niveau jugé très satisfaisant.
Les résultats obtenus dans le cadre de cette étude confirment la pertinence de concentrer uniquement la construction de modèles à une seule industrie, plus particulièrement si cette dernière est en phase de consolidation. Avant de sélectionner une industrie en particulier, il pourrait s’avérer avantageux de consulter la prime moyenne versée dans différents secteurs afin de choisir celui qui permettra d’obtenir les meilleurs rendements.
Pour améliorer les modèles, il faudrait nécessairement se détourner des variables strictement comptables puisque celles-ci ne captent pas l’ensemble des phénomènes qui déterminent une acquisition. Il semble que les variables comptables ont atteint la limite de leur pouvoir prédictif et qu’elles ne permettent pas de séparer davantage les entreprises en deux groupes distincts.
Il faudrait ainsi se tourner, comme l’ont fait plusieurs auteurs auparavant, du côté de variables associées à la gouvernance. À titre d’exemple, Comment et Schwert ont démontré dans leur article paru dans le Journal of Financial Economics que l’adoption de mesures anti-acquisition par une firme était un signe révélateur qu’une acquisition était probable dans un avenir rapproché. Malheureusement, ce type de données demeure encore aujourd’hui difficile à compiler et il est souvent nécessaire de s’astreindre à passer manuellement au travers des états financiers des entreprises, particulièrement dans les sections plus descriptives de ces rapports. Dans le cadre de ce travail, il n’a pas été possible de mettre la main sur une base de données qui contiendrait ce genre d’informations.
27
9. BIBLIOGRAPHIE
• Ali-Yrkkö, J., Hyytinen, A., Pajarinen, M., Does patenting increase the probability of being acquired? Evidence from cross-border and domestic, Applied Financial Economics, 2005.
• Ambrose, B. W., Megginson, W. L., The Role of Asset Structure, Ownership Structure, and Takeover Defenses in Determining Acquisition likelihood. Journal of Financial and Quantitative Analysis, 1992
• Barnes, P., Predicting UK Takeover Targets: Some Methodological Issues and an Empirical Study, Review of Quantitative Finance and Accounting, 1999.
• Barnes, P., The identification of U.K. takeover targets using published historical cost accounting data Some empirical evidence comparing logit with linear discriminant analysis and raw financial ratios with industry-relative ratios, International Review of Financial Analysis, 2000
• Cheh, J.J., Weinberg, R.S., Yook, K.C., An Application of an Artificial Neural Network Investment System to Predict Takeover Targets, Journal of Applied Business Research, 1999.
• Comment, R., Schwert, G.W., Poison or placebo? Evidence on the deterrence and wealth effects of modern antitakeover measures, Journal of Financial Economics, 1995.
• Espahbodi, H., Espahbodi, P., Binary choice models and corporate takeover, Journal of Banking and Finance, 2003.
• Hall, P.L., Anderson, D.C., The Effect of Golden Parachutes on Shareholder Wealth and Takeover Probabilities, Journal of Business Finance & Accounting, 1997.
• Palepu, K.G., Predicting Takeover Targets: A Methodological and Empirical Analysis, Journal of Accounting and Economics, 1986.
• Powell, R.G., Modelling Takeover Likelihood, Journal of Business Finance and Accounting, 1997.
• Powell, R.G. Takeover Prediction and Portfolio Performance: A Note, Journal of Business Finance & Accounting, 2001.
• Powell, R.G., Takeover Prediction Models and Portfolio Strategies: A Multinomial Approach, Multinomial Finance Journal, 2004.
• Rossi, S., Volpin, P., The Cross Country Determinants of Mergers and Acquisitions, Journal of Financial Economics, vol. 74, no 2, 2004.