lundi 22 janvier 2007

innovation, connaisances et externalités

On a vu précédemment que l’innovation engendre des revenus mais implique également des coûts. En effet, l’investissement en R&D présente la particularité d’être un coût fixe c'est-à-dire un montant indépendant de la quantité produite du bien. C’est pour cette raison que les néoclassiques associent l’innovation au surprofit nécessaire pour rembourser ce coût fixe.

Ces coûts fixes peuvent être amortis par des économies d’échelles, particulièrement par le biais de l’apprentissage par la pratique (Learning by doing) qui permet à la firme d’acquérir un avantage dans la production et par conséquent de baisser les coûts qui y sont liés.

En plus des coûts fixes, les investissements en R&D se caractérisent par d’autres coûts dits coûts irrécouvrables (Sunk costs). Cela signifie que les projets d’innovation, engagent souvent des équipements et des équipes spécifiques impossible de couvrir, si les projets ne réussissent pas.

C’est ce qui distingue la recherche d’autres investissements. Mais il faut garder à l’esprit que les investissements en R&D représentent une fraction minoritaire des dépenses d’innovation ; on a les dépenses liées aux brevets et licences, au design, à l’analyse du marché et autres.

La R&D intervient au stade de l’invention et sert à la production d’informations et de connaissances. D’après le modèle d’Arrow (1962), l’activité de R&D est une source d’externalités.

Ce modèle explique qu’une firme qui investit en R&D, produit de nouvelles informations scientifiques et techniques, ces dernières difficiles à contrôler échappent à l’entreprise et fuitent vers l’activité de R&D des autres firmes. On parle alors de Spillovers qui se traduisent économiquement par le phénomène d’externalités, c'est-à-dire une activité de A qui profite à d’autres acteurs sans contrepartie de rémunération pour A.

Le problème économique de l’information est donc sa révélation et sa protection. Et celui des spillovers d’informations est que l’économie en profite gratuitement. En effet, lorsque la R&D d’une firme A bénéficient gratuitement à ses concurrents, A n’est plus incitée à investir en R&D. On dit alors que la conséquence des spillovers est une inefficacité dans l’allocation des ressources c'est-à-dire que les firmes investissent peu ou trop en R&D par rapport à ce qui serait optimum pour l’économie.

Pour résoudre ce problème, il faut que la firme qui investit en R&D soit rémunérée pour la totalité des bénéfices que son activité engendre. Les possibles solutions sont :

1. Subventionner l’entreprise par l’Etat
2. Définir des droits de propriété sur les résultats de la R&D de la firme. En pratique, une firme dépose un brevet pour contrôler l’utilisation de l’information, la vendre, vendre le droit d’usage à des tiers (ex : licence)
3. Regrouper / fusionner les entreprises qui font de la R&D et celles qui en bénéficient (ex : consortium de R&D)
4. Confier la R&D au secteur public…

La connaissance, elle, possède quelque chose de plus que l’information, elle renvoie à la capacité que donne la connaissance à engendrer et inférer de nouvelles connaissances et informations. Ainsi la connaissance est fondamentalement une capacité d’apprentissage et une capacité cognitive, tandis que l’information reste un ensemble de données formatées et structurées inertes ne pouvant pas engendrer de nouvelles informations.
On comprend que la reproduction de la connaissance et celle de l’information sont des phénomènes différents. Lorsque l’une se fait par apprentissage, l’autre s’effectue par simple duplication.

Le fait de distinguer connaissance et information conduit à différencier les problèmes économiques relatifs à ces deux notions. Pour la connaissance, il s’agit principalement du problème de sa reproduction (problème d’apprentissage), tandis que la reproduction d’une information ne pose pas de problème (une simple photocopieuse permet de reproduire une information). Le problème économique de l’information est comme on l’a déjà vu celui de sa révélation et de sa protection.

Comment produire de la connaissance ?

  • Par l’activité de R&D : une activité « à distance » de la production et de l’usage dont l’objectif est la création délibérée de connaissances. Cette activité est caractérisée par le fait d’être située « à une certaine distance » des lieux de production et de consommation. Une distance qui peut être à la fois spatiale, temporelle et institutionnelle et qui est nécessaire pour que s’épanouisse l’habilité de ceux qu’on nomme savants ou théoriciens, dont la profession est de ne rien faire, mais de tout observer, et qui par cette raison se trouvent en état de combiner les forces des choses les plus éloignées et les plus dissemblables.
  • Par l’apprentissage : une activité « jointe » à la production et à l’usage. N’importe quelle activité de production ou d’usage d’un bien peut donner lieu à l’apprentissage et donc à produire de nouvelles connaissances. Il s’agit de formes non délibérées de production de connaissances : learning by doing, learning by using, learning by interacting

    Codifier la connaissance est primordial pour sa diffusion

La connaissance a une dimension tacite importante qui rend les opérations de recherche et accès, de stockage, d’échange et de transaction difficiles, voire impossibles à réaliser. Les connaissances tacites sont non exprimables hors de l’action de celui qui les détient.

  • Les connaissances tacites ne peuvent être ni classées ni répertoriées.
  • Leur stockage et leur mémorisation sont conditionnés par le renouvellement (de génération en génération) des personnes qui les détiennent.
  • L’échange, la diffusion et l’apprentissage de connaissances tacites supposent la mobilité et la démonstration volontaire des personnes qui les détiennent.

Donc réduire ces difficultés implique la codification des connaissances. C’est le processus de conversion d’une connaissance en un message qui peut être manipulé comme de l’information.

Les propriétés qui font de la connaissance un bien économique

Un bien difficilement contrôlable qui génère des externalités : on dit que la connaissance est un bien non exluable difficile de la rendre exclusive et de la contrôler de façon privée. C’est un bien fluide et portable. Les occasions de fuite sont très nombreuses, en effet les connaissances échappent en permanence aux entités qui les ont produites et ensuite les concurrents les utilisent gratuitement. Et c’est ce qui se traduit par les externalités positives pour désigner cet impact positif sur des tiers, desquels il est difficile d’obtenir une compensation.

Un bien non rival : la connaissance est inépuisable car elle ne se détruit pas par l’usage. Cette propriété a deux dimensions :

  • Un agent peut recourir une infinité de fois à la même connaissance.
  • Une infinité d’agents peut utiliser la même connaissance sans que personne n’en soit privé.

Un bien cumulatif : la connaissance est cumulative et progressive. Ceci signifie ce que les externalités renforcent, ce n’est pas seulement la jouissance des consommateurs mais surtout l’accumulation de la connaissance et le progrès technique par l’innovation.

Le cumul de ces trois propriétés est à l’origine de l’importance des externalités de l’activité de R&D et de l’innovation et inscrit celle-ci comme un fondement essentiel de la croissance économique.

ICHRAQ OUAZZANI

Etudiant Chercheur

Master 2 Recherche: Théorie et pratique de l'innovation

Université PARIS DAUPHINE

dimanche 14 janvier 2007

Les bienfaits de la prière

La prière est l’un des cinq piliers de l’Islam qui est recommandée aux Musulmans de l’accomplir. Elle est évoquée dans plusieurs versets du Saint Coran : «… et accomplis la Salât pour te souvenir de moi ». (Sourate Ta-Ha, verset 14).

En vérité, la prière est le remède et aussi la guérison divine pour toutes les maladies, qu’elles soient somatiques, organiques, psychologiques ou neurologiques ; elle est prophylactique et empêche le mal.

La salât, qui doit être effectuée cinq fois par jour, débute par la position debout, ensuite d'une inclinaison, puis d'une position accroupie. Le pratiquant touche par la suite le sol avec sa tête, puis répète les gestes, ce qui donne à l'ensemble les vertus d'un véritable exercice physique.

Au cours de la prière chaque muscle se met en mouvement ce qui mène à sa protection et à sa fortification.

Notre prière à nous musulmans a des bénéfices énormes. En effet, le corps humain se forme entre autres, d’os, d’articulations, de muscles, d’artères, de veines et de nerfs. Toutes ces composantes ont besoin de se lubrifier quotidiennement car, le repos total et le sommeil leur causent de l’indolence, du relâchement et de l’incapacité dans d’autres situations exigeant plus d’efforts. Par exemple, la thrombophlébite atteint plus les sujets qui sont inactifs et qui sont dans le repos complet.

La prière est un excellent exercice physique durant lequel se meuvent les articulations et les muscles, et s’active la circulation sanguine qui, elle aussi, stimule tous les autres appareils dans l’organisme . Que dites-vous alors de cinq (5) exercices physiques (cinq prières) par jour qui se répètent quotidiennement tout en agrandissant la foie de la personne qui prie en dieu le tout puissant.

As-Salât est considérée comme un stimulant pour la digestion et l’appétit. N’est ce pas que les moments de son accomplissement sont en rapport absolu avec cette moralité portée ! A l’aube, avant le petit déjeuner ; à midi avant le déjeuner ; au milieu de l’après midi, entre les deux repas (déjeuner- dîner) ; et enfin, le soir (le dîner) où la digestion est forte. Ainsi, on a pu grâce à la prière guérir beaucoup de maladies gastriques dans un temps record.

Sur le plan psychologique, on peut dire qu’en priant, le Musulman est convaincu que l’Homme ne lutte pas seul dans cette vie, il y’a un Créateur, Allah le Clairvoyant, le Juste et le plus Savant à propos de toutes les choses qu’il n’arrive pas à comprendre….S’il est victime (l’Homme) de l’injustice de quelqu’un, il s’en remet à Allah, l’Audient, le Clairvoyant qui lui fera justice, le plus Miséricordieux des Miséricordieux

Ce sentiment enveloppe la vie de l’être humain dans un climat de sérénité psychique l’aidant à vivre en bonne santé physique, avec un bien être mental et avec une quiétude sensorielle. Toutefois, réduire la prière (As-Salât) exclusivement dans l’esprit entraîne le stresse et la trouble. Parmi les traitements entrant dans la curation de l’angoisse et l’anxiété, est quand la personne qui en souffre se confie à quelqu’un à qui fait-elle confiance( son confident). Autrement dit, en parlant avec abondance et détails de ses ennuis, le malade finit par libérer son esprit de ses inquiétudes. Que dire donc de faire recours à Allah le Clairvoyant qui possède tous les biens….

1/ La prosternation favorise la baisse de la tension, et au fur et à mesure qu’elle se prolonge, l’hypotension grandit. cela dit, la prière peut être le plus important facteur diminuant lateinte de la tension chez les pratiquants. Aussi, elle peut être un traitement pour les personnes souffrant de la tension. les nombreuses prosternations sont considérées comme un exercice quotidien, régulier des centres de contrôles de la tension et leurs productions, ce qui favorise l’augmentation de leur capacité dans la régulation de la circulation sanguine. le corps alors,pourrait faire face à n’importe quel changement de position sans qu’il soit atteint d’étourdissements.

2/ Tout au long du jour, l’être humain s’expose davantage aux charges électrostatiques « électricité statique » de la couverture atmosphérique, qui se centralisent au niveau du système nerveux central. Mais, faut-il se débarrasser de toutes ces charges qui seraient capables de nous entraîner certains ennuis et douleurs, tels que la céphalée (un mal de tête), les courbatures et les douleurs cervicales. Cela dit, la prosternation nous met en contact direct avec la terre (le sol) qui les dégrade et les absorbe (les charges) complètement.de ce fais les prosternés sont, grâce à Allah Taâla, protégés contre les troubles psychologiques et la schizophrénie.

3/ La prosternation aide à l’épuration des sinus nasaux par l’évacuation de leurs sécrétions tout en diminuant le risque de survenu d’inflammation (la sinusite).

4/ La perfusion sanguine cérébrale augmente lors de la prosternation. Le sang apporte au cerveau les nutriments et l’O2 nécessaire pour accomplir sa fonction, en sachant que le cerveau est le centrer de commande du corps humain. La diminution du flux sanguin cérébral se manifeste clairement chez les sujets qui restent en position debout prolongée… l’augmentation du débit sanguin de la région de la tête aide à stimuler la circulation sanguine au niveau de la face et du cou leur procurant beauté et fraîcheur notamment quand il fait froid.

5/ La prosternation aide à prévenir la survenue des hémorroïdes et l’apparition des thromboses veineuses, elle guérit la constipation et est regardée parmi les meilleurs positions pour le traitement du prolapsus congénital de l’utérus.

6/Il a été prouvé que la prière « As-Salât » protège contre toute éventuelle atteinte des varices des membres inférieurs. Il a été démontré aussi que la négligence de la prière mène de façon vigoureuse vers cette maladie fréquente qui touche entre 10 à 20% de la population.

Et encore, la science n’as pas tout cernée, pensez à d’autres bénéfices de la prière que même la science ne peux comprendre ou même découvrir…

Si l’être humain (adorateur) recourt à Allah Taâla (Le Très-Haut) en ayant un cœur et une âme purs et sincères, Allah est avec lui. Et s’il prie humblement et avec une dévotion apparente et intime (interne), sa Salât est considérée comme une clinique psychologique et une source de remèdes pour beaucoup de maladies organiques.

ATEF MECHCHAT
Médecin G. Stagiaire

Comment conduire une mission d´audit de connaissance?

L´audit des connaissance est une pratique devenue courante dans l´entreprise et dont le but principal est de faire un diagnostic organisationnel du capital social et son utilisation. Il s´agit d´un processus d´évaluation et d´examen des connaissance tacites et explicites au sein de l´entreprise et d´identification des flux et des réseaux de connaissances. C´est un outil de grande importance qui permet d´avoir une vision plus claire sur les atouts et les besoins en terme de ressources cognitives et sur principaux axes d´intervention sur lesquels il faut s´arrêter pour rentabiliser de manière efficiente le capital social de l´entreprise.

Une mission d´audit de connaissance s´étend généralement sur trois grandes phases :

Phase 1 : La préparation de la mission

Phase 2 : La collecte des donnés

Phase 3 : L´analyse des données

§ La préparation d´une mission d´audit

Selon S.Choy, cette phase doit atteindre deux objectifs principaux, premièrement l´orientation de la mission et deuxièmement la détermination de la prédisposition de l´entreprise à initier des projets de connaissance.

Par orientation on se réfère au devoir de l´auditeur d´expliquer à toutes les personnes qui seront mise à l´exercice de l´audit les objectifs visées par sa mission et ce dans le but de dissiper leur doutes et gagner leur confiance, chose très importante dans le K-audit surtout dans la phase d´analyse des réseaux sur laquelle on reviendra ultérieurement.

Le deuxième objectif de cette première phase est la mesure de la prédisposition de l´entreprise à initier un projet de gestion de connaissance. En effet cela consiste en l´identification du profil de la culture régnant dans l´organisation. Pour cette fin plusieurs méthodes sont utilisées, dans le présent article on vous présentera brièvement celle proposée par Claudia et al dans leur ouvrage « Human Systems Assessment ». Il s´agit d´un model basé sur cinq composantes principales : Contrôle, Cohérence, Information et Communication, Alliance et enfin Innovation. Chacune de ces composantes fera objet d´étude grâce à des questionnaires qui doivent respecter certaines normes. Les résultats obtenus sont regroupés sur une table qui classifie les entreprises en 5 catégories : Non encore préparées pour des K-Projets, Peu acceptable, Acceptable, Bien préparée, Prête au changement.

§ La collecte des données

Elle est basée principalement sur des questionnaires, observations et interview avec les départements et personnes concernées. Cette phase a trois principaux objectifs :

  1. L´élaboration d´un inventaire de connaissance. Il s´agit d´un « listing » de connaissances, compétences et habilités nécessaires pour la prise des décisions au niveaux des différents axes d´activités de l´entreprise.
  2. L´identification des principales sources de connaissance dans l´entreprise et la visualisation des flux et interactions entre les employés et les départements. Parce que comme le disait Samuel JonsonKnowledge is of two kinds: we know a subject ourselves, or we know where we can find information upon it .
  3. La détermination des types de connaissances échangées, leur complexité, relevance…

§ L´analyse des données

Elle se base sur trois principaux outils :

1. L´analyse des réseaux sociaux : C´est une méthode d´analyse qui consiste à identifier les flux d´informations entre les différents acteurs d´un réseau. Elle permet de détecter les failles au niveau d´organisation d´un réseau. Dans le cas d´une mission de K-Audit elle nous renseigne –entre autres- sur la circulation de l´information au sein de l´entreprise et sur le mécanisme de création et d´échange de connaissance.

2. Les inventaires de connaissance : Ils sont construits sur la base des données collectées dans la deuxième phase. Ils peuvent constituer une référence pour l´entreprise au moment d´implanter un projet de gestion de connaissance

3. Le « mapping » de connaissance : C´est une représentation graphique des résultats de la mission qui permet d´avoir une meilleure vision sur les sources de valeur potentiels et sur les actions à entreprendre pour améliorer la gestion du capital social.


« La connaissance a cessé d´être un simple moyen pour que l´économie atteigne ses objectifs. Aujourd´hui la connaissance c´est l´économie ». C´est une ressource d´une grande valeur mais qui pose encore problème au moment de son extraction et transformation en ressource utilisable et génératrice de valeur. L´audit de connaissance vient pour accompagner les entreprises et les préparer à investir avec un minimum de risque dans un capital social qui peut beaucoup donner pour l´organisation.

Notes : Dans cet article K-Audit désigne l´audit de connaissance

Asmaa Skareb
Universidad de Las Palmas de gran Canaria (ULPGC)
Diploma de tercer ciclo en tecnologias de informacion y sus aplicaciones

LE CRM : UN PILIER STRATEGIQUE POUR LES ENTREPRISES

Dans notre société, l’information est devenue un élément à la fois stratégique pour développer les activités, et essentiel pour assurer un avantage concurrentiel aux entités qui savent l’utiliser. Or, avec l’intégration des nouvelles technologies dans l’économie – phénomène appelé depuis la « nouvelle économie » – la concurrence devient de plus en plus serrée. C’est ce constat qui explique pourquoi les entreprises cherchent aujourd’hui à mettre en place des systèmes de collecte et de traitement de données toujours plus performants.

En fait, depuis le début des années 1990, bon nombre d’entreprises ont peu à peu pris conscience qu’elles étaient principalement plus préoccupées par les produits qu’elles vendent que par les souhaits de leurs clients. Elles ont de mieux en mieux compris l’intérêt de connaître leurs clients et de maîtriser la relation avec eux. Ainsi, le client est, plus que jamais, au centre des préoccupations des entreprises.

De plus, les nouvelles technologies permettent aux entreprises de mieux connaître leurs clients et de gagner leur fidélité en utilisant les informations les concernant de telle manière à mieux cerner leurs besoins, et donc de mieux y répondre. Afin de se différencier, les entreprises ont de plus en plus recours à une approche dite CRM (Customer Relationship Management) appelée en français GRC (Gestion de la Relation Client).

De nos jours, le marketing de masse ne suffit plus, car l’objectif n’est plus seulement d’attirer et de retenir le client, mais de solidifier la relation avec les clients rentables, et par là d’obtenir un avantage compétitif. S’adresser de manière personnalisée à chaque client grâce aux technologies multimédias interactives reste incontestablement le fait marquant des @nnées 2000. C’est le concept de marketing "One to One" qui succède au marketing de masse. En fait, grâce au "One to One", de nombreuses entreprises ont réussi la transition vers l’ère de l’interactivité.


Cependant, il est à signaler que le CRM nécessite à l’entreprise des ressources immenses pour pouvoir réussir la tâche. Ainsi, on présentera ci-après les étapes du CRM avant de faire le point sur sa stratégie globale.


S’agissant du processus de gestion de la relation client, il peut être présenté en cinq étapes comme le montre le schéma ci-après :


Pour ce qui est de la stratégie CRM, elle s’étend sur trois composantes essentielles à savoir : la stratégie "client", la stratégie "multicanal" et la stratégie "infrastructure".

La stratégie "client" s’attache principalement à fidéliser le client à travers plusieurs actions (de l’éclosion de la relation à la fidélisation). Cependant, pour que l'entreprise arrive à une gestion stratégique de la relation client, il faut que son apport avec les clients évolue à l'instar d'une relation amoureuse naissante, caractérisée par une confiance réciproque. En effet, l'acquisition des clients, leur fidélisation et leur gestion stratégique constituent les éléments clés d'un processus solide en matière de la stratégie "client".

L'acquisition de la clientèle est l'œuvre principal de chaque entreprise pour élargir ses offres et sa rentabilité. Aujourd'hui, les banques réalisent de lourds investissements pour accroître leurs capacités et mettre en œuvre des stratégies d'acquisition de clients tout en sélectionnant les clients les plus adéquats au moyen d'extraction des données.

Les directions d'établissements bancaires sont nombreuses à connaître qu'il va leur falloir plus de ressources en temps et en argent pour effectuer une indispensable transition : « passer de structures et de tactiques axées sur les produits, les prix ou sur les canaux à une stratégie réellement orientée client et adoptée par le système bancaire tout entier ».

Mais, pour gagner la bataille, ceci ne suffit pas. Les banques leaders de demain seront celles qui réussiront à franchir les trois phases du parcours d'acquisition et de gestion du client à savoir :

* Identification de grands segments de clientèle;

* Définition des besoins, des comportements et du potentiel;

* Relation client étroite et individualisée.

Ainsi, parmi les outils permettant de mieux réussir la stratégie "client", on trouve la valeur de vie des clients. On parle de Lifetime Value qui représente la valeur du client sur la durée de sa relation avec l'entreprise. C'est une espérance mathématique de marge calculée par la somme des profits actualisés attendus sur la durée de vie d'un client. Ce calcul est basé sur la durée de vie moyenne d'un client et de l'évolution théorique de sa consommation.

La stratégie "multicanal" représente le deuxième chaînon dans une stratégie CRM. En effet, l'intégration multicanal demeure l’un des nouveaux besoins des entreprises. La gestion des multiples points de contact client est donc une nécessité majeure pour l'entreprise afin de réussir sa relation client. Cette gestion des points de contact introduit la réflexion autour des différents canaux d'interaction, mais aussi autour des enjeux de la stratégie "multicanal".

Les entreprises au quotidien disposent de nombreux canaux afin de réaliser des interactions avec leurs clients. Parmi ces canaux, on trouve : les points de vente, le courrier (mailing), les centres d'appel (call centers), le standard téléphonique, l’Internet et autres canaux électroniques, etc.

L’aspect essentiel à prendre en considération dans la gestion des points de contact est la cohérence de la relation multicanal, tant du point de vue du client et de sa situation, que du point de vue de la rentabilité de l’entreprise. L’objectif pour l’entreprise est de corréler le coût de la relation multicanal à la rémunération perçue pour les services rendus (l’adaptation de l’offre en fonction des segments de clientèles).

Toutefois, même si l’entreprise fait apparaître les canaux à privilégier, c’est le client qui fait le choix de ses canaux prioritaires. L’entreprise ne peut que préconiser ou inciter certains clients peu rentables à utiliser, de préférence, les canaux moins onéreux à gérer. Ainsi, par exemple, rien n’interdit l’entreprise d’offrir ses services à quelques bons clients. Dans la même logique, certaines banques appliquent des tarifs différents suivant les canaux, selon que la transaction est automatisée ou qu’elle requiert plus de services.

Une stratégie CRM ne peut fonctionner sans un certain nombre d’éléments technologiques. Il s’agit là du troisième volet de notre stratégie que l’on appelle la stratégie "infrastructure".

En fait, les entreprises les plus avancées utilisent la technologie pour rendre plus interactive la relation avec leurs clients, améliorer l’efficacité des contacts et mettre en œuvre des processus à forte valeur ajoutée pour leurs clients. C’est ainsi que le marché du CRM est né avec de simples logiciels de gestion des contacts. Cette forme primitive d’automatisation de la force de vente a évolué pour inclure la gestion des opportunités des grands comptes et les prévisions commerciales. D’autres liens étroits ont été ajoutés avec les solutions intégrées ERP (Enterprise Resource Planning).

Aujourd’hui, le CRM ne représente pas une technologie unique, mais regroupe un ensemble de technologies sous une même ombrelle : des technologies qui vont de la base de données, aux outils de centres d’appel, de marketing ou de SFA (Sales Force Automation). De façon générale, les technologies utiles à la relation client tournent autour du traitement des données (Business Intelligence, Data Warehouse, Data Mining, etc.).

La Business Intelligence (Intelligence des Affaires) repose sur l’exploitation des informations, souvent endogènes, disponibles sur les clients, sur les fournisseurs, sur les prix et les marchés et sur les produits. Le Data Warehouse (Entrepôt de données), est le réceptacle dans lequel viennent de se déposer toutes les données manipulées par l’entreprise.

Quant au Data Mining (Extraction de données), c’est un ensemble de techniques et de méthodes permettent la découverte de schémas d’information cachés dans de grandes bases de données. Il s’agit d’un processus de découverte de corrélations, de modèles et de tendances, reposant sur l’analyse d’une quantité importante de données, à l’aide de techniques d’analyse statistiques et mathématiques et font appel aux méthodes de régression, pour comprendre (analyse exploratoire) ou prédire (analyse décisionnelle) les comportements.

En effet, il n’y a pas de bon projet BI sans un bon Data Warehouse conçu pour répondre à des objectifs clairement définis. C’est l’existence de cette base exploitée par des outils puissants, comme le Data Mining, qui donnera à l’entreprise la connaissance client, source d’avantages concurrentiels.

En somme, afin de jouer un rôle déterminant lors du développement de leur CRM, nos entreprises doivent maîtriser plusieurs côtés. Il convient, en premier lieu, d’assurer l’exploitation du portefeuille client. Il est, ensuite, nécessaire de développer des processus relationnels susceptibles d’améliorer les relations de l’entreprise, tant en interne (avec ses collaborateurs) qu’en externe (avec ses clients). Il faut procéder à la segmentation du portefeuille client, mieux connaître et mieux suivre leur rentabilité et savoir affecter des forces de vente en conséquence. Finalement, on doit veiller à assurer une évolution cohérente de l’entreprise en respectant l’équilibre entre la qualité des produits et services, la qualité de la relation client et la marque.

OMAR EL HADDAD (elhaddadomar@gmail.com)
ETUDIANT CHERCHEUR
DESA FINANCE AUDIT ET CONTROLE DE GESTION
ENCG TANGER, MAROC

La gestion de portefeuille : Peut on battre son benchmark ?

L’Asset Management consiste à constituer un portefeuille des différents actifs avec comme objectif la réalisation de plus valus. Ces plus valus, à coté des dividendes perçues tout au long de l’horizon de placement, constituent la performance du portefeuille.

Les essais de formalisation d’une méthodologie permettant de constituer des portefeuilles performants ont donné naissance à deux visions différentes (le Top Down et le Bottom Up).

La vision Bottom Up, la plus traditionnelle, se concentre davantage sur la sélection d’actifs parmi ceux les plus rentables pour constituer un portefeuille à son tour des plus rentables et maximiser ainsi ses gains.

La vision Top Down est un processus de décision qui se scinde en 3 étapes différentes souvent confiées à 3 personnes différentes à savoir :

o L’allocation stratégique : Cette étape est la plus importante du moment qu’elle conditionne la performance du portefeuille même si l’on lui accorde que peu de temps. Elle consiste à définir un benchmark – portefeuille de référence -, l’horizon de placement, ainsi que la répartition du portefeuille entre les différentes classes d’actifs.

Au niveau des investisseurs institutionnels, l’allocation stratégique est définie par un comité de gestion.

o L’allocation tactique : consiste à réguler les pondérations des classes d’actifs par rapport au benchmark dans la limite des écarts admis mais aussi des opportunités de court terme.

o Sélection de valeurs : Au niveau de cette phase, on fait appel à des gérants spécialisés par type d’actif et qui ont comme mission de sélectionner les titres les plus rentables.

Dans le même cadre, on distingue en fonction de la perception des investisseurs de l’efficience de marché les stratégies de gestion de portefeuille qu’on peut adopter. Ainsi, il existe la gestion de portefeuille indicielle qui peut être soit active ou passive et la gestion alternative.

La gestion indicielle consiste à reprendre la même composition du Benchmark. Ainsi, la gestion indicielle active essaie de battre la performance du Benchmark contrairement à la gestion indicielle passive qui essaie de reprendre le plus fidèlement possible la composition du benchmark.

Toutefois, vues les contraintes et limites de la gestion passive, tout gestionnaire de portefeuille doit recourir à la gestion active.

D’un coté, lors de toute opération d’achat ou de vente, des frais de transaction sont engendrés réduisant ainsi la performance du portefeuille géré par rapport au benchmark.

De l’autre coté, si tous les investisseurs se mettent à gérer passivement, les marchés ne peuvent plus être efficients et la gestion active redevient de nouveau profitable.

Face à la multitude de méthodes proposées, est ce qu’on peut battre son benchmark ? Et comment ?


Le choix d’un benchmark :

Au niveau de toute action humaine, on a besoin d’identifier des points de repères à partir desquelles on pourrait se situer. Ainsi, au niveau du contrôle de gestion on se retrouve avec les budgets, au niveau de l’audit on se fixe des normes et au niveau de la gestion de portefeuille, il est logique de se fixer une référence. C’est ce qu’on peut définir comme un besoin de référence.

La réponse à la question principale de notre article est oui si l’on opte pour un benchmark (un indice) non performant et qui peut être facilement battu. Toutefois, il faut choisir un indice qui pour un risque déterminé, réalise la meilleure performance.

Plusieurs études aux Etats-Unis ont démontré qu’il est difficile pour les fonds gérés par des investisseurs institutionnels de battre le benchmark. Ainsi et en l’absence d’études comparables au niveau du Maroc, on va essayer d’énumérer l’ensemble des conditions nécessaires pour qu’un portefeuille en général arrive à battre un benchmark et pour qu’un OPCVM en particulier arrive à le faire à son tour.

Portefeuille autre qu’un OPCVM : Comment peut-on battre un Benchmark ?

Un gérant d’un portefeuille peut battre facilement s’il connaît son horizon de placement. Alors, il va viser à maximiser la valeur de son portefeuille à la fin de l’horizon qu’il s’est fixé.

Même en l’existence de couts de transactions, un gérant de portefeuille peut battre son benchmark en surpondérant les titres les plus rentables en fin de période et en encaissant les dividendes distribués tout au long de la période de placement.

OPCVM : Comment peut on battre un Benchmark ?

Pour les OPCVM vues les contraintes juridiques et économiques, il est plus difficile de battre un benchmark.

Horizon de placement et liquidité des titres

Tout d’abord, et contrairement aux simples gérants de portefeuille, un OPCVM n’a pas un horizon de placement défini, ce qui impose aux gérants d’OPCVM de maximiser leurs gains à tout moment chose qui n’est pas toujours possible vue la liquidité plus ou moins fragile des titres et la non stationnarité de la rentabilité de ces derniers.

Par exemple, il se peut que durant un mois un titre s’avère très rentable, alors pour maximiser ses gains, un gérant de portefeuille essaiera de surpondérer le titre. Le mois suivant, le titre pourrait s’avérer moins rentable, alors pour vaincre le benchmark, il faudrait vendre le titre. Ce qui n’est pas aisé vus les couts de transactions qu’on va générer.

Trésorerie OPCVM

Ensuite, un gestionnaire d’OPCVM se trouve confronté au problème de la trésorerie qui varie avec le temps selon les souscriptions et rachats de parts FCP ou actions SICAV. Ceci dit, même en face d’une opportunité de rentabilité favorable, le gérant en manque de liquidités ne serait pas capable de la saisir.

En plus des contraintes juridiques qui définissent les ratios prudentiels à ne pas dépasser et qu’on doit prendre en considération face à toute surpondération de titres.

Il apparaît clairement qu’il est plus facile de battre son benchmark si l’on détient un portefeuille qu’une part OPCVM.


AHMED TAHIRI JOUTI
ETUDIANT CHERCHEUR
DESA FINANCE AUDIT ET CONTROLE DE GESTION
ENCG TANGER

lundi 1 janvier 2007

LA RESPONSABILITE SOCIALE DE L’ENTREPRISE: l'information financière ne raconte pas toute l'histoire d'une entreprise.

Face aux exigences d’une société civile qui n’accepte plus la seule logique économique et financière à court terme, les entreprises se trouvent dans l’obligation de contribuer positivement au développement durable. Par développement durable, il faut entendre « un développement qui permet aux générations présentes de satisfaire leurs besoins sans remettre en cause la capacité des générations futures à satisfaire les leurs ». Ce mouvement a pour ambition de responsabiliser les entreprises qui doivent s'engager à respecter quelques principes de "responsabilité sociale".

Ainsi, sous peine de s’exposer à des risques majeurs, les entreprises doivent désormais viser une triple responsabilité (économique, environnementale et sociale), ou viser généralement une "responsabilité sociétale". Certes, il s’agit d’un risque important pour les entreprises, mais c’est aussi une formidable opportunité si elles sachent exercer cette responsabilité en partenariat avec l’ensemble des interlocuteurs ou des « parties prenantes ».

Ainsi, la "Responsabilité Sociétale de l'Entreprise" (RSE) s'affirme comme la traduction pour l'entreprise de l'enjeu du développement durable. De fait, l'entreprise socialement responsable, non seulement satisfait pleinement aux obligations légales applicables, mais intègre aussi les dimensions sociale, environnementale et sociétale à ses politiques globales. Bref, la RSE représente un triple intérêt : un outil marketing, un outil stratégique et un facilitateur de l’accès de l’entreprise à l’univers de référence « responsable » des investisseurs.

Dans le même sens, la performance financière a longtemps constitué le seul critère de choix dans les placements des investisseurs et demeure un facteur primordial de décision d'investissement, certes, mais elle n'est plus le seul. Désormais, tous les investisseurs affirment une même volonté : celle de concilier performance financière, sans pour autant sacrifier les droits des personnes ou la protection de la nature.

C’est ce contexte qui va contribuer plus tard à l’apparition de concepts tels que : placement éthique, fonds éthiques, investissement socialement responsable ("ISR" ou "SRI" en anglais), rating social, indicateurs extra–financiers, etc. On entend par « fonds éthique » un produit composé de valeurs "socialement responsables", s'attachant par exemple à la dimension citoyenne des entreprises et à leur contribution au développement durable en particulier. L'objectif du fonds éthique est donc d'associer performance financière et investissement social.

Pour s'intégrer amplement dans l’espace de la responsabilité sociale, les entreprises doivent réaliser des Investissements Socialement Responsables (ISR). L'ISR rassemble toutes les démarches qui consistent à intégrer des critères extra–financiers dans les décisions de placements et la gestion de portefeuilles. Il peut prendre 3 formes principales :

  • les fonds socialement responsables : ils intègrent des critères sociaux d’une entreprise cotée en les croisant avec des critères financiers pour obtenir les compagnies les plus performantes en développement durable ;
  • les fonds d’exclusion : plus répandus dans les pays anglo-saxons, ils excluent, pour des raisons morales ou religieuses, certains secteurs comme l’armement, le jeu, le tabac, le nucléaire, la pornographie, etc. ;
  • l’engagement actionnarial : il consiste, pour les investisseurs, à exiger des entreprises une politique de responsabilité sociale plus forte par l’exercice des droits de vote en assemblées générales.

Le terme de placements éthiques est couramment utilisé pour désigner ces différentes approches. De façon générale, on peut dresser une liste plus ou moins exhaustive des principales composantes de l’ISR, ainsi que des pratiques réputées « socialement responsables ». Le tableau ci-après nous donne une ventilation de ces composantes :

Principales Composantes de l’ISR

Liste des Pratiques Réputées « Socialement Responsables »

Engagement sociétal

1

Contribution à l’amélioration de la santé publique

2

Contribution à l’alphabétisation

3

Contribution à des œuvres culturelles

4

Mise en place de fonds d’investissements dédiés à des objectifs de développement durable

Gouvernance d’entreprise

5

Gouvernement d’entreprise (adoption de codes de conduite, transparence et efficacité du Conseil d’administration, …)

Gestion responsable des Ressources Humaines

6

Action en faveur de l’emploi (gestion des restructurations, formations professionnelles, etc.)

7

Amélioration des conditions d’emploi et de travail (mesures en faveur de l’hygiène et de la sécurité, …)

8

Amélioration des relations professionnelles (dialogue social, accords collectifs, résolution exemplaire de conflits du travail)

Respect des Droits de la personne

9

Respect des droits de l’homme sur les lieux de travail (âge minimum d’accès à l’emploi, non-discrimination et promotion de l’égalité en faveur des catégories vulnérables)

Engagement pour l’Environnement

10

Respect et protection de l’environnement (mise en place d’un système managérial approprié, reporting, réduction des émissions et des risques de pollution, réduction des consommations d’énergie, etc.)

Respect des règles du marché

11

Lutte contre la corruption (engagements, mesures innovantes, etc.)

12

Responsabilité avec les fournisseurs (définition de critères de sélection dans les achats, application de la loi sur la sécurité sociale et respect de la législation du travail)

Le marché de l'ISR aux Etats-Unis est caractérisé par une forte implication des investisseurs institutionnels, au premier rang desquels les fonds de pension. Aujourd’hui, un seul chiffre peut témoigner de l'ampleur du phénomène : aux Etats-Unis, plus de 3000 milliards de dollars sont gérés de façon éthique, soit plus de 15% du marché total de l’Asset Management.

Par ailleurs, l’émergence de ce nouveau concept – tout à fait en vogue – depuis les années 1990 commence à générer des problématiques qui intéressent de plus en plus les chercheurs en finance et les praticiens de la gestion d’actifs. Toutefois, le phénomène prend de l’importance d’un jour à l’autre.

Il faut savoir que l’ISR se développe parce qu’un certain nombre de financiers ont acquis la conviction que la prise en compte de critères sociaux et environnementaux permet de mieux identifier les sociétés performantes, à moyen et long terme. La question est posée de savoir s’ils se font ou non au détriment de la performance financière à court terme.

De même, le risque avancé par les chercheurs est de voir se creuser l’écart entre les multinationales cotées, fortement incitées à adopter une politique de responsabilité sociale, et des entreprises non cotées et des PME peinant à intégrer cette dimension alors que leurs poids économique est déterminant. De plus, dès que l'on abandonne les seuls ratios financiers comme instruments de mesure de la performance, la tâche devient plus ardue. En fait, toute la difficulté consiste à comprendre l'impact de la politique des entreprises sur l'environnement et les relations sociales. Comment, en effet, évaluer les effets de rejets de produits toxiques par une entreprise et ses dizaines de sous-traitants ? Comment mesure-t-on la qualité des relations sociales au sein de ces sociétés ? Peut-on connaître les conditions de travail en vigueur chez les centaines de fournisseurs que compte toute entreprise industrielle ?

Pour y voir plus clair, les investisseurs institutionnels ont recours à deux sources d'information :

  • d'une part, des indices boursiers relatifs aux entreprises engagées dans des processus de développement durable ;
  • d'autre part, des cabinets de notation spécialisés dans l'investissement socialement responsable.

S’agissant du premier volet, c'est-à-dire les indices boursiers pour pouvoir mesurer la performance à long terme des entreprises socialement responsables, il manquait aux professionnels des indices adéquats. La nécessité se faisait plus pressante d’autant que l’investissement éthique gagnant du terrain. Les indices boursiers éthiques répondent à cette nécessité et font désormais au moins jeu égal avec leurs homologues traditionnels, démontrant le bien-fondé de leur parti pris de base : « la performance économique et financière n'est pas incompatible avec les bonnes pratiques sociales et environnementales ! ».

La raison en est simple : la plupart des grandes entreprises internationales, qui composent l'essentiel des indices boursiers classiques ou éthiques, représentent des valeurs stables dans le long terme. En outre, elles s'engagent de plus en plus souvent dans des politiques de responsabilité sociale, ce qui ne fait que renforcer l'attrait qu'elles exercent auprès des investisseurs.

Un fameux exemple est celui de l’indice "Domini 400". L'indice "Domini 400 Social Index" (DSI) est né aux Etats-Unis, en mai 1990, au sein du cabinet KLD (Kinder, Lydenberg, Domini & Co). Il tire son nom de sa créatrice, Amy Domini, qui, en fondant cet indice, souhaitait pouvoir enfin répondre à la question que lui posait les investisseurs : « en quoi l'application de critères sociaux affecte la performance d'un investissement ? ».

Cet indice (DSI) est composé, comme son nom l'indique, en partie, de 400 entreprises sélectionnées selon deux types de critères. D'une part, sont systématiquement écartées toutes celles qui œuvrent dans les domaines de l'alcool, du tabac, du jeu ou encore du nucléaire. D'autre part, des critères de discrimination positive (respect de l'environnement, politique de responsabilité sociale) ont permis de sélectionner 400 sociétés nord-américaines, dont la moitié environ – notez bien ! – sont aussi listées dans l'indice "S&P 500".

Si l'on compare l'évolution de cet indice avec celle du "S&P 500", on constate que les performances financières de l'investissement éthique sont comparables à celles de l'investissement effectué selon les seuls critères de rendement. A fin 2004, on comptait au moins 8 indices dits "éthiques" : Aspi Eurozone, Calvert Social Index, Domini 400, Dow Jones Sustainability Index, Ethibel Social Index, FTSE4Good, Jantzi Social Index, et MS SRI.

Le deuxième volet concerne bien entendu la notation sociale. En effet, l'image de marque d'une entreprise ne se résume pas à son génie marketing, ni sa pérennité à ses seuls ratios financiers. La responsabilité de ses managers ne se résume pas à la valorisation exclusive et seulement à court terme des intérêts de ses actionnaires. De même, investisseurs et dirigeants d'entreprises sont ainsi confrontés au besoin d'objectivation, de comparabilité et de qualification par des tiers experts de l'information relative aux paramètres extra–financiers des entreprises. La notation sociale demeure une réponse appropriée à ce besoin.

Pour que la RSE devienne un axe stratégique de l'entreprise, le processus est progressif : d’abord, faire un diagnostic social et environnemental (exemple : conditions de travail, politique anti-discrimination, consommation d'énergie, ou émissions de gaz à effet de serre) ; ensuite, définir des orientations et fixer des objectifs d'amélioration (et l'entreprise commence, le cas échéant, à s'engager dans des démarches volontaires collectives) ; et enfin, commencer à mettre en œuvre des plans d'action pour modifier ses pratiques et construire les dispositifs de reporting qui permettent d'en rendre compte en s'appuyant sur ses parties prenantes.

Pour évaluer la politique RSE d'une entreprise, il existe divers indicateurs et organismes spécialisés. Aucune grille de lecture n'est universelle mais tous les acteurs s'efforcent d'élaborer des règles communes qui permettront, à terme, de comparer au moins les entreprises d'un même secteur. De fait, en accompagnant le même développement qu’a connu le monde des indices boursiers, les agences de notation sociale (ou notation extra–financière, ou encore "rating social") ont été créées à la fin des années 90 et au début des années 2000.

Il est à préciser que ces agences de notation se sont développées dans deux types de structures. Certaines agences sont des organisations à but non lucratif (des associations créées spécialement pour réaliser cette activité de notation dans un objectif non lucratif ou des associations existantes qui ont développé ultérieurement à leur création un service de notation sociétale). D’autres agences sont des entreprises (organismes dont l'unique activité est l'analyse et la notation sociétale ou des cabinets de conseil spécialisés ayant fait évoluer leurs activités vers la notation sociétale).

Parmi les agences les plus connues, on peut citer "Vigeo Group" créée en 1997 et leader européen de la notation sociale depuis 2005. Pour le reste du monde, parmi tous les organismes existants, on peut citer : "Innovest" pour le continent nord-américain et le monde anglo-saxon créé en 1995 et "ASRIA" pour le monde asiatique.

Depuis sa création, ce secteur s’est sensiblement développé et compte aujourd’hui une trentaine d’acteurs, localisés en Europe, en Amérique du Nord et en Asie. Ces agences travaillent à partir d'analyses des documents publics, de questionnaires spécifiques, et de rencontres avec des responsables d'entreprises. Chacune a sa propre méthodologie, ce qui ne simplifie pas la comparaison entre les notes attribuées aux différentes entreprises.

A partir de l'exploitation des informations communiquées par l’entreprise ou par d'autres parties prenantes, l'analyse extra–financière appréhende le niveau de prise en compte des impacts extra–financiers de l’activité économique d'une entreprise. On se base sur des critères extra–financiers pondérés selon leur degré d'importance pour aboutir à un score ou une note globale qui positionnent l'entreprise sur une échelle de notation généralement sectorielle.

Cette analyse développée par ces agences a pour premier objectif de répondre à la demande des investisseurs. Ils utilisent ces notes ou les informations délivrées pour sélectionner les entreprises figurant dans leurs "portefeuilles ISR". Plusieurs approches de l’analyse extra–financière ont été développées en fonction des attentes des investisseurs. Cette analyse peut se faire selon une approche dite d’"évitement" (utilisation de critères d’exclusion définis par l’agence ou par les clients), selon une approche de "performance" (identification des sources de sur–performances financières des valeurs étudiées), ou encore selon une approche "risques et opportunités".

L’enseignement que l’on peut tirer de ces différentes approches c’est que l'analyse sociétale a pour objectif de traduire les impacts positifs des enjeux environnementaux, sociaux et de gouvernance sur la performance financière de l'entreprise à court, moyen et long terme. En effet, si au départ, les agences travaillaient exclusivement pour les investisseurs, elles ont diversifié leurs activités et ont aussi des offres d'évaluation des politiques sociales et environnementales destinées aux entreprises et aux collectivités locales.

Par ailleurs, le phénomène a gagné un large terrain en s’intéressant progressivement aux pays émergents. C’est ce qui a été confirmé par la stratégie de développement du cabinet "Vigeo Group", dirigé par Nicole NOTAT, qui a choisi de s’implanter récemment au Maroc (Agence de Casablanca) afin de conquérir le marché nord-africain, et cela en plus de ses trois agences basées à Paris, Bruxelles et Milan. Ce qui assure sa place de numéro un de l'évaluation extra–financière des entreprises.

En effet, l’implantation au Maroc de "Vigeo Group" est faite avec un grand succès. « Il faut souligner que cette couverture se développe avec des entreprises marocaines et pas seulement avec des filiales d'entreprises européennes », se félicite N. NOTAT. La logique suivie par le cabinet consiste à travailler sur ce pays qui représente un véritable laboratoire sur cette région.

A vrai dire, le phénomène de la RSE et de la notation sociale est donc plus qu'un effet de mode, il s'agit en fait d'une obligation économique et sociale envers la société dans laquelle l'entreprise réalise sa valeur ajoutée. Reste à savoir si cette RSE se fera au détriment de la performance financière des entreprises. C’est là donc le point–limite au-delà duquel il nous faut plus de recherches et d’investigations pour pouvoir découvrir les liens qui pourraient exister entre la RSE et la création de valeur ainsi que les possibilités de comparaison entre les performances de l’ISR et celles des investissements traditionnels.

OMAR EL HEDDAD
ETUDIANT CHERCHEUR
DESA FINANCE AUDIT ET CONTROLE DE GESTION
ENCG TANGER

La finance : de l'approche cartésienne à la théorie des jeux

La finance s’intéresse à la façon dont l’épargne des investisseurs est allouée à travers le système monétaire et financier aux entreprises qui l’utilisent pour financer leurs activités.

Au niveau académique et de la recherche, on effectue souvent une séparation entre les différentes branches de la finance par application de l’approche cartésienne qui consiste à parcelliser un problème le plus finement possible pour le résoudre. Ainsi, on retrouve qu’il existe plusieurs problématiques, chacune limite les frontières d’une branche de la finance.

La finance de marché (ou bien la gestion de portefeuille) s’intéresse à identifier les critères selon lesquels on doit répartir notre fortune sur les différents actifs financiers et non financiers pour maximiser nos gains.

On distingue entre les critères classiques (Savage, Laplace, Hurwiz, etc.) avec les méthodes d’évaluation d’actifs se basant sur l’actualisation et les modèles économétriques et le critère de risque qui a changé notre perception de la finance de marché.

Aujourd’hui, les derniers travaux qu’on classe dans la finance de marché sont en psychologie de marché (La théorie des perspectives de Vernon & Tvesky).

La finance d’entreprise, quant à elle, s’intéresse à identifier les critères selon lesquels on doit décider de la structure financière et par la même occasion de la politique financière.

Dans cet article, on ne va pas étendre notre réflexion aux autres branches de la finance mais on va se limiter à ces deux branches qu’on juge complémentaires à savoir la finance d’entreprise et la finance de marché et dont la séparation conduit à la paupérisation des conclusions.

En rejetant l’approche cartésienne, la théorie des jeux apparaît comme un outil intéressant qui, au lieu d’effectuer une parcellisation identique à celle cartésienne, s’occupera d’étudier des situations incluant l’ensemble des participants.

Tout d’abord, on fera un petit rappel de la théorie des jeux sans toutefois plonger dans son contenu. Par la suite, on va examiner l’apport de la théorie des jeux en finance.

La théorie des jeux :

La théorie des jeux est un ensemble d’outils analytiques permettant de formaliser des situations de décision qui regroupent des agents stratégiquement interdépendants qui s’influencent les uns aux autres et qui en ont conscience.

L’utilisation de la théorie des jeux ne garantit pas la victoire mais elle constitue un cadre de réflexion stratégique. Contrairement à la théorie de décision individuelle qui se préoccupe de la maximisation des gains d’une personne sans prendre en considération la stratégie des autres parties, la théorie des jeux s’intéresse à l’étude des différentes stratégies que l’autre partie pourrait adopter et en confrontant celles-ci avec nos stratégies, on définit celle qui nous permet de maximiser nos gains.

La théorie des jeux est plus une approche qu’une théorie, elle est appliquée dans divers domaines. Le cabinet Mc Kinsey de conseil en stratégie utilise cette approche. John Stuckey & David White (deux consultants) déclarent :

“To help predict competitor behavior and determine optimal strategy, our consulting teams use techniques such as pay-off matrices and competitive games.”

“Pour aider à prédire le comportement des concurrent et déterminer la stratégie optimale, nos équipes de consultants utilisent des techniques comme la matrice des gains et les jeux non coopératifs”

La formalisation de situations de conflits a commencé par la création de jeux de société : jeux de dames, d’échecs, etc. Les règles de ces jeux sont établies conventionnellement et représentent de façon abstraite les possibilités offertes aux acteurs représentés. L’étude de ces jeux a intéressé des mathématiciens et des philosophes comme PASCAL, BERNOUILLI, BOREL.

Les apports de Von Neumann et Morgenstern mais surtout celui de Nash ont pu donner un énorme coup de pouce à la théorie des jeux. Voici l’ensemble des apports qui ont donné naissance à la théorie des jeux :

  • Cournot (1838) : équilibre en duopole ;
  • Darwin (1871) : biologie évolutionniste, sélection naturelle ;
  • Zermelo (1913) : positions gagnantes dans le jeu d'échec;
  • Emile Borel (1921) : stratégie mixte (aléatoire) ;
  • Von Neumann et Morgenstern (1944), \Theory of Games and Economic Behaviour";
  • Nash (1950b, 1951) : notion d'équilibre, jeux généraux;
  • Nash (1950a, 1953) : solution de négociation ;
  • Shapley (1952, 1953) : "cœur" et valeur d'un jeu coopératif;
  • Selten (1965, 1975) : raffinements d'équilibre ;
  • Harsanyi (1967, 1968) : information asymétrique.
  • Yisrael Aumann (2005), prix Nobel en économie.

Quelques concepts de base de la théorie des jeux :

Loin de vouloir reprendre le contenu de la théorie des jeux, j’aimerai toutefois définir quelques concepts clés pour le public non averti.

a. Un jeu est une situation d’interaction stratégique qui détermine les contraintes pesant sur les actions (stratégies) que les joueurs peuvent choisir.

b. Une solution est la description systématique des situations qui peuvent émerger comme le résultat d’une famille de jeux.

On peut classer les jeux sur la base de trois dimensions basées :

  • Le type de relation entre les agents (coopératif, non coopératif) ;
  • Le déroulement dans le temps (simultané, séquentiel)
  • L’information dont disposent les agents (information parfaite, imparfaite et complète, incomplète)

Les jeux non coopératifs sont les jeux dont les éléments de base sont les actions des joueurs individuels (conflit d’intérêt entre les joueurs) ;

Les jeux coopératifs sont les jeux basés sur les actions jointes d’un groupe de joueurs.

Un jeu simultané est le modèle d’une situation où chaque joueur choisit son plan d’action complet une fois pour toute au début du jeu.

Un jeu séquentiel spécifie le déroulement exact du jeu. Chaque joueur considère son plan d’action chaque fois qu’il doit effectivement prendre une décision pendant le déroulement du jeu.

Un jeu avec information imparfaite si au moins un ensemble d’information contient plus d’un nœud;

Un jeu avec information parfaite si chaque ensemble d’information est réduit à un seul nœud.

Apport de la théorie des jeux en finance :

Au lieu d’étudier chaque branche à part, on propose d’étudier les opérations effectuées au niveau du système monétaire et financier en général et plus particulièrement au niveau du marché financier comme des jeux, ce qui nous permettra de confronter les stratégies des joueurs et avoir de meilleures conclusions.

Ainsi, on peut citer trois types de jeux qui existent au niveau d’un marché boursier:

  • Les jeux entre investisseurs et entreprises cotées en bourse ;
  • Les jeux entre investisseurs eux-mêmes ;
  • Les jeux entre entreprises cotées elles même.

Les jeux entre investisseurs et entreprises cotées en bourse :

Selon Franklin Allen dans « Finance Applications of Game Theory », l’application de la théorie des jeux en finance se manifeste par deux théories à savoir la théorie d’agence et la théorie de signal.

En ce qui concerne les jeux entre investisseurs et entreprises cotées en bourse, la théorie de signal est la conception qui décrit le mieux ce type de jeux.

Les dirigeants des entreprises sont mieux informés sur la qualité et perspectives de leur entreprise que les investisseurs (nouveaux actionnaires ou créanciers), ainsi face à ce type de jeux, les investisseurs sont tenus de détecter les signaux (informations) qui aideront à définir le profil de l’entreprise.

On distingue entre 3 types de modèles à savoir les modèles de signalisation par les dividendes, les modèles de signalisation par le niveau d’endettement ainsi que les modèles d’augmentation de capital.

Chaque modèle étudie la réaction des investisseurs face à ces signaux. Dans cet article, on va étendre la notion de signal à toute information utile qui permet d’identifier les perspectives d’une entreprise. Je cite l’exemple d’Addoha au Maroc qui, après l’annonce des investissements projetés dans la capitale marocaine, a vu son cours se multiplié par 5 durant une période d’un mois et demi.

Cette approche a discrédité les modèles théoriques et les modèles économétriques du moment que la matière première d’un marché financier est l’information qui est une sorte de signal sur les perspectives d’une société. Cette approche qui se trouve validée empiriquement, conduit à rejeter le chartisme catégoriquement.

Un gestionnaire de portefeuille devrait être plus attentif aux informations sur les entreprises. Il s’intéressera à anticiper la réaction des investisseurs vis-à-vis de chaque information avant de décider s’il doit acheter ou céder un titre.

Les sociétés sont conscientes de l’impact des signaux qu’elles émettent sur l’évolution de leurs cours, d’où l’intérêt de les maitriser.

Les jeux entre les investisseurs eux-mêmes :

Une fois les investisseurs sont convaincus par les bonnes perspectives d’une société et de son titre, il n’est pas aisé d’acquérir le titre dans la mesure où toute vente ou achat ne se fait qu’une fois la demande et l’offre s’égalisent et que l’ordre se trouve en tête de fil.

Un investisseur a intérêt d’acheter à un prix inférieur et de vendre à un prix supérieur au dernier cours de la journée pour pouvoir battre le benchmark et pour cela il a affaire à d’autres investisseurs. L’investisseur qui gagne le plus est celui qui maîtrise l’art du Market timing (savoir quand est ce qu’il pourra vendre et quand est ce qu’il pourra acheter).

Les jeux entre les entreprises elles même :

Les entreprises cotées sont en concurrence ce qui veut dire que si un titre est non liquide, l’entreprise émettrice du titre pourrait annoncer des informations qui intéresserait les investisseurs améliorant ainsi la liquidité de leurs titres. Toutefois, cette opération ne doit pas coïncider avec celles d’autres titres plus attractifs. Ce qui impose à ce type d’entreprise de savoir choisir le timing d’une telle opération.

Une telle opération pourrait se faire lorsque le marché est en régression et qu’il n’y a aucun titre qui est attractif.

La théorie des jeux est un moyen qui permet de joindre deux branches de la finance qui se complémentent pour avoir une vision plus complète et des conclusions plus convaincantes.

Les formules mathématiques ne sont plus d’actualités, on retrouve dernièrement des recherches qui relèvent de l’économie expérimentale notamment avec la théorie des perspectives de Vernon et Tvesky.


AHMED TAHIRI JOUTI
ETUDIANT CHERCHEUR
DESA FINANCE AUDIT ET CONTROLE DE GESTION
ENCG TANGER