Les outils du Knowledge Management

Avec l’apparition des Techniques d’Information et de Communication, les entreprises ont du s’adapter : de nouveaux outils sont venus se greffés à l’activité de celles-ci. Il ne faut cependant pas se focaliser uniquement sur les techniques matérielles mais aussi se soucier des « outils humains » mis en œuvre pour organiser la structure de l’entreprise et aménager des relations entre les différents acteurs d’une même société.

Le modèle KWC (Knowledge Workers Community) est, selon Prax, « une représentation générique des modalités de collaboration de partage d’information et de connaissance ». Ce modèle, créé par Prax lui-même a pour but de donner une feuille de route, une base aux entreprises pour qu’émergent des groupes qui se comprennent et dont les membres sont en interaction de manière constructive pour le bon fonctionnement de la communauté.

Il nous a semblé judicieux de garder le découpage binaire proposé par Prax dans Le Manuel du Knowledge Management en présentant tout d’abord ce qu’il appelle les technologies spécifiques qui sont celles qui répondent à un besoin de la communauté en un temps donné : ce sont les relations et les structurations humaines. Ensuite nous nous pencherons sur un plan plus technique en abordant les technologies génériques qui comportent à la fois les dispositifs d’accès aux zones d’échange et la gestion électronique des documents.

Les technologies spécifiques

Les techniques spécifiques

Le Knowledge Management est un cycle permanent, avec de la création de connaissance. Il existe quatre périodes dans la vie d’une communauté :

* Existence

* Participation

* Performance

* Valeur

L’existence : il s’agit de la visibilité de la communauté professionnelle pour l’extérieur ainsi que pour ses propres membres. L’existence de cette communauté tient ses capacités de ses membres, pour voir les compétences mutuelles, qui doit conduire à la confiance. Le dynamisme de cette communauté doit faire naître des projets collaboratifs (ces projets sont des moteurs de motivation).

La participation : il est d’abord nécessaire de créer un climat de collaboration, propice au travail, en tenant compte des contraintes de calendrier. C’est ici asynchrone, il s’agit d’un travail divers, et distant.

La performance : en partant des documents supports, il y a un travail nécessaire de capitalisation, comme la classification et l’indexation. C’est une meilleure accessibilité, clarté, et dont l’objectif est d’améliorer la performance.

La valeur : l’entreprise s’occupe de son capital de savoir, et de recherche, de conservation et de transmission. L’entreprise traite également de modules d’auto-formation, et des technologies du e-learning. Un espoir naît du fait de l’émergence de nouvelles communautés. Ainsi on peut recommencer, l’évolution de la communauté professionnelle.

La rosace fonctionnelle du modèle KWC :

6 segments fonctionnels:

1. Espace discussion

2. Espace collaboratif

3. Sources externes. Veille

4. Production de document interne

5. Livres de connaissances. Learning. Tutorat

6. Cartographie de l’expertise

La non standardisation des outils est un frein à la communication. Il existe des outils non compatibles entre eux, comme la GED (Gestion Electronique Documentaire), les logiciels vectoriels, les bases de données, …

Il faut que les outils tiennent compte des usages particuliers, on peut ainsi choisir des outils spécialisés et adaptés.

Les choix technologiques : – architecture technique générique au niveau du groupe

* applicatifs spécifiques, mais compatibles avec l’architecture technique

Segment 1 : Se connaître, échanger des idées

La visibilité de la communauté au sein de l’organisation est permise par l’Intranet qui est un outil dont l’objectif est de matérialiser la communauté. Un individu peut appartenir à plusieurs communautés dans le même temps. Ainsi, la capacité d’hyperconnexion est primordiale. Donc, il doit y avoir une organisation des différentes sous communautés, ce qui peut être fait par l’home-page personnalisé. Il s’agit de l’idée que chacun doit avoir une page d’accueil personnalisé.

La visibilité de la communauté pour ses membres est composé d’outils tels que l’annuaire, ou aussi la liste des personnes en ligne.

La visibilité de chaque membre correspond à la question du « Qui fait quoi ? ».

On est face à quatre catégories :

* coordonnées (pour d’éventuels contacts)

* informations « officielles » (informations relatives au poste occupé par la personne, au niveau de la hiérarchie, notamment).

* informations autodéclarées (informations ayant un rapport avec les compétences déclarées, les sujets d’intérêt).

* Activité dans la communautés d’intérêt (indications concernant les activités de la personne, on dresse un historique de ces activités), comme les dernières réponses faites, une liste de liens utiles, des liens de documents.

Les rencontres virtuelles sont un moyen qui dispose de beaucoup de fonctionnalités. Certains établissent une différence entre le communityware (plateformes destinées à supporter les échanges virtuels) et le groupware (centré sur le support d’un groupe de travail).

Voici des exemples de fonctions :

* fonction de dialogue synchrone

* le whiteboarding (se compose d’un tableau blanc collaboratif, il est ouvert à l’écran, et les personnes distantes peuvent y inscrire ce qui est nécessaire).

* le polling / volting, qui assure la possibilité d’émettre une question auprès de la communauté pour le vote. Manager l’activité de la communautédoit relever d’un membre particulier de la communauté professionnelle. Il s’agit de la même personne que de l’administrateur du système.

Segment 2 : Travailler ensemble, échanger de la connaissance

La gestion d’évènement réguliers est possible en publiant sur la page d’accueil, les différentes actualités. Un logiciel éditeur HTML suffit pour cet usage. Mais il existe des outils permettant des automatismes, afin qu’un poste ne soit pas rempli à plein temps pour cela.

Echanger des idées et des informations, répond du domaine appelé le « groupware », en mode synchrone ou asynchrone.

La visiophonie est un outil constitué d’une caméra et d’un modem, utilisables notamment pour des réunions virtuelles synchrones. La messagerie électronique est l’outil du groupware le plus connu et commun, c’est un outil de communication entre des personnes. Le point négatif de cet outil, est l’empilement de tous les messages par ordre chronologique, il n’y a pas de capitalisation au niveau de la communauté.

Les forums électroniques, ou BBS (Bulletin Board Systems) s’organisent selon des dossiers thématiques, ou de groupe de travail partagés. Les BBS viennent en réponse aux limites de la messagerie précédemment citées. L’émetteur s’adresse dorénavant au groupe dans sa totalité. Le forum peut être privé ou public, c’est un outil extrêmement collaboratif. Si l’on établit un forum électronique par thème ou par projet, c’est un début de capitalisation collective qui émerge.

Le versionning et l’intégration bureautique réside en la diversité des modifications possibles, mais cela est prévu. Il est nécessaire de choisir un outil GED spécifique. Permettant une gestion facile des différentes versions et dont l’adaptation est facile avec les applications bureautiques.

La gestion des tâches et du calendrier : le chef de projet peut avoir le rôle de gestionnaire de projet, pour créer le calendrier avec les réunions.

Manager l’activité du groupe projet, il s’agit ici de mettre en action les règles de fonctionnement, et d’administrer le système, la confidentialité et la sécurité. Cela est possible par l’archivage par exemple.

Segment 3 : Veiller et accéder aux sources externes

Le dynamic posting : affiche automatiquement sur la page d’accueil d’un site une partie d’un texte mis en ligne sur le site récemment. Cela a pour avantage de pouvoir accéder aux dernières nouveautés depuis la connexion précédente. Le rangement des informations est donc plus facile.

Segment 4 : Produire et gérer la documentation interne

Pour la gestion de la documentation interne, certaines fonctionnalités de l’Intranet sont très utiles. Cela permet notamment de faire des mises à jour, ou de compléter. Jean-Yves Prax prend pour exemple le fait que l’on puisse prendre le défaut selon plusieurs angle, en fonction de l’expérience vécue, et de documents écrits analysés.

Segment 5 : Transférer la connaissance, le e-learning

Les différents modes de formation à distance, sont présents, pour explorer de nouvelles possibilités, avant impossible, par le manque de moyens technologiques. Nous pouvons dorénavant mettre en réseau des gens distants au niveau géographique, et avec une forte interactivité, favoriser les travaux en binôme ou en groupe. Par le moyen de forums, avoir accès aux questions posées, et leurs réponses. Il est également nécessaire d’avoir un contact avec une bibliothèque à accès numérique, d’avoir accès à des supports pédagogiques modifiables et réutilisables, augmenter l’individualisation des formations, selon les termes de Prax, mais sans mettre en jeu d’individualisme. Bien d’autres éléments sont possibles. Les différents outils du e-learning, sont issus du mode pédagogique de formation.

Apprendre par l’écoute : visioconférence, webconférence, est permis par les nouvelles technologies dont nous allons d’abord étudier les avantages et les inconvénients, ces différents éléments sont étudiés en relation avec le mode de formation traditionnel, que nous connaissons tous.

Les avantages : les distances disparaissent au profit d’une bonne interactivité, aussi une préparation des possibilités, plus précisément des échanges qui peuvent se faire.

Les inconvénients : les coûts sont encore élevés, et on ne peut que très peu improviser. Il est également nécessaire qu’il y ait un médiateur.

Il semble aujourd’hui possible de faire de véritables « campus virtuels ». Une partie des formations peut ainsi se faire à distance en mode asynchrone ou en mode synchrone. On peut également vivre un apprentissage en utilisant Internet et les CD Roms.

Il est possible de faire des modules d’auto-formation, et d’auto-évaluation ont un poids économique important. L’apprentissage par l’échange existe selon deux formes : le télétutorat ou les forums.

Segment 6 : Cartographier l’expertise

Nous citerons d’abord des outils de déclaration pro-active : une fiche dans laquelle sont inscrit des éléments tels que les coordonnées, les formations, les compétences, les projets, les langues parlées.

Il existe également des outils de déclaration passive : des outils permettent de mettre à jour la fiche par l ‘analyse des contenus des e-mails, documents,… Il est important ici de dire que c’est un outil qui peut être désactiver, lorsque l’utilisateur considère que ce qu’il fait entre dans la sphère de sa vie privée.

On peut mettre en relation des personnes en passant par un intermédiaire.

Questionner des experts, gérer ses réponses aux questions

Lorsque quelqu’un se pose une question, utiliser la messagerie électronique représente des inconvénients, il n’y a pas de pertinence de la réponse.

Pour l’expert, l’outil offre différentes fonctions : la gestion de ses messages par sujet, la gestion des validités des messages, au cours du temps, le forwarding (transmission du message reçu à un autre destinataire).

Les technologies génériques

Les portails

Internet pose un problème aux entreprises depuis son arrivée et encore aujourd’hui : on a constaté en effet qu’il s’agissait d’une technologie décentralisatrice qui renforce la différence entre les utilisateurs. Elle n’est donc pas favorable à la création d’une communauté car les groupes d’intérêt se retrouvent isolés dans leur propre domaine et se voient donc multipliés. La solution à ce problème a été trouvée avec l’apparition des portails. Ils proposent un accès généraliste, thématique ou personnalisé mais leur création demeure dans tous les cas un travail d’animation propre à chaque communauté.

Les portails généralistes sont les premiers à apparaître sur le marché avec Yahoo en 1994 : il s’agit en effet de moteur de recherche ou d’outils de navigation. Ils ont pour avantage d’offrir un volume conséquent de données à consulter et de le faire gratuitement. Ils se déclinent sous la forme de moteurs de recherche ou d’annuaires.

Les portails personnalisés permettent comme leur nom l’indique de proposer à l’utilisateur une personnalisation par l’entremise d’assemblage de portlets via l’Open Source ou le XML. NetVibes fait partie du nombre des portails personnalisés.

* Un portlet est « un composant applicatif conçu pour donner accès – depuis l’interface utilisateur d’un portail – à des applications de travail tierces, à un logiciel de messagerie ou encore aux modules d’un progiciel de gestion intégrée. Ce concept a vu le jour début 2000, à l’initiative d’IBM notamment. » (http://www.journaldunet.com)

Les portails thématiques s’adressent davantage aux communautés qui se réunissent en groupe autour d’un intérêt particulier. Ils servent alors de lieux de rencontre, de communication et d’accès aux informations mises à disposition par la communauté. Pour les entreprises, on parle d’EIP (Enterprise Information Portal) qui sont des « plateformes de support des échanges de connaissance au sein des communautés ». Wikipedia propose notamment un accueil des portails.

Les portails de communauté se trouvent au niveau d’une communauté de pratique puisque le consommateur et le producteur de l’information se sont déjà réunis. Ainsi le portail n’est plus que le support d’un flux qui existe déjà. Il ne sert que de lieu virtuel d’échanges pour des membres éloignés géographiquement et n’est que le « symbole de la communauté ».

L’idéal du portail est de faire le lien entre document, personne et projet.

Les applications collaboratives

Le groupware est, selon Johnson-Lentz, « un concept qui désigne à la fois le processus humain et organisationnel du travail en groupe et les outils technologiques nécessaires à l’accomplissement de ce travail ». Le but est donc de faciliter le travail en groupe et de répondre au problème de l’éloignement géographique et du travail asynchrone. Les outils qui entrent dans ce concept sont notamment la messagerie, l’agenda de groupe, le forum et la conférence électronique.

Le workflow est un flux de travail qui permet la prise en compte et l’automatisation par voie électronique de la production et de la gestion des données accompagnant un processus particulier. Au contraire du groupware, le workflow n’est pas un outil de travail en groupe car il ne se résume pas seulement en la mise en relation des uns et des autres mais surtout dans la structuration de ces relations. Son but est de suivre les différentes tâches à effectuer par les acteurs. C’est en résumé un outil de management des compétences qui a pour but d’optimiser le fonctionnement collectif. Avec le workflow, on craint une surveillance trop accrue des différents membres et donc une restriction de l’initiative.

La Gestion Électronique Documentaire (GED) vient apporter la mémorisation aux divers outils de travail collaboratif. Elle permet d’accéder rapidement à des documents sélectionnés. Elle facilite la collaboration entre les divers acteurs et abolit les contraintes temporelles et spatiales puisque les documents sont partagés sans déplacement physique.

Elle a pour principal dispositif : l’indexation. Elle décrit le document en peu de mots et permet donc une exploitation du document sans avoir à le parcourir entièrement : c’est une représentation fidèle et exhaustive du contenu du document. Elle se fait à l’aide de descripteurs par l’intermédiaire de différents langages :

  • langages classificatoires qui représentent le sujet synthétiquement par matière, par auteur, par titre.
  • langages d’indexation qui représentent le document analytiquement et qui sont appelés langages combinatoires puisque les mots et les concepts sont combinés pour formuler la requête.
  • Langages contrôlés qui représentent le document par codification univoque soit pas des listes d’autorité soit par des thésaurus.
  • Langages libres qui représentent le document à partir des concepts de celui-ci à la fois par des mots-clés et par des descripteurs libres.

L’indexation se fait également à l’aide de filtres a posteriori (au moment de la requête) ou a priori (au moment de l’entrée dans la base de données). L’indexation est couteuse et doit donc être utilisée sur une base de données conséquente pour être rentable.

La veille informationnelle

C’est un système de repérage qui permet de construire des cartes thématiques afin d’augmenter la pertinence des requêtes. Elle se fait à l’aide de ce qu’on appelle des clusters sémantiques qui sont un ensemble de concepts reliés entre eux de manière graduelle en fonction de leur contribution au sujet d’intérêt principal. Ils sont différents des thésaurus qui sont reliés linguistiquement. Des diagrammes stratégiques sont également utilisés pour faciliter le travail de l’agent de veille : il s’agit de cartes de concept qui évaluent l’intérêt des thèmes pour que l’utilisateur puisse à la fois aborder le corpus de manière globale et de manière locale. C’est à partir du telle structure que s’élabore le knowledge mining dont les technologies dites de data mining se basant essentiellement sur des données déjà structurées (comme les représentations cartographiques).

A la différence de la Gestion Électronique des Documents, la veille permet d’apporter à l’utilisateur une information continue. Le problème de la qualité de l’information donnée se pose alors. En effet, l’information donnée en continu doit évoluer. L’agent de veille doit alors aussi analyser le comportement de l’utilisateur et reconnaître les concepts émergents (dont l’intérêt augmente) des concepts vieillissants (dont l’intérêt diminue).

Cependant, on s’est vite aperçu que le taux de pertinence ne suffisait plus. Par conséquent, il nous faut associer le taux de pertinence à un taux de « découverte » pour obtenir un taux de satisfaction. Ce taux de découverte est appelée sérendipité définie comme « la rencontre fortuite avec la connaissance ».

L’agent de veille doit aussi s’intéresser à l’analyse linguistique pour comprendre le processus de lecture de l’utilisateur et mieux appréhender ses requêtes.

A ces analyses, il faut ajouter l’identification du contexte ou du domaine sans lesquels le sens de la requête peut être sensiblement différent. Prax mentionne également qu’il faudrait ajouter à ces analyseurs celui du style ou de la rhétorique qui prendrait en compte les différentes manières d’expression.


Les technologies du Knowledge Management ne sont pas uniquement des outils de traitement de l’information. Nous avons vu dans une première partie que ces technologies ont pour but de répondre à des besoins humains et sociaux mais dont l’objectif principal est la structuration d’une communauté en interaction constante. Par la suite, la présentation des technologies génériques comme les portails, les applications collaboratives et la veille informationnelle nous ont démontré qu’ils ne sont que des moyens de faciliter l’utilisation des bases de données et des connaissances pour l’utilisateur. De manière générale, les outils du Knowledge Management ont pour fonction de permettre l’accès à la connaissance.

Ces nouvelles technologies ont soulevé un problème notamment au sein des entreprises. Internet a en effet posé le problème de la sécurité des données et il a fallu renforcer les règles et les procédures d’échange et d’accès à l’information. Prax mentionne par ailleurs deux méthodes de sécurisation de ces données : le firewall et le cryptage. La problématique ne s’arrête cependant pas à la sécurité mais à la façon dont on sécurise les données : il faut à la fois sécuriser les informations graduellement en fonction de l’importance des informations et ne pas radicaliser la sécurisation…

Les méthodes de capitalisation du Knowledge Management

L’avènement des technologies de l’information ouvre de nouvelles perspectives de partage d’informations et d’expériences entre les différents acteurs d’une entreprise. L’expertise forme un capital important dans une organisation. La perte de ce type de connaissances a poussé les entreprises à chercher un moyen de les capitaliser en vue d’une réutilisation ultérieure. Plusieurs méthodes ont été définies ou adaptées de l’ingénierie des connaissances à cet effet.

On va donc se demander quels sont les différentes méthodes de capitalisation de connaissances existantes et comment fonctionnent-elles au sein des entreprises ?

Ainsi, nous étudierons successivement les méthodes REX, Merex, CYGMA, Componential Framework et CommonKADS. Puis, nous réaliserons un récapitulatif synthétique de ces méthodes.

 Les différentes méthodes de capitalisation

Ces méthodes ont été classifiées par Jean-Yves Prax dans Le manuel du Knowledge Management. Les méthodes de capitalisation sont identifiées comme telles par Jean-Yves Prax car elles partent du terrain pour tendre vers une abstraction de la connaissance.

1) la méthode REX

a) introduction

La méthode REX (Retour d’EXpérience) a été définie au départ dans le but de capitaliser les expériences de conception de réacteurs nucléaires au sein du Commissariat à l’Énergie Atomique. Cette méthode est utilisée aujourd’hui dans les domaines de conception aéronautique, de lutte sous marine ou encore pour la signalisation SNCF.

Le principe de base de la méthode consiste à constituer des «éléments d’expériences», extraits d’une activité quelconque. Les éléments d’expérience ainsi définis sont stockés dans une mémoire d’expérience appelée CEMem avant d’être restitués à un utilisateur pour qu’il puisse les valoriser.

La méthode REX est donc basée sur un cycle de constitution « d’éléments d’expériences » à partir de l’expérience acquise pendant la réalisation des activités dans une entreprise. Puis, la seconde partie de la méthode consiste en l’extraction de ces éléments dans une optique de valorisation de l’expérience en un savoir-faire qui sera utile dans la réalisation des activités.

b) qu’est-ce qu’un élément d’expérience ?

La notion « d’éléments d’expériences » est donc l’idée fondamentale de la méthode REX. Les éléments d’expérience sont construits principalement à l’issue des entretiens auprès d’experts et à partir des documents relatant une activité (comme des documents de synthèse ou des bases de données). Trois entretiens d’une demie journée chacun sont recommandés :

  • Le premier entretien est mené d’une manière libre et vise à identifier les personnes concernées par un thème particulier et à collecter leur avis. Le texte recueilli à l’issue de cet entretien sert à identifier plusieurs éléments d’expérience correspondant aux différents faits cités.

  • Au cours du deuxième entretien, un ensemble provisoire d’éléments d’expérience est présenté à l’expert qui peut modifier leur contenu et les enrichir.

  • L’objectif du troisième entretien est de vérifier si toutes les modifications apportées aux éléments d’expérience ont été prises en compte. D’éventuelles corrections sont alors introduites.

Les éléments d’expérience peuvent être également extraits des documents techniques ou des procédures. Par exemple, chaque paragraphe dans un document peut être considéré comme étant un élément d’expérience de la même façon qu’une partie d’un entretien. Les éléments d’expérience ainsi constitués sont ensuite organisés de façon à être facilement réutilisables.

La transcription d’un élément d’expérience se réalise au sein d’un document type établi selon une construction codifiée qui comprend:

  • un entête

  • un corps

  • une liste de références

Le corps est décomposé lui même en trois parties:

  • une description neutre d’un fait (= observation)

  • une opinion propre et des commentaires

  • des recommandations

c) la mémoire d’expérience

Mais, dans une entreprise, il existe une diversité de vocabulaire et des points de vue divers. Ainsi, dans le but de créer une mémoire d’expérience, il est aussi nécessaire d’établir un modèle descriptif, pour les points de vue, et un réseau terminologique, pour le vocabulaire. Ces éléments sont ensuite rattachés à un élément d’expérience. Cette opération est basée sur une reconnaissance lexicale des termes qui sont identifiés dans le texte de l’élément d’expérience. Ce type d’association permet une vue descriptive du domaine. On y associe enfin des documents en lien avec cet élément d’expérience.

1) Le réseau terminologique, nommé aussi lexique, est construit pour permettre des requêtes proches de la langue naturelle. Ce réseau est constitué d’objets qui peuvent être des mots ou des phrases nominales, appartenant au vocabulaire du domaine auquel il est rattaché.

Par exemple, un outil informatique, associé à la méthode REX, propose une interface d’accès aux éléments d’expérience de l’entreprise. L’interface de ce système est conçue de manière à permettre des requêtes en langage naturel. La requête ainsi formulée sera analysée par le système, qui en réponse va proposer un ensemble d’objets correspondant aux termes identifiés dans le lexique. L’utilisateur pourra alors sélectionner l’objet qui l’intéresse, il aura ensuite accès à la description de l’objet choisi, ainsi que les éléments d’expérience qui y sont rattachés.

2) Le modèle descriptif permet de représenter les différents points de vue identifiés dans une entreprise. Par exemple, dans une activité de conception, on peut distinguer les points de vue géographique, écologique, topologique, etc. Chaque point de vue est représenté sous forme de concepts. Ils sont reliés entre eux en suivant un réseau sémantique. Le modèle descriptif sera enrichi au fur et à mesure.

2) la méthode MEREX

a) l’objectif et l’origine de la démarche

Merex (Mise en Règle de l’Expérience) est une démarche de capitalisation des connaissances issues des meilleures solutions produit et des process de l’entreprise Renault dans le domaine de la conception automobile.

Cette méthode a été créée car il est apparu que la cause principale des dysfonctionnements au cours des projets était un problème de savoir-faire des acteurs métiers. L’origine de ce problème n’était pas liée aux acteurs mêmes, qui étaient généralement hautement compétents, mais à la circulation et au transfert de ces savoir-faire entre les acteurs : c’était donc une question d’accès à l’information. Ces problèmes entraînaient par la suite des augmentations de délais, et par conséquent des augmentations de coût.

Il était donc nécessaire pour Renault d’améliorer le processus de conception et de proposer des solutions préventives et concrètes quant à l’exploitation des connaissances existantes. Merex se présente ainsi comme un système basé sur le principe du retour d’expérience (REX) et qui facilite l’accès aux connaissances des acteurs métier. La méthode permet de regrouper les savoir-faire collectifs puis de les diffuser, les partager et les réexploiter par de nouveaux projets.

b) description détaillée des composants de la méthode

Merex consiste à parcourir une liste de questions afin de vérifier si toutes les étapes d’un processus, ou les résultats attendus, ont été obtenues. Dans le cas contraire, des plans d’action sont proposés. La méthode repose sur des fiches et des check-lists.

La check-list regroupe l’ensemble des titres de fiches, et sert à faire le tour du problème avant de prendre une décision. Elle est utilisée pour le pilotage des processus.

Les fiches Merex contiennent des propositions complètes, avec des informations de différents types qui fournissent le contexte nécessaire. La démarche de capitalisation pour créer une fiche Merex s’articule en trois temps : création, partage, et exploitation :

  • l’étape de la création s’effectue à l’aide d’un modèle de document sous Word. Une fiche Merex, décrivant par définition une solution métier, est envoyée à l’animateur Merex du métier correspondant qui se charge de la publier.
  • le partage est assuré par l’animateur Merex qui publie la fiche via Lotus Notes sur l’intranet.
  •  la consultation, et par conséquent, l’exploitation d’une fiche Merex sont possibles via un navigateur Web. On peut naviguer librement dans la base, ou bien lancer une recherche.

Ainsi, une fiche Merex est construite obligatoirement selon un modèle établi sur une page dont la présentation graphique a été élaborée de façon à assurer la clarté de l’information et faciliter son exploitation. Une fiche Merex comprend alors :

  • N° d’ordre : numéro de référence de la fiche
  • Créé le : date de création de la fiche ou de sa modification.
  • ECR (Effets Clients Regroupés) se rapportant au problème décrit, à choisir dans la liste d’ECR.
  • Titre : synthèse du problème décrit dans la fiche. La check-list récupère donc ces titres pour faire un tour du problème, il est donc recommandé qu’un titre soit suffisamment explicite pour illustrer clairement le problème décrit.
  • GFE (Groupe Fonction Élémentaire) se rapportant au problème décrit, à choisir dans la liste de GFE.
  • Énoncé/Croquis : explication du problème et de la solution ou la règle précise à respecter. Cet énoncé doit être précis, il ne doit décrire qu’un seul problème par fiche, et il doit correspondre à une solution ayant effectivement fonctionné.
  • Conséquences d’un non-respect : elles indiquent l’effet client, le délai, la qualité, le coût, la sécurité, ou l’environnement susceptible de subir un impact si on ne respecte pas la règle énoncée.
  • Support pour vérifier la règle : tous les éléments sur lesquels on va s’appuyer pour valider le respect de la règle : plans, notes de calcul, maquettes, prototypes, résultats d’essais, etc.
  • Jalons : les jalons d’un projet auxquels une action de validation de la règle doit être effectuée. Par exemple : pré-contrat, accord lancement prototypes, accord fabrication véhicule.
  • Contexte : précise les points techniques et indique l’implication des fournisseurs ou d’autres services. Si une solution de retouche usine ou après-vente existe, on y indique le mode de détection, le mode de défaillance et la cause du problème à l’origine de la règle.
  • Solution de retouche : solution à employer selon le point d’entrée (conception, usine ou après-vente) si la règle n’est pas respectée. C’est un moyen de rattrapage.
  • Éléments de validation : il s’agit des moyens de vérification du respect de la règle mais aussi d’une preuve de la validité de la règle. Souvent ce sont des expériences, positives ou négatives, des projets précédents.
  • Origine et documents de référence : réfèrent aux documents qui complètent, ou confirment la fiche (cahier des charges, note de fonctionnement, rapport d’essai, note de service, etc.), et les services impliqués.
  • Se substitue à : ce champ fournit l’historique de la modification ; il indique l’ancienne fiche (si elle existe) que la nouvelle solution remplace.
  • Rédigé par, Validé par, Géré par, Exploité par : il s’agit des informations sur les acteurs concernés par la fiche selon les phases de création, validation, gestion et exploitation.

c) Rex : une méthode associée à Merex

La méthode Merex est complétée par Rex qui prend en compte les problèmes rencontrés en usine. La méthode Rex a été conçue pour décrire un problème avec son incidence qualité, coût et délai sur le projet. Ce problème est susceptible d’avoir une solution capitalisable sous forme de fiche Merex.

Rex est destiné à l’ensemble des secteurs de l’entreprise Renault et plus particulièrement aux usines de production. Les fiches Rex sont aussi accessibles via l’intranet, assurant ainsi le partage des problèmes entre les usines. Une fiche Rex a un contenu plus simple par rapport à Merex, tout en gardant ses fonctionnalités. La réalisation d’une fiche est similaire à celle de Merex : création avec un modèle Rex, publication sous Lotus Notes par un animateur Rex, et exploitation sur l’intranet.

Les deux démarches sont complémentaires par rapport au cycle de vie d’un projet véhicule : la fiche Rex est utilisée par les usines (les services d’essai, services après-vente) alors que Merex est utilisée en conception par des bureaux d’étude. Les fiches Rex formalisent le retour d’expérience, et celles de Merex assurent sa capitalisation autrement dit, elles inscrivent dans la pérennité l’expérience.

3) la méthode CYGMA

La méthode CYGMA (CYcle de vie et Gestion des Métiers et des Applications) a été définie par la société Kadetech. Cette méthode a été appliquée dans les industries manufacturières, et spécialement dans l’activité de conception.

La méthode CYGMA préconise des entretiens avec les experts et une étude de la documentation de l’entreprise afin de définir un « bréviaire de connaissances ». Ce bréviaire sera ensuite validé avec les experts. La méthode prévoit également 6 catégories de connaissances industrielles : connaissances singulières, terminologiques, structurelles, comportementales, stratégiques et opératoires. Ces connaissances sont structurées et réparties entre quatre documents qui constituent chacun une part du « bréviaire de connaissance » : le glossaire métier, le livret sémantique, le cahier de règles et le manuel.

a) le glossaire métier

Le glossaire métier contient :

  • les connaissances singulières : elles décrivent l’expérience du savoir-faire pour le métier concerné à l’aide de cas sélectionnés.

  • les connaissances terminologiques : elles décrivent le vocabulaire du savoir-faire pour le métier concerné et à l’aide de termes décidés.

Chaque élément du vocabulaire est décrit dans le glossaire par sa définition, sa traduction, sa source et des références.

b) le livret sémantique

Dans le livret sémantique sont définies les connaissances structurelles. Ces connaissances sont décrites sous forme de :

  • connaissances ontologiques : elles désignent une organisation hiérarchique en classes d’objets des connaissances terminologiques. Ces classes sont organisées ainsi, grâce à des opérateurs logiques comme ET et OU et des valeurs booléennes VRAI et FAUX.

  • connaissances factuelles : qui peuvent être définie explicitement (on parle de « connaissances faits initiaux » qui définissent le problème à résoudre) ou implicitement (on parle de « connaissances buts initiaux » qui décrivent la solution du problème à résoudre).

Le livret sémantique est décrit sous forme d’un arbre mettant en évidence les opérateurs logiques qui existent entre les classes d’objets.

c) le cahier de règles

Le cahier de règles comportent les connaissances comportementales qui sont définies par :

  • connaissances d’intégrité : ensemble de contraintes associées à une ou à plusieurs propriétés d’une classe d’objets. Ce type de contraintes peut aussi mettre en relation plusieurs classes d’objets.

  • connaissances existentielles : ensemble de règles détectant l’existence d’un objet métier.

  • connaissances synthétiques : ensemble de connaissances (définies sous forme de règles de production permettant d’écrire des faits synthétiques).

Le cahier de règles est défini d’une façon textuelle dans un document en langue naturelle. Chaque règle est définie suivant une fiche dont l’entête met en avant : le projet, la référence, la date (de l’avant-dernière modification et de la dernière modification), le type de la règle et le titre. Et dont le corps permet de décrire l’historique (raison de la dernière modification), les sources (auteur de la règle, document, norme, service), la genèse de la règle, son objectif, sa description et des remarques ainsi qu’un schéma permettant de l’illustrer.

d) le manuel opératoire

Enfin, le dernier document du « bréviaire de connaissances » est le manuel opératoire qui rassemble :

  • les connaissances stratégiques qui permettent l’emploi optimisé des connaissances structurelles et comportementales.

  • les connaissances opératoires qui sont représentées sous forme d’enchaînement d’activités décrivant le processus de résolution.

Le manuel opératoire comporte trois parties :

  • La carte qui décrit l’enchaînement des phases du processus de résolution.

  • Le parcours qui décrit graphiquement les multiples chemins possibles d’enchaînements des étapes.

  • Les étapes qui mettent à jour : les agents (opérateurs, règles, outils d’assistance, etc.), les actions mises en œuvre et les moyens utilisés (succession de choix, référence aux règles, nom d’outils, etc.).

4) la méthode Componential Framework

La méthode « Componential Framework » a été proposée dans le cadre de l’acquisition des connaissances pour développer des systèmes à base de connaissances. Cette méthode a été ensuite adaptée pour supporter la gestion des connaissances dans une entreprise. Dans cette méthode, une activité peut être définie selon trois perspectives: tâche, information et méthode.

La perspective « tâche » décrit les objectifs à atteindre, la perspective « information » met en avant les informations et les connaissances consultées et construites pour réaliser les tâches et la perspective « méthode » met en évidence comment les informations ont été utilisées pour réaliser les tâches. La définition de ces trois perspectives forme un cycle dans lequel chaque perspective évoque des connaissances à définir dans une autre perspective.

a) perspective « Information »

La méthode Componential Framework permet d’organiser les différents types d’information qui sont utilisés dans une activité (comme les bases de données, les sorties de résolution de problèmes, etc.). Ces informations sont classées selon deux sortes de modèles :

  • le modèle du domaine : il décrit les informations et les connaissances émanant du domaine de l’application.
  • le modèle de cas : il définit les informations utilisées dans un cas précis. C’est une spécialisation de certaines informations du modèle du domaine, évoquées dans la résolution d’un problème donné.

b) perspective « Tâche »

Une tâche est définie par un but à atteindre aussi appelé « cible ». Il s’agit d’une ou plusieurs informations à construire ou à modifier. Les informations utilisées et consultées pendant la réalisation de cette tâche sont appelées « sources ». Une tâche peut aussi être décomposée en sous-tâches.

Un « diagramme de dépendance » permet de représenter le flot de données entre les informations « sources », les tâches et les informations « cibles ».La décomposition en sous-tâches est décrite graphiquement grâce à un arbre de tâches appelé « structure de tâches ».

c) perspective « Méthode »

Une méthode définit comment une ou plusieurs tâches peuvent être réalisées. Une méthode peut être composite si elle gère plusieurs tâches. Elle peut être également atomique si elle gère une seule tâche.

5) la méthodologie CommonKADS

Deux projets : KADS-I, démarré en 1983, et KADS-II ont abouti à la méthodologie CommonKADS. Celle-ci a évolué récemment pour prendre en compte les aspects gestion des connaissances en plus de l’ingénierie des connaissances.

Cette méthode se base sur le postulat que le partage de la connaissance repose sur la communication et la création de connaissance. La gestion des connaissances c’est faire en sorte que les gens partagent la connaissance. Elle repose sur le constat de l’apparition des travailleurs de la connaissance (Knowledge Workers) et de la nécessité d’avoir une approche structurée de la gestion des connaissances. CommonKADS permet de faire de l’analyse des connaissances et d’aider au développement de systèmes fortement basés sur les connaissances.

La méthodologie repose sur le principe du Knowledge Level (ou niveau des connaissances) qui stipule que l’on peut modéliser de manière pertinente un système en restant à un niveau conceptuel.

a) les six modèles

Ainsi, CommonKADS propose le développement de six modèles pour analyser la connaissance: organisation, tâche, agent, communication, connaissance et conception. Les quatre premiers modèles présentent un intérêt particulier pour l’analyse préalable à la capitalisation des connaissances.

  • Le modèle de l’organisation décrit l’entreprise dans son ensemble avec les grandes fonctions.

  • Le modèle de tâche décrit les tâches réalisant les fonctions identifiées dans le modèle d’organisation.

  • Le modèle d’agent décrit les agents, humains ou informatiques, impliqués dans la réalisation des tâches.

  • Le modèle de communication rend compte de la communication homme-machine.

  • Le modèle des connaissances permet de modéliser l’expertise nécessaire à la réalisation des tâches par les agents.

  • Le modèle de conception traite plus spécifiquement de la conception d’un système à base de connaissances destiné à implémenter les connaissances modélisées.

b) la réutilisation

La méthodologie CommonKADS propose une typologie standard de tâches à base de connaissance, ainsi qu’une décomposition fonctionnelle de ces tâches. On y trouve par exemple des modèles pour les tâches de diagnostic, conception, planification, etc. Une bibliothèque apportant une aide à la modélisation est ainsi fournit. Elle permet de s’inspirer des modèles de la bibliothèque lorsqu’on démarre une nouvelle application, plutôt que de repartir de zéro.

La bibliothèque distingue les tâches d’analyse et les tâches de synthèse. Elle propose de réutiliser des combinaisons d’éléments de modèles.

La vision CommonKADS consiste à expliciter, à rendre compte des différents points de vue qui sous-tendent la modélisation du domaine pour permettre la réutilisation ultérieure si le contexte est le même (ou compatible).

CommonKADS a été utilisée dans de nombreuses applications, telles que : la détection de fraude de carte de crédit, la conception navale, l’aide au diagnostic médical, les services financiers, évaluation et conseil de qualité, recouvrement de pannes dans les réseaux électriques, etc.