Rencontres francophones sur la logique floue et ses applications

Enfin, nous comparons la performance de la solution proposée aux solutions existantes. Le paradigme de subspace clustering flou standard peut conduire à des discontinuités dans les solutions calculées: Pour contrer ce phénomène, cet article propose d'ajouter à la fonction de coût un terme de régularisation, inspiré du clustering spectral, pour combiner une similarité globale à la similarité locale à chaque cluster. Les approches de soft computing utilisent souvent un vocabulaire utilisateur pour réécrire linguistiquement des données numériques et catégorielles.

Les techniques classiques d'extraction de connaissance par exemple, de découverte de règles d'association ou de clustering , quant à elles, permettent d'aider l'utilisateur à comprendre la structure interne des données. Pour appliquer ces techniques à des données réécrites linguistiquement, il faut d'abord définir une mesure de distance adaptée, car la plupart des méthodes en question reposent sur l'usage d'une métrique, dont les propriétés ont un impact important sur la pertinence des connaissances extraites.

Dans cet article, nous proposons une mesure qui calcule la dissimilarité entre deux objets réécrits selon un vocabulaire utilisateur. L'objectif de cet article est de proposer une nouvelle approche de classification prudente basée sur l'inférence Bayésienne robuste et l'analyse discriminante linéaire. Cette modélisation est conçue pour prendre en compte, dans ses inférences a posteriori, le manque d'information lié aux données. Des premières expériences montrent que l'ajout d'imprécision permet d'être prudent en cas de doute sans pour autant diminuer la qualité du modèle, tout en gardant un temps de calcul raisonnable.

Les méthodes évidentielles d' étalonnage de classifieurs binaires apportent une amélioration par rapport aux méthodes probabilistes, en représentant explicitement l'incertitude d'étalonnage induite par la quantité de données étiquetées d'apprentissage.

Le Dark Web - Partie 1

Cette incertitude justifiée mais indésirable peut être réduite en ajoutant des données d'apprentissage, qui sont généralement coûteuses. D'où la nécessité de stratégies qui, étant donné un réservoir de données non étiquetées, sélectionneront des données intéressantes à étiqueter, c'est-à-dire celles induisant une baisse d'incertitude supérieure à la sélection aléatoire.

Deux stratégies de ce type, inspirées de l'échantillonnage par incertitude en apprentissage actif, sont considérées dans cet article et appliquées à un ensemble de classifieurs SVM sur des jeux de données de classification binaire classiques. Les résultats expérimentaux montrent l'intérêt de l'approche vis-à-vis de la réduction de l'incertitude d'étalonnage, mais aussi vis-à-vis de l'amélioration des performances de classification.

Cultura & Moi

Une modification des mécanismes d'inférence et d'apprentissage dans les modèles de Markov cachés autorégressifs est proposée pour prendre en compte des connaissances a priori. Ces modèles sont particulièrement intéressants pour représenter statistiquement des séries temporelles. Le fait de pouvoir ajouter des connaissances a priori permet de l'utiliser dans de nombreuses applications.

Deux applications sont présentées: Nous proposons dans ce papier une famille paramétrée de mesures de conflit dérivée d'une définition de cohérence de fonction de croyance proposée récemment. La famille proposée satisfait un ensemble de propriétés jugées désirables dans la littérature et est de plus monotone. Nous montrons que deux mesures connues du conflit correspondent à des cas particuliers de cette famille et coïncident avec sa borne inférieure et sa limite asymptotique supérieure. Nous établissons également un lien entre les ensembles incohérents minimaux et la cohérence d'une fonction de croyance.

La définiton des nouvelles mesures est motivée sur un exemple d'estimation multi-source de destination de bateaux.

LFA 2018 - Rencontres francophones sur la Logique Floue et ses Applications

Le but de cet article est de définir la contrepartie qualitative des fonctions de croyance séparables issues de la fusion de témoignages élémentaires non fiables pour des capacités à valeurs sur un ensemble fini totalement ordonné. Dans le cadre qualitatif, une distribution de possibilité définie sur l'ensemble des parties du cadre de discernement remplace la fonction de masse. Il s'avère que toute capacité peut être induite par la contrepartie qualitative de la définition d'une fonction de croyance.

Nous considérons ensuite une contrepartie de la règle de combinaison de Dempster appliquée aux capacités qualitatives. Nous étudions la classe des capacités séparables, qui peut être générée en appliquant cette combinaison à des capacités à support simple.


  1. Rencontres francophones sur la logique floue et ses applications - Librairie Eyrolles.
  2. 27ème rencontres francophones sur la Logique Floue et ses Applications!
  3. 14-15 Novembre 12222, Alès, France.
  4. Rencontres francophones sur la logique floue et ses applications.
  5. site rencontre 33.
  6. LFA 2018, rencontres francophones sur la logique floue et ses applications?

On la compare avec la décomposition des capacités comme un maximum de fonctions de nécessité. Nous montrons enfin la pertinence de ce formalisme pour le problème de la fusion d 'informations issues de sources non fiables. Le crowdsourcing consiste à l'externalisation de tâches à une foule de contributeurs rémunérés pour les effectuer. Nous présentons ici une nouvelle méthode de modélisation de l'expertise du contributeur dans les plateformes de crowdsourcing se fondant sur la théorie des fonctions de croyance afin d'identifier les contributeurs sérieux et qualifiés.

De nos jours, les opinions partagées sur les sites web sont devenues l'une des principales sources d'information lors de la prise de décision pour les acheteurs qu'ils soient des particuliers ou des entreprises. Malheureusement, l'importance de la publicité et l'attrait du profit ont provoqué l'apparition de fausses opinions afin de troubler les consommateurs.

Puisque les avis donnés sont généralement imprécis et incertains, il est assez difficile de distinguer les faux avis des vrais. Dans cet article, nous proposons une nouvelle méthode de détection de faux avis, capable de traiter l'incertitude en se fondant sur la théorie des fonctions de croyance. Cette approche permet de prendre en compte la compatibilité entre l'avis donné et tous les autres. Nous proposons de valider le comportement de notre méthode à travers des exemples numériques et de l'évaluer à travers des bases artificielles.

Pages in data.bnf.fr

Ces expérimentations prouvent que cette méthode, prenant en compte l'incertitude, constitue une première démarche intéressante pour la détection de fausses opinions. Ce papier est dédié à l'implémentation de contrôleurs avancés type Takagi-Sugeno. L'application considérée est le contrôle du papillon d'un moteur thermique essence fonctionnant à régime ralenti. Afin de synthétiser un contrôle basé sur modèle, un modèle est d'abord obtenu et identifié avec un banc d'essai moteur. Dans la mesure où il implique des non-linéarités, une représentation Takagi-Sugeno est exprimée.

A cause de la complexité du modèle, un simple contrôleur TS ne peut pas être obtenu après avoir appliqué la méthodologie de Lyapunov. Un contrôleur TS avancé est donc considéré. Des conditions LMI sont obtenues à travers la méthode directe de Lyapunov.


  • LFA'99, Valenciennes, 21-22 octobre 1999.
  • Sources and references.
  • Présentation.
  • 27ème rencontres francophones sur la Logique Floue et ses Applications.
  • site de rencontre gratuit sur bordeaux.
  • Cependant, l'inversion matricielle temps-réelle présente dans la structure non-PDC rend l'implémentation difficile voire impossible. Un contrôleur alternatif est alors synthétisé pour avoir des performances similaires sans l'inversion matricielle. Puis le contrôleur est implémenté dans l'ECU industrielle du banc moteur. Des résultats expérimentaux illustrent l'efficacité du contrôleur Takagi-Sugeno avancé proposé. Cette communication concerne la commande tolérante aux défauts FTC des systèmes algébro-différentiels décrits par des modèles Takagi-Sugeno T-S descripteurs à retard en présence des défauts actionneurs et des perturbations extérieures.

    En utilisant un observateur avec un estimateur à mémoire de défauts, une FTC aux défauts actionneurs est développée pour assurer la stabilité du système en boucle fermée non seulement dans le cas nominal mais également en présence de défauts actionneurs. Les conditions de synthèse dépendantes de la longueur du retard, à la fois de l'observateur et du contrôleur tolérant aux défauts sont données sous forme des LMIs qu'on peut résoudre en une seule étape.

    Un exemple est finalement présenté afin d'illustrer l'efficacité des résultats obtenus. The system is represented into a Takagi-Sugeno T-S discrete fuzzy model. Based on the Lyapunov functions theory, some required sufficient conditions are established in terms of linear-matrix inequalities LMIs , which can be easily solved by an efficient convex optimization algorithm.

    The provided conditions are obtained through a fuzzy Lyapunov function candidate and a non-PDC control law, to maintain a robust performance against load variation of a buck-boost DC-DC power converter system. The results obtained are compared with the ones achieved with Fuzzy model predictive control MPC in terms of robustness to disturbances. Ce travail traite du passage de modèles non linéaires à des modèles quasi-LPV ou dits de Takagi- Sugeno par la méthode des secteurs non-linéaires.

    Cette technique permet une représentation exacte mais le modèle polytopique obtenu comporte un nombre de sommets égal à 2 à la puissance du nombre de nonlinéarités du modèle. Cette croissance exponentielle se répercute sur le nombre de conditions qui permettent de résoudre un problème, soit de commande, soit d'observation. Ces conditions sont écrites sous forme d'inégalités linéaires matricielles LMI et les limites de résolution des solveurs actuels peuvent être rapidement atteintes. Réduire le nombre de sommets en conservant des modèles T-S proches du modèle NL est donc une voie intéressante.

    Une technique de réduction de modèle basée sur les similarités des développements limités de Taylor est proposée. Un exemple d'application souligne l'intérêt d'une telle technique lors de l'application de la méthodologie TS aux systèmes mécaniques. Dans ce papier, nous nous intéressons à la synthèse d'un observateur proportionnel intégral PI pour estimer les états et les défauts capteurs et actionneurs des systèmes non linéaires incertains représentés par des modèles flous de type Takagi-Sugeno T-S en prenant en compte la sensibilité des résidus aux défauts et l'effet de la perturbation extérieure.

    En outre, nous utiliserons l'approche descripteur pour avoir des LMI moins restrictives. Finalement nous présenterons des résultats de simulation pour illustrer la méthode proposée. Basée sur l'approche Takagi-Sugeno TS sous forme descripteur, une loi de commande PDC Parallel Distributed Compensation avec modèle de référence est utilisée pour garantir des performances de poursuite de trajectoire et de précision.

    Rencontres francophones sur la logique floue et ses applications - Journal - Resources from the BnF

    En utilisant des inégalités linéaires matricielles LMI , le critère de performance H1 et une fonction de Lyapunov, des conditions de stabilisation sont données. Cette communication concerne la commande PDC Parallel Distributed Compensator des systèmes flous de type TS soumis à des perturbations extérieures supposées appartenir à un domaine fréquentiel limité. Nous proposons des conditions suffisantes garantissant la stabilité du système en boucle fermée et les performances H infini vis-à-vis des perturbations extérieures supposées bornées en norme dans les domaines de fréquences pré-définies.

    La méthode proposée est basée sur la stabilité de Lypaunov et le lemme généralisé de Kalman Yakubovich Popov. Un exemple de simulation est donné pour démontrer la validité et l'efficacit é de l'approche proposée. Cet article aborde l'approximation linéaire par morceaux de distributions de possibilité construites à partir de transformations de distributions de probabilité.

    Pour le cas des lois symétriques nous considérons la transformation optimale, i. Pour les lois non symétriques, nous considérons en plus une deuxième transformation basée sur une normalisation à droite et à gauche du mode de la fonction de répartition. Les propositions sont illustrées sur des lois usuelles de probabilité.

    Cet article présente la première définition des jeux hypergraphiques ordinaux O-HG. Cette définition est intégrée dans le cadre des jeux ordinaux et par analogie avec les jeux hypergraphiques classiques. Nous étudions d'abord la notion d'équilibre de Nash pur dans un O-HG et montrons que, pareillement à un jeu graphique, décider de l'existence d'un équilibre de Nash pur est un problème NP-complet.

    Ensuite, nous nous concentrons sur le problème de trouver un équilibre possibiliste mixte étant donné un O-HG. Pour ce faire, nous proposons un algorithme polynomial en temps, adapté de l'algorithme proposé pour les jeux ordinaux en forme normale. Cet algorithme est illustré sur un exemple agronomique. Les jeux Bayesiens ou jeux à information incomplète offrent un cadre adapté au traitement de jeux à utilités cardinales sous incertitude.

    Dans cet article, nous proposons un modèle de jeux à information incomplète basé sur la théorie de l'utilité qualitative possibiliste: Nous étudions deux notions fondamentales de la théorie des jeux - les notions d'équilibre de Nash et de stratégie de sécurité - et montrons que tout jeu possibiliste peut être transformé en un jeu classique équivalent en termes d'équilibre de Nash pur.

    Les extensions de la préférence statistique aux variables aléatoires floues sont proposées comme suit: Ensuite, les liens entre ces différentes façons de procéder sont établis. Cet article présente, pour des intervalles graduels, une formulation nouvelle et plus générale des opérations min et max initialement proposée dans [1] pour le cas particulier des intervalles flous triangulaires. Les noyaux de convolutions sont des outils indispensables en traitement du signal.

    Ils permettent de modéliser le comportement d'un capteur, de définir les propriétés d'un filtre, de transformer une opération continue en opération discrète, etc. Une des difficultés est cependant d'identifier quel noyau utiliser pour quelle application. Dans des articles précédents, nous nous sommes appuyés sur une analogie simple entre noyaux de convolution positifs et distributions de probabilités pour définir la notion de noyau maxitif.