Animation scientifique

Colloques

  • La Journée des Jeunes Chercheurs du MIS aura lieu lundi 19 juin dans la Salle Sophie Germain de l'UFR de Science.

     

    10:00-10:30 Accueil
    10:30-10:45 Intervention du Directeur
    10:45-11:10 Traitement de la polyphonie pour l’analyse informatique de partitions musicales
    Nicolas Guiomard-Kagan (Equipe SDMA)
    11:10-11:35 Etudes des matériaux isolants de grande rigidité électrique et conductivité thermique élevée pour les machines électriques de haute tension
    Bastian Lotina (Equipe COVE)
    11:35-12:00 Protocole d’authentification CrypTonAuth
    Monika Trimoska (Equipe GOC)
    12:00-12:25 Localisation par vision monoculaire pour la réalité augmentée
    Tawsif Gokhool (Equipe PR)
    12:25-13:45 Buffet - Session Posters
    13:45-14:10 Sécurisation d’une architecture de stockage distribuée basée sur BitTorrent
    Mariem Ben Fadhl (Equipe SDMA)
    14:10-14:35 Commande tolérante aux défauts basée sur un observateur adaptatif pour les systèmes descripteurs à retard de type Takagi- Sugeno
    Dhouha Kharrat (Equipe COVE)
    14:35-15:00 Détection du trouble autistique via Machine Learning
    Romuald Carette (Equipe GOC)
    15:00-15:25 Reconstruction 3D de la mosquée de Hassan à Rabat
    Farouk Achakir (Equipe PR)
    15:25 Clôture de la journée

     

    Equipe/Thème:
  • ICCR is the premier gathering of practitioners and researchers interested in how to bring the power of Cloud computing and Robotics to a new cutting-edge domain: Cloud robotics. The objective of ICCR is a working conference, where togethers Cloud computing and robotics researchers/practitioners to exchange their ideas. Different with traditional academic conference, ICCR is also a forum for researchers and practitioners in the two disciplines, fostering the collaboration of Cloud computing with robotics, and for practitioners to show their working projects and to discuss and exchange their problems with researchers to find a solution.

    November 22 - 23, 2016, Saint Quentin, France

    http://cloudrobotics.info

    Equipe/Thème:
  • La Journée des Jeunes Chercheurs du MIS aura lieu jeudi 23 juin dans l’amphithéâtre Curie de l’ESIEE.
     
    09h30 --- Accueil des participants ---
    10h00 Doha El Hellani (COVE) : Synthèse des fitres actifs pour les systèmes dynamiques
    10h30 Said Talbi (COVE) : Concetpion et stratégie de commande d'un convertisseur DCDC réserversible multifonction pour le stockage d'énergie dans une application aérospatiale
    11h00 Charles Onambele Essona Ela (COVE) : Conception, modélisation et et contrôle d'un convertisseur de puissance pour la commande d'un moteur haute performance pour applications avioniques
    11h30 Clément Lecat (GOC) : Nouvelle borne supérieure pour la force d'un graphe
    12h00 Présentation des posters
    12h30 --- Repas ---
    14h30 Richardson Ciguene (GOC) : Génération automatique de tests d'évaluation différenciés et équitables 
    15h00 Nicolas Guiomard-Kagan (SDMA) : Améliorer la séparation de voix en connectant mieux les contigs 
    15h30 Jordan Caracotte (PR) : Reconstruction photométrique à partir d'images hétérogènes pour environnements extérieurs
    15h50 --- Clôture de la journée ---

     

    Equipe/Thème:

Séminaires d'équipe

  • Le jeudi 8 juin à 14h, l'équipe GOC organisera un séminaire dans lequel XiaoHui Zou, chercheur au Searle Research Center, China University of Geosciences (Beijing), présentera ses travaux : 

    The purpose of this presentation is to prove the basic law of information in three verifiable ways: logic, mathematics and translation. The method involves the following steps: based on a digital and textual double matrix: First, the generalized bilingual logic of order and position is established on the basis of both Aristotle 's formal logic based on language and Frege' s mathematical logic based on arithmetic. At the same time, the function relation between digital and textual double matrices is established on the basis of both Turing's strong artificial intelligence view based on digital computation and Searle's weak artificial intelligence view based on natural language. Then, on the basis of both common knowledge and interdisciplinary, cross-field and cross-industry expert knowledge, on the basis of both Saussure's general linguistic view and Chomsky's formal linguistic view, The common reference between English and Chinese and its alternative bilingual is to establish the relation of translation on those knowledge ontologies. The result is that the three basic laws can be proved by digital and textual double matrix, the most prominent, at the same time, the most effective, both for the basic framework of information terminology and knowledge ontology, all can be extracted from abstracts of summary big data.Formal bilingual chessboard spectrum come from the abstracts or briefs big data processing and knowledge management, by means of human-computer interaction in the development environment, are easy to operate, and to be automated and efficient. Its significance lies in: quality, energy, information, three kinds of fundamental laws would be described systematically, thus establishing a global range of language, knowledge and software, automatic calculation or statistical analysis in the sequencing and positioning system, characterized by language and knowledge that have be proved by logic, mathematics and translation of three verifiable ways to automatically calculate or statistical analysis, while the global positioning system (GPS) should be regarded as a special case of hardware global sequencing and positioning system.

    Equipe/Thème:
  • El Mustapha Mouaddib donnera un séminaire sur les fondements de l'alignement d’images le 09 février 2017 à partir de 14H en salle 201.

    Equipe/Thème:
  • Le Jeudi 12 Janvier 2017 à 14H, T. Potin présentera ses travaux sur les Nuages de points: Numérisations, Traitements et Manipulations.

    Equipe/Thème:
  • Estelle Bretagne présentera ses résultats sur l'obtention d'une information colorimétrique à partir de l'intensité mesurée par un scanner 3D, le jeudi 13 Octobre à partir de 14H en salle 201

    Equipe/Thème:
  • Jeudi 6 octobre à partir de 14h00 : séminaire externe de Geoffroy Mahieux & Jean Pierre Pizzo (Laboratoire CNRS de Géologie de ENS Paris ) : « Expérience et applications du Lidar dans le domaine de la géologie ».

    Equipe/Thème:
  • Y. Mukaigawa, chercheur invité de l'équipe PR, présentera le jeudi 15 septembre à 14h les travaux de son laboratoire de recherche « Optical Media
    Interface
    » (JAPON) : vision non-conventionnelle.

    Equipe/Thème:
  • Vendredi 18 mars 2016, en salle 201, Claudio PACCHIEROTTI, chercheur à l’Italian Institute of Technology (IIT), Italie, fera un séminaire intitulé : « Cutaneous haptic feedback in robotic teleoperation ».

    Equipe/Thème:
  • Jeudi 14 janvier à 14h00 en salle 201, D. KACHI présente ses travaux sur la collaboration caméra au sol - LiDAR aérien.

    Equipe/Thème:

Séminaires de laboratoire

  • David G. Zanfack soutiendra sa thèse le lundi 1​5 mai à 1​4h30 dans ​l'amphithéâtre du Campus Universitaire de Saint-Quentin.

    Résumé

    Ces travaux visent à mettre en place une communauté de services pour la gestion des objets logistiques. Il s’agit précisément de récolter et de partager toutes les informations nécessaires à la planification, l’exécution et la coordination des flux. Le modèle de flux de marchandises que nous cherchons à modéliser a donc pour objectif principal de faciliter le développement et la mise en place des systèmes de gestion collaboratives de flux de marchandises basés sur l’Internet des objets et les plateformes cloud Computing. Ce défi scientifique et technologique peut se décliner en sous objectifs comme suit:
    - Proposer un modèle générique de flux logistique centré sur l’entité logistique en tant qu’entité autonome et communicante.
    - Passer de l’échange au partage: Collecter les données sur l’entité et le flux logistique, stocker et partager ces données à l’ensemble des acteurs de la supply chain.
    - Gérer l'hétérogénéité des données et les droits d’accès pour l’interopérabilité des flux.
    - Intégrer le flux de marchandises avec les technologies de l’internet des objets et des plateformes Cloud.
    - Réaliser une vrai plateforme collaborative en mode SaaS: dans ce cadre, il est plus question d’architecture et d’intégration.

    Le jury est constitué de: 

    Rapporteurs :
    Pascal LORENZ                 Professeur à l’Université de Haute Alsace
    Lyes BENYOUCEF            Professeur à l’Université d’Aix-Marseille              
    Examinateurs :
    Imed KACEM                     Professeur à l’Université de Lorraine
    Damien TRENTESAUX     Professeur à l’Université de Valenciennes et du Hainault-Cambresis
    Jaafar GABER                   Maître de Conférences à l’Université de Technologie de Belfort-Montbéliard                         
    Directeurs :
    Jérôme FORTIN               Professeur à l’Université de Picardie Jules Verne                
    Ahmed NAIT-SIDI-MOH   Maître de Conférences HDR à l’Université de Picardie Jules Verne
    David DURAND                Maître de Conférences à l’Université de Picardie Jules Verne

    Equipe/Thème:
  • Souad Rabah soutient sa thèse intitulée « Identification et Régulation Multi-Variables d’un Four d’Incinération de Boues à Lit Fluidisé » le vendredi 12 mai à 10h dans la salle des thèses de l’école doctorale sciences, technologies, santé de l’UPJV.

    Elle sera présentée devant le jury composé de :

    M. Pierre BORNE Professeur émérite, ECL-CRIStAL. Rapporteur.
    M. Jean-Christophe PONSART Professeur, UL-CRAN. Rapporteur.
    Mme Nesrine ZOGHLAMI Professeur, IPEIEM-LTSIRS. Examinateur.
    M. Najib ESSOUNBOULI Professeur URCA-CRESTIC. Examinateur.
    M. André BIGAND Maître de Conf érences HDR , ULCO-LISIC. Examinateur.
    M. Vincent ROCHER Docteur, Responsable Service Expertise chez SIAAP. Examinateur.
    M. Mohammed CHADLI Maître de Conférences HDR (Directeur de thèse), MIS-UPJV.
    M. Hervé COPPIER Docteur, (Co-Directeur), MIS-ESIEE.
    Invités: M. Sam AZIMI (Docteur, SIAAP) et M. Didier ESCALON (Ingénieur, SIAAP)

    Equipe/Thème:
  • Le jeudi 6 avril à 14h en salle 309, Laurent Grisoni, professeur à l’université Lille 1 et responsable de l’équipe MINT (Inria/Cristal) expose ses travaux.

    Antérieur à l'écriture, tant dans l'histoire que dans la vie de l'homme, le dessin est un support d'information parmi les plus répandus au monde, l'un des rares capable d'être compris au delà des langues et cultures bien souvent. Dans une société qui se construit de plus en plus autour de l'image, le dessin reste un support d'expression important, de l'esquisse au dessin technique en passant par le simple schéma, ou l'expression artistique. Si l'informatique propose déjà des outils permettant de dessiner en environnement numérique, elle ne tire à l'heure actuelle que très peu partie de la sémantique très riche qu'un dessin, même simple, peut exprimer. Peut-on permettre à l'utilisateur de contrôler une machine via le dessin? vers quels usages? Cet exposé rassemble quelques éléments de reflexion sur ce sujet, et présente les travaux en cours dans MINT sur la question.

    An HCI view of sketch-based interaction

    Prior to writing, in human history as in human life, drawing is one of the most common way to express information. It is one of the very few that can be largely understood beyond langages and cultures. We live in a society that is more and more structured around pictures, and drawing remains an important mean of expression, from sketches to technical drawings, from simple diagrams to artworks. ICT community already defined tools that allow to draw in numerical environment, however we still take very low benefit of the very rich semantic a drawing can contain, even a simple one. Can we allow user to control an application through drawing? toward which usages? This presentation gathers few elements about this problem, relating them to  recents and on-going works of the team.

    Equipe/Thème:
  • Le jeudi 30 mars à 14h en salle 201, Olivier Strauss Maître de Conférences à l'université Montpellier II et membre du LIRMM, expose ses travaux sur le traitement d'images.

    Most digital image processing algorithms are formulated in the continuous domain. This formulation involves methods that ensure the interplay between the continuous domain, where the problem is expressed, and the discrete domain, where the algorithmic solution is computed. Usually, the interplay between the continuous and the discrete domain involves a point spread function, when the measurement model is supposed to be linear, while the interplay between the discrete and the continuous domain involves interpolation or more generally approximation methods. 
    The point spread function can model the imperfections and characteristics of the measurement process itself but also undesirable effects degrading the quality of the image including blur, motion, out-of-focus, dust (astrophotography, submarine images, ...). Sometimes this modeling is perfectly relevant, but most of the times is a linear shift invariant approximation of a non linear phenomenon.
    Defining an appropriate method 
      and the blurring kernel can be estimated prior to the deconvolution process

    Digital image processing refers to the set of algorithms used to transform, filter, enhance, modify, analyze, distort, fuse, etc., digital images. Most of these algorithms are designed to mimic an underlying physical operation defined in the continuous illumination domain and formerly achieved via optical or electronic filters or through manipulations, including painting, cutting, moving or pasting
    of image patches. It also allows more sophisticated transformations (associated to more or less complex algorithms) which would be impossible to process by analog means.
    It may be quite hard to completely transpose an operation from the continuous to the discrete domain. Such a transposition usually relies on methods that ensure a kind of interplay between continuous and discrete domains.
    The interplay between the continuous and the discrete domain usually involves a convolution with a point spread function, when the measurement model is supposed to be linear, while the interplay between the discrete and the continuous domain is ensured by interpolation or more generally approximation methods, which also involve a convolution with a reconstruction kernel.  

    A point spread function can model the imperfections and characteristics of the measurement process itself but also undesirable effects degrading the quality of the image including blur, motion, out-of-focus, dust (astrophotography, submarine images, ...). Sometimes this modeling is perfectly relevant. Moreover, when the measurement device is available (the camera) it can be identified by procedures that involve a dedicated pattern. But, most of the time, the point spread function is unknown and cannot be precisely identified. Moreover, modeling the measurement process by a convolution should often be considered as an approximation of a more complex (and not shift-invariant) phenomenon. This is the case of radial distortion or chromatic aberrations. 

    On the other hand, the choice of the method for reconstructing a continuous image is usually imposed by computational, noise reduction or practical purposes. Thus, adapting a operation defined in the continuous domain to the discrete domain usually involves many approximations and arbitrary choices that can have a high impact on the result. Moreover, this impact is usually unmeasured.    

    One simple example is the affine transformation of an image. In this context, choosing an interpolation kernel (nearest neighbor, bi-linear, bi-cubic or others) leads to different information loss in the transformed image that makes the discrete transformation not reversible while the continuous transformation is. 
    Another example is deblurring an image. This deblurring involves a precise knowledge on the blurring kernel. One of the main track to solve this problem is to achieve what is called a blind deconvolution, which is a challenging image processing problem, since many combinations of blur and image can produce the same observed image. A more rational position is to address a myopic deconvolution. Traditional myopic deconvolution assumes the shape of the blurring kernel to be partially know. If this approach is more suitable, it can lead to artifacted images due to the deviation between the "true kernel" and the used kernel.

    In our work, we propose a completely different approach. Instead of proposing THE perfect method for ensuring this continuous to discrete and discrete to continuous interplay, we propose a modeling of an imprecise knowledge of a kernel function. Our model can be perceived as a "box of kernels" i.e. a convex set of kernels.
    How to represent this imprecise knowledge? 
    How to create it? How to build such a box? 
    How to perform a convolution with this modeling?
    These are the subjects of this presentation.

    The talk will be illustrated by three applications:
    - image super-resolution, i.e. building a high resolution image with a set of low resolution images,
    - quantization of noise in emission tomography,
    - reversible (in a certain sense) affine transformations

    Equipe/Thème:
  • Emmanuel Duponchelle,  ministère de la Défense – Responsable du laboratoire de la sécurité des technologies sans fil, Agence nationale de la sécurité des systèmes d'information (ANSSI), viendra faire un séminaire  sur la sûreté et la sécurité des systèmes (Cybersécurité)  le 02 février 2017 de 14h à 17h. (Amphi Figlarz, UFR de Sciences)

    Les thèmes de la confidentialité et de la résilience sont deux enjeux majeurs de la sécurité des systèmes d’information. La susceptibilité des équipements vis-à-vis des interférences électromagnétiques intentionnelles ainsi que la corrélation potentielle entre le bruit généré par un système électronique et les informations traitées par celui-ci induisent un risque de compromission qu'il convient de considérer dans l’analyse des risques. Ces dernières années, de nombreuses études traitant des agressions électromagnétiques financées par des États dont la France ont été présentées. Dans le cadre de ses missions, l’ANSSI a également travaillé sur différents thèmes de recherche portant sur les agressions électromagnétiques (analyse de défaillances, détection d’agressions intentionnelles et l’étude des éléments de protection) en partenariat avec différents organismes français et étrangers.
    Au cours de l'intervention proposée le thème particulier de l'interaction entre la SSI et la compatibilité électromagnétique est présenté suivi d'un panorama de l'évolution des moyens d'acquisition radio-fréquence. La démarche de protection et la mise en œuvre des moyens de protections sont finalement abordés

    Equipe/Thème:
  • Stefano Scheggi, chercheur au Surgical Robotics Laboratory de l’Université de Twente aux Pays-Bas, présentera ses travaux le jeudi 24 novembre 2016 à 14h en salle 201

    Tracking, control, and planning of miniaturized agents for medical applications.

    Miniaturized agents have shown promising results in a broad variety of tasks, ranging from micromanipulation and microassembly to minimally invasive surgical (MIS) interventions, such as biopsies and targeted drug delivery. Recently, miniaturized agents with shape-changing and gripping capabilities have provided significant advantages in performing grasping, transportation, and manipulation tasks at small scale. In order to perform such tasks in a precise and robust way, it is of utmost importance to develop accurate image-guided tracking algorithms, robust motion control laws, and path planners able to compute obstacle-free paths by taking into account motion errors of the agents and imperfect state estimations. In this talk, I will present the recent studies developed in the Surgical Robotics Lab (University of Twente, The Netherlands) about tracking, control, and planning of miniaturized agents for possible medical applications.

    Brève Biographie: Stefano Scheggi received the M.Sc. and Ph.D. degrees in Computer Engineering from the University of Siena, Italy, in 2007 and 2012, respectively. In 2011, he was a Visiting Ph.D. Student at the Department of Computer Science, George Mason University, Fairfax, USA, under the supervision of Prof. Jana Kosecka. From 2012 to 2015, he held a postdoctoral position at the Human Centered Robotics Group, University of Siena, Italy. Since 2015, he holds a postdoctoral position at the Surgical Robotics Lab, University of Twente, The Netherlands. His research interests include computer vision, medical robotics, mobile robotics, haptics, and augmented/virtual reality.

     

    Equipe/Thème:
  • Nathan Crombez présentera les travaux effectués durant son séjour de recherche au NAIST à Nara (JAPON) :
    « Géométrie des caméras plénoptiques : application à la détection d'objets plans ». Jeudi 15 septembre, 14h

    Equipe/Thème:
  • Le vendredi 24 juin à partir de 10h30, Ajoy K. Datta, professeur à l'Université du Nevada (Las Vegas), donnera un séminaire en salle 201. Ses principaux thèmes de recherche concernent les systèmes distribués et l'auto-stabilisation. 

     

    We give a silent self-stabilizing protocol for computing a maximum matching in an anonymous network with a tree topology.  The round complexity of our protocol is O(diam), where diam is the diameter of the network, and the step complexity is O(n.diam), where n is the number of processes in the network.  The working space complexity is O(1) per process, although the output necessarily takes O(log delta) space per process, where delta is the degree of that process.  To implement parent pointers in constant space, regardless of degree, we use the cyclic Abelian group Z_7.

    Equipe/Thème:
  • Le lundi 30 mai, Christelle Vincent, professeur assistant à l'Université du Vermont, donnera un séminaire le lundi 30 mai à 14h en salle 207.

    Abstract : 

    It is known that given a CM sextic field, there exists a non-empty finite set of abelian varieties of dimension 3 that have complex multiplication by this field. Under certain conditions on the field and the CM-type, this abelian variety can be guaranteed to be principally polarizable and simple. This ensures that the abelian variety is the Jacobian of a hyperelliptic curve or a plane quartic curve.

    In this talk, we begin by showing how to generate a full set of period matrices for each isomorphism class of simple, principally polarized abelian variety with CM by a sextic field K. We then show how to determine whether the abelian variety is a hyperelliptic or plane quartic curve. Finally, in the hyperelliptic case, we show how to compute a model for the curve  (joint work with J. Balakrishnan, S. Ionica et K. Lauter).

    Equipe/Thème:
  • [Reporté pour cause de mouvement social - grève des transports]
    Séminaire d'Olivier Strauss, Maitre de Conférences à l'Université Montpellier II et membre du LIRMM, le jeudi 19 mai à 14h en salle 207.
     
    Most digital image processing algorithms are formulated in the continuous domain. This formulation involves methods that ensure the interplay between the continuous domain, where the problem is expressed, and the discrete domain, where the algorithmic solution is computed. Usually, the interplay between the continuous and the discrete domain involves a point spread function, when the measurement model is supposed to be linear, while the interplay between the discrete and the continuous domain involves interpolation or more generally approximation methods. 
    The point spread function can model the imperfections and characteristics of the measurement process itself but also undesirable effects degrading the quality of the image including blur, motion, out-of-focus, dust (astrophotography, submarine images, ...). Sometimes this modeling is perfectly relevant, but most of the times is a linear shift invariant approximation of a non linear phenomenon.
    Defining an appropriate method and the blurring kernel can be estimated prior to the deconvolution process
     
    Digital image processing refers to the set of algorithms used to transform, filter, enhance, modify, analyze, distort, fuse, etc., digital images. Most of these algorithms are designed to mimic an underlying physical operation defined in the continuous illumination domain and formerly achieved via optical or electronic filters or through manipulations, including painting, cutting, moving or pasting
    of image patches. It also allows more sophisticated transformations (associated to more or less complex algorithms) which would be impossible to process by analog means.
    It may be quite hard to completely transpose an operation from the continuous to the discrete domain. Such a transposition usually relies on methods that ensure a kind of interplay between continuous and discrete domains.
    The interplay between the continuous and the discrete domain usually involves a convolution with a point spread function, when the measurement model is supposed to be linear, while the interplay between the discrete and the continuous domain is ensured by interpolation or more generally approximation methods, which also involve a convolution with a reconstruction kernel.  
     
    A point spread function can model the imperfections and characteristics of the measurement process itself but also undesirable effects degrading the quality of the image including blur, motion, out-of-focus, dust (astrophotography, submarine images, ...). Sometimes this modeling is perfectly relevant. Moreover, when the measurement device is available (the camera) it can be identified by procedures that involve a dedicated pattern. But, most of the time, the point spread function is unknown and cannot be precisely identified. Moreover, modeling the measurement process by a convolution should often be considered as an approximation of a more complex (and not shift-invariant) phenomenon. This is the case of radial distortion or chromatic aberrations. 
     
    On the other hand, the choice of the method for reconstructing a continuous image is usually imposed by computational, noise reduction or practical purposes. Thus, adapting a operation defined in the continuous domain to the discrete domain usually involves many approximations and arbitrary choices that can have a high impact on the result. Moreover, this impact is usually unmeasured.    
     
    One simple example is the affine transformation of an image. In this context, choosing an interpolation kernel (nearest neighbor, bi-linear, bi-cubic or others) leads to different information loss in the transformed image that makes the discrete transformation not reversible while the continuous transformation is. 
    Another example is deblurring an image. This deblurring involves a precise knowledge on the blurring kernel. One of the main track to solve this problem is to achieve what is called a blind deconvolution, which is a challenging image processing problem, since many combinations of blur and image can produce the same observed image. A more rational position is to address a myopic deconvolution. Traditional myopic deconvolution assumes the shape of the blurring kernel to be partially know. If this approach is more suitable, it can lead to artifacted images due to the deviation between the "true kernel" and the used kernel.
     
    In our work, we propose a completely different approach. Instead of proposing THE perfect method for ensuring this continuous to discrete and discrete to continuous interplay, we propose a modeling of an imprecise knowledge of a kernel function. Our model can be perceived as a "box of kernels" i.e. a convex set of kernels.
    How to represent this imprecise knowledge? 
    How to create it? How to build such a box? 
    How to perform a convolution with this modeling?
    These are the subjects of this presentation.
     
    The talk will be illustrated by three applications:
    - image super-resolution, i.e. building a high resolution image with a set of low resolution images,
    - quantization of noise in emission tomography,
    - reversible (in a certain sense) affine transformations

     

    Equipe/Thème:
  • D. Kachi présentera un exposé intitulé « mélanges de gaussiennes généralisées : application au recalage image sphérique et nuage de points 3D », jeudi 21 avril à 14h, salle 207.

    Equipe/Thème:
  • Le jeudi 3 mars à 14h en salle 201, le Professeur Mohamed Daoudi, membre du Laboratoire d’Informatique Fondamentale de Lille, viendra faire un séminaire

    Abstract :

    In computer vision, shapes have been represented in many different ways: point clouds, surfaces, images or skeleton are only some examples. The difficulty comes from nonlinearity of these shape spaces. Indeed, these shape spaces are not Euclidean and one cannot perform classical statistics. One way to overcome this difficulty is to introduce a Riemannian structure on the shapes space. This enables us to exploit the geometry of these shape spaces and to develop efficient statistical tools. In this talk, I will show some recent works from our group on Riemannian geometry and its application in a variety of problems including recognition of faces, expressions and actions.

    Equipe/Thème:
  • Jeudi 28 janvier à 14h00, O. Balédent, chercheur au CHU Amiens-Picardie et directeur de l'unité de recherche Bio Flow Image, fera un séminaire sur ses travaux de recherche autour de l’image médicale et de l’analyse des données.

    Equipe/Thème:
  • Le jeudi 10 décembre à 10h en salle 201, Charles Bouillaguet, Maître de Conférences à l'Université de Lille 1 et membre du laboratoire Cristal viendra faire un séminaire au sein du laboratoire.

    Dans le fond, un système d’équations polynomiales modulo 2 est un système d’équations entre des variables booléennes. La multiplication correspond en effet au ET logique, et l’addition au XOR. Ceci ressemble fortement au problème SAT, et d’ailleurs la résolution de tels système est également un problème NP-complet. Les deux problèmes sont cependant assez différents. Dans le cas des systèmes polynomiaux, il n’existe rien de comparable à l’algorithme DPLL qui a tant de succès pour résoudre des instances de SAT. D’ailleurs, on ne dispose pas aujourd’hui d’algorithme efficace permettant de résoudre des systèmes polynomiaux aléatoires (ceci a motivé leur usage dans un contexte cryptographique). 
    Dans cet exposé, je présenterai les principales techniques de résolution de systèmes polynomiaux (méthodes algébriques, réduction à SAT, recherche exhaustive). Je présenterai l’algorithme (relativement simple) que j’ai conçu, ainsi que les ruses qui ont permis de l’implémenter efficacement.

    Equipe/Thème:

Soutenances

  • Nicolas Guiomard-Kagan soutient sa thèse intitulée « Traitement de la polyphonie pour l’analyse informatique de partitions musicales » le lundi 20 mars à 13h45 dans la salle des thèses de l’école doctorale sciences, technologies, santé de l’UPJV (32 Rue des Minimes, 80000 Amiens).

    Elle sera présentée devant le jury composé de :

    Myriam Desainte-Catherine, Professeur, LaBRI, Bordeaux, Rapporteur
    Florent Jacquemard, Chargé de Recherche Inria, IRCAM, Paris, Rapporteur
    Mathieu Giraud, Chargé de Recherche CNRS, CRIStAL, Lille, Co-encadrant
    Richard Groult, Maître de Conférences, MIS, UPJV, Amiens, Co-encadrant
    Florence Levé, Maître de Conférences, MIS, UPJV, Amiens, Co-encadrant
    Olivier Pietquin, Professeur, CRIStAL, Lille et Google DeepMind, Examinateur
    Vincent Villain, Professeur, MIS, UPJV, Amiens, Examinateur
    Tillman Weyde, Senior Lecturer, City University of London, Examinateur

    Résumé :

    La musique peut être monophonique – une seule note est jouée à chaque instant – ou polyphonique – plusieurs notes sont jouées simultanément, formant des harmonies. Comprendre la musique polyphonique peut être très complexe. L’objectif de cette thèse en informatique musicale est de simplifier l’analyse de partitions polyphoniques en les décomposant en voix monophoniques ou en streams (ensembles cohérents de notes).

    Ces deux approches n’ayant jamais été confrontées, mes premiers travaux consistent à comparer trois algorithmes de séparation en voix et trois algorithmes de séparation en streams. Je propose pour cela des méthodes d’évaluation équitables pour ces deux approches. Les tests réalisés sur un corpus de musique classique et de musique pop ont mis en avant les qualités de l’algorithme de séparation en voix de Chew et Wu. La première étape de cet algorithme, qui segmente la partition en « contigs » avec un nombre de voix constant, est particulièrement robuste.

    La suite des travaux de cette thèse porte sur la seconde étape de l’algorithme de Chew et Wu, qui définit l’ordre de connexions des contigs et la manière de les connecter. J’améliore ces connexions en utilisant des paramètres musicaux comme la différence des moyennes des hauteurs des notes entre contigs voisins. La thèse se conclut en évaluant conjointement la séparation en voix et la recherche de motifs pour l’analyse musicale de fugues. 

    Equipe/Thème:
  • Jean BESTER soutient sa thèse le mardi 24 janvier, à 14h30, Salle des thèses de l’Ecole Doctorale

    Cette thèse explore l’hybridation active d’un système comprenant une pile à combustible et une batterie Li-ion pour l’utilisation comme alimentation auxiliaire (APU) dans un avion. Chaque source est connectée à son propre convertisseur pour l’interfaçage à un bus continu HVDC. Le convertisseur de la pile à combustible maintenir la tension du bus DC et assurer en une puissance moyenne de la charge alors que la batterie contrôlée en courant doit compenser les variations transitoires. Le modèle de la pile à combustible de type 1.2kW Ballard Nexa montre une bonne précision de tension avec une erreur moyenne inférieure à ±350mV. Le modèle de la batterie est du second ordre en schéma électrique équivalent (EEC) avec les paramètres qui varient en fonction de l’état de charge (SOC), le courant et la température. La batterie est de type LiFePO4 de capacité 100Ah. Son modèle montre de bonnes performances entre 100% et 10% de SOC avec une erreur maximale de moins de ±1%. Pour l’estimation du SOC l’algorithme de Kalman Etendu (EKF) montre une excellente performance de poursuite en convergeant vers le vrai SOC avec des valeurs initiales éloignées et une erreur d’estimation du SOC de moins de ±1%. Pour la gestion d’énergie entre ces différentes sources et la charge, une stratégie basée sur la logique floue et exécutée en temps réel est mise au point avec comme grandeurs de commande le SOC et le courant de la charge. Pour la poursuite des références de convertisseurs le commande mode glissant (SMC) et le compensateur de type II sont utilisés. Les simulations et les tests sur une APU de 1 kW montrent que la stratégie de gestion a de bonnes performances transitoires et dans le respect des contraintes opérationnelles des sources.

    Equipe/Thème:
  • Florence Levé soutiendra son Habilitation à Diriger les Recherches, le mardi 13 décembre à 14h 
    dans l’amphi Figlarz (Bâtiment des Minimes, Pôle Scientifique Saint-Leu, Université de Picardie Jules Verne, Amiens).
     

    Equipe/Thème:
  • Cyril Séguin soutiendra sa thèse de doctorat le jeudi 29 septembre 2016 à 14h, Amphi. Figlarz, Bâtiment des Minimes.

    Depuis plusieurs décennies, les systèmes de fichiers distribués sont utilisés comme solution de stockage sur des plates-formes de calculs distribuées. Parallèlement, l’élasticité et le paiement à l’utilisation offerts par les plates-formes de cloud computing permettent aux utilisateurs de dimensionner dynamiquement leurs infrastructures en fonction de leurs besoins, ne payant que ce qu’ils consomment.

    L’utilisation d’un système de fichiers distribué sur une plate-forme cloud permettrait de profiter des performances et capacité de stockage de ces systèmes tout en adaptant le nombre de ressources utilisées en fonction de l’activité mesurée sur la plate-forme. Cependant, de nouvelles problématiques apparaissent quant à l’ajout et retrait des ressources qui doivent tenir compte de la disponibilité des données ainsi que du compromis nombre de ressources utilisées/performances.

    Cette thèse aborde ces nouvelles problématiques dans un contexte statique où l’activité de la plate-forme est connue par avance, mais aussi dans un contexte dynamique où cette activité nous est inconnue. Nous montrons l’intérêt de repenser les stratégies de placement des systèmes de fichiers distribués en joignant adaptation du nombre de réplicas de chaque donnée en fonction de leur fréquence d’accès et équilibre de la charge de traitement des ressources.

    Equipe/Thème:
  • M. Zhiwen Fang soutiendra le vendredi 10 juin 2016 à 9h une thèse d’Informatique de l’Université de Picardie Jules Verne (Pôle Scientifique - Bâtiment Ecole des Minimes - salle des thèses - en visioconférence) ayant pour thème «Exact Algorithms for the Maximum Clique Problem».

    Le jury sera composé de M. Jian Zhang (Institute of Software, Chinese Academy of Sciences - Beijing - Chine), M. Felip Manya (IIIA-CSIC Campus de la UAB, Barcelone - Espagne), M. Chu-Min Li (Université de Picardie Jules Verne), M. Gilles Dequen (Université de Picardie Jules Verne), M. Hai-Jun Zhou (Institute of Theoretical Physics, Chinese Academy of Sciences, Beijin - Chine), M. Xiaoming Sun (Institute of Computing Technology, Chinese Academy of Sciences, Beijing - Chine). 

     

    Abstract

    The PhD thesis of M. Fang Zhiwen is on the exact resolution of the MaxClique problem based on MaxSAT reasoning. MaxClique is a typical NP-hard problem consisting in finding a maximum clique in a graph, in which every two vertices are connected. MaxClique is important in algorithm complexity theory and also has numerous practical applications, the interest in this problem is growing with more and more applications in domains such as social networks, scientific computation networks and wireless sensor networks.

    There are two contributions in this thesis.

    The first contribution is the combining of an incremental upper bound with MaxSAT reasoning in a branch-and-bound algorithm to solve MaxClique. MaxSAT reasoning consists in encoding MaxClique into propositional logic, in which each boolean variable represents a vertex and each clause specifies a relation among some vertices, and then identifying those vertices that cannot belong to a maximum clique by propositional deduction. MaxSAT reasoning allows to reduce the search space of the branch-and-bound algorithm effectively. However, it is time-consuming and connot be done completely. Fang Zhiwen proposes an incremental upper bound allowing to expoit the results of previous MaxSAT reasoning on subgraphs, which may allow to reduce more search space than MaxSAT reasoning from sketch on the current graph. The resulting MaxClique algorithm is substantially faster than state-of-the-art algorithms for MaxClique. In addition, Fang Zhiwen discovered a new vertex ordering allowing to solve a broad class of MaxClique instances several orders of magnitude faster.

    The second contribution consists in finding a clique with the maximum total weight (MWC, short for Maximum Weight Clique) in a graph in which each vertex is associated a weight. In this work, Fang Zhiwen introduces a new weighted partial MaxSAT formalism called Literal Weighted MaxSAT (LW MaxSAT) to encode a MWC problem, in which not only the soft clauses are weighted as in existing weighted partial MaxSAT formalisms, the literals in soft clauses are also weighted. Then he extends MaxSAT reasoning by introducing two notions called Top-k literal failed clause and Top-k empty clause respectively, and by defining two transforming rules to split a clause on demand to handle both clause weights and literal weights. The extended MaxSAT reasoning allows to identify efficiently and effectively many vertices that cannot belong to a maximum weight clique, so that the search space can be greatly reduced. The resulting algorithm substantially outperforms the state-of-the-art algorithms on the vast majority instances in the litterature. It is especially effective in solving hard instances.

    Equipe/Thème:
  • M. Younes Al-Younes soutiendra le vendredi 25 mars 2016 à 14 h une thèse de Sciences pour l’ingénieur spécialité automatique de l’Université de Picardie Jules Verne à l’UFR des Sciences ayant pour thème «Utilisation de l’approche sans modèle pour la commande, le diagnostic et la tolérance aux fautes : Application à un Quadrotor».

    Le jury sera composé de M. Didier Theilliol (Université de Lorraine), M. Fernando Tadéo (Université de Valladolid - Espagne), M. Mustapha Ouladsine (Université Aix-Marseille), M. Hassan Noura (Université des Emirats Arabes Unis), M. Ahmed El Hajjaji (Université de Picardie Jules Verne) et M. Abdelhamid Rabhi (Université de Picardie Jules Verne).

    Equipe/Thème:
  • Mardi 15 décembre : Soutenance de thèse de Khaled Mohamed, équipe SDMA, à 14h00, en salle des thèses de l’EDSS. 

    L'auto-stabilisation dans les systèmes distribués est un concept introduit par Dijkstra en 1974. Ce concept s'est avéré être le plus efficace pour faire face aux pannes transitoires.

    Ces pannes apparaissent de temps en temps lors de l'exécution d'un algorithme tout en laissant des périodes relativement longues entre deux occurrences, ce qui peut permettre à l'algorithme d'avoir une partie d'exécution sans pannes suffisamment longue pour pouvoir obtenir les résultats attendus. Une variante de l'auto-stabilisation a été introduite en 1999 par Bui & al. : la stabilisation instantanée. Alors qu' un algorithme auto-stabilisant, après l'arrêt des pannes, peut ne pas répondre pendant un temps fini (phase de stabilisation) à la spécification du problème qu'il est censé résoudre et peut notamment nécessiter un nombre fini mais non borné d'essais, un algorithme instantanément stabilisant satisfait immédiatement la spécification après l'arrêt des pannes, en particulier un seul essai est alors nécessaire. Dans cette thèse nous avons proposé deux algorithmes instantanément stabilisants de PIF (Propagation d'Information avec Feedback), le premier pour un arbre non-orienté, le second pour un graphe connexe quelconque. Nos solutions sont les premières de la littérature dans le cadre du modèle à passage de messages (modèle pour les systèmes distribués le plus proche de la réalité) et constituent un pas important pour généraliser à ce modèle le résultat de Cournier & al. de 2003 pour le modèle à états (modèle théorique) selon lequel, dans un système non anonyme, tout problème admettant une solution auto-stabilisante admet aussi une solution instantanément stabilisante.

    Equipe/Thème:
  • Nathan Crombez soutiendra sa thèse de doctorat le mercredi 09 décembre 2015 à 10h dans l'amphithéâtre Branly de l'ESIEE.

    Contributions aux asservissements visuels denses : nouvelle modélisation des images adaptée aux environnements virtuels et réels

    Les asservissements visuels denses formalisent le contrôle de robot équipé d'une caméra en considérant directement les intensités de l'image en entrée de la loi de commande. L'état-de-l'art propose des travaux étendant ce formalisme au calcul de pose de caméra, exploitant certains types d’environnements 3D et texturés. Cependant, aucun des travaux passés n'exploite directement les intensités de l'image pour ce calcul, ni d'environnement 3D sous forme de nuage de points colorés. C'est l'objet d'une des contributions de cette thèse : l'asservissement visuel virtuel photométrique est défini en vision perspective pour recaler des images numériques quelconques sur des nuages de points 3D, afin d'en améliorer la qualité des couleurs. L'approche a été étendue avec succès à la vision omnidirectionnelle pour la localisation de robot mobile. La seconde, et majeure, contribution de la thèse, généralise l'asservissement visuel photométrique en introduisant une nouvelle représentation de l'image par mélange de gaussiennes photométriques. Sa déclinaison au positionnement de robot industriel et au recalage de photos sur nuages de points 3D montre une précision toute aussi excellente que l'asservissement visuel photométrique, en agrandissant considérablement son domaine de convergence.

     

    Equipe/Thème:

Grand Public

  • En partenariat avec UnivArchéo, les élèves du collège de Ham viennent visiter la salle d'immersion le jeudi 9 février dans le cadre du projet Experts Juniors sur le thème À la découverte de la cathédrale. Quels outils (ou « sources ») utiliser pour comprendre la cathédrale ? Développer le sens critique et l’observation des élèves en confrontant ces outils (textes, iconographies...) avec le monument.

    Equipe/Thème:
  • Le MIS participe aux journées Safra'Numériques organisées par le Safran, du 7 au 11 février.

    ► LES PIERRES MUSICALES
    (Sauf le samedi 11 février)
    Mathieu Giraud - Algomus / Florence Levé, Richard Groult (MIS)
    La partition musicale est un des moyens privilégiés pour transmettre, échanger et préserver la musique. À l’ère du numérique, comment les ordinateurs peuvent-ils nous aider à comprendre la musique ?

    Plus d'informations sur la page du Safran

    Equipe/Thème:
  • Des ateliers sont proposés aux scolaires et au grand public pendant la semaine de la Fête de la Science.

    Le MIS propose trois thèmes : 

    • Les Pierres musicales, ou l'analyse musicale assistée par ordinateur : http://www.algomus.fr/pierres/
    • L'Homme et la Machine, découverte de l'intelligence artificielle à travers le jeu
    • eCathédrale au bout des doigts, visualiser les résultats de la numérisation 3D de la cathédrale à travers une interface 

     

    Plus d'informations : 

    http://fetedelascience.fr
    https://www.u-picardie.fr/actualites/partenaires/fete-de-la-science-2016...

    Equipe/Thème:
  • Samedi 8 octobre 2016 à 14h00, E. Mouaddib est invité par la SAP (Société des Antiquaires de Picardie) pour donner une conférence intitulée « La maquette numérique de la cathédrale d’Amiens : vers de nouvelles connaissances du monument », qui aura lieu à l’auditorium Charles-Pinsard de la Bibliothèque municipale Louis-Aragon (Amiens).

    Equipe/Thème:
  • Du 3 octobre au 2 décembre, exposition à l’Espace Culture de l’Université Lille 1, avec la participation du MIS

    Comment se construit la musique ?

    L’équipe de recherche en informatique musique Algomus (CRIStAL / SCV / MIS), animée par Mathieu Giraud, chercheur CNRS, et dont F. Levé (MIS) et R. Groult (MIS) sont membres, invente des algorithmes pour « analyser » des partitions musicales, c’est-à-dire en décrypter le fonctionnement. L’analyse musicale est utile aux théoriciens et interprètes, mais aussi à tout auditeur de musique.
     

    Recherche en informatique musicale

    Pierre Allegraud / Matthieu Caron / Mathieu Giraud / Richard Groult (MIS) / Emmanuel Leguy, en lien avec Guillaume Libersart / Fuzzy Frequency.

    Equipe/Thème:
  • Un groupe de lycéens du Lycée Jean Racine (Montdidier) en option ISN, dont bon nombre envisagent des études avec de l’informatique, sont accueillis le lundi 18 janvier 2016 de 13h à 16h par le directeur du département Informatique de l’UFR Sciences. A cette occasion, l’offre de formation en informatique leur sera présentée. Le laboratoire MIS y sera présent pour leur présenter la recherche en Informatique à l'UPJV, et quelques travaux issus de ses équipes : 

    - Cohorte de Robots et algorithmes distribués (Vincent Villain)

    - Analyse musicale et puzzles musicaux (Florence Levé, Richard Groult)

    - eCathédrale et modélisation 3D du patrimoine (Guillaume Caron)

    - Marionnette numérique et objets communiquants (David Durand)

    Equipe/Thème:

Journées d'études

  • Le réseau MusICAL (Interaction Calcul Algorithmique Langages appliqués à la Musique) organise une première journée de rencontre autour de « Modélisation, interactions et analyse », le lundi 14 décembre 2015 à Amiens.
     
    Lieu :  Université de Picardie Jules Verne - Pôle scientifique - Bâtiment des Minimes (rue Edmond Fontaine) - Amphi Cassini - Amiens
     
    Plus d’informations sur http://repmus.ircam.fr/musical/home
     
     
        Accueil du public et des participants à partir de 9h
     
    • 09h30 – Introduction de la journée 
    • 09h40 – David Janin (LaBRI)
      Outils algébriques pour la modélisation musicale : vision graphique et programmatique
    • 10h20 – Dominique Fober (Grame)
      Composition dynamique de partitions dans INScore
    • 11h00 – Emmanuel Leguy et Mathieu Giraud (Univ. Lille, CRIStAL/Algomus)
      Modélisation et visualisation d’analyses musicales calculées ou manuelles

    [12h-14h – pause]

    • 14h00 – Jean Bresson, Florent Jacquemard, Adrien Ycart (IRCAM UMR STMS)
      Interactions et modèles d'analyse en CAO : Supervision d'un modèle formel pour la manipulation des structures rythmiques
    • 14h40 – Florence Levé (Univ. Picardie, MIS, Algomus)
      Un ordinateur peut-il comprendre les formes musicales ?
    • 15h20 – Alice Tacaille (IReMus)
      Données musicales et analyse mélodique : applications et perspectives

    [16h: fin de la journée publique – réunion du groupe de travail]

     

     
    Equipe/Thème:

Pages