Soutenances autorisées pour l'ED « École Doctorale Mathématiques, Information, Ingénierie des Systèmes »
(ED 590 MIIS)
Liste des soutenances actuelles 21
Real-time Ιndοοr Lοcalizatiοn with Embedded Cοmputer Visiοn and Deep Learning
Doctorant·e
DAOU Andrea
Direction de thèse
HONEINE PAUL (Directeur·trice de thèse)
BENSRHAIR ABDELAZIZ (Co-directeur·trice de thèse)
Date de la soutenance
14/02/2024 à 14:00
Lieu de la soutenance
Rouen (Saint Etienne du Rouvray)
Rapporteurs de la thèse
CHAMBON SYLVIE Université de Toulouse 3 - Paul Sabatier
SIDEBE DRO DESIRE Comue Universites Paris-Saclay
Membres du jurys
BENSRHAIR ABDELAZIZ,
,
INSA de Rouen Normandie
CHAMBON SYLVIE,
,
Université de Toulouse 3 - Paul Sabatier
HONEINE PAUL,
,
Université de Rouen Normandie (URN)
MERIAUDEAU FABRICE,
,
Universite de Bourgogne
SIDEBE DRO DESIRE,
,
Comue Universites Paris-Saclay
Résumé
La localisation d'une personne ou d'un bien dans des environnements intérieurs est devenue une nécessité. Le système de positionnement par satellites, une solution prédominante pour la localisation en extérieur, rencontre des limites lorsqu'il est appliqué en intérieur en raison de la réflexion des signaux et de l'atténuation causée par les obstacles. Pour y remédier, diverses solutions de localisation en intérieur ont été étudiées. Les méthodes de localisation en intérieur sans fil exploitent les signaux pour déterminer la position d'un appareil dans un environnement intérieur. Cependant, l'interférence des signaux, souvent causée par des obstacles physiques, des réflexions et des appareils concurrents, peut entraîner des imprécisions dans l'estimation de la position. De plus, ces méthodes nécessitent le déploiement d'infrastructures, ce qui entraîne des coûts d'installation et de maintenance. Une autre approche consiste à estimer le mouvement de l'utilisateur à l'aide des capteurs inertiels de l'appareil. Toutefois, cette méthode se heurte à des difficultés liées à la précision des capteurs, aux caractéristiques de mouvement de l'utilisateur et à la dérive temporelle. D'autres techniques de localisation en intérieur exploitent les champs magnétiques générés par la Terre et les structures métalliques. Ces techniques dépendent des appareils et des capteurs utilisés ainsi que de l'environnement dans lequel se situe l'utilisateur.
L'objectif de cette thèse est de réaliser un système de localisation en intérieur conçu pour les professionnels, tels que les pompiers, les officiers de police et les travailleurs isolés, qui ont besoin de solutions de positionnement précises et robustes dans des environnements intérieurs complexes. Dans cette thèse, nous proposons un système de localisation en intérieur qui exploite les récentes avancées en vision par ordinateur pour localiser une personne à l’intérieur d’un bâtiment. Nous développons un système de localisation au niveau de la pièce. Ce système est basé sur l'apprentissage profond et les capteurs intégrés dans le smartphone, combinant ainsi les informations visuelles avec le cap magnétique du smartphone. Pour se localiser, l'utilisateur capture une image de l'environnement intérieur à l'aide d'un smartphone équipé d'une caméra, d'un accéléromètre et d'un magnétomètre. L'image capturée est ensuite traitée par notre système composé de plusieurs réseaux neuronaux convolutionnels directionnels pour identifier la pièce spécifique dans laquelle se situe l'utilisateur. Le système proposé nécessite une infrastructure minimale et fournit une localisation précise. Nous soulignons l'importance de la maintenance continue du système de localisation en intérieur par vision. Ce système nécessite une maintenance régulière afin de s'adapter à l'évolution des environnements intérieurs, en particulier lorsque de nouvelles pièces doivent être intégrées dans le système de localisation existant. L'apprentissage incrémental par classe est une approche de vision par ordinateur qui permet aux réseaux neuronaux profonds d'intégrer de nouvelles classes au fil du temps sans oublier les connaissances déjà acquises. Dans le contexte de la localisation en intérieur par vision, ce concept doit être appliqué pour prendre en compte de nouvelles pièces. La sélection d'échantillons représentatifs est essentielle pour contrôler les limites de la mémoire, éviter l'oubli et conserver les connaissances des classes déjà apprises. Nous développons une méthode de sélection d'échantillons basée sur la cohérence pour l'apprentissage incrémental par classe dans le cadre de l'apprentissage profond. La pertinence de la méthodologie et des contributions algorithmiques de cette thèse est rigoureusement testée et validée par des expérimentations et des évaluations complètes sur des données réelles.
Abstract
The need to determine the location of individuals or objects in indoor environments has become an essential requirement. The Global Navigation Satellite System, a predominant outdoor localization solution, encounters limitations when applied indoors due to signal reflections and attenuation caused by obstacles. To address this, various indoor localization solutions have been explored. Wireless-based indoor localization methods exploit wireless signals to determine a device's indoor location. However, signal interference, often caused by physical obstructions, reflections, and competing devices, can lead to inaccuracies in location estimation. Additionally, these methods require access points deployment, incurring associated costs and maintenance efforts. An alternative approach is dead reckoning, which estimates a user's movement using a device's inertial sensors. However, this method faces challenges related to sensor accuracy, user characteristics, and temporal drift. Other indoor localization techniques exploit magnetic fields generated by the Earth and metal structures. These techniques depend on the used devices and sensors as well as the user's surroundings.
The goal of this thesis is to provide an indoor localization system designed for professionals, such as firefighters, police officers, and lone workers, who require precise and robust positioning solutions in challenging indoor environments. In this thesis, we propose a vision-based indoor localization system that leverages recent advances in computer vision to determine the location of a person within indoor spaces. We develop a room-level indoor localization system based on Deep Learning (DL) and built-in smartphone sensors combining visual information with smartphone magnetic heading. To achieve localization, the user captures an image of the indoor surroundings using a smartphone, equipped with a camera, an accelerometer, and a magnetometer. The captured image is then processed using our proposed multiple direction-driven Convolutional Neural Networks to accurately predict the specific indoor room. The proposed system requires minimal infrastructure and provides accurate localization. In addition, we highlight the importance of ongoing maintenance of the vision-based indoor localization system. This system necessitates regular maintenance to adapt to changing indoor environments, particularly when new rooms have to be integrated into the existing localization framework. Class-Incremental Learning (Class-IL) is a computer vision approach that allows deep neural networks to incorporate new classes over time without forgetting the knowledge previously learned. In the context of vision-based indoor localization, this concept must be applied to accommodate new rooms. The selection of representative samples is essential to control memory limits, avoid forgetting, and retain knowledge from previous classes. We develop a coherence-based sample selection method for Class-IL, bringing forward the advantages of the coherence measure to a DL framework. The relevance of the methodology and algorithmic contributions of this thesis is rigorously tested and validated through comprehensive experimentation and evaluations on real datasets.
Ρrοbabilistic Expοnential Smοοthing fοr Explainable AΙ in the Supply Chain dοmain
Doctorant·e
CIFONELLI ANTONIO
Direction de thèse
CANU STEPHANE (Directeur·trice de thèse)
Date de la soutenance
22/12/2023 à 10:00
Lieu de la soutenance
INSA Rouen Normandie
Bâtiment Bougainville, rez-de-chaussée, salle BO-A-RC-02
685 avenue de l'université
76801 Saint Etienne du Rouvray
Rapporteurs de la thèse
AMINI MASSIH-REZA Université Grenoble Alpes
BATTON HUBERT MIREILLE École des Mines de Saint-Étienne
Membres du jurys
AINOUZ SAMIA,
,
INSA de Rouen Normandie
AMINI MASSIH-REZA,
,
Université Grenoble Alpes
BATTON HUBERT MIREILLE,
,
École des Mines de Saint-Étienne
CANU STEPHANE,
,
INSA de Rouen Normandie
LE HEGARAT-MASCLE SYLVIE,
,
Université Paris-Saclay
Résumé
Le rôle clé que l’IA pourrait jouer dans l’amélioration des activités commerciales est connu depuis longtemps, mais le processus de penetration de cette nouvelle technologie a rencontrzécertains freins au sein des entreprises, en particulier, les coûts de mise oeuvre. En moyenne, 2.8 ans sont nécessaires depuis la sélection du fournisseur jusqu’au déploiement complet d’une nouvelle solution. Trois points fondamentaux doivent être pris en compte lors du développement d’un nouveau modèle. Le désalignement des attentes, le besoin de compréhension et d’explications et les problems de performance et de fiabilité. Dans le cas de modèles traitant des données de la supply chain, cinq questions spécifiques viennent s’ajouter aux précédentes:
- La gestion des incertitudes. Les décideurs cherchent un moyen de minimiser le risque associé à chaque décision qu’ils doivent prendre en présence d’incertitude. Obtenir une prévision exacte est un rêve; obtenir une prévision assez précise et en calculer les limites est réaliste et judicieux.
- Le traitement des données entières et positives. La plupart des articles ne peuvent pas être vendus en sous-unités. Cet aspect simple de la vente se traduit par une contrainte qui doit être satisfaite: le résultat doit être un entier positif.
- L’observabilité. La demande du client ne peut pas être mesurée directement, seules les ventes peuvent être enregistrées et servir de proxy.
- La rareté et la parcimonie. Les ventes sont une quantité discontinue. En enregistrant les ventes par jour, une année entiére est condensée en seulement 365 points. De plus, une grande partie d’entre elles sera à zéro.
- L’optimisation juste-à-temps. La prévision est une fonction clé, mais elle n’est qu’un élément d’une chaîne de traitements soutenant la prise de décision. Le temps est une ressource précieuse qui ne peut pas être consacrée entièrement à une seule fonction. Le processus de décision et les adaptations associées doivent donc être effectuées dans un temps limité et d’une manière suffisamment flexible pour pouvoir être interrompu et relancé en cas de besoin afin d’incorporer des événements inattendus ou des ajustements nécessaires.
Cette thèse s’insère dans ce contexte et est le résultat du travail effectué au coeur de Lokad. La recherche doctorale a été financée par Lokad en collaboration avec l’ANRT dans le cadre d’un contrat CIFRE. Le travail proposé a l’ambition d’être un bon compromis entre les nouvelles technologies et les attentes des entreprises, en abordant les divers aspects précédemment présentés.
Nous avons commencé à effectuer des prévisions en utilisant la famille des lissages exponentiels, qui sont faciles à mettre en oeuvre et extrêmement rapides à exécuter. Largement utilisés dans l’industrie, elles ont déjà gagné la confiance des utilisateurs. De plus, elles sont faciles à comprendre et à expliquer à un public non averti. En exploitant des techniques plus avancées relevant du domaine de l’IA, certaines des limites des modèles utilisés peuvent être surmontées. L’apprentissage par transfert s’est avéré être une approche pertinente pour extrapoler des informations utiles dans le cas où le nombre de données disponibles était très limité. Nous avons proposé d’utiliser un modèle associé à une loi de Poisson, une binomiale négative qui correspondmieux à la nature des phénomènes que nous cherchons à modéliser et à prévoir. Nous avons aussi proposé de traiter l’incertitude par des simulations de Monte Carlo. Un certain nombre de scénarios sont générés, échantillonnés et modélisés par dans une distribution. À partir de cette dernière, des intervalles de confiance de taille différentes et adaptés peuvent être déduits. Sur des données réelles de l’entreprise, nous avons comparé notre approche avec les méthodes de l’état de l’art comme DeepAR, DeepSSMs et N-Beats. Nous en avons déduit un nouveau modèle conçu à partir de la méthode Holt-Winter. Ces modèles ont été mis en oeuvre dans le “work flow” de l’entreprise
Abstract
The key role that AI could play in improving business operations has been known for a long time, but the penetration process of this new technology has encountered certain obstacles within companies, in particular, implementation costs. On average, it takes 2.8 years from supplier selection to full deployment of a new solution. There are three fundamental points to consider when developing a new model. Misalignment of expectations, the need for understanding and explanation, and performance and reliability issues. In the case of models dealing with supply chain data, there are five additionally specific issues:
- Managing uncertainty. Precision is not everything. Decision-makers are looking for a way to minimise the risk associated with each decision they have to make in the presence of uncertainty. Obtaining an exact forecast is a advantageous; obtaining a fairly accurate forecast and calculating its limits is realistic and appropriate.
- Handling integer and positive data. Most items sold in retail cannot be sold in subunits. This simple aspect of selling, results in a constraint that must be satisfied by the result of any given method or model: the result must be a positive integer.
- Observability. Customer demand cannot be measured directly, only sales can be recorded and used as a proxy.
- Scarcity and parsimony. Sales are a discontinuous quantity. By recording sales by day, an entire year is condensed into just 365 points. What’s more, a large proportion of them will be zero.
- Just-in-time optimisation. Forecasting is a key function, but it is only one element in a chain of processes supporting decision-making. Time is a precious resource that cannot be devoted entirely to a single function. The decision-making process and associated adaptations must therefore be carried out within a limited time frame, and in a sufficiently flexible manner to be able to be interrupted and restarted if necessary in order to incorporate unexpected events or necessary adjustments.
This thesis fits into this context and is the result of the work carried out at the heart of Lokad, a Paris-based software company aiming to bridge the gap between technology and the supply chain. The doctoral research was funded by Lokad in collaborationwith the ANRT under a CIFRE contract. The proposed work aims to be a good compromise between new technologies and business expectations, addressing the various aspects presented above. We have started forecasting using the exponential smoothing family which are easy to implement and extremely fast to run. As they are widely used in the industry, they have already won the confidence of users. What’s more, they are easy to understand and explain to an unlettered audience. By exploiting more advanced AI techniques, some of the limitations of the models used can be overcome. Cross-learning proved to be a relevant approach for extrapolating useful information when the number of available data was very limited. Since the common Gaussian assumption is not suitable for discrete sales data, we proposed using a model associatedwith either a Poisson distribution or a Negative Binomial one, which better corresponds to the nature of the phenomena we are seeking to model and predict. We also proposed using Monte Carlo simulations to deal with uncertainty. A number of scenarios are generated, sampled and modelled using a distribution. From this distribution, confidence intervals of different and adapted sizes can be deduced. Using real company data, we compared our approach with state-of-the-art methods such as DeepAR model, DeepSSMs and N-Beats. We deduced a new model based on the Holt-Winter method. These models were implemented in Lokad’s work flow.
Μοdelling οf type ΙΙ supercοnductοrs: implementatiοn with FreeFEΜ.
Doctorant·e
TAIN CYRIL
Direction de thèse
CAPUTO JEAN-GUY (Directeur·trice de thèse)
DANAILA IONUT (Co-directeur·trice de thèse)
Date de la soutenance
21/12/2023 à 14:00
Lieu de la soutenance
INSA Rouen Normandie
Bâtiment Dumont d'Urville, rez-de-jardin
Amphi Marie Curie DU-B-RJ-02
685 avenue du l'université
76801 Saint Etienne du Rouvray
Rapporteurs de la thèse
SANDIER ETIENNE Université Paris-Est - Créteil Val-de-Marne
SORENSEN MADS PETER Technical University of Denmark
Membres du jurys
BERGER KEVIN,
,
Université de Lorraine
CAPUTO JEAN-GUY,
,
INSA de Rouen Normandie
DANAILA IONUT,
,
Université de Rouen Normandie (URN)
GOZZELINO LAURA,
,
Politecnico di Torino, Italy
PROUKAKIS NIKOLAOS,
,
Newcastle University, Royaume-Uni
SANDIER ETIENNE,
,
Université Paris-Est - Créteil Val-de-Marne
SORENSEN MADS PETER,
,
Technical University of Denmark
Résumé
Nous présentons dans cette étude quatre modèles pour les supraconducteurs de type II: le modèle de London, le modèle de Ginzburg-Landau dépendant du temps (TDGL), le modèle de Ginzburg-Landau stationnaire et un modèle de type Abelian-Higgs. Pour le modèle de London nous avons étudié un problème à symétrie cylindrique. Nous avons établi une formulation hydrodynamique du modèle grâce à l'introduction d'une fonction courant. Le caractère bien posé du problème a été prouvé. Le champ magnétique extérieur a été calculé pour des domaines 2D et 3D. En 3D une méthode par éléments frontières a été implémentée en utilisant une fonctionalité récente de FreeFem. Pour le modèle TDGL deux codes fondés sur deux formulations variationnelles ont été implémentées et validées sur des cas tests classiques de la littérature en 2D et 3D. Pour le modèle GL stationnaire une méthode de gradient de Sobolev a été utilisée pour trouver l'état d'équilibre. Ces résultats ont été comparés avec ceux du modèle TDGL. Pour le modèle Abelian-Higgs un code Fortran différences finies en 1D a été développé et validé par la construction d'un système manufacturé. Ce modèle a été utilisé pour retrouver certaines propriétés de magnétisation des supraconducteurs.
Abstract
In this thesis we present four models for type II superconductors: the London model, the time dependent Ginzburg-Landau (TDGL) model, the steady state Ginzburg-Landau model and an Abelian-Higgs model. For the London model a problem with cylindrical symmetry was considered. A hydrodynamic formulation of the problem was established through the introduction of a stream function. Well-posedness of the problem was proved. The external magnetic field was computed for 2D and 3D domains. In 3D a boundary element method was implemented using a recent feature of FreeFem. For the TDGL model two codes based on two variational formulations were proposed and tested on classical benchmarks of the literature in 2D and 3D. In the steady state GL model a Sobolev gradient technique was used to find the equilibrium state. The results were compared with the ones given by the TDGL model. In the Abelian-Higgs model a 1D finite differences code written in Fortran was developed and tested with the construction of a manufactured system. The model was used to retrieve some of the properties of magnetization of superconductors.
Apprοximatiοn de Dynamic Τime Warping par réseaux de neurοnes pοur la cοmpressiοn de signaux EEG et l'analyse de l'insοmnie induite par le CΟVΙD lοng.
Ce manuscrit présente les travaux effectués dans le cadre d'une thèse CIFRE réalisée en collaboration entre le LITIS et Saagie, et qui s'inscrit dans le projet PANDORE-IA en partenariat avec le centre du sommeil VIFASOM.
Les signaux électroencéphalographiques (EEG) sont très utiles pour aider les experts à identifier diverses anomalies comme les troubles du sommeil. En particulier dernièrement, la communauté s'est beaucoup intéressée au COVID long et à ses divers impacts sur le sommeil. Ces signaux sont cependant volumineux : la compression permet de réduire les coûts de stockage et de transfert. Les approches récentes de compression se basent sur des autoencodeurs qui utilisent une fonction de coût pour apprendre. Celle-ci est usuellement la MSE, mais il existe des métriques plus adaptées aux séries temporelles, en particulier DTW. DTW n'est toutefois pas différentiable et ne peut donc être utilisée pour un apprentissage de bout-en-bout.
Pour résoudre ce problème, nous proposons dans cette thèse deux approches d'approximation de DTW basées sur des réseaux de neurones. La première approche utilise un réseau siamois pour projeter les signaux de sorte que la distance euclidienne des signaux projetés soit la plus proche possible de la DTW des signaux originaux. La deuxième approche tente de directement prédire la valeur de DTW. Nous montrons que ces approches sont plus rapides que les autres approximations différentiables de DTW tout en obtenant des résultats similaires à l'utilisation de DTW dans des tâches de requêtage ou de classification de signaux du sommeil.
Nous montrons ensuite que l'approximation siamoise peut être utilisée comme fonction de coût pour apprendre un système de compression des signaux de sommeil basé sur un autoencodeur. Nous justifions du choix de l'architecture du réseau par le fait qu'elle nous permet de faire varier le taux de compression. Nous évaluons ce système de compression par la classification sur les signaux compressés puis reconstruits, et montrons que les mesures usuelles de qualité de compression ne permettent pas de correctement évaluer la capacité d'un système de compression à conserver l'information discriminante. Nous montrons que nos approximations de DTW permettent d'obtenir de meilleures performances sur les données reconstruites que des algorithmes de compression usuels et que d'autres fonctions de coût de reconstruction.
Enfin, pour étudier l'impact du COVID long sur l'insomnie, nous collectons et mettons à disposition de la communauté un jeu de données nommé COVISLEEP, constitué de polysomnographies de personnes ayant développé une insomnie chronique après infection du COVID, et de personnes souffrant d'insomnie chronique mais n'ayant pas été infectées par le virus. Nous comparons diverses approches à l'état de l'art pour classifier les états du sommeil, et utilisons la meilleure pour apprendre la détection de COVID long. Nous montrons la difficulté de la tâche, notamment due à la forte variabilité entre les patients. Ceci offre à la communauté un jeu complexe qui laisse place au développement de méthodes plus performantes.
Abstract
This manuscript presents the work carried out within the framework of the CIFRE thesis conducted in partnership between LITIS and Saagie and which is part of the PANDORE-IA project in association with the VIFASOM sleep center.
Electroencephalographic (EEG) signals are very useful in helping experts identify various abnormalities like sleep disorders. Recently, the community has shown great interest in long COVID and its various impacts on sleep. However, these signals are voluminous: compression allows reducing storage and transfer costs. Recent compression approaches are based on autoencoders that use a cost function to learn. It is usually the Mean Squared Error (MSE), but there are metrics more suited to time series, particularly Dynamic Time Warping (DTW). However, DTW is not differentiable and thus can not be used as a loss for end-to-end learning.
To solve this problem, we propose in this thesis two approaches to approximate DTW based on neural networks. The first approach uses a Siamese network to project the signals so that the Euclidean distance of the projected signals is as close as possible to the DTW of the original signals. The second approach attempts to predict directly the DTW value. We show that these approaches are faster than other differentiable approximations of DTW while obtaining results similar to DTW in query or classification on sleep data.
We then demonstrate that the Siamese approximation can be used as a cost function for learning a sleep signal compression system based on an autoencoder. We justify the choice of the network architecture by the fact that it allows us to vary the compression rate. We evaluate this compression system by classification on the compressed and then reconstructed signals, and show that the usual measures of compression quality do not allow for a proper assessment of a compression system's ability to retain discriminative information. We show that our DTW approximations yield better performance on the reconstructed data than conventional compression algorithms and other reconstruction losses.
Finally, to study the impact of long COVID on insomnia, we collect and provide the community with a dataset named COVISLEEP, containing polysomnographies of individuals who developed chronic insomnia after COVID infection, and of those suffering from chronic insomnia but who have not been infected by the virus. We compare various state-of-the-art approaches for sleep staging, and use the best one for learning the detection of long COVID. We highlight the difficulty of the task, especially due to the high variability among patients. This offers a complex dataset to the community that allows for the development of more effective methods.
Games with incοmplete infοrmatiοn: cοmplexity, algοrithmics, reasοning
Doctorant·e
LI Junkang
Direction de thèse
ZANUTTINI Bruno (Directeur·trice de thèse)
Date de la soutenance
21/12/2023 à 13:00
Lieu de la soutenance
Salle de thèse (S3-102) - Sciences 3 - Campus 2 - Université de Caen Normandie
Rapporteurs de la thèse
SPANJAARD OLIVIER Maître de conférences HDR Sorbonne Université
STURTEVANT NATHAN University of Alberta
Membres du jurys
CAZENAVE TRISTAN,
,
UNIVERSITE PARIS 9
DIMA CATALIN,
,
UNIVERSITE MARNE LA VALLEE UNIV PARIS EST MARNE LA VALLEE
SPANJAARD OLIVIER,
Maître de conférences HDR,
Sorbonne Université
STURTEVANT NATHAN,
,
University of Alberta
THOMAS VINCENT,
Maître de conférences,
Université de Lorraine
VENTOS VERONIQUE,
Docteur,
NUKKAI
ZANUTTINI Bruno,
,
Université de Caen Normandie (UCN)
Résumé
Dans cette thèse, on étudie les jeux à information incomplète. On commence par établir un paysage complet de la complexité du calcul des stratégies pures optimales pour différentes sous-catégories de jeux, lorsque les jeux sont explicitement donnés en entrée. On étudie ensuite la complexité lorsque les jeux sont représentés de façon compacte (par leurs règles de jeu, par exemple). Pour ce faire, on conçoit deux formalismes pour ces représentations compactes. Dans la suite, on se consacre aux jeux à information incomplète, en proposant d'abord un nouveau formalisme, nommé jeu combinatoire à information incomplète, qui regroupe les jeux sans hasard (sauf un tirage aléatoire initial) et avec uniquement des actions publiques. Pour de tels jeux, ce nouveau formalisme capture la notion de l'information et de la connaissance des joueurs mieux que la forme extensive. Puis, on étudie des algorithmes et leurs optimisations pour résoudre les jeux combinatoires à information incomplète ; certains algorithmes que l'on propose sont applicables au-delà de ces jeux. Dans la dernière partie, on présente un travail en cours, qui consiste à modéliser les raisonnements récursifs et différents types de connaissances sur le comportement des adversaires dans les jeux à information incomplète.
Abstract
In this dissertation, we study games with incomplete information. We begin by establishing a complete landscape of the complexity of computing optimal pure strategies for different subclasses of games, when games are given explicitly as input. We then study the complexity when games are represented compactly (e.g.\ by their game rules). For this, we design two formalisms for such compact representations. Then we concentrate on games with incomplete information, by first proposing a new formalism called combinatorial game with incomplete information, which encompasses games of no chance (apart from a random initial drawing) and with only public actions. For such games, this new formalism captures the notion of information and knowledge of the players in a game better than extensive form. Next, we study algorithms and their optimisations for solving combinatorial games with incomplete information; some of these algorithms are applicable beyond these games. In the last part, we present a work in progress that concerns the modelling of recursive reasoning and different types of knowledge about the behaviour of the opponents in games with incomplete information.
Ιdentificatiοn de mοdèles sοus fοrme de représentatiοn d'état pοur les systèmes à sοrtie binaire
Doctorant·e
MESTRAH Ali
Direction de thèse
POULIQUEN Mathieu (Directeur·trice de thèse)
Date de la soutenance
20/12/2023 à 09:00
Lieu de la soutenance
Salle des thèses (S3 102) - Sciences 3 - Campus 2 - Université de Caen Normandie
Rapporteurs de la thèse
BOMBOIS XAVIER Directeur de recherche ECOLE CENTRALE LYON
POINOT THIERRY UNIVERSITE POITIERS
Membres du jurys
BOMBOIS XAVIER,
Directeur de recherche,
ECOLE CENTRALE LYON
CHERRIER-PAWLOWSKI ESTELLE,
Maître de conférences HDR,
ENSICAEN
JAUBERTHIE CARINE,
,
Université de Toulouse 3 - Paul Sabatier
JUILLARD JEROME,
,
Ecole Supérieure d'Electricité
PIGEON Eric,
Maître de conférences,
Université de Caen Normandie (UCN)
POINOT THIERRY,
,
UNIVERSITE POITIERS
POULIQUEN Mathieu,
,
Université de Caen Normandie (UCN)
Résumé
Cette thèse porte sur la modélisation paramétrique des systèmes linéaires invariants à partir de mesures binaires de la sortie. Ce problème de
modélisation est abordée via l’usage des méthodes des sous-espaces. Ces méthodes permettent l’estimation de modèles sous forme de représentation d’état,
un des avantages de ces méthodes étant que leur mise en œuvre ne nécessite pas la connaissance préalable de l’ordre du système. Ces méthodes ne sont
initialement pas adaptées au traitement de données binaires, l’objectif de cette thèse est ainsi leur adaptation à ce contexte d’identification. Dans cette thèse nous
proposons trois méthodes des sous-espaces. Les propriétés de convergence de deux d’entre elles sont établies. Des résultats de simulations de Monte-Carlo sont
présentés afin de montrer les bonnes performances, mais aussi les limites, de ces méthodes.
Abstract
This thesis focuses on parametric modeling of invariant linear systems from binary output measurements. This identification problem is addressed via the use of
subspace methods. These methods allow the estimation of state-space models, an added benefit of these methods being the fact that their implementation does
not require the prior knowledge of the order of the system. These methods are initially adapted to high resolution data processing, the objective of this thesis is
therefore their adaptation to the identification using binary measurements. In this thesis we propose three subspace methods. Convergence properties of two of
them are established. Monte Carlo simulation results are presented to show the good performance, but also limits, of these methods.
Analyse et analyse numérique d'EDΡ issues de la thermοmécanique des fluides
Doctorant·e
AOUN Mirella
Direction de thèse
GUIBE OLIVIER (Directeur·trice de thèse)
Date de la soutenance
20/12/2023 à 14:30
Lieu de la soutenance
LMRS
22 avenue de la mare aux daims
76800 St Etienne Du Rouvray
Rapporteurs de la thèse
LEWANDOWSKI ROGER UNIVERSITE RENNES 1
MIRANVILLE ALAIN UNIVERSITE POITIERS
Dans cette thèse nous nous intéressons à des systèmes non linéaires d'évolution issus d'un modèle de solidification non isotherme avec prise en compte de la convection. Ces systèmes consistent en un couplage non linéaire de trois équations aux dérivés partielles : la première est l'équation de la phase, la deuxième est l'équation de conservation de l'énergie et la troisième est l'équation de Navier-Stokes incompressible. Plus précisément, nous nous intéressons à établir des résultats sur l'existence de solutions pour ce type de systèmes en dimension $2$ et $3$ ainsi que sur la convergence de solutions approchées par la méthode des volumes finis. Une des particularités de ce type de système est la présence d'un terme naturellement dans $L^1$ dans l'équation de conservation de l'énergie, ce qui demande un traitement particulier.
Cette thèse est divisée en deux parties.
La première partie comporte deux chapitres et est consacrée à l'étude des problèmes avec données $L^1$ et des conditions aux limites de type Neumann. Pour traiter ces problèmes et ces données peu régulières, nous nous plaçons dans le cadre des solutions renormalisées.
Nous établissons dans un premier chapitre un résultat de convergence des solution approchées par la méthode des volumes finis vers l'unique solution renormalisée à médiane nulle dans le cas d'une équation de convection-diffusion elliptique. Dans le second chapitre nous nous intéressons à un problème parabolique non-linéaire, avec des conditions de Neumann non homogène et un terme de convection. Pour ce problème nous donnons une définition de solution renormalisée et nous montrons l'existence et l'unicité d'une telle solution.
La deuxième partie comporte deux chapitres et est consacrée à l'étude du système en dimension $2$ et $3$. Dans un premier chapitre nous traitons le cas de la dimension $2$ et nous définissons une notion de solution faibles--renormalisées. Avec notamment l'aide des résultats d'existence et de stabilité établis dans la première partie pour l'équation de la conservation de l'énergie, nous démontrons un résultat d'existence de solution.
Le dernier chapitre aborde le cas plus délicat de la dimension $3$. L'absence de résultat général de stabilité et d'unicité pour l'équation de Navier-Sokes en dimension $3$ nous impose tout d'abord à transformer le système en un système formellement équivalent. Par approximation et passage à la limite nous démontrons un résultat d'existence de solution dans un sens faible.
Abstract
In this thesis, we focus on nonlinear evolutionary systems derived from a non-isothermal solidification problem with melt convection. These systems consist of three partial differential equations. The first is the phase-field equation coupled with the heat equation and the incompressible Navier-Stokes equation. More precisely, we are interested in the existence of solutions for these types of systems in the two-dimensional and the three-dimensional cases, and in the convergence of a finite volume approximation. One of the particularities of this type of system is the presence of a term naturally in $L^1$ in the energy conservation equation, which requires special treatment.
This thesis is divided into two parts.
The first part is divided into two chapters and is devoted to the study of problems with $L^1$ data and Neumann-type boundary conditions. To deal with these problems, and with data that are not very regular, we use the framework of renormalized solutions.
In the first chapter, we establish a convergence result for solutions approximated by the finite volume method to the unique renormalized solution with zero median in the case of an elliptic convection-diffusion equation. In the second chapter, we focus on a non-linear parabolic problem with non-homogeneous Neumann conditions and a convection term. For this problem, we provide a definition of a renormalized solution and we show the existence and uniqueness of such a solution.
The second part is devoted to the study of the system in dimensions $2$ and $3$. The first chapter deals with the dimension $2$ and defines the notion of weak--renormalized solutions. With the help of the existence and stability results established in the first part for the conservation of energy equation, we prove the existence of a weak--renormalized solution.
The final chapter considers the trickier case of dimension $3$. The absence of a general stability and uniqueness result for the $3$-dimensional Navier-Sokes equation requires us to transform the system into a formally equivalent one. By approximation and passage to the limit, we prove the existence of a solution in a weak sense.
BEN AYED LEILA Université de la Manouba Tunis - Tunisie
LORENZ PASCAL Université de Haute-Alsace
Membres du jurys
ABOU EL HOUDA ZAKARIA,
Chercheur,
Université du Québec - INRS
BEN AYED LEILA,
,
Université de la Manouba Tunis - Tunisie
BERRI SARA,
Maître de conférences,
CY Cergy Paris Université
BOUASSIDA NADIA,
,
l'Université de Sfax
DESCAMPS Philippe,
,
ENSICAEN
HADRICH BELGLITH LAMIA,
,
l'Université de Sfax
KHOUKHI LYES,
,
ENSICAEN
LORENZ PASCAL,
,
Université de Haute-Alsace
Résumé
Avec les progrès réalisés au cours de la dernière décennie dans les Systèmes de Transport Intelligents (STI), les progrès technologiques dans le domaine véhciculaire à connu une évolution qui a donné naissance au paradigme prometteur de l'Internet des véhicules (IoV), attirant l'attention de nombreux chercheurs et inudstriels. Il est à noter que l'Internet des véhicules (IoV) vise à améliorer l'efficacité des transports, la sécurité et le confort des passagers en échangeant des informations sur la circulation et l'infodivertissement avec des véhicules connectés. La multitude de technologies d'accès aux réseaux, la mobilité exceptionnellement élevée des véhicules connectés et leur forte densité en zone urbaine, ainsi que la prédominance des communications sans fil font de l'écosystème IoV un réseau complexe, vulnérable et hétérogène aux caractéristiques très dynamiques de l'environnement véhiculaire. De nombreuses entités composent son architecture (véhicules connectés, humains, unités routières. De plus, les réseaux véhiculaires présentent différents types de communication pour confirmer sa connectivité et sa continuité. En conséquence, de nombreux messages critiques pour la sécurité à faible latence sont générés et échangés au sein du réseau. Cependant, cette diversité conduit à de nouvelles exigences de sécurité qui semblent difficiles à prendre en compte et à élargir la surface d'attaque de tels réseaux. Par conséquent, la diffusion de messages/entités malveillants au sein de l'IoV réduit considérablement les performances du réseau et devient une menace pour les passagers et les piétons vulnérables. En conséquence, des mécanismes de sécurité devraient être envisagés pour sécuriser les communications dans l'IoV. Cette thèse vise à proposer de nouveaux modèles pour améliorer les aspects de sécurité de l'écosystème IoV face à diverses attaques, y compris les attaques DDoS, tout en préservant la confidentialité des utilisateurs.
Abstract
With the major progress in Intelligent Transportation Systems (ITS), there has been an exponential interest in technological advancements of Internet of Vehicles (IoV), attracting the attention of numerous researchers from academia and industry. IoV technology aims to enhance transport efficiency, passenger safety, and comfort by exchanging traffic and infotainment information to connected vehicles. The multitude of network access technologies, the exceptionally high mobility of connected vehicles and their high density in urban areas, and the predominance of wireless communications make the IoV ecosystem a complex, vulnerable and heterogeneous network with very dynamic characteristics, some of which are difficult to predict and subject to scalability and threats problems. Many entities compose its architecture (connected vehicles, humans, roadside units (RSUs), ITS). Moreover, it presents different communication types to confirm its connectivity and vulnerability. However, this diversity leads to new security requirements that seem challenging to consider and enlarge the attack surface of such networks. Therefore, disseminating malicious messages/entities within the network significantly reduces the network performance and becomes a threat to passengers and vulnerable pedestrians. Accordingly, security mechanisms should be considered to secure communications in vehicular networks. This thesis aims to develop novel models to enhance the security aspects of the IoV ecosystem dealing with diverse attacks, including DDoS attacks, while preserving users' privacy.
Μοdèle οntοlοgique fοrmel, un appui à la sélectiοn des variables pοur la cοnstructiοn des mοdèles multivariés.
Doctorant·e
PRESSAT-LAFFOUILHERE Thibaut
Direction de thèse
SOUALMIA LINA (Directeur·trice de thèse)
BENICHOU JACQUES (Co-directeur·trice de thèse)
Date de la soutenance
19/12/2023 à 14:00
Lieu de la soutenance
Université de Rouen Normandie
Rapporteurs de la thèse
LEFFONDRE KAREN UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
MOUGIN FLEUR UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
Membres du jurys
BENICHOU JACQUES,
,
Université de Rouen Normandie (URN)
CHARLET JEAN,
,
Sorbonne Universite
DUCLOS CATHERINE,
,
UNIVERSITE PARIS 13 PARIS-NORD
GROSJEAN Julien,
,
Université de Rouen Normandie (URN)
LEFFONDRE KAREN,
,
UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
MOUGIN FLEUR,
,
UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
SOUALMIA LINA,
,
Université de Rouen Normandie (URN)
Résumé
Répondre à une question de recherche causale dans un contexte d’étude observationnelle nécessite de
sélectionner des variables de confusion. Leur intégration dans un modèle multivarié en tant que co-variables
permet de diminuer le biais dans l’estimation de l'effet causal de l'exposition sur le critère de jugement. Leur
identification est réalisée grâce à des diagrammes causaux (DCs) ou des graphes orientés acycliques. Ces
représentations, composées de noeuds et d'arcs orientés, permettent d’éviter la sélection de variables qui
augmenteraient le biais, comme les variables de médiation et de collision. Les méthodes existantes de
construction de DCs manquent cependant de systématisme et leur représentation de formalisme, d’expressivité et
de complétude. Afin de proposer un cadre de construction formel et complet capable de représenter toutes les
informations nécessaires à la sélection des variables sur un DC enrichi, d’analyser ce DC et surtout d’expliquer
les résultats de cette analyse, nous avons proposé d'utiliser un modèle ontologique enrichi de règles d'inférences.
Un modèle ontologique permet notamment de représenter les connaissances sous la forme de graphe expressif et
formel composé de classes et de relations similaires aux noeuds et arcs des DCs. Nous avons développé
l’ontologie OntoBioStat (OBS) à partir d’une liste de questions de compétence liée à la sélection des variables et
de l'analyse de la littérature scientifique relative aux DCs et aux ontologies. Le cadre de construction d’OBS est
plus riche que celui d’un DC, intégrant des éléments implicites tels que les causes nécessaires, contextuels d’une
étude, sur l’incertitude de la connaissance et sur la qualité du jeu de données correspondant. Afin d’évaluer
l’apport d’OBS, nous l’avons utilisée pour représenter les variables d’une étude observationnelle publiée et
avons confronté ses conclusions à celle d’un DC. OBS a permis d'identifier de nouvelles variables de confusion
grâce au cadre de construction différent des DCs et aux axiomes et règles d'inférence. OBS a également été
utilisée pour représenter une étude rétrospective en cours d’analyse : le modèle a permis d’expliquer dans un
premier temps les corrélations statistiques retrouvées entre les variables de l’étude puis de mettre en évidence les
potentielles variables de confusion et leurs éventuels substituts ("proxys"). Les informations sur la qualité des
données et l’incertitude des relations causales ont quant à elles facilité la proposition des analyses de sensibilité,
augmentant la robustesse de la conclusion de l’étude. Enfin, les inférences ont été expliquées grâce aux capacités
de raisonnement offertes par le formalisme de représentation d'OBS. À terme OBS sera intégrée dans des outils
d’analyse statistique afin de bénéficier des bibliothèques existantes pour la sélection des variables et de permettre
son utilisation par les épidémiologistes et les biostatisticiens.
Abstract
Responding to a causal research question in the context of observational studies requires the selection of
confounding variables. Integrating them into a multivariate model as co-variables helps reduce bias in estimating
the true causal effect of exposure on the outcome. Identification is achieved through causal diagrams (CDs) or
directed acyclic graphs (DAGs). These representations, composed of nodes and directed arcs, prevent the
selection of variables that would introduce bias, such as mediating and colliding variables. However, existing
methods for constructing CDs lack systematic approaches and exhibit limitations in terms of formalism,
expressiveness, and completeness. To offer a formal and comprehensive framework capable of representing all
necessary information for variable selection on an enriched CD, analyzing this CD, and, most importantly,
explaining the analysis results, we propose utilizing an ontological model enriched with inference rules. An
ontological model allows for representing knowledge in the form of an expressive and formal graph consisting of
classes and relations similar to the nodes and arcs of Cds. We developed the OntoBioStat (OBS) ontology based
on a list of competency questions about variable selection and an analysis of scientific literature on CDs and
ontologies. The construction framework of OBS is richer than that of a CD, incorporating implicit elements like
necessary causes, study context, uncertainty in knowledge, and data quality. To evaluate the contribution of OBS,
we used it to represent variables from a published observational study and compared its conclusions with those
of a CD. OBS identified new confounding variables due to its different construction framework and the axioms
and inference rules. OBS was also used to represent an ongoing retrospective study analysis. The model
explained statistical correlations found between study variables and highlighted potential confounding variables
and their possible substitutes (proxies). Information on data quality and causal relation uncertainty facilitated
proposing sensitivity analyses, enhancing the study's conclusion robustness. Finally, inferences were explained
through the reasoning capabilities provided by OBS's formal representation. Ultimately, OBS will be integrated
into statistical analysis tools to leverage existing libraries for variable selection, making it accessible to
epidemiologists and biostatisticians.
Aide à la décisiοn pοur le diagnοstic des défauts pοur une maintenance prοactive dans un générateur phοtοvοltaique
Doctorant·e
COMPAORE Wendpuire Ousmane
Direction de thèse
HOBLOS GHALEB (Directeur·trice de thèse)
KOALAGA ZACHARIE (Co-directeur·trice de thèse)
BARREAU MIHAELA,
,
Université d'Angers
DJEZIRI MOHAND,
,
Aix-Marseille université
EL BADAOUI EL NAJJAR MAAN,
,
UNIVERSITE LILLE 1 SCIENCES ET TECHNOLOGIE
HOBLOS GHALEB,
,
ESIGELEC ROUEN
KOALAGA ZACHARIE,
,
Université Joseph Ki-Zerbo
ZOUGMORE FRANÇOIS,
,
Université Joseph Ki-Zerbo
Résumé
La perte de puissance d'un générateur photovoltaïque (GPV) est sans conteste due à l'apparition d'un certain nombre d'anomalies liées à la fabrication, à la production ou à l'environnement, engendrant des défaillances dans son bon fonctionnement. A partir d'un modèle réaliste, assez proche du fonctionnement réel et capable de prendre en compte l'effet d'avalanche d'une jonction PN transmise à l'ensemble du GPV, nous avons montré à suffisance, la perte de performances d'un générateur PV et la nécessité d'avoir une méthode de diagnostic pour l'aide à la maintenance afin de ne pas subir les effets des défauts.
Deux méthodes de diagnostic ont été appliquées à ce GPV, l'une portant sur la détection et la localisation des défauts capteurs, et l'autre sur la détection et la localisation des défauts systèmes. Le choix particulier de ces deux techniques de diagnostic, qui ne ciblent pas les mêmes types de défauts, réside dans la nature complexe du modèle du processus industriel soumis à l'étude. Les performances obtenues avec la méthode des relations de redondance analytique (RRA) basée sur le principe de l'espace de parité appliqué au point de fonctionnement maximal, sont très pertinentes. Par la méthode de l'intelligence artificielle (IA) basée sur le principe des réseaux de neurones artificiels (RNA), nous avons expérimenté deux méthodes de classification pour la détection et le diagnostic des défauts systèmes. Si la détectabilité est prouvée avec nos différentes configurations sans possibilité de situer l'origine et la cause dans la première partie de la classification, nous arrivons grâce à un faisceau d'indices à situer l'origine ou la cause grâce à la classification pour le diagnostic.
La réalisation de deux prototypes d'acquisition temps réel est faite sur le principe de l'Internet industriel des objets (IIoT). Le premier permet uniquement l'acquisition et la sauvegarde des données sur une carte SD. Le second prototype plus évolué, permet la transmission en temps réel par Wifi à un serveur web et vise la réalisation à long terme d'une plateforme de surveillance en temps réel. Les deux prototypes produisent des données qui sont utilisées pour alimenter les deux méthodes de diagnostic. Les résultats obtenus avec des données réelles sont compatibles avec ceux obtenus en phase de simulation. Les conclusions de ce diagnostic permettront une meilleure efficacité dans les opérations de maintenance proactive.
Abstract
The loss of power of a photovoltaic generator (PVG) is undoubtedly due to the appearance of a certain number of anomalies linked to manufacturing, production or the environment and causing failures in its proper functioning. From a realistic model, quite close to real operation and able to take into account the avalanche effect of a PN junction transmitted to the entire PVG, we have sufficiently shown the loss of performance of a PV generator and the need to have a diagnostic method for maintenance assistance in order not to suffer the effects of faults.
Two diagnostic methods were applied to this PVG, one relating to the detection and localization of sensor faults, and the other to the detection and localization of system faults. The particular choice of these two diagnostic techniques, which do not target the same types of faults, lies in the complex nature of the model of the industrial process subjected to study. The performances obtained with the analytical redundancy relations (ARR), method based on the principle of parity space applied to the maximum operating point are very relevant. Using the artificial intelligence (AI), method based on the principle of artificial neural networks (ANN), we experimented with two classification methods for the detection and diagnosis of system faults. If detectability is proven with our different configurations without the possibility of locating the origin and the cause in the first part of the classification, we arrive thanks to a bundle of clues to locate the origin or the cause thanks to the classification for the diagnostic.
The production of two real-time acquisition prototypes is based on the principle of the Industrial Internet of Things (IIoT). The first only allows the acquisition and saving of data on an SD card. The second, and more advanced prototype, allows real-time transmission via WiFi to a web server and aims to create a real-time monitoring platform in the long term. Both prototypes produce data that is used to power both diagnostic methods. The results obtained with real data are compatible with those obtained in the simulation phase. The conclusions of this diagnosis will enable greater efficiency in proactive maintenance operations.
Self-supervised representatiοn learning and applicatiοns tο image and videο analysis
Doctorant·e
DENIZE JULIEN
Direction de thèse
HERAULT Romain (Directeur·trice de thèse)
RABARISOA JAONARY (Co-encadrant·e de thèse)
Date de la soutenance
18/12/2023 à 14:00
Lieu de la soutenance
Nano-Innov
2 Bd Thomas Gobert
91120 Palaiseau
Rapporteurs de la thèse
ACHARD CATHERINE Sorbonne Université
NAJMAN LAURENT ESIEE Paris
Membres du jurys
ACHARD CATHERINE,
,
Sorbonne Université
AMINI MASSIH-REZA,
,
Université Grenoble Alpes
CHAN HON TONG ADRIEN,
,
ONERA
HERAULT Romain,
,
Université de Caen Normandie
NAJMAN LAURENT,
,
ESIEE Paris
RABARISOA JAONARY,
,
CEA LIST, Palaiseau
SABOURIN ASTRID,
,
CEA LIST, Palaiseau
Résumé
Dans cette thèse, nous développons des approches d'apprentissage auto-supervisé pour l'analyse d'images et de vidéos. L'apprentissage de représentation auto-supervisé permet de pré-entraîner les réseaux neuronaux à apprendre des concepts généraux sans annotations avant de les spécialiser plus rapidement à effectuer des tâches, et avec peu d'annotations. Nous présentons trois contributions à l'apprentissage auto-supervisé de représentations d'images et de vidéos. Premièrement, nous introduisons le paradigme théorique de l'apprentissage contrastif doux et sa mise en œuvre pratique appelée Estimation Contrastive de Similarité (SCE) qui relie l'apprentissage contrastif et relationnel pour la représentation d'images. Ensuite, SCE est étendue à l'apprentissage de représentation vidéo temporelle globale. Enfin, nous proposons COMEDIAN, un pipeline pour l'apprentissage de représentation vidéo locale-temporelle pour l'architecture transformer. Ces contributions ont conduit à des résultats de pointe sur de nombreux benchmarks et ont donné lieu à de multiples contributions académiques et techniques publiées.
Abstract
In this thesis, we develop approaches to perform self-supervised learning for image and video analysis. Self-supervised representation learning allows to pretrain neural networks to learn general concepts without labels before specializing in downstream tasks faster and with few annotations. We present three contributions to self-supervised image and video representation learning. First, we introduce the theoretical paradigm of soft contrastive learning and its practical implementation called Similarity Contrastive Estimation (SCE) connecting contrastive and relational learning for image representation. Second, SCE is extended to global temporal video representation learning. Lastly, we propose COMEDIAN a pipeline for local-temporal video representation learning for transformers. These contributions achieved state-of-the-art results on multiple benchmarks and led to several academic and technical published contributions.
Améliοratiοns des οutils de détectiοn de malwares par analyse statique grâce à des mécanismes d'intelligence artificielle
BADONNEL REMI Université de Lorraine
MATEI BASARAB Maître de conférences HDR Sorbonne Université
Membres du jurys
BADONNEL REMI,
,
Université de Lorraine
CHESNEAU Christophe,
Maître de conférences,
Université de Caen Normandie (UCN)
DIDI BIHA Mohamed,
,
Université de Caen Normandie (UCN)
FROMONT ELISA,
,
IRISA/INRIA Rennes
LEVRARD CLEMENT,
,
Université de Rennes
MATEI BASARAB,
Maître de conférences HDR,
Sorbonne Université
QUERTIER Tony,
,
ORANGE INNOVATION
Résumé
Cette thèse porte sur l'analyse de fichiers malveillants. Nous nous intéressons particulièrement à l'utilisation de l'intelligence artificielle pour développer et améliorer des outils d'analyse de malware. Dans un premier temps, nous abordons le problème d'un point de vue défensif en proposant des outils d'analyse, et en élaborant de nouveaux modèles de détection de logiciels malveillants basés sur l'apprentissage supervisé et l'apprentissage profond. Nous proposons aussi une approche offensive, basée sur des méthodes d'apprentissage par renforcement, dans le but de contourner différentes solutions de détection. Cette méthode permet d'étudier leurs failles et leurs faiblesses afin d'évaluer leur efficacité.
Abstract
This thesis focuses on the analysis of malicious files. We are particularly interested in using artificial intelligence to develop and improve malware analysis tools. Firstly, we propose a defensive approach, by providing analysis tools and by developing new malware detection models based on supervised and deep learning. We also propose an offensive approach, based in reinforcement learning methods, with the purpose of bypassing various detection solutions. This method allows us to examine their vulnerabilities and weaknesses in order to assess their effectiveness.
"Link-hοmοtοpie" en tοpοlοgie de base dimensiοn
Doctorant·e
GRAFF Emmanuel
Direction de thèse
BELLINGERI Paolo (Directeur·trice de thèse)
MEILHAN JEAN-BAPTISTE (Co-directeur·trice de thèse)
MASSUYEAU GWENAEL Universite de Bourgogne
ROWELL ERIC UNIVERSITE TEXAS A&M ETATS-UNIS
Membres du jurys
AUDOUX BENJAMIN,
Maître de conférences HDR,
Aix-Marseille université
BELLINGERI Paolo,
Maître de conférences,
Université de Caen Normandie (UCN)
LEBED Victoria,
Maître de conférences,
Université de Caen Normandie (UCN)
MASSUYEAU GWENAEL,
,
Universite de Bourgogne
MEILHAN JEAN-BAPTISTE,
Maître de conférences HDR,
Université Grenoble Alpes
PARIS LUIS,
,
Universite de Bourgogne
ROWELL ERIC,
,
UNIVERSITE TEXAS A&M ETATS-UNIS
WAGNER EMMANUEL,
,
IMJ-PRG
Résumé
Ce mémoire explore la topologie de basse dimension, en mettant l'accent sur la théorie des nœuds. Une théorie consacrée à l'étude des nœuds tels qu'ils sont communément compris : des morceaux de ficelle enroulés dans l'espace ou, de manière plus générale, des entrelacs formés en prenant plusieurs bouts de ficelle. Les nœuds et les entrelacs sont étudiés à déformation près, par exemple, à isotopie près, ce qui implique des manipulations sans couper ni faire passer la ficelle à travers elle-même. Cette thèse explore la link-homotopie, une relation d'équivalence plus souple où des composantes distinctes demeurent séparées, mais où une composante donnée peut s'auto-intersecter. La théorie des claspers, des puissants outils de chirurgie, est développée à link-homotopie près. Leur utilisation permet une démonstration géométrique de la classification des entrelacs avec 4 composantes ou moins à link-homotopie près. Une attention particulière est ensuite accordée aux tresses, des objets mathématiques apparentés aux nœuds et aux entrelacs. Il est montré que le groupe de tresses homotopiques est linéaire, c'est-à-dire isomorphe à un sous-groupe de matrices. De nouvelles présentations de ce groupe sont également proposées. Enfin, il est établi que le groupe de tresse homotopique est sans torsion, quel que soit le nombre de composantes. Ce dernier résultat s'appuie sur le contexte plus large de la théorie des nœuds soudés.
Abstract
This thesis explores low-dimensional topology, with a focus on knot theory. Knot theory is dedicated to the study of knots as commonly understood: a piece of string tied in space or, more generally, links formed by taking several pieces of string. Knots and links are studied up to deformation, for example, up to isotopy, which involves manipulations that do not require cutting or passing the string through itself. This thesis explores link-homotopy, a more flexible equivalence relation where distinct components remain disjoint, but a single component can self-intersect. The theory of claspers, powerful tools of surgery, is developed up to link-homotopy. Their use allows for a geometric proof of the classification of links with 4 components or less up to link-homotopy. Special attention is then given to braids, mathematical objects related to knots and links. It is shown that the homotopy braid group is linear, meaning it is faithfully represented by a subgroup of matrices. New group presentations are also proposed. Finally, it is established that the homotopy braid group is torsion-free for any number of components. This last result draws upon the broader context of welded knot theory.
Caractérisatiοns physique et thermique de transistοrs ΗEΜΤs de la filière GaΝ pοlarisés en régimes cοntinu et pulsé.
Doctorant·e
STRENAER Raphael
Direction de thèse
GUHEL Yannick (Directeur·trice de thèse)
BOUDART Bertrand (Co-directeur·trice de thèse)
MAHER HASSAN SHERBROOKE - UNIVERSITE DE SHERBROOKE
MALBERT NATHALIE Universite de Bordeaux
Membres du jurys
BOUDART Bertrand,
,
Université de Caen Normandie (UCN)
BOUEXIERE CHLOÉ,
,
Direction Générale de l'Armement
GAQUIERE CHRISTOPHE,
,
UNIVERSITE LILLE 1 SCIENCES ET TECHNOLOGIE
GUHEL Yannick,
,
Université de Caen Normandie (UCN)
MAHER HASSAN,
,
SHERBROOKE - UNIVERSITE DE SHERBROOKE
MALBERT NATHALIE,
,
Universite de Bordeaux
Résumé
Les transistors de type HEMT (High Electron Mobility Transistors) à base de GaN sont des composants prometteurs pour des applications de puissance et des applications hyperfréquences. Cependant, ils sont aujourd’hui encore sujet à des effets limitatifs tels que des effets de pièges électriques et/ou d’auto-échauffement induits par la polarisation électrique. Dans ce manuscrit de thèse, nous avons donc développé des méthodes afin de caractériser physiquement et thermiquement des composants. Dans la première partie, nous avons mis au point une technique de caractérisation combinant les mesures électriques I-V en régime impulsionnel avec les techniques de photoionisation. L’objectif est de déterminer la position, l’énergie d’activation et les constantes de temps des pièges présents dans les composants sans utiliser des lois d’Arrhenius. Dans la deuxième partie, la caractérisation thermique de ces composants en mode de fonctionnement a été faite grâce à la spectroscopie Raman. Ainsi, nous avons estimé des températures d’auto-échauffement moyennées sur le volume sondé en utilisant la spectroscopie Raman classique et celles des surfaces du semiconducteur et des contacts métalliques en utilisant deux types de microthermomètres Raman à base de TiO2 et de CeO2. Cette technique de caractérisation a également fait ses preuves pour caractériser thermiquement des composants polarisés en régime impulsionnel.
Abstract
GaN-based High-Electron Mobility Transistors (HEMTs) are promising for power and microwave applications. However, they remain subject to limiting effects such as electrical traps and/or self-heating, both induced by electrical polarization. In this dissertation, we therefore sought methods to physically and thermally characterize components. Firstly, we developed a characterization technique combining pulsed I-V electrical measurements with photoionization techniques. The aim is to determine the position, activation energy and time constants of traps in the components without using Arrhenius laws. Secondly, thermal characterization of biased components was carried out using Raman spectroscopy. Thus, we estimated the averaged self-heating temperature on the probed volume using conventional Raman spectroscopy and those of the surface of the semiconductor layer or metal contacts using Raman microthermometers based on CeO2 and TiO2. This technique was also made it possible to thermally characterize components biased in pulsed regime.
Cοnceptiοn, dévelοppement et évaluatiοn d'un dispοsitif de réalité virtuelle pοur la rééducatiοn d’enfants et d’adοlescents atteints de paralysie cérébrale : le prοjet RV-REEDUC
MONTAGNE GILLES Aix-Marseille université
PERROT ALEXANDRA Maître de conférences HDR Université Paris Saclay
Membres du jurys
BENGUIGUI Nicolas,
,
Université de Caen Normandie (UCN)
BIDEAU BENOIT,
,
Universite de Haute Bretagne Rennes 2
LECONTE Pascale,
Maître de conférences,
Université de Caen Normandie (UCN)
MONTAGNE GILLES,
,
Aix-Marseille université
OLIVIER ISABELLE,
,
Universite Grenoble Alpes
PERROT ALEXANDRA,
Maître de conférences HDR,
Université Paris Saclay
Résumé
L'objectif de ce travail de thèse était de concevoir, de développer et d'évaluer l'efficacité d'un
dispositif de réalité virtuelle immersive basé sur des tâches visuo-manuelles, telles que la
poursuite et le pointage d’objets, pour la rééducation du membre supérieur d'enfants et
d'adolescents atteints de paralysie cérébrale. La première étude de cette thèse consistait en une
revue systématique avec méta-analyse afin de faire un état des lieux des caractéristiques et des
effets des dispositifs de réalité virtuelle utilisés dans la rééducation des enfants et des jeunes
adultes atteints de paralysie cérébrale. La synthèse des 22 études incluses dans cette revue nous
a permis de déterminer les avantages et les limites des dispositifs à considérer dans le
développement de ce nouvel outil de rééducation virtuelle. La deuxième étude de cette thèse
était basée sur une expérimentation et avait pour but d'évaluer l'impact de différentes contraintes
dans une tâche visuo-manuelle de poursuite sur la performance de 23 participants adultes. Les
résultats ont montré une dégradation des performances lorsque les contraintes de la tâche étaient
plus élevées. Ces résultats nous ont permis de définir les niveaux de difficulté du dispositif de
réalité virtuelle pour la rééducation. La troisième étude consistait en un essai clinique randomisé
visant à évaluer les effets du dispositif de réalité virtuelle sur des paramètres moteurs,
fonctionnels, cinématiques et motivationnels chez 20 enfants et adolescents atteints de paralysie
cérébrale. Les résultats montrent que ce dispositif de réalité virtuelle immersive est un outil
efficace, intéressant, sécurisé et attractif pour la rééducation du membre supérieur chez des
enfants et des adolescents atteints de paralysie cérébrale.
Abstract
The aim of this thesis was to conceive, develop and evaluate the effectiveness of an immersive
virtual reality device based on visuo-manual tasks, such as tracking and pointing, for the
rehabilitation of the upper limb of children and adolescents with cerebral palsy. The first study
of this thesis consisted of a systematic review with meta-analysis to assess the characteristics
and effects of virtual reality devices used in the rehabilitation of children and young adults with
cerebral palsy. The synthesis of the 22 studies included in this review allowed us to determine
the advantages and limitations of the devices to be considered in the development of a new
virtual rehabilitation tool. The second study in this thesis was based on an experiment and aimed
to assess the impact of different constraints in the pursuit task (i.e., target speed, virtual cube
size and transformation gain) on the performance of 22 adult participants. The results showed
a decrease in performance when the task constraints were higher. These results enabled us to
define the difficulty levels of the virtual reality device for rehabilitation. The third study was a
randomized clinical trial to assess the effectiveness of the virtual reality device on motor,
functional, kinematic, and motivational parameters in 20 children and adolescents with cerebral
palsy. The results suggest that the immersive virtual reality device developed in this thesis is
an effective, interesting, safe, and attractive tool for upper limb rehabilitation in children and
adolescents with cerebral palsy.
Apprοches symbοliques pοur une intelligence artificielle explicable
Doctorant·e
BELLUCCI MATTHIEU
Direction de thèse
ZANNI-MERK CECILIA (Directeur·trice de thèse)
DELESTRE Nicolas (Co-encadrant·e de thèse)
MALANDAIN Nicolas (Co-encadrant·e de thèse)
Date de la soutenance
01/12/2023 à 14:30
Lieu de la soutenance
INSA Rouen Normandie
Amphi Curie DU-B-RJ-02, rez-de-jardin Bâtiment Dumont d'Urville
685 avenue de l'université
76801 Saint Etienne du Rouvray
Rapporteurs de la thèse
CRUZ CHRISTOPHE Université de Bourgogne, Dijon
MARQUIS PIERRE Université d'Artois, Lens
Membres du jurys
ABEL MARIE-HELENE,
,
Université de Technologie de Compiègne
CRUZ CHRISTOPHE,
,
Université de Bourgogne, Dijon
DELESTRE Nicolas,
,
INSA de Rouen Normandie
FRYDMAN CLAUDIA,
,
Université d'Aix-Marseille
MALANDAIN Nicolas,
,
INSA de Rouen Normandie
MARQUIS PIERRE,
,
Université d'Artois, Lens
ZANNI-MERK CECILIA,
,
INSA de Rouen Normandie
Résumé
L'adoption généralisée de l'IA est due aux progrès considérables réalisés par les modèles d’apprentissage automatique en termes de performances. Ces algorithmes sont appliqués pour aider les décideurs dans des domaines sensibles tels que la santé ou la justice. Ces modèles sont communément appelés boîtes noires car il est impossible de comprendre leur processus de décision et l’influence de chaque caractéristique sur le résultat. Cette opacité peut cacher des décisions discriminatoires qui peuvent avoir un impact sur la vie d’une personne. C’est pourquoi la communauté scientifique a commencé à étudier la conception d’une IA explicable (XAI).
Une direction prometteuse pour le développement d’une IA puissante et explicable est la combinaison d’approches symboliques de l’IA avec des modèles d’apprentissage automatique, résultant en des méthodes neurosymboliques. Alors que les modèles d’apprentissage automatique sont préférés pour leurs performances, les méthodes d’IA symbolique sont connues pour être explicables car elles exploitent les connaissances et la logique humaines pour prendre une décision. En outre, les ontologies ont été identifiées comme des candidates idéales pour la conception d’algorithmes d’IA explicables. Pourtant, les travaux actuels sur les techniques neurosymboliques se concentrent sur l’amélioration des performances plutôt que sur la conception de systèmes d’IA explicables, malgré leur potentiel à fournir des explications. Par conséquent, cette thèse est consacrée à l’exploration des applications des méthodes symboliques d’IA pour créer un système d’IA explicable.
Au préalable, une étude de la terminologie de la XAI est menée, car des notions importantes ne sont pas clairement définies dans la littérature. Une terminologie est introduite qui identifie et définit les termes récurrents de la XAI qui sont ambiguës dans la littérature. La principale conclusion est qu’une explication est un processus interactif qui détermine un ensemble de causes ayant conduit au résultat d’un système d’IA.
Ensuite, nous présentons un classificateur d’images basé sur une ontologie (OBIC) capable de détecter les erreurs dans ses prédictions. Ce système exploite une ontologie qui décrit le domaine d’application pour former des modèles d’apprentissage automatique capables de détecter la classe de l’image et un ensemble de propriétés définies dans l’ontologie, comme la texture ou la couleur d’un objet. Une incohérence dans les prédictions est détectée par l’ontologie et signifie qu’il y a eu une erreur dans la classification, ce qui aide l’utilisateur à décider s’il doit faire confiance à la prédiction finale. En outre, les prédictions des modèles d’apprentissage automatique sont fondées sur la connaissance du domaine, ce qui facilite la compréhension et l’explication de la prédiction. Nous avons construit une interface d’explication qui extrait des informations utiles de ce système et formule des explications adéquates.
Afin d’expliquer l’étape de détection des erreurs du système intelligent explicable, nous devons concevoir une méthode d’explication pour les ontologies adaptée à la plupart des utilisateurs. Parmi les techniques d’explication les plus populaires, les explications contrefactuelles semblent présenter de nombreux avantages et font l’objet d’études approfondies pour expliquer les modèles d’apprentissage automatique. Nous proposons une méthode de génération d’explications contrefactuelles pour les ontologies. Elle est adaptée pour expliquer le fonctionnement de l’ontologie aux non-initiés, ce qui rend cette solution idéale pour expliquer l’étape de détection des erreurs.
Enfin, nous évaluons nos contributions sur une tâche de classification d'images. La qualité et la validité de la phase de détection des erreurs sont testées et analysées. Une étude utilisateur à petite échelle est menée avec des experts du domaine pour évaluer la pertinence et la qualité des explications contrefactuelles générées.
Abstract
The widespread adoption of AI is due to the significant progress in performance achieved by machine learning models. These algorithms are being applied to assist decision-makers in sensitive domains such as healthcare, justice or banking. These models are commonly called black-boxes as it is impossible to comprehend their decision process. This opacity can hide discriminatory decisions that have the potential to impact someone's life. As a result, scientific communities have started investigating the design of an explainable AI (XAI).
A promising direction for the development of a powerful and explainable AI is the combination of symbolic AI approaches with machine learning models, resulting in neurosymbolic methods. While machine learning models are preferred for their performance, symbolic AI methods are known to be explainable as they exploit human knowledge and logic to make a decision. Furthermore, ontologies have been identified as ideal candidates for the design of explainable AI algorithms. Yet, the current work on neurosymbolic techniques is focused on improving the performance rather than designing explainable AI systems. Consequently, this thesis is dedicated to exploring applications of symbolic AI methods to create an explainable AI system.
Beforehand, a study of the terminology of XAI is conducted, as important notions are not clearly defined. A terminology is introduced that identifies and defines recurring terms of XAI that are ambiguous in the literature. The main finding is that an explanation is the result an interactive process that determines a set of causes that led to the outcome of an AI system.
Then, we introduce an ontology-based image classifier (OBIC) capable of detecting errors in its predictions. This system exploits an ontology that describes the domain of application. This ontology is used to train machine learning classifiers that identify the class and a set of properties visible in an image e.g. the texture or color of an object. An inconsistency in the predictions is detected by the ontology and signifies that there was an error in the classification, thus helping a user to decide whether to trust the final prediction. Moreover, the predictions from the machine learning models are grounded in domain knowledge to facilitate the comprehension and explanation of the prediction. Explanations are the result of an interactive process, hence we built an explanation interface that extracts useful information from this system and formulates adequate explanations.
In order to explain the error detection step from OBIC, we need to design an explanation method for ontologies. Among the most popular explanation techniques, counterfactual explanations seem to present many advantages and are being heavily studied to explain machine learning models. We propose the CEO method (Counterfactual Explanations for Ontologies) to generate such explanations for ontologies. It is adapted to explain the functioning of the ontology to laypersons making this solution ideal to explain the error detection step. It is also suited to assist the ontology designer in the debugging phase by highlighting unexpected inferences caused by design issues.
Finally, we evaluate our contributions on an image classification task. The quality and validity of the error detection phase are tested and analyzed. Similarly, a small scale user study is conducted with domain experts to evaluate the relevance and quality of the generated counterfactual explanations.
Ρrοcédure unifiée d'identificatiοn par méthοde inverse de cοefficients aérοdynamiques d'un prοjectile
AUCEJO MATHIEU Maître de conférences HDR Conservatoire Nal des Arts et Métiers
MERCIER SÉBASTIEN Université de Lorraine
Membres du jurys
ALLERY CYRILLE,
,
UNIVERSITE LA ROCHELLE
AUCEJO MATHIEU,
Maître de conférences HDR,
Conservatoire Nal des Arts et Métiers
BENNIS Anne-Claire,
,
Université de Caen Normandie (UCN)
DELVARE Franck,
,
Université de Caen Normandie (UCN)
GRANGE NATHAN,
Docteur,
KNDS France
GRIGNON CHRISTOPHE,
Docteur,
Direction Générale de l'Armement
HEDDADJ SETTIE,
Docteur,
KNDS France
MERCIER SÉBASTIEN,
,
Université de Lorraine
Résumé
Dans le domaine de la balistique extérieure, l'identification des coefficients aérodynamiques d'un projectile est cruciale pour la prédiction de sa trajectoire et de son point d'impact. Parmi les nombreuses méthodes d'identification existantes, l'approche proposée à partir de données issues de vol instrumentés se distingue par deux aspects majeurs : premièrement, elle repose exclusivement sur des mesures radar, éliminant ainsi tout équipement embarqué, et deuxièmement, elle permet d'identifier les coefficients aérodynamiques de manière séquentielle. L'introduction d'un petit paramètre adimensionnel et le développement asymptotique du modèle balistique du Point Matériel Modifié permettent d'une part de mettre en évidence les différents niveaux d'influence des forces aérodynamiques dans les différentes directions et d'autre part, d'obtenir des modèles intermédiaires ou des expressions analytiques pour l'identification des coefficients aux différents ordres. Notre technique d'optimisation recherche, à chaque étape, le couple vitesses/coefficients aérodynamiques qui satisfait les modèles balistiques intermédiaires tout en se rapprochant au mieux de la trajectoire mesurée. La validation de la procédure d'identification séquentielle est effectuée en plusieurs étapes, dans un premier temps à partir de données synthétiques puis dans un second temps en utilisant des données expérimentales obtenues à l'aide d'un radar de trajectographie. Dans le cadre, de la qualification de la méthode, différentes configurations de tirs pour différents projectiles sont analysées avec l'obtention de résultats aussi précis, pour le coefficient de traînée, que ceux obtenues par les outils existants.
Abstract
In the field of external ballistics, identifying the aerodynamic coefficients of a projectile is crucial to predict its trajectory and point of impact. Among the various existing identification methods, the proposed approach, which utilizes data from instrumented flights, stands out for two major aspects : first, it relies exclusively on radar measurements, eliminating the need for onboard equipment, and second, it allows for sequential identification of the aerodynamic coefficients. The introduction of a dimensionless small parameter and the subsequent asymptotic development of the Modified Point-Mass ballistic model serve a dual purpose. On the one hand, they reveal the varying levels of influence exerted by aerodynamic forces in different directions, and on the other hand, furnish intermediate models or analytical expressions for coefficient identification across various orders. Our optimization technique searches, at each step, for the velocity/aerodynamic coefficient pair that satisfies the intermediate ballistic models while closely matching the measured trajectory. The validation of the sequential identification procedure is carried out in several steps, initially using synthetic data and then using experimental data obtained with a trajectory radar. In the context of method validation, diverse firing configurations for a range of projectiles undergo rigorous analysis, resulting in drag coefficient results as precise as those attained by established tools.
Cοntributiοn tο the certificatiοn οf fingerprint systems: tοwards the reprοducibility οf the evaluatiοn
Doctorant·e
WONE Abdarahmane
Direction de thèse
ROSENBERGER Christophe (Directeur·trice de thèse)
CHARRIER Christophe (Co-directeur·trice de thèse)
CHARRIER Christophe,
Maître de conférences,
Université de Caen Normandie (UCN)
DI MANNO Joel,
,
FIME EMEA
KPALMA KIDIYO,
,
INSA de Rennes
LARABI CHAKER,
,
UNIVERSITE POITIERS
MORAIN-NICOLIER FREDERIC,
,
UNIVERSITE REIMS CHAMPAGNE ARDENNE
ROSENBERGER Christophe,
,
ENSICAEN
SCHUCKERS STÉPHANIE,
,
Clarkson University
Résumé
Les systèmes informatiques sont de plus en plus utilisés au quotidien pour diverses tâches.
Au regard des services et des applications concernés, leur sécurité est une garantie essentielle pour leur fonctionnement, ainsi qu'un gage de confiance pour l'utilisateur final. La biométrie est une solution pour cela. La biométrie regroupe l'ensemble des techniques informatiques permettant de reconnaître automatiquement un individu à partir de ses caractéristiques physiques, biologiques, voire comportementales.
Elle permet, dans le cadre de l'authentification de s'assurer que seules des personnes légitimes puissent accéder à certaines données, certains endroits ou encore certaines applications.
Que ce soient des tâches répétitives et quotidiennes comme déverrouiller son téléphone ou des tâches plus délicates comme valider une transaction bancaire, la biométrie est de plus en plus utilisée non seulement pour sécuriser les systèmes informatiques, mais aussi pour simplifier notre quotidien.
Cependant, la sécurité des systèmes biométriques doit être assurée. Un système biométrique doit à la fois pouvoir reconnaître la bonne personne et résister aux attaques. Cela signifie pouvoir donner l'accès à une personne légitime, rejeter une personne illégitime et détecter les fraudes.
Cette thèse s'inscrit dans le cadre de la certification des systèmes biométriques qui est une étape qui qualifie la conformité d'un système biométrique donné à un plan de test proposé par une autorité. C'est une étape cruciale avant le déploiement ou l'industrialisation d'une solution biométrique.
Nous nous proposons d'explorer le problème de la répétabilité de ces tests. En effet, nous souhaitons qu'une évaluation ou une certification biométrique puisse être indépendante des conditions dans lesquelles elle a été réalisée. Pour cela, nous explorons les impacts qu'ont les conditions environnementales d'acquisition tout comme la technologie d'acquisition pour les systèmes basés sur les empreintes digitales.
D'un autre côté, les tests d'attaques sont faits en fabriquant physiquement des instruments d'attaque, ce qui a un coup et s'accompagne de contraintes légales et opérationnelles. Nous explorons la création, basée sur les réseaux de neurones profonds, de ce type d'instruments utilisables dans le cadre de l'évaluation de produits biométriques à empreintes digitales.
Nous validons ces études par une méthodologie objective qui a un sens physique que nous proposons et appliquons tout au long de cette thèse.
Abstract
Computer science is more and more present in our daily lives for multiple tasks.
Considering its multiple services and applications, its security is an essential guarantee of the trust that a final user can have.
Biometrics is a solution for that. Biometrics gathers all the methods and techniques to automatically recognize individuals thanks to their physical, biological, or behavioral traits.
In authentication or identification tasks, it allows to be sure that only legitimate people have access to some data, places, or applications, etc.
Whether it is for daily tasks such as unlocking our phones or some specific task as validating a banking operation, biometrics is more and more used not only to secure some solutions but also to simplify our lives.
However, we must be sure about the security of biometric systems. A biometric system should be able to recognize a genuine user, reject an illegitimate and resist attacks. This PhD thesis deals with the certification of biometric fingerprint systems which is an important step prior to the production and deployment of a biometric solution. We explore the factors impacting the behavior of a fingerprint system in its recognition capacities.
Indeed, a test of a biometric system should not be dependent on the conditions it was realized. We want biometric testing to be repeatable and biometric solutions to be interoperable.
We analyze how environmental conditions as well as the acquisition technology can impact the recognition of a biometric fingerprint system.
Moreover, the testing of resistance to attack has legal and operational constraints that make the testing difficult. We propose to explore the generation of synthetic attack instruments using a deep-leaning solution for the evaluation of biometric fingerprint solutions.
We validate our studies with an objective method that we propose in this dissertation.
Ιnférence statistique pοur des prοcessus markοviens et semi-markοviens basée sur des mesures de divergence.
Doctorant·e
GKELSINIS Thomas
Direction de thèse
BARBU VLAD STEFAN (Directeur·trice de thèse)
Date de la soutenance
28/11/2023 à 10:00
Lieu de la soutenance
Salle de séminaire M.0.1
Laboratoire LMRS
76801 St Etienne Du Rouvray
Rapporteurs de la thèse
BOUZEBDA SALIM UNIV TECHNOLOGIE COMPIEGNE UTC COMPIEGNE
BRONIATOWSKI MICHEL Sorbonne Universite
Membres du jurys
BARBU VLAD STEFAN,
,
Université de Rouen Normandie (URN)
BOUZEBDA SALIM,
,
UNIV TECHNOLOGIE COMPIEGNE UTC COMPIEGNE
BRONIATOWSKI MICHEL,
,
Sorbonne Universite
FOULADIRAD MITRA,
,
Ecole Centrale de Marseille
KEZIOU AMOR,
,
UNIVERSITE REIMS CHAMPAGNE ARDENNE
MILOSEVIC BOJANA,
,
Université de Belgrade
PERGAMENCHTCHIKOV SERGUEI,
,
Université de Rouen Normandie (URN)
PEYRARD NATHALIE,
,
Inra de Toulouse
Résumé
Cette thèse est dédiée aux techniques de statistique inférentielle pour des processus markoviens et semi-markoviens, techniques basées sur des mesures de divergence; une partie de la thèse est aussi dédiée à la modélisation de la fiabilité pour ce type de processus. Plus précisément, on propose une méthodologie statistique basée sur des types particuliers de mesures de divergence, afin de construire des tests d'hypothèses pour des processus markoviens et semi-markoviens. Un des problèmes statistiques les plus courants est l'identification du comportement stochastique qui gouverne l'évolution d'un système aléatoire pour lequel on connaît seulement un échantillon fini; ce problème est souvent connu sous le nom de test d'adéquation. Un cadre particulier de cette situation est lorsqu'on souhaite comparer le comportement stochastique de deux systèmes aléatoires, en observant seulement une partie finie de leurs trajectoires passées.
Dans un premier temps, nous étudions l'application de la mesure de divergence de Kullback-Leibler pondérée et corrigée pour construire des tests à un échantillon et à deux échantillons pour des variables aléatoires indépendantes identiquement distribuées (i.i.d.), comme proposé dans. Deux tests statistiques sont proposés, le test d'adéquation pondéré (WGoF) et le test d'homogénéité pondéré (WHom). L'utilisation de cette méthodologie permet aux chercheurs de se concentrer sur des régions particulières du support, tout en retenant une partie de l'information relative aux autres parties. Nous déduisons les lois asymptotiques des statistiques des tests sous l'hypothèse nulle. Des simulations Monte Carlo intensives sont présentées afin d'évaluer les performances des tests, en termes des erreurs de première et seconde espèce.
Dans un second temps, nous étendons ces résultats de tests d'hypothèses simples au cadre des chaînes de Markov d'ordre général, en prenant en compte l'information a priori qu'on peut avoir sur l'utilité de chaque transition pour un système multi-états. Pour cela, nous considérons la version pondérée de la φ-divergence entre des chaînes de Markov d'ordre général, ensemble avec la statistique de test basée sur cette divergence. Des exemples importants de cette famille sont les statistiques de test de chi-deux et du rapport de vraisemblance. Par conséquent, la méthodologie que nous proposons représente une extension qui inclut des techniques existantes, vues comme des cas spécifiques où il n'y a pas d'information a priori qui est prise en compte. Nous obtenons les lois asymptotiques des statistiques des tests sous l'hypothèse nulle.
En suivant la trajectoire de la thèse, après les cadres i.i.d. et Markov, il est raisonnable de continuer avec un cadre semi-markovien. Dans cette direction, on propose une famille de φ-divergences pour des chaînes semi-markoviennes et les statistiques de test correspondantes, afin de construire des tests d'hypothèses à un échantillon et à deux échantillons. La méthodologie et les outils proposés dans ce chapitre étendent le but des tests d'hypothèses pour des chaînes semi-markoviennes au-delà de l'application classique des tests, en considérant une famille générale de tests, issue des choix possibles de la fonction φ liée à la φ-divergence. Nous obtenons les lois asymptotiques des statistiques des tests sous l'hypothèse nulle et aussi la fonction puissance sous une alternative fixée.
La partie finale de la thèse est dédiée à la modélisation de la fiabilité pour des chaînes semi-markoviennes, comme proposé. Plus précisément, on s'intéresse à une nouvelle mesure de fiabilité, appelée Fiabilité Séquentielle par Intervalles (SIR), qui quantifie la probabilité que le système soit opérationnel pendant une séquence donnée d'intervalles qui ne se chevauchent pas. Il s'agit d'une mesure qui inclut, comme cas particuliers, plusieurs mesures classiques de fiabilité, comme la fonction de fiabilité, la fiabilité par intervalle ou bien la disponibilité.
Abstract
This thesis deals with statistical inferential techniques for Markov and semi-Markov processes based on divergence measures, according with important developments in reliability modelling for such type of processes. Especially, it proposes a statistical methodology based on particular types of divergence measures, applied in the framework of hypothesis testing for Markov and semi-Markov processes. One of the most known statistical issues is the (statistical) identification of the underlying stochastic process that governs the evolution of a random system whose just a finite sample is known. That issue is often called as goodness-of-fit or one-sample testing.
First, we study the application of the weighted alternative of the Kullback-Leibler divergence measure (Gkelsinis and Karagrigoriou, 2020) for testing one-sample and two-sample simple hypotheses for independent and identically distributed (i.i.d.) random variables as proposed in (Gkelsinis et al., 2022). Two test-statistics have been proposed, the weighted Goodness-of-Fit (WGoF) and the weighted test of Homogeneity (WHom) and their asymptotic distribution under the simple null hypothesis has been identified. The utilization of this methodology enables researchers to concentrate on particular subsets of the support while retaining information from the remaining subsets. Also, extensive Monte Carlo simulations are presented in order to evaluate the performance (in terms of type I and type II errors) of the aforementioned test-statistics.
Secondly, we extend the previous result for testing simple hypotheses for general order Markov chains (Gkelsinis and Barbu, 2023a) by incorporating prior information regarding the utility of each transition within the multistate system. For that reason, the weighted alternative of the φ-divergence between general order Markov chains has been proposed according with the test-statistic based on it. Notable examples of this family include the chi-squared and likelihood ratio test-statistics. Consequently, this methodology can be viewed as a comprehensive generalization, encompassing existing techniques as specific instances when no prior information is taken into account. The asymptotic distribution of the test-statistics has been proved, along with Monte Carlo simulations to assess the performance of the proposed methodology.
Following the above trajectory of the thesis, after the i.i.d. and the Markov case it is reasonable to proceed with the semi-Markov framework. Based on that direction, we propose the family of φ-divergence measures for semi-Markov chains and the associated test-statistics for testing simple one-sample and two-sample hypotheses (Gkelsinis and Barbu, 2023b). The methodology and tools introduced in this paper, expands the scope of testing statistical hypotheses for semi-Markov chains beyond the application of classical test-statistics, to a general family by taking into account the φ-function related to the φ-divergence. The asymptotic distribution of the test-statistics under the simple null hypotheses has been identified as well as the power function under fixed alternatives.
The final part of this thesis is concerned with new developments on reliability modelling for time-homogeneous semi-Markov chains as proposed in Barbu et al., 2021 and Barbu et al., 2023. Particularly, we present a novel reliability measure called Sequential Interval Reliability (SIR) which quantifies the probability of the system being operational within a given sequence of non-overlapping time intervals. The proposed measure encompasses various existing reliability measures, including the interval reliability, the reliability function and the availability function. For the computation of the measure in the transient case, a recurrent-type formula is derived while asymptotic results determine its limiting behavior.
Ρerfοrmance and Security Evaluatiοn οf Behaviοral Biοmetric Systems
Doctorant·e
WANDJI PIUGIE Yris Brice
Direction de thèse
ROSENBERGER Christophe (Directeur·trice de thèse)
CHARRIER Christophe (Co-directeur·trice de thèse)
Date de la soutenance
28/11/2023 à 10:00
Lieu de la soutenance
S3 102 - UFR des Sciences - Campus 2 - Université de Caen Normandie
Rapporteurs de la thèse
LAURENT HÉLÈNE INSA Centre Val de loire
PUECH WILLIAM Université de Montpellier
Membres du jurys
BOURS PATRICK,
,
Norwegian University of Science and Tech
CHARRIER Christophe,
Maître de conférences,
Université de Caen Normandie (UCN)
DI MANNO Joel,
,
FIME EMEA
LAURENT HÉLÈNE,
,
INSA Centre Val de loire
PUECH WILLIAM,
,
UNIVERSITE MONTPELLIER 2 SCIENCES ET TECH DU LANGUEDOC
ROSENBERGER Christophe,
,
ENSICAEN
SCHUCKERS STÉPHANIE,
,
Clarkson University
Résumé
La biométrie comportementale est une approche prometteuse pour renforcer la sécurité des systèmes informatiques tout en améliorant l'expérience utilisateur grâce à l'analyse des interactions des utilisateurs. Cette thèse de doctorat propose une méthode générique basée sur l'analyse de séries temporelles comportementales. Elle explore l'utilisation de techniques d'apprentissage machine traditionnelles et d'apprentissage profond pour l'authentification des utilisateurs basée sur ces comportements.
En outre, nous examinons la vulnérabilité des systèmes biométriques comportementales aux attaques par présentation. Nous utilisons le TimeGAN pour générer des données biométriques synthétiques préservant les caractéristiques temporelles, rendant difficile leur distinction des données authentiques. Les résultats obtenus soulignent la capacité du TimeGAN à générer des modèles comportementaux pour tester les systèmes d'authentification, remettant en question la robustesse de ces systèmes face aux attaques malveillantes.
Abstract
Behavioral biometrics enhances IT security and improves user experience by analyzing interactions. This Ph.D. thesis proposes a generic method based on the analysis of behavioral time series. It explores the use of traditional machine learning and deep learning techniques for user identification and authentication based on these behaviors.
In addition, the research carried out examines the vulnerability of behavioral biometric systems to presentation attacks. To this end, we use TimeGAN to generate synthetic behavioral biometric data capable of fooling authentication systems. These synthetic data preserve temporal characteristics, making it difficult to distinguish them from authentic data. The results highlight TimeGAN's ability to generate behavioral patterns that could be used to test authentication systems, raising questions about the robustness of such systems against malicious attacks.
Simulatiοn numérique des matériaux à changement de phase.
Doctorant·e
LEGRAND Cecile
Direction de thèse
DANAILA IONUT (Directeur·trice de thèse)
Date de la soutenance
27/11/2023 à 14:00
Lieu de la soutenance
Laboratoire LMRS
22 av de la mare aux daims
76801 St Etienne Du Rouvray
Rapporteurs de la thèse
MAMMERI YOUCEF Université Jean Monnet
MUREA CORNEL MARIUS Université de Haute-Alsace
Membres du jurys
DANAILA IONUT,
,
Université de Rouen Normandie (URN)
HECHT FRÉDÉRIC,
,
Sorbonne Universite
LUDDENS FRANCKY,
,
Université de Rouen Normandie (URN)
MAMMERI YOUCEF,
,
Université Jean Monnet
MUREA CORNEL MARIUS,
,
Université de Haute-Alsace
SALMON STEPHANIE,
,
UNIVERSITE REIMS CHAMPAGNE ARDENNE
YAKOUBI DRISS,
,
Ec Sup Ing Ld Vinci la Defense
Résumé
Dans ce travail, nous abordons l'analyse et la simulation numérique des Matériaux à Changement de Phases (MCP). Ces matériaux présentent des régions de phase solide et liquide distinctes, caractérisées par une prédominance de convection naturelle dans le liquide et de conduction dans le solide. Nous utilisons les équations incompressibles de Navier-Stokes, intégrant le modèle de Boussinesq pour gérer les forces de flottabilité dues aux effets thermiques, et les couplons avec une formulation de l'équation de l'énergie basée sur la méthode d'enthalpie. Ces équations sont résolues via une méthode d'éléments finis adaptatifs. Notre approche mono-domaine traite les phases solide et liquide en utilisant les mêmes systèmes d'équations. Dans la phase solide, nous réduisons la vitesse à zéro en ajoutant un terme de pénalisation dans l'équation de quantité de mouvement, suivant le modèle de Carman-Kozeny, qui simule le ralentissement de la vitesse dans un milieu poreux. La discrétisation spatiale s'effectue avec des éléments finis de Taylor-Hood (éléments finis P2 pour la vitesse et P1 pour la pression) et un schéma d'intégration temporelle implicite de second ordre (GEAR). Les systèmes d'équations non linéaires sont résolus par un algorithme de Newton, et les méthodes numériques sont implémentées dans le logiciel libre FreeFem++. Nous avons développé une nouvelle Toolbox qui étend les applications en incluant des paramètres physiques variables, permettant de modéliser des configurations complexes comme des MCP en série, la présence d'ailettes, ou une pièce remplie d'air jouxtant un MCP. Des cas de validation du code sont présentés, où nos résultats numériques sont comparés à des données expérimentales et numériques issues de la physique. L'étude comprend également l'analyse de la méthode des éléments finis stabilisés, basée sur les procédures de stabilisation de la pression minimale. Un terme de pénalité constant est ajouté à l'équation de conservation de la masse discrétisée. Nous laissons ce terme de pénalité varier en fonction de la taille de la maille, afin de récupérer la convergence pour la vitesse et la température, même si la condition inf-sup n'est pas satisfaite, par exemple pour la paire $P_1$-$P_1$. Nous donnons des estimations a priori et une illustration numérique pour soutenir l'utilisation de tels éléments.
Abstract
In this work, we address the analysis and numerical simulation of Phase Change Materials (PCM). These materials exhibit distinct solid and liquid phase regions, characterized by a predominance of natural convection in the liquid and conduction in the solid. We employ the incompressible Navier-Stokes equations, incorporating the Boussinesq model for managing buoyancy forces due to thermal effects, and couple them with an energy equation formulation based on the enthalpy method. These equations are solved using an adaptive finite element method. Our single-domain approach processes the solid and liquid phases using the same equation systems. In the solid phase, we reduce the velocity to zero by introducing a penalization term in the momentum equation, following the Carman-Kozeny model, which simulates the slowing of velocity in a porous medium. Spatial discretization is carried out using Taylor-Hood finite elements (P2 finite elements for velocity and P1 for pressure) and a second-order implicit time integration scheme (GEAR). The nonlinear equation systems are solved using Newton's algorithm, and the numerical methods are implemented in the FreeFem++ open-source software. We have developed a new Toolbox that expands applications by including variable physical parameters, enabling the modeling of complex configurations such as PCM in series, the presence of fins, or a room filled with air adjacent to a PCM. Validation cases for the code are presented, where our numerical results are compared to experimental and numerical data from physics. The study also includes the analysis of the stabilized finite element method, based on procedures for minimal pressure stabilization. A constant penalty term is added to the discretized mass conservation equation. We allow this penalty term to vary according to the mesh size, to achieve convergence for velocity and temperature, even if the inf-sup condition is not met, for example, for the P1-P1 pair. We provide a priori estimates and a numerical illustration to support the use of such elements.