Pour son 8ème appel, les projets suivants sont financés :
Laboratoires impliqués : CREATIS, ERIC
Le projet CEDAR automatise l’extraction d’informations cliniques à partir de comptes-rendus médicaux, favorisant ainsi une meilleure analyse des données de santé. Il utilise le traitement automatique des langues et l’intelligence artificielle pour identifier les entités médicales et détecter leurs relations. Le projet se concentre sur l’AVC et vise à améliorer la prédiction de la lésion finale à partir de données acquises en phase aiguë, en intégrant des données cliniques et des images médicales grâce à des techniques de fusion avancées.
Laboratoires impliqués : CREATIS, LIRIS
Le but du projet EVOLUNET est d’explorer de nouvelles architectures de réseaux de neurones via l’utilisation d’un algorithme d’évolution computationnelle. Contrairement aux algorithmes évolutionnaires « classiques » (utilisant généralement des mécanismes mutationnels relativement simples, basés sur la substitution et/ou le crossing-over), la méthodologie proposée exploite des principes d’évolutions originaux et une large bibliothèque d’opérateurs mutationnels afin de faire évoluer la structure d’un réseau de neurones tout en profitant de la frugalité des résultats obtenus. Nous nous inspirons plus particulièrement de la génomique évolutive bactérienne et, en particulier d’une très grande variété de mécanismes modifiant la séquence, incluant des modifications « alléliques » (à petite échelle) et des opérateurs de « réarrangements chromosomiques » (équivalant grossièrement à des mécanismes de copier/couper-coller). En effet, de plus en plus de résultats montrent que ces opérateurs « alternatifs » permettent de faciliter l’exploration de l’espace de recherche. Les réarrangements permettent en particulier, via la duplication/délétion de gènes, d’expliquer la complexification moléculaire des organismes au cours de la phylogénie. C’est pourquoi, plutôt que de faire classiquement évoluer un réseau de neurones (topologie fixée et/ou évolution par mutation simple), nous nous proposons d’intégrer ces opérateurs de façon à construire itérativement le réseau de neurones au cours de l’évolution.
Laboratoires impliqués : CREATIS, LIP
In the GABI project, we aim to propose a new family of algorithms for computing the Birkoff-von Neumann decomposition based on greedy algorithms found in the sparse approximation literature. The BvN decompsition has applications in resource allocation problems where a given set of input traffic requests is routed to a set of output destinations in stages. A first contribution will be to rigorously characterize the link between the NP-hard Sparse Coding problem and the optimal BvN decomposition problem. Then using the similarities between the two problems, the core contribution will be to make use of years of research on greedy algorithms in sparse coding to address the BvN decomposition problem.
Laboratoires impliqués : CITI, LIP
Le projet INTERFERE se porte sur la génération de données séquentielles de type trafic réseau ou flux de requêtes permettant de stresser des systèmes face à des problèmes de sécurité. On considère notamment les tentatives d’intrusion ou des tentatives de ré-identification d’utilisateurs à travers de multiples requêtes sur un entrepôt de données anonymes. Le projet INTERFERE vise à générer de grosses quantités de données à la volée avec un contrôle des événements représentés. En proposant une recherche d’outils d’audit, ce projet joue un rôle clé dans le développement de nouvelles méthodes et technologies pour renforcer la sécurité des systèmes et des données.
Laboratoires impliqués : ERIC, LIRIS
Ce projet pluridisciplinaire et international vise à l’intégration et la fusion de données et de métadonnées dans les domaines de science de la vie et de la terre. Les lacs de données semblent être une solution pertinente pour gérer et mettre à disposition cette diversité de données. Il s’agit de concevoir les modèles de métadonnées qui permettent de connecter les données, ainsi qu’une organisation adéquate et des mécanismes d’exploration pertinents dans le contexte des sciences de la vie et de la terre.
Laboratoires impliqués : ERIC, LabHC
L’approche du learning-to-learn, sous domaine du meta-apprentissage, consiste à apprendre à un modèle à optimiser un autre modèle. L’idée du projet MOLE est d’exploiter un paradigme récent : les modèles de diffusion, qui semblent bien adaptés à cette tâche. Le meta-learner, entraîné à partir d’historiques d’états de paramètres de réseaux de neurones, permettrait de prédire les poids d’un réseau en une passe. On obtient un procédé d’entrainement beaucoup plus frugale qu’un entraînement classique par descente de gradient stochastique. Les modèles de diffusion ont déjà été utilisés comme meta-learner, mais l’existant présente de nombreuses limitations, notamment vis-à-vis de la modélisation des paramètres à optimiser et de l’absence de conditionnement à l’étape de méta-entrainement. Le projet vise à répondre à ces différentes limitations.
Laboratoires impliqués : ERIC, LabHC
Dans le cadre de la théorie PAC-Bayésienne, étant donné un ensemble d’apprentissage, une famille de modèles et une distribution dîtes prior sur cette famille, l’objectif est d’apprendre une distri- bution dîtes posterior optimisant une certaine fonction de perte capturant la qualité de la distribution posterior. Les bornes en généralisation obtenues s’expriment alors en moyenne selon la distribution posterior sur la famille de modèles et sont donc par nature adaptées à des modèles stochastiques. Oneto et al. ont démontré l’intérêt de cet aspect stochastique pour assurer une certaine équité lors de l’apprentissage. Alors que ces travaux prometteurs se focalisent sur les modèles (ou algorithmes) stochastiques, nous souhaitons dériver des résultats pour des modèles (ou algorithmes) déterministes. Dans un premier temps, à partir de nos travaux récents de “dérandomisation” des résultats PAC- Bayésiens, nous souhaitons généraliser les résultats de Oneto et al. à des modèles déterministes tout en ayant des garanties théoriques sur la capacité en généralisation des modèles appris. Ces résultats se placent dans un cadre de fonction de perte et mesures d’équité traditionnelles (telles que la Demograhic Parity, l’Equality of Opportunity ou sur une mesure de fairness plus récente, CVaR (Conditional Value of Risk) – fairness).
Laboratoires impliqués : ISA, LIRIS
La spectrométrie de masse couplée à la chromatographie liquide (LC-MS : Liquid Chromatography-Mass Spectrometry) est un outil puissant permettant l’identification de biomarqueurs pour la médecine de précision, comme le diagnostic de maladies, l’adaptation des traitements et le suivi des bénéfices thérapeutiques. Dans ce projet, on s’intéressera à l’analyse protéomique ciblée qui consiste à comparer le sous protéome de groupes de contrôle et de test pour identifier des différences entre leurs profils. Les enjeux scientifiques et économiques liés à la compréhension fine et l’interprétation automatiques des gros volumes de données ainsi générés sont particulièrement importants : p. ex. diagnostic des infections sanguines et caractérisation de la résistance aux antibiotiques. Dans ce projet, nous proposons une approche, différente de la méthode traditionnelle, consistant à transformer les gros volumes de données 1D en images monovaluées sur lesquelles des méthodes de reconnaissance de formes et d’apprentissage statistique et/ou profond pourront s’appliquer.
Laboratoires impliqués : CITI, CREATIS
Le projet RIVIERA vise à identifier et auditer les fuites d’informations personnelles liées au partage d’imagerie médicale (images IRM). Plus précisément, le projet se concentre sur l’évaluation du risque de ré-identification permettant de relier une reconstruction d’images IRM à une photo trouvée sur les réseaux sociaux et d’étudier les attaques d’inférence d’attributs sensibles. Le projet va également évaluer les pratiques actuelles de protection d’images IRM et proposer une évolution de ces méthodes et technologies pour renforcer leur protection.
Laboratoires impliqués : ERIC, LIRIS
À mesure que la société évolue vers une numérisation toujours plus poussée, la cybersécurité se révèle comme un enjeu de premier plan. Les organisations, ainsi que les systèmes informatiques dans leur ensemble, se retrouvent de plus en plus confrontés à des attaques informatiques d’une sophistication croissante et de plus en plus difficiles à détecter. Face à cette réalité, l’élaboration de solutions robustes en matière de sécurité informatique s’impose, nécessitant une approche innovante pour renforcer la sécurité des systèmes d’information et des organisations. Dans ce contexte, deux technologies se distinguent comme potentiellement complémentaires. Tout d’abord, les graphes de connaissances émergent comme une approche prometteuse non seulement comme un moyen de représentation d’information et de connaissances mais aussi comme un outil pour améliorer la détection d’attaques et la gestion de vulnérabilités. Par ailleurs, les jumeaux numériques, qui sont des répliques virtuelles d’un système ou d’un processus, sont utilisés pour la surveillance et la maintenance. Le projet ROMANCE se concentre sur l’application des graphes de connaissances pour construire ou renforcer des jumeaux numériques fiables dans le domaine de la cybersécurité. Deux objectifs scientifiques sont clairement définis. Le premier vise à établir une approche rigoureuse pour modéliser les connaissances de l’environnement informatique et les données d’une organisation, offrant une vue numérique pour mieux comprendre son fonctionnement, détecter d’éventuelles vulnérabilités et répondre efficacement aux attaques. Le deuxième objectif consiste à explorer comment les avancées en apprentissage automatique, peuvent être utilisées pour protéger les organisations.
Laboratoires impliqués : CREAIS, LIRIS, MatéIS
Récemment, les champs de radiance neuronaux (NeRF) ont apporté une solution élégante à la représentation de scènes 3D. L’utilité originale des NeRF était la possibilité de générer de nouvelles vues 2D à partir d’un ensemble d’images 2D tirées d’une même scène, et la représentation 3D de la scène n’était donc pas l’objectif principal. Pour la tomographie, le but est la reconstruction de la scène 3D à partir de projections 2D.
Dans ce projet nous allons étudier la pertinence de l’approche NeRF pour la tomographie en microscopie électronique qui est utilisée pour l’étude des échantillons en science des matériaux et en biologie pour l’étude des cellules. Des images sont prises à différents angles d’inclinaison à l’aide d’un faisceau parallèle d’électrons traversant l’échantillon. Deux principaux verrous ont été identifiés. Premièrement, l’artefact d’angle manquant dû au fait que les projections sont acquises en général sur un angle total d’environ 120-140 degrés, bien inférieur à 180 degrés. Deuxièmement, le rapport signal sur bruit faible notamment pour les échantillons biologiques.
Mentions légales
Crédits
2016