Les projets 2023-2024

Pour son 7ème appel, les projets suivants sont financés :

  • ACME : ACtive Multimodal mErging: from psychophysics to computational modeling to robotics

Laboratoires impliqués : LIRIS, CRNL, LJK

La fusion de données est une question cruciale en intelligence artificielle et en sciences cognitives. En effet, elle doit être résolue par tout agent, biologique ou artificiel, qui perçoit son environnement à travers plusieurs capteurs différenciés et complémentaires. Ce projet vise à mieux comprendre la perception chez l’humain, dans un cadre sensori-moteur, afin d’améliorer les systèmes d’IA pour des agents plus autonomes selon 2 axes:
– la modélisation de nouvelles données psychophysiques basées sur un paradigme de ventriloquie chez l’humain, à savoir l’erreur de localisation du son en direction du stimulus visuel si celui-ci est présenté de manière synchrone mais à une position spatiale différente du stimulus auditif. Cette modélisation s’appuiera sur le paradigme des champs neuronaux dynamiques (DNF) qui permettent à la fois de modéliser l’activité neuronale par champ moyen mais aussi de reproduire d’un point de vue comportemental des phénomènes saccadiques. Les objectifs seront l’étude de l’influence des hyperparamètres sur l’adéquation avec les données et la comparaison des conditions passives (sans saccade) et actives (avec saccade) en intégrant un mécanisme d’anticipations sur la dynamique de l’environnement.
– le portage et l’adaptation de ces modèles dans un cadre robotique (Pepper) avec des stimuli auditifs et visuels simples, inspirés de ceux des expériences psychophysiques. L’objectif sera non seulement d’évaluer les architectures en condition d’interaction réelle mais également d’étudier plus en profondeur la dimension active de la perception dans l’estimation de la pertinence de chaque modalité.

  • CROSS : Safe Navigation of Autonomous Vehicles in Dense Pedestrian Crowds : Learning to Cross

Laboratoires impliqués : CITI, ILM

Le projet CROSS aspire à mieux cerner et contrôler la navigation d’un véhicule autonome lorsque celui-ci doit traverser une foule de piétons (par exemple dans le cas d’un véhicule de secours ou de transport en hyper-centre urbain). Pour ce faire, nous modéliserons les trajectoires admissibles et non admissibles d’une voiture autonome (simplifiée) dans une foule. Dans un premier temps, des modèles agent-based seront exploités et affinés pour simuler la réponse d’une foule réaliste au mouvement de traversée d’un véhicule autonome. Dans un deuxième temps, nous considérerons à rebours un flux de piétons donné et chercherons à établir les comportements admissibles du véhicule. Pour cela, les paramètres de comportements simples du véhicule (accélérer / freiner selon les perceptions) seront traitées comme des variables à optimiser, puis des comportements plus élaborés (mouvement d’évitement et re-planification locale, accélération/décélération) feront l’objet d’un apprentissage automatique par renforcement (RL, DeepRL).

  • DAIAA : Détection d’Anomalies dans les Images par Apprentissage Auto-supervisé

Laboratoires impliqués : CREATIS, LabHC

Ce projet s’intéresse aux méthodes d’apprentissage auto-supervisé pour la détection d’anomalies dans les images. Dans les contextes de l’imagerie médicale et dans l’imagerie de puces électroniques defectueuses, différentes approches ont été explorées : auto-encodeurs siamois avec One-Class SVM, encodeurs discrétisés (VQ-VAE) ou masqués (MAE), Local Outlier Factor (LOF), Tensor Networks, gestion de l’incertitude de prediction (mixture density networks), …
Le but du projet est d’identifier les points forts et inconvénients de ces approches via la mise en place d’une comparaison systématique, d’analyser les raisons de ces points forts, et enfin de proposer des méthodes hybrides pour exploiter les complémentarités.

  • DRONAR : Introduction de la qualité des communications dans le contrôle d’une flotte de DROnes : utilisation de l’Apprentissage par Renforcement

Laboratoires impliqués : LIP, LIRIS

Les flottes de drones utilisent de plus en plus les communications radio pour échanger des informations entre drones utiles au vol et aux applications de la flotte. La qualité des ces communications a un impact important sur la qualité du vol de la flotte. La qualité des communications devrait donc être exploitée dans le contrôle des flottes de drones, ce qui n’est pas le cas dans les solutions de contrôle actuelles. Le but du projet DRONAR est d’utiliser une approche d’apprentissage par renforcement (AR) multi-agent pour apprendre une politique de contrôle décentralisé de la flotte, intégrant d’une part les objectifs de la mission et d’autre part la qualité des communications.

  • ESTD : Étude spatio-temporelle du discours : application à des corpus variés

Laboratoires impliqués : ERIC, LIRIS

Le sujet du projet est l’étude spatio-temporelle du discours, dans deux corpus indépendants (et multilingue : français / anglais), qui pose plusieurs questions :
Comment caractériser le discours en général ? Comment mesurer et interpréter des évolutions temporelles dans les caractéristiques du discours ? Comment spatialiser les résultats obtenus ?
En plus d’appliquer les outils dont nous disposons déjà pour répondre aux questions ci-dessus (par ex. modélisation temporelle du sens des mots, reconnaissance d’entités nommées, extraction de motifs syntaxiques), nous proposons de développer une méthode d’analyse originale qui s’appuie sur le résumé automatique extractif de sous-ensembles de textes à l’aide de Graph Neural Network (GNN). Nos recherches porterons en particulier sur la reconnaissance des entités nommées, la représentation spatial des résumés et l’étude des GNN opérant dans l’espace hyperbolique.

  • NERF-SPECT :  Neural Radiance Fields for Single Photon Emission Imaging

Laboratoires impliqués : CREATIS, LIRIS

Nous nous intéressons à l’imagerie SPECT (Single Photon Emission Tomographie). Cette modalité permet de visualiser et de quantifier la biodistribution d’un radiopharmaceutique injecté au patient. En particulier, il s’agit d’un élément central du contrôle des traitements du cancer par radionuclide, tel 177Lu-Lutathera (tumeurs neuroendocrines gastro-entéro-pancréatiques) ou 177Lu-PSMA (prostate) : toute la quantification dosimétrique repose sur ces images. Cette modalité d’imagerie consiste à détecter les gammas émis par le radionuclide en estimant leur ligne d’émission à l’aide d’un collimateur sélectionnant les gammas selon une direction donnée. En faisant tourner le détecteur autour du patient suivant environ 60 à 120 angles d’acquisition, on parvient à mesurer suffisamment de coups par projection pour ensuite reconstruire une image tri-dimensionnelle de la biodistribution. Cependant, la sensibilité est basse, notamment à cause de la collimation, et le temps d’acquisition des images peut être long, 30-45 minutes pour des corps entiers. L’objectif est d’étudier la faisabilité et investiguer l’intérêt des approches type NeRF pour l’imagerie SPECT.