Manon Peuzin Jubert se penche sur le contrôle automatique des pièces mécaniques en cours d'usinage

Manon Peuzin Jubert, titulaire d'un Master Informatique SIS (Imagerie Numérique) a soutenu le 8 juin sa thèse CIFRE (Convention Industrielles de Formation par la Recherche ), en collaboration avec le LISPEN à l’École Normale Supérieure des Arts et Métiers (ENSAM), le LIS à Aix Marseille Université (AMU) et l’entreprise I-MC. La thèse s’est déroulée sur les trois sites lors des deux premières années puis ensuite uniquement dans les locaux d'I-MC.
  • Contact : Manon Jubert, équipe GMOD

« Lors de mon stage de fin d’étude de master 2 dans une entreprise d’imagerie médicale à Montréal, mon professeur Jean-Luc Mari, de passage au Canada, m'a proposé le sujet de thèse CIFRE » explique Manon Peuzin Jubert. « Il serait l'un de mes directeurs de thèse, le second étant Jean-Philippe Pernot et le troisième Arnaud Polette, un de mes professeur de TD durant mon master. J’ai ensuite passé l’entretiens avec le directeur de la future entreprise I-MC en visio. Le projet d’I-MC et le sujet de thèse m’ont intéressé, du coup, c’était signé pour trois ans ». Luthière non professionnelle (construction de guitare et basse électrique), Manon Peuzin Jubert est une grande passionnée de musique et de bricolage... en plus bien sûr de l'informatique. Sa thèse traite de la planification de numérisation. Elle aborde également la question de l'alignement de nuages de points 3D et répond à la problématique suivante : comment contrôler automatiquement une pièce mécanique en cours d'usinage ? Ou plus précisément : comment obtenir une représentation fidèle de la pièce de manière à pouvoir vérifier sa bonne conformité durant le processus d'usinage ? De cette question, découlent deux sous-problèmes principaux. Dans un premier temps, il faut définir un moyen de numériser la pièce dans son environnement. Puis il faut reconstruire le modèle de la pièce de manière à pouvoir faire des mesures géométriques. Manon Peuzin Jubert a élaboré un algorithme de planification automatique de numérisation de la pièce en fonction des contrôles à effectuer sur celle-ci. Son approche permet une adaptation à n'importe quel outil de numérisation optique (lidar, caméra, profilomètre, capteur à projection de franges, etc.). « Dans notre étude, nous montrons les résultats de cette méthode sur plusieurs capteurs optiques à projection de franges et sur différentes pièces industrielles » poursuit Manon Peuzin Jubert. « La méthode proposée est générale et permet de s'adapter à n'importe quel environnement industriel dans lequel est positionnée la pièce à contrôler. La seconde contribution se focalise sur le cas spécifique des données issues de capteurs optiques, à savoir les nuages de points 3D. À partir du plan de numérisation, nous élaborons une stratégie d'alignement des nuages de points entre eux. Nous abordons la problématique des cas où l'alignement des nuages de points n'est pas possible et tentons de résoudre ce problème. La dernière contribution de ces travaux est l'intégration de ces méthodes dans un produit en cours de commercialisation. Nous identifions les points importants permettant de rendre la solution robuste aux cas spécifiques des industriels. Enfin, nous montrons plusieurs applications industrielles de ces algorithmes, et nous discutons que la précision des méthodes proposées sur ces cas. Nous proposons différentes ouvertures sur la suite de ces travaux, notamment sur les cas spécifiques de pièces non-alignables ou de grande envergure. Des idées d'amélioration et de robustification des algorithmes sont faites pour la suite de la recherche ».


Modélisation du complexe de réplication du SARS-CoV-2

Le Syndrome Respiratoire Aigu Sévère-Coronavirus-2 (SARS-CoV-2), responsable de la maladie COVID19, est un coronavirus dont le matériel génétique est reproduit lors de l'infection par une protéine centrale, l'ARN polymérase ARN-dépendante (RdRp). Cette protéine centrale dans ce processus de multiplication du virus n'a pas d'équivalent dans la cellule hôte, ce qui en fait une cible antivirale très intéressante. En effet, les stratégies antivirales ciblant les enzymes impliquées dans la réplication des virus ont prouvé leur efficacité, avec par exemple la guérison des patients atteints par l’hépatite C. Le projet PullCoVapart , conduit sous la responsabilité scientifique de Claudia Frydman (équipe MOFED - Pôle Calcul (site St Jérome), vise à modéliser et simuler le fonctionnement de cette polymérase virale et à tester, in silico, les inhibiteurs de RdRp qui pourraient potentiellement arrêter sa multiplication.
  • Contact : Claudia Frydman, équipe MOFED

Problématique   La grande majorité des travaux sur le SARS-CoV-2 se limitent à l'étude de la propagation épidémiologique du virus au sein d'une communauté, que ce soit par la toux, l'éternuement, ou la parole. Cette étude doit permettre de comprendre comment et dans quelles circonstances les personnes ont été infectées par le SARS-CoV-2. Les outils de modélisation et simulation ont largement contribué à l’épidémio-surveillance et éclairé la prise de décisions relatives aux politiques de santé publique. Mais ils ne permettent pas de comprendre les différentes étapes du cycle de multiplication du virus. En effet, la multiplication virale constitue un phénomène complexe au cours duquel le virus va détourner la machinerie cellulaire à son profit. Du fait de leur simplicité extrême, les virus ne peuvent pas se multiplier par eux-mêmes. Connaître et bien comprendre les différentes étapes du cycle de multiplication virale apparaît essentiel pour le développer des molécules antivirales. Certaines étapes sont spécifiques du virus et constituent une cible idéale. Or, jusqu'à présent, peu d'outils de simulation informatique ont été proposés pour comprendre entièrement les mécanismes responsables de la multiplication de l'activité virale des coronavirus et, en particulier, du SARS-CoV-2. À ce jour, les principales méthodes de modélisation en virologie reposent sur une diversité de méthodes mathématiques, essentiellement exprimés par des modèles stochastiques, d'équations différentielles ordinaires (SDE et ODE), des modèles de dynamique des systèmes (SD), ou aussi des modèles d'équations différentielles partielles (PDE). Généralement, les solutions de ces équations ne sont pas des valeurs numériques, mais des fonctions. Elles expriment des relations entre des fonctions inconnues et leurs dérivées successives. Ce qui explique la difficulté de résoudre les modèles d'équations différentielles. Or, la simulation du cœur catalytique de la réplication du SARS-CoV-2 nécessite la considération de plusieurs paramètres/facteurs simultanément (composition en nucléotidique du génome viral, structures de l’ARN, taux de mutations, ...). Il est impossible d'obtenir une valeur pour chaque paramètre par le biais d'expériences en laboratoire ou de calculs théoriques. Par conséquent, ces modèles mathématiques ne s’appliquent pas à la reproduction et simulation du cycle réplicatif du SARS-CoV-2. Il devient donc nécessaire de se focaliser sur une modélisation quantitative et qualitative. En effet, les recherches se heurtent au volume souvent important des données, leur hétérogénéité lorsqu'elles sont issues de différentes sources, leur qualité, et leur niveau de détail trop fin pour donner une vision globale de l'activité. De même, la réplication du SARS-CoV-2 peut être considérée comme un système dont les variables d'entrées et d'états sont des fonctions du temps. Ce type de système complexe peut être simulé par des modèles à événements discrets, comme le formalisme DEVS (pour Discrete Event System Specification). L'étude vise à proposer une approche hybride permettant, de manière qualitative et quantitative, de mieux comprendre les mécanismes moléculaires de la réplication virale. Ces travaux vont permettre d'identifier de nouvelles cibles pharmacologiques pouvant déboucher sur des stratégies antivirales. Claudia Frydman et son équipe s’intéresse spécifiquement à une enzyme essentielle à la réplication du virus, l'ARN polymérase ARN-dépendante (RdRp). L’approche du projet PullCoVapart repose sur l'utilisation l'Intelligence Artificielle (technologies sémantiques associées à la simulation à événements discrets) pour caractériser les performances de l'ARN polymérase du SARS-CoV-2. L'un des principaux objectifs de l'étude est d'enrichir les modèles formels existants avec des aspects temporels associés à des règles pour simuler l'activité de l'ARN polymérase du SARS-CoV-2 en fonction des propriétés de l'ARN viral. Les modèles ontologiques ne peuvent pas simuler de larges quantités d’informations et la dimension temporelle est assez limitée. D’où l’idée de les associer à des modèles de simulation à événements discrets ayant la capacité de modéliser, analyser et simuler la dynamique et le comportement des systèmes complexes. Dans ce type de modélisation, le changement de l'état d'un système, au cours du temps, est une suite d’événements discrets qui arrivent à un instant donné et modifient l'état du système. En outre, la simulation est utile lorsque l'incertitude est élevée en raison de la rareté des données, et pour l'expérimentation dans un environnement à faible risque. Associant les avantages de chacun des deux modèles qualitatif (modèle ontologique) et quantitatif (modèle de simulation DEVS), nos travaux consistent à générer des modèles de simulation d'événements discrets à partir de la nouvelle ontologie de domaine Covid-19 enrichie, combinée à des règles de raisonnement SWRL (un langage de règles pour le web sémantique) développés conjointement avec les experts biologistes. Ensuite, les modèles de simulation seront exécutés pour reproduire le cycle réplicatif de la polymérase du SARS-CoV-2, permettant aux biologistes de suivre l'activité enzymatique de l’ARN-polymérases ARN-dépendantes et générer des prédictions virtuelles de l'efficacité de cette enzyme en fonction de la séquence d'ARN virale fournie. D’autres modèles de simulation, consistant en des automates cellulaires, s'intéresseront à la modélisation de la propagation du virus au sein des cellules présentes sur la paroi des voies respiratoires, mais aussi sur celles des vaisseaux sanguins ou encore des intestins.   PullCoVapart est un projet en collaboration entre le LIS (Laboratoire d’Informatique et Systèmes UMR 7020), l’AFMB (Architecture et Fonction des Macromolécules Biologiques UMR 7257), et le LITIS (Laboratoire d'Informatique, de Traitement de l'Information et des Systèmes EA 4108 / FR CNRS 3638). Ce projet bénéficie du soutien de ANR Flash COVID-19 de l’Agence Nationale de la Recherche et REACTing (REsearch and ACTion targeting emerging infectious diseases) Inserm.  


Colloque international interdisciplinaire Droit & Sciences : Le bruit en mer : du développement des activités maritimes à la protection de la faune marine

Vendredi 4 juin 2021

Encore peu saisi par les juristes, le bruit en mer lié au développement des activités maritimes versus la protection de la faune marine constitue, depuis plusieurs années, un sujet de recherche à part entière dans le domaine des sciences, notamment au Canada et aux États-Unis. Ce colloque, inédit en France, vise à promouvoir des interactions interdisciplinaires sur fond d’un dialogue constructif entre chercheurs, acteurs économiques, membres de la société civile et autorités administratives en vue de dégager des solutions pour concilier développement des activités maritimes et protection de la faune marine. Un état de la recherche sur le bruit en mer et les effets du trafic maritime sur la faune marine sera tout d’abord dressé pour tenter de mesurer les efforts devant être déployés afin de réduire le bruit anthropique et limiter les impacts sur le milieu marin.

Organisée par des enseignants-chercheurs de l’Université de Toulon membres des laboratoires CDPC, CERC et LIS, avec les soutiens de la Préfecture maritime de la Méditerranée et des pôles INPS et MEDD, cette manifestation se tiendra en présentiel à l’amphithéâtre 300 de la Faculté de droit de Toulon (pour les intervenants uniquement) et en visioconférence (pour les autres participants compte tenu des contraintes sanitaires liées à la Covid-19)

  • En présentiel pour les intervenants : Amphithéâtre 300 - Faculté de droit de Toulon
  • En ligne pour les autres participants sur inscription (gratuite & obligatoire) : fac.droit@univ-tln.fr
  • sous la coordination de :
    • Louis Balmond, Professeur émérite UTLN, UMR CNRS CDPC, louis.balmond@univ-tln.fr
    • Hervé Glotin, Professeur UTLN, UMR CNRS LIS, herve.glotin@univ-tln.fr
    • Frédéric Schneider, Maître de conférences UTLN, CERC, frederic.schneider@univ-tln.fr
  • avec les soutiens de la Préfecture maritime de la Méditerranée, des pôles INPS et MEDD de l’UTLN et sa Chaire IA ADSIL
  • Contact : Hervé Glotin - équipe DYNI



Ce que l'apprentissage automatique peut apporter à la biologie du développement.

Paul Villoutreix, responsable du projet interdisciplinaire CENTURI (CENtre TURIng pour les Systèmes Vivants) a publié dans la revue Development un article sur les les concepts clés, les avantages et les limites de l'apprentissage automatique. Il y aborde la façon dont ces méthodes sont appliquées à des problèmes de biologie du développement.
  • Contact : Paul Villoutreix, équipe QARMA

La biologie du développement a subi des transformations considérables au cours des dix dernières années. Elle est passée de l'étude de la génétique du développement, principalement axée sur l'échelle moléculaire, à une science intégrative incorporant la dynamique à plusieurs échelles (molécules uniques, cellules, tissus). Le développement de nouvelles techniques de microscopie a permis d'étudier des embryons entiers et des processus moléculaires uniques dans le contexte de tissus entiers. En parallèle, la séquençage à haut débit a ouvert de nouvelles voies pour l'étude de l'expression des gènes dans les embryons en développement à l'échelle du génome entier. Ces techniques génèrent des téraoctets de données et de description dans des espaces de hautes dimensions. Pour cette raison, il est devenu difficile d'explorer manuellement cette richesse de données. Parallèlement, l'informatique est révolutionnée par l'apprentissage automatique. Ce sous-domaine de l'intelligence artificielle  met en œuvre des algorithmes d'inférence (méthodes d'inférence statistique rendues possibles par une puissance informatique importante et de grands ensembles de données) avec une intervention humaine minimale. L'apprentissage automatique peut être catégorisé en apprentissage supervisé, non supervisé et par renforcement. Il vise communément à résoudre les tâches suivantes : classification, régression, classement, clustering et réduction de la dimensionnalité. L'apprentissage profond est un exemple populaire d'apprentissage automatique. Il a atteint sa pleine performance en tirant parti de grands ensembles de données annotées et de l'utilisation de nouveaux matériels, tels que la carte graphique (GPU). Depuis lors, nous avons assisté à une longue série de succès très impressionnants de l'apprentissage automatique, dans une grande variété de domaines. L'un de ces jalons a été la victoire de l'ordinateur AlphaGo contre le champion du monde du jeu stratégique Go.  https://journals.biologists.com/dev/article/148/1/dev188474/237401/What-machine-learning-can-do-for-developmental  


Un Dragon-s pour lutter contre la pédophilie en ligne

Le projet DRAGON-S, pour "Developing Resistance Against Grooming Online – Spot and Shield" ("Développer notre résilience contre la pédophilie en ligne – repérer et prévenir") est une collaboration internationale entre l'Université de Swansea (Pays de Galles, Royaume-Uni), et le LIS (Adeline Paiement, pôle sciences des données, équipe DYNI). Il est financé par le fond End Violence Fund des Nations Unies (UNICEF).
  • Contact : Adeline Paiement, équipe DYNI

Ce projet de 2 ans s'attaque à cette menace en ligne pour les enfants à travers deux actions : 1) La mise à disposition, sur un portail dédié et à accès protégé, des dernières informations et avancées sur la compréhension des mécanismes et stratégies conversationnelles utilisés par les pédophiles sur les plateformes de chat. Cet outil de prévention permettra une formation continue des professionnels de la protection de l'enfance, en lien avec les dernières avancées de la recherche en linguistique. Le portail comprendra, entre autres, un chatbot capable d'imiter le comportement d'un pédophile, afin de sensibiliser les professionnels au ressenti face à l'utilisation des différentes stratégies typiquement employées par les pédophiles. 2) La mise à disposition des forces de police d'un outil de détection de conversations entre pédophile et victime. Cet outil doit, sans aucunement se substituer au jugement humain d'un expert enquêteur, faciliter le triage rapide de contenu digital saisi lors de perquisitions. Il attribut un score à chaque conversation analysée, afin d'identifier les plus susceptibles d'impliquer une prédation. L'outil comprend aussi une identification automatique des stratégies conversationnelles utilisées par les pédophiles, afin d'aider les enquêteurs à interpréter et affiner la pré-analyse automatique des conversations. Un prototype de cet outil a été développé par l'équipe du projet DRAGON-S lors d'études précédentes. Il combine les dernières avancées en apprentissage automatique pour l'analyse de la parole (deep learning) et des connaissances en linguistique. Cette synergie a produit un algorithme capable de repérer des indices subtiles, non nécessairement basés sur un vocabulaire sexuel. Il peut différencier des cas de pédophilie d'une conversation érotique entre adultes. Il sera testé pour la première fois en conditions réelles par la police de Galles du Sud pendant le projet. Le projet DRAGON-S a été lancé en février 2021. Ses avancées seront publiées régulièrement sur son site internet : https://www.swansea.ac.uk/project-dragon-s/ .


Le LIS dans la presse : Sciences et Avenir - avril 2021

A l'écoute de la mer Méditerranée, la mission Sphyrna Odyssey a entendu le silence du 1er confinement
La mission Sphyrna Odyssey 2019-2020, dont les résultats ont été présentés en mars 2021 lors de la Monaco Ocean Week, a mené une étude sur le comportement acoustique des cétacés et a opportunément écouté les fonds marins lors du premier confinement.
https://www.sciencesetavenir.fr/animaux/animaux-marins/mission-sphyrna-odyssey_153167
  • Contact : Hervé Glotin - équipe DYNI



Une Modélisation Microscopique de l’Intelligibilité pour affiner la compréhension qu’ont les machines de la parole humaine

Le projet « Modélisation Microscopique de l’Intelligibilité » (MIM) poursuit deux objectifs. Rendre la reconnaissance automatique de parole des machines plus « humaine » et valider les connaissances sur la perception de la parole grâce au traitement de données. Coordonné par le LIS sous la responsabilité Richard Marxer (équipe DYNI - Pôle Sciences des Données de l'université de Toulon), MIM proposera des modèles qui prédisent la reconnaissance vocale humaine avec une résolution fine. « En tirant parti des techniques modernes d'apprentissage profond de l’IA et en exploitant de grands corpus de données, nous visons à construire des modèles capables de prédire la compréhension humaine de la parole à un niveau de détail plus élevé que toute autre approche existante » explique Ricard Marxer.
  • Contact : Ricard Marxer, équipe DYNI

En déterminant comment les personnes vont percevoir un son, notamment dans un contexte bruyant (superposition de voix, bruit extérieur…), MIM aidera à évaluer et améliorer les méthodes de rehaussement de la parole et permettra de réaliser des avancés dans les domaines de l’aide auditive, l'apprentissage de langue ou encore le codage de la parole. Les approches actuelles d'intelligibilité fournissent des estimations macroscopiques constituées d'agrégats sur de nombreux stimuli et auditeurs. En s'appuyant sur les développements de l'IA, les modèles pourraient prédire la reconnaissance au niveau sous-lexique. Le "Deep Learning" (DL) a amélioré les performances de la reconnaissance automatique de la parole, en obtenant résultats surhumains. MIM doit permettre de construire des modèles DL pour prédire les réponses humaines aux tests d'intelligibilité, dans le but d'améliorer l'individualisation des solutions auditives. La rareté et la variabilité des données expérimentales, ainsi que le problème d'interprétation du DL sont deux des principaux verrous à aborder. Dans ce projet, l'équipe MIM doit considérer la dimension de genre en prenant en compte toutes les situations dans les données étudiées. Plus précisément, le corpus de discours prononcés que Richard Marxer prévoit d'utiliser contient un ensemble équilibré de locuteurs en termes de genre. L'équipe a intégré des auditeurs des deux sexes lors de la réalisation de ses expériences. Le domaine de l’informatique et plus particulièrement le domaine du Machine Learning est affecté par un important déséquilibre entre les sexes. Afin de résoudre ce problème, MIM les scientifiques  ont veillé à ce que leur panel d'experts et l'équipe de chercheurs locaux contiennent tous deux des femmes. Ils prendrons également en compte ce problème lors du processus de recrutement en sélectionnant le sexe le moins représenté lors du choix entre des candidats de score égal dans les critères de sélection.


TAUDos ouvre la voie vers une meilleure compréhension des réseaux profonds

Sous la responsabilité scientifique de Thierry Artieres (équipe QARMA - Pôle SD (ECM), Stéphane Ayache et Rémi Eyraud ont mené à bien le projet « Theory and Algorithms for the Understanding of Deep learning on Sequential data »
  • Contact : Rémi Eyraud, équipe QARMA

Les réseaux de neurones profonds (DNN) constituent les modèles actuellement les plus performants pour des tâches de prédiction automatique à partir de données fortement structurées et disponibles en grand nombre. Ces modèles peuvent être composés de centaines de million de paramètres, ajustés selon les régularités statistiques observées dans les données.   De nombreux domaines d'application exploitent déjà ces avancées récentes lorsque seule la capacité de bonnes prédictions du modèle est privilégiée. Toutefois, les DNN restent encore limités par deux défis majeurs : -Un manque de lisibilité – ou d'interprétabilité - du modèle et une faible capacité à interpréter ses prises de décisions par un humain. Cela constitue un frein majeur pour une utilisation plus vaste dans d'autres domaines. -La complexité en mémoire et/ou en calcul, du fait du grand nombre de paramètres, constitue un défi technologique aussi bien en phase d'apprentissage qu'en phase d'inférence. Stéphane Ayache et Rémi Eyraud se sont plus particulièrement intéressés aux réseaux de neurones récurrents (RNN), une famille d'architectures particulièrement adaptée aux données séquentielles. Les RNN sont par exemple très performants pour apprendre un modèle de langue (prédire un mot à partir des mots précédents dans une phrase). En informatique fondamentale, de nombreux travaux en inférence grammaticale ont formalisé des algorithmes d'apprentissage d'automates à partir de données séquentielles. Plus spécifiquement, Stéphane Ayache et Rémi Eyraud s'appuyent sur des travaux récents basés sur une décomposition spectrale d'une matrice de Hankel - construite à partir des données - pour en déterminer un automate pondéré (WA) efficace calculatoirement et doté d'une représentation graphique potentiellement interprétable. Cette approche s'inscrit dans le paradigme d'apprentissage "étudiant-professeur" - ou "distillation" -, où un modèle "étudiant" apprend à reproduire les prédictions du modèle "professeur" plutôt que d'apprendre directement à partir des données étiquetées. Un modèle étudiant plus compact ou plus interprétable peut ainsi être utilisé pour mieux comprendre ou expliquer le modèle professeur. Le projet propose d'approximer un RNN pré-existant par un automate pondéré à l'aide des méthodes d'apprentissage spectral. Spécifiquement, le RNN est utilisé comme un oracle pour construire une matrice de Hankel à partir d'un échantillon de données qu'il peut lui même générer. Cette méthode peut ainsi être employée sans avoir accès aux paramètres du modèle, ni même aux données qui ont été nécessaires à son entraînement. Stéphane Ayache et Rémi Eyraud explorent les capacités de compression des RNN par une approche sur deux jeux de données regroupant 62 problèmes sur des données séquentielles réelles et synthétiques. Les résultats montrent que les WA extraits constituent une bonne approximation des RNN pour la majorité des problèmes. Par ailleurs, l'analyse spectrale des matrices de Hankel obtenues depuis le RNN souligne des relations et questions intéressantes mêlant la théorie des langage et la capacité d'apprentissage des réseaux de neurones récurrents, ouvrant la voie vers une meilleure compréhension des réseaux profonds.


Le projet DEAL propose un contrôle intelligent pour améliorer la durabilité des piles à combustible pour véhicules

Le projet ANR DEAL (Durability enhancement of fuel cell electric vehicles by exploring multi-level learning based control, 2020-2023) s’intéresse à une conception de contrôle proactive ,dédiée à l'amélioration de la durabilité des PàC des véhicules électriques. DEAL fait partie de la catégorie de financement ANR « Jeunes Chercheuses et Jeunes Chercheurs (JCJC) » dédiée au développement des jeunes chercheurs en début de carrière. Le projet est coordonné par Zhongliang LI, maître de conférences de l’équipe PECASE (Pronostic/Diagnostic Et CommAnde : Santé et Énergie).
  • Contact : Zhongliang LI, équipe PECASE

La technologie des piles à combustible (PàC) à hydrogène attire de plus en plus l'attention au cours des deux dernières décennies. Leur utilisation couvre une large gamme d'applications grâce à leurs avantages, tels qu'une densité de puissance élevée, aucune émission à bord, une consommation faible. De nos jours, la plupart des PàC en service souffrent encore d'une durabilité insatisfaisantes.  Des efforts ont été faits pour améliorer leurs performances à différents niveaux, du matériau à l'intégration du système.  Le goulot d'étranglement de la durabilité des PàC se situe au niveau du contrôle du système. La faible durabilité des PàC, dans la plupart des cas, est due  à des opérations inappropriées. Inspiré par le récent développement remarquable de l'intelligence artificielle, Deal vise à explorer une stratégie de contrôle basée sur l'apprentissage automatique à trois niveaux des systèmes PàC. Premièrement, les influences complexes des paramètres de fonctionnement sur la dégradation des PàC vont s'appuyer sur des données acquises hors ligne et en ligne. Deuxièmement, le comportement des systèmes sera intégré en temps réel, avec l'adaptation à la dégradation des PàC. Troisièmement, l'interaction avec l'environnement d'exploitation réel facilitera une politique de contrôle destinée à améliorer la durabilité. Grâce au projet DEAL, un cadre de contrôle holistique dédié à l'amélioration de la durabilité sera initialement formé. Il  permettra d'atteindre l'objectif européen 2023. Plus d’informations sur le projet DEAL : https://deal.lis-lab.fr    


DIAMELEX, l'aide au diagnostic par l'exemple

Le projet ANR « Aide au DIAgnostic de MELanomes par l’EXemple », porté par l'équipe I&M - Pôle SI (site Luminy), en partenariat avec l'AP-HM service de dermatologie, le laboratoire CEDRIC et Anapix-Medical, va aider les dermatologues dans leurs choix d'opérer les mélanomes.
  • Contact : Djamal Merad, équipe I&M

Le mélanome constitue un problème majeur de santé publique avec 10 000 nouveaux cas par an en France, occasionnant 1 700 décès. Le mélanome est responsable de 80% de la mortalité liée au cancer de la peau. Le nombre de nouveaux cas augmente de 5% par an depuis 50 ans, une croissance supérieure à celle de tous les autres cancers (INCa, les cancers en France, janvier 2014). Si le diagnostic intervient tôt dans l’évolution de la lésion, le taux de survie relative à 5 ans est de 88% pour les stades localisés.  À contrario, l'espoir de survie à 5 ans d’une personne atteinte d’un mélanome à un stade avancé, avec des métastases, se situe largement sous la barre de 20%. Détecter un mélanome de façon précoce, alors que relativement peu de signes de malignité apparaissent sur la lésion est donc essentiel, mais s'avère difficile. En fait, compte tenu des enjeux, au moindre doute, le dermatologue décidera l’exérèse de la lésion. Dans ces conditions, il n’est pas surprenant de constater que 95% des décisions d’intervention sont  finalement inutile (faux positifs). Les algorithmes de machine learning montrent toute leur efficacité pour l’examen des cas douteux. Le nombre de faux positifs peut être réduit d’un facteur de 2 à 4 par le classifieur, qui, à l’inverse des dermatologues, a acquis une grande part de son expertise à partir de ces cas. Cependant, en pratique, l’avis du classifieur ne lèvera sans doute pas le doute du dermatologue dans les situations où le risque de passer à côté du diagnostic du mélanome constitue un élément important de la décision thérapeutique. Qu’elle décision doit-il prendre par exemple quand le classifieur annonce une probabilité de 1% que la lésion observée soit un mélanome ? Dans le cadre du projet DIAMELEX, nous allons concevoir un programme de recherche visant à construire une aide au diagnostic originale faisant appel aux capacités de décision du clinicien, en lui fournissant des éléments supplémentaires d’information contextuelle (réalité augmentée) : en temps réel et de manière automatique au cours de l’examen d’une lésion mélanocytaire. Nous proposons de présenter au dermatologue des images semblables, sur le plan dermatologique, au cas étudié et pour lesquelles le diagnostic est connu et certifié. Pour réaliser le projet DIAMELEX, nous allons structurer une grande base d’images de lésions mélanocytaires en fonction de leurs ressemblances telles qu’elles sont perçues par les dermatologues, en se basant sur les travaux récents dans le domaine de l’intelligence artificielle.


Modélisation du complexe de réplication du SARS-CoV-2

PullCoVapart est un projet en collaboration entre le LIS (Laboratoire d’Informatique et Systèmes UMR 7020, Equipe MOFED, Claudia Frydman), l’AFMB (Architecture et Fonction des Macromolécules Biologiques UMR 7257), et le LITIS (Laboratoire d'Informatique, de Traitement de l'Information et des Systèmes EA 4108 / FR CNRS 3638). Ce projet bénéficie du soutien de ANR Flash COVID-19 de l’Agence Nationale de la Recherche et REACTing (REsearch and ACTion targeting emerging infectious diseases) Inserm.
  • Contact : Claudia Frydman, équipe MOFED

Le Syndrome Respiratoire Aigu Sévère-Coronavirus-2 (SARS-CoV-2), responsable de la maladie COVID19, est un coronavirus dont le matériel génétique est reproduit lors de l'infection par une protéine centrale, l'ARN polymérase ARN-dépendante (RdRp). Cette protéine centrale dans ce processus de multiplication du virus n'a pas d'équivalent dans la cellule hôte, ce qui en fait une cible antivirale très intéressante. En effet, les stratégies antivirales ciblant les enzymes impliquées dans la réplication des virus ont prouvé leur efficacité, avec par exemple la guérison des patients atteints par l’hépatite C. Le projet PullCoVapart[1], conduit sous la responsabilité scientifique de Claudia Frydman (équipe MOFED - Pôle Calcul (site St Jérome), vise à modéliser et simuler le fonctionnement de cette polymérase virale et à tester, in silico, les inhibiteurs de RdRp qui pourraient potentiellement arrêter sa multiplication.   Problématique La grande majorité des travaux sur le SARS-CoV-2 se limitent à l'étude de la propagation épidémiologique du virus au sein d'une communauté, que ce soit par la toux, l'éternuement, ou la parole. Cette étude doit permettre de comprendre comment et dans quelles circonstances les personnes ont été infectées par le SARS-CoV-2. Les outils de modélisation et simulation ont largement contribué à l’épidémio-surveillance et éclairé la prise de décisions relatives aux politiques de santé publique. Mais ils ne permettent pas de comprendre les différentes étapes du cycle de multiplication du virus. En effet, la multiplication virale constitue un phénomène complexe au cours duquel le virus va détourner la machinerie cellulaire à son profit. Du fait de leur simplicité extrême, les virus ne peuvent pas se multiplier par eux-mêmes. Connaître et bien comprendre les différentes étapes du cycle de multiplication virale apparaît essentiel pour le développer des molécules antivirales. Certaines étapes sont spécifiques du virus et constituent une cible idéale. Or, jusqu'à présent, peu d'outils de simulation informatique ont été proposés pour comprendre entièrement les mécanismes responsables de la multiplication de l'activité virale des coronavirus et, en particulier, du SARS-CoV-2. À ce jour, les principales méthodes de modélisation en virologie reposent sur une diversité de méthodes mathématiques, essentiellement exprimés par des modèles stochastiques, d'équations différentielles ordinaires (SDE et ODE), des modèles de dynamique des systèmes (SD), ou aussi des modèles d'équations différentielles partielles (PDE). Généralement, les solutions de ces équations ne sont pas des valeurs numériques, mais des fonctions. Elles expriment des relations entre des fonctions inconnues et leurs dérivées successives. Ce qui explique la difficulté de résoudre les modèles d'équations différentielles. Or, la simulation du cœur catalytique de la réplication du SARS-CoV-2 nécessite la considération de plusieurs paramètres/facteurs simultanément (composition en nucléotidique du génome viral, structures de l’ARN, taux de mutations, ...). Il est impossible d'obtenir une valeur pour chaque paramètre par le biais d'expériences en laboratoire ou de calculs théoriques. Par conséquent, ces modèles mathématiques ne s’appliquent pas à la reproduction et simulation du cycle réplicatif du SARS-CoV-2. Il devient donc nécessaire de se focaliser sur une modélisation quantitative et qualitative. En effet, les recherches se heurtent au volume souvent important des données, leur hétérogénéité lorsqu'elles sont issues de différentes sources, leur qualité, et leur niveau de détail trop fin pour donner une vision globale de l'activité. De même, la réplication du SARS-CoV-2 peut être considérée comme un système dont les variables d'entrées et d'états sont des fonctions du temps. Ce type de système complexe peut être simulé par des modèles à événements discrets, comme le formalisme DEVS (pour Discrete Event System Specification). L'étude vise à proposer une approche hybride permettant, de manière qualitative et quantitative, de mieux comprendre les mécanismes moléculaires de la réplication virale. Ces travaux vont permettre d'identifier de nouvelles cibles pharmacologiques pouvant déboucher sur des stratégies antivirales. Claudia Frydman et son équipe s’intéresse spécifiquement à une enzyme essentielle à la réplication du virus, l'ARN polymérase ARN-dépendante (RdRp). L’approche du projet PullCoVapart repose sur l'utilisation l'Intelligence Artificielle (technologies sémantiques associées à la simulation à événements discrets) pour caractériser les performances de l'ARN polymérase du SARS-CoV-2. L'un des principaux objectifs de l'étude est d'enrichir les modèles formels existants avec des aspects temporels associés à des règles pour simuler l'activité de l'ARN polymérase du SARS-CoV-2 en fonction des propriétés de l'ARN viral. Les modèles ontologiques ne peuvent pas simuler de larges quantités d’informations et la dimension temporelle est assez limitée. D’où l’idée de les associer à des modèles de simulation à événements discrets ayant la capacité de modéliser, analyser et simuler la dynamique et le comportement des systèmes complexes. Dans ce type de modélisation, le changement de l'état d'un système, au cours du temps, est une suite d’événements discrets qui arrivent à un instant donné et modifient l'état du système. En outre, la simulation est utile lorsque l'incertitude est élevée en raison de la rareté des données, et pour l'expérimentation dans un environnement à faible risque. Associant les avantages de chacun des deux modèles qualitatif (modèle ontologique) et quantitatif (modèle de simulation DEVS), nos travaux consistent à générer des modèles de simulation d'événements discrets à partir de la nouvelle ontologie de domaine Covid-19 enrichie, combinée à des règles de raisonnement SWRL (un langage de règles pour le web sémantique) développés conjointement avec les experts biologistes. Ensuite, les modèles de simulation seront exécutés pour reproduire le cycle réplicatif de la polymérase du SARS-CoV-2, permettant aux biologistes de suivre l'activité enzymatique de l’ARN-polymérases ARN-dépendantes et générer des prédictions virtuelles de l'efficacité de cette enzyme en fonction de la séquence d'ARN virale fournie. D’autres modèles de simulation, consistant en des automates cellulaires, s'intéresseront à la modélisation de la propagation du virus au sein des cellules présentes sur la paroi des voies respiratoires, mais aussi sur celles des vaisseaux sanguins ou encore des intestins.


DUCAT : le calcul distribué sur réseaux à la lumière de la topologie algébrique

Coordonné par Pierre Fraigniaud (IRIF) et Jérémie Chalopin (LIS - équipe DALGO), le projet « Distributed Network Computing through the Lens of Combinatorial Topology » utilise la topologie algébrique. Le projet (Ducat) vise à fournir au calcul distribué sur réseaux les mêmes avantages conceptuels et les mêmes outils génériques que ceux obtenus par le calcul distribué sur mémoire partagée. Projet ANR, retenu en 2020.
  • Contact : Jérémie Chalopin, équipe DALGO

Quasiment tous les systèmes informatiques, des alarmes d’incendie aux services à l’échelle d'Internet, sont de nos jours distribués: ils consistent en un certain nombre d’unités informatiques exécutant des calculs indépendants et communiquant les uns avec les autres pour synchroniser leurs activités. Notre dépendance à la performance et à la fiabilité de l’informatique distribuée devient de plus en plus importante. La compréhension des fondamentaux de l’informatique distribuée revêt donc une importance cruciale. La principale difficulté réside dans l’immense diversité des applications distribuées, des modèles de calculs répartis et des paramètres de performance, combinés à l’absence d’outils conceptuels (mathématiques) universels pour gérer cette complexité. Au tournant du XXIe siècle, une avancée significative a été réalisée en calcul distribuée grâce à l’utilisation d'outils issus de la topologie algébrique. L'approche topologique a permis d’obtenir de nombreux résultats remarquables en conception et analyse d'algorithmes, pour de grandes classes de tâches et une grande variété de modèles. Cependant, la "révolution topologique" n’a principalement affecté que les modèles de calcul sur mémoire partagée, tandis que les modèles liés au calcul distribué sur réseaux ont été laissés de côté. En conséquence, malgré d’énormes progrès, les techniques utilisées en algorithmique distribuée sur réseaux restent ad hoc, et une compréhension conceptuelle globale du calcul sur réseaux fait toujours défaut.   Par l’utilisation de la topologie algébrique, le projet DUCAT vise à fournir au calcul distribué sur réseaux les mêmes avantages conceptuels et les mêmes outils génériques que ceux obtenus par le calcul distribué sur mémoire partagée.


Des jumeaux numériques pour l’industrie du futur

Le projet COHERENCE4D est un projet ANR 2020 (CE10 – Industrie et usine du futur) qui associe des chercheurs de l’ENSAM (LISPEN), d’AMU (LIS, équipe G-Mod, Jean-Luc Mari), de Grenoble INP et de l’UTC.
  • Contact : Jean-Luc Mari, équipe G-Mod

La digitalisation de la chaîne de valeur constitue une des principales priorités de l’industrie du futur. Grâce à la mise en réseau de ses ressources, et notamment celles de production (machines, robots, convoyeurs, etc.), l’usine du futur devient plus intelligente, plus connectée, plus autonome, plus agile et capable de s’adapter plus rapidement aux besoins. Ce changement de paradigme repose notamment sur l’exploitation de données numériques issues de mesures ou de simulations. Elle permet de caractériser le plus fidèlement possible l’état et le comportement des produits et systèmes physiques. Ainsi, le concept de jumeau numérique se trouve aujourd’hui au cœur des problématiques de digitalisation et apparaît comme un élément incontournable pour répondre aux défis de la quatrième révolution industrielle. Le jumeau numérique est une représentation virtuelle dynamique susceptible de suivre les évolutions d’un produit ou système physique tout au long de son cycle de vie. Il utilise des données numériques temps-réel pour permettre la compréhension, l’apprentissage et le raisonnement. Couplé à des systèmes de réalité virtuelle (RV), de réalité augmentée (RA) ainsi qu’à des algorithmes d’intelligence artificielle (IA), le jumeau numérique permet de supporter plus efficacement les processus décisionnels. Pour tirer pleinement parti des possibilités du numérique, le jumeau numérique doit être maintenu à jour dans le temps et refléter le plus fidèlement possible l’état de son jumeau physique. Le maintien de la cohérence nécessite des modifications à plusieurs niveaux : sémantique (S), structurel (T) et géométrique (G). C’est dans ce contexte que se positionne le projet COHERENCE4D qui ambitionne de développer un nouveau paradigme de modélisation, de visualisation, d’interaction, et de maintien de la cohérence du jumeaux numériques 4D interfacés aux systèmes physiques qui évoluent dans le temps. Les travaux porteront sur la définition d’un modèle à géométrie et à topologie variables dans le temps, sur le développement de mécanismes de maintien de la cohérence entre le jumeau numérique et le jumeau physique, sur la définition d’une méthodologie de spécification et d’intégration des interfaces d’acquisition. Ils s’intéresseront également au développement d’un système d’aide à la décision exploitant une IA capable d’analyser les écarts réel/virtuel pour décider des mises à jour à effectuer, sur la spécification et l’expérimentation de nouvelles métaphores de visualisation et d’interaction avec le jumeau numérique au travers de périphériques de RA/RV.


L'activité solaire en mode Presage

Le projet PRESAGE est coordonné par le LIS, sous la responsabilité d'Adeline Paiement (équipe DYNI), en partenariat avec l'Observatoire de Paris. Projet ANR, retenu en 2020
  • Contact : Adeline Paiement, équipe DYNI

Le projet multidisciplinaire « PREdicting Solar Activity using machine learning on heteroGEneous data » a pour but de développer des méthodes d’apprentissage qui amélioreront notre compréhension des mécanismes de l’activité solaire afin de nous permettre d’en prédire les événements La communauté de la physique solaire fait face à un déluge de données, dont la grande variété et la complexité ont jusqu’alors empêché une analyse d’ensemble menant à une compréhension globale de l’activité solaire. Présage propose de résoudre ce problème en développant de nouvelles méthodes d’apprentissage qui exploiteront ces données hétérogènes. Il s'agit d'étudier les propriétés en 3D des structures solaires (filaments, tâches…), de modéliser leurs évolutions et comportements, d'étudier les corrélations entre de nombreux indices d’activité solaire (structures et leurs comportements…), ses événements (éruptions, éjections de masse coronale…) et des indices terrestres résultants (indices géomagnétiques…), pour finalement prédire les événements d’activité solaire et leurs effets sur Terre.


Le projet GIALE améliore les performances de micro-cogénération via l'apprentissage par renforcement

Le projet GIALE, porté par Zhongliang LI de l’équipe PECASE, a été sélectionné à l’appel à Projets Exploratoires Premier Soutien (PEPS) 2021 et financé par Cellule Energie du CNRS.
Le projet sera réalisé en collaboration entre laboratoires LIS (UMR 7020) et IUSTI (UMR 7343) avec des compétences complémentaires.

La micro-cogénération, aussi appelée micro CHP (pour micro combined heat and power), désigne un système de cogénération de petite puissance électrique. La micro-cogénération à pile à combustible (FC m-CHP) possède un fort potentiel de réduction de la consommation d'énergie dans les applications résidentielles. La gestion de l'énergie du système FC m-CHP pour atteindre à la fois une efficacité et une durabilité élevées du système pose un problème difficile, en particulier avec la dégradation des piles à combustible et les demandes de charge incertaines. Le projet GIALE (Gestion optimale de l'énergie assistée par l'IA sur le cycle de vie complet du m-CHP à pile à combustible) vise à surmonter ces difficultés scientifiques en proposant une stratégie de gestion de l'énergie assistée par l'Intelligence Artificielle (IA), plus précisément, l'apprentissage par renforcement. L'apprentissage d'un modèle dynamique de système précis du FC m-CHP pourrait constituer un défi compte tenu des incertitudes liées au fonctionnement et aux dégradations du système. L'apprentissage par renforcement aborde le problème de la manière dont les contrôleurs devraient apprendre à prendre des mesures optimales par le biais d'interactions avec le système réel. Le contrôleur peut progressivement atteindre la politique optimale même si le système varie dans le temps et que le modèle du système n'est pas parfait, par exemple dans le cas du FC m-CHP. Dans ce projet, l'efficacité du système devrait être maintenue à un haut niveau pendant un cycle de vie FC prolongé. La compétitivité du système FC m-CHP se verra ainsi améliorée en application résidentielle.


Participation de Magalie Ochs à la série de l'INS2I CNRS : 12 portraits en BD de chercheuses et ingénieures

À l'occasion du 8 mars, journée internationale des droits des femmes, découvrez un portrait sous forme de BD d'une enseignante-chercheuse du LIS qui effectue ses travaux de recherche au sein d'une unité rattachée à l'INS2I. Ce portrait de Magalie Ochs fait partie d'une série de 12 BD de chercheuses et ingénieures, illustrées par Léa Castor.



Soutenance de thèse : Marion Poupard

Marion POUPARD, doctorante au LIS sous la direction d'Hervé GLOTIN et Thierry SORIANO, co encadrée par Thierry LENGAGNE soutiendra sa thèse intitulée: Contributions en Méthodes Bioacoustiques Multi-échelles : Spécifiques, Populationnelles, Individuelles et Comportementales le mercredi 09 décembre 2020 à 16h00 en visioconférence dont le lien de connexion est accessible sur demande auprès du directeur de thèse glotin@univ-tln.fr

Marion POUPARD

doctorante au laboratoire LIS Rattaché à l’École Doctorale 548 « Mer & Sciences »

Sous la direction de Monsieur Hervé GLOTIN, Professeur, Université de Toulon (France)

et

M. Thierry SORIANO, Professeur, Université de Toulon (France), Co-directeur de thèse

Co encadrée par M. Thierry LENGAGNE, Chargé de Recherche-HDR, CNRS, Université Lyon I, co-encadrant

soutiendra sa thèse en vue de l’obtention du Grade de Docteur

Discipline : « Automatique, Signal, Productique, Robotique »

Spécialité : "Bioacoustique"

sur le thème

Contributions en Méthodes Bioacoustiques Multi-échelles : Spécifiques, Populationnelles, Individuelles et Comportementales

mercredi 09 décembre 2020 à 16h00

en visioconférence dont le lien de connexion est accessible sur demande
auprès du directeur de thèse glotin@univ-tln.fr

devant un jury composé de

M. Yvan SIMARD, DR Ins. Sciences de la Mer, Rimouski, Univ. Québec, Canada, Rapporteur

  • Mme Clémentine VIGNAL, Pr. Ins. Ecologie & Sciences de l’Environnement de Paris, CNRS, Univ. Sorbonne, Rapporteur
  • Mme Renata SOUSA-LIMA, Pr. Lab. of Bioacoustics, Univ. Rio Grande do Norte, Brésil, Examinatrice
  • Mme Aurélie CELERIER, MC HDR Centre Ecologie Fonctionnelle & Evolutive, CNRS, Univ.
    Montpellier II, Examinatrice
  • M. Gianni PAVAN, Pr. Cent. Interdisci. Bioacustica & Ricerche Ambientali, Univ. Pavia, Italie, Examinatrice
  • M. Hervé GLOTIN, Pr. Lab. Informatique & Systèmes, CNRS, Univ. Toulon, Directeur de thèse
  • M. Thierry SORIANO, Pr. Lab. Conception Systèmes Mécaniques & Robotiques, Univ. Toulon, co-directeur de thèse
  • M. Thierry LENGAGNE, CR HDR Lab. Ecologie des Hydrosystèmes Naturels & Anthropisés, CNRS, Univ. Lyon I, co-encadrant de thèse
  • Mme Anne-Laure BEDU, Responsable de la société Biosong, Invitée

Résumé

L’objectif de cette thèse est d’apporter différentes contributions méthodologiques en bioacoustique pour l’étude de la faune. En effet, la bioacoustique est une science récente, pluridisciplinaire et très efficace pour étudier et classifier un écosystème. Beaucoup d’études ont mis au point des procédés acoustiques pour étudier la faune à des échelles spécifiques, populationnelles, individuelles et comportementales.
Ce travail de thèse propose d’étudier différents cas d’études présents dans ces quatre échelles d’analyses.
L’objectif de cette thèse est de mettre en place des outils depuis la pose du matériel d’acquisition jusqu’à l’analyse des données pour l’ensemble des échelles présentées, de les discuter et de les mettre en perspective. La bioacoustique spécifique est illustrée ici par la classification automatique d’Orques, de Cachalots et d’oiseaux. Pour la bioacoustique populationnelle, la classification acoustique de clans d’Orques est étudiée. Puis l’échelle d’analyse s’affine et étudie les émissions sonores individuelles. Pour cela 3 cas d’études sont utilisés : la localisation individuelle d’Orques, de Cachalots et d’oiseaux. La dernière échelle est appelée bioacoustique comportementale, elle a pour but de mettre en corrélation des comportements avec des émissions acoustiques. Pour cela, l’influence du trafic maritime sur les Dauphins tachetés pantropicaux et l’impact de stimuli chimiques chez la Baleine à bosse est étudié.
Nous avons volontairement fait le choix de sélectionner différentes espèces produisant des types de signaux bien différents (stationnaires vs transitoires) évoluant dans des milieux différents (marins vs terrestres) afin d’homogénéiser les méthodes d’analyses pour faciliter le développement de nouvelles études en bioacoustique. Chaque cas d’étude présente des résultats intéressants en terme de bioacoustique et d’écologie comportementale. Ces résultats sont comparés avec la bibliographie. Puis, les résultats de chaque cas d’étude permettent de valider les méthodes proposées dans cette thèse. Les apports méthodologiques de cette thèse sont synthétisés, comparés et discutés, notamment l’impact des signaux stationnaires et transitoires, des milieux (marin et terrestre) sur la mise en place des méthodes. Les méthodes supervisées et non supervisées sont mises en comparaison. Les méthodes proposées ont été testées et validées sur certains protocoles de données massives (plusieurs dizaines de Tera).
En conclusion, cette thèse montre que les méthodes supervisées (notamment le Deep Learning) étaient très bien adaptées pour la classification de signaux stationnaires en bioacoustique spécifique et populationnelle pour le milieu terrestre et marins. Puis les méthodes non supervisées (clustering et réduction de dimensionnalité) peuvent être utilisées dans le cadre des études en bioacoustique comportementale pour identifier les signaux d’intérêt. Enfin, la bioacoustique individuelle peut se traduire par des méthodes de localisation comme l’estimation du temps de délais d’arrivée inter-capteur, réalisable pour les signaux transitoires, et plus complexe pour les signaux stationnaires.

Mots-clés : Bioacoustique, Masse de données, Espèce, Population, Individu, Localisation, apprentissage supervisé et non supervisé.

Abstract

The objective of this thesis is to make different methodological contributions in bioacoustics for the study of fauna. Bioacoustics is a recent multidisciplinary science and is very effective for studying and classifying an ecosystem. Many past studies have developed acoustical methods to analyze wildlife across (1) specific, (2) populational, (3) individual and (4) behavioral scales. The research presented in this thesis aims to study different case methods in the four scales of analysis listed above while also setting up tools from the setup of the acquisition material to the analysis of the data for all the aforementioned scales, and finally the discussion of the studies and putting them into perspective. In this study, (1) specific bioacoustics were illustrated by the automatic classification of orcas, sperm whales, and birds. The acoustic classification of orca clans were studied for (2) population analysis. Then the scale was refined and (3) individual acoustic emissions were studied through three different case studies : the individual locations of orcas, sperm whales, and birds. The last scale evaluated was (4) behavioral bioacoustics which aimed to correlate behaviors with acoustic emissions. In order to correlate certain behaviors with acoustic emissions, the influence of maritime traffic on pantropical spotted dolphins and the impact of chemical stimuli in humpbacks were evaluated and recorded. We deliberately chose to select a diverse pool of species that would produce a variety of different signals (stationary vs. transient) and had evolved in different nvironments (marine vs. terrestrial). This allows us to standardize analysis methods in order to facilitate the development of new studies in bioacoustics. Each case study showed interesting results in terms of bioacoustics and behavioral ecology. These results were compared with past studies which can be found in the bibliography. The results of each case study validated the methods proposed in this thesis. In particular, our study yielded excellent results in the evaluation of bird songs and is now a sound-recognition application available on any type of mobile phone, making it easy to identify bird species. The methodological contributions of this thesis, specifically the difference between stationary and transient signals and those of marine or terrestrial evolution, were synthesized, compared, and discussed. Supervised and unsupervised methods were also compared. These proposed methods have been tested and validated using massive data (several tens of Tera), which are unique. In conclusion, this thesis shows that supervised methods, in particular Deep Learning, are very well suited for the classification of stationary signals in specific and population-based ioacoustics for the terrestrial and marine environment. We also derived that unsupervised methods such as clustering and reduction of dimensionality, can be used within the framework of behavioral bioacoustics to identify signals of interest. Finally, individual bioacoustics can be translated into localization methods such as estimating the inter-sensor delay time which is feasible for transient signals and more complex for stationary signals.

Keywords : Bioacoustics, Big data, Species, Populations, Individuals, localization, Unsupervised and Supervised Learning.



Le TAL (Traitement Automatique des Langues) pour traiter l'avalanche de publications scientifiques liées au COVID-19

Au plus fort de l’épidémie de COVID-19, le NIH (National Institutes of Health) a recensé la publication ou pré-publication de 2 500 articles pertinents par semaine. Comment le corps médical peut-il "digérer" une telle quantité d'information afin d'en extraire des connaissances pertinentes pour la prise en compte au quotidien de l'épidémie ? Benoit Favre de l'équipe TALEP du LIS s'attaque à ce problème difficile à travers une collaboration avec Stephane Delliaux (AMU/APHM).

La pandémie liée au COVID-19 a généré la nécessité de traiter des problèmes inédits liés à l'ampleur du phénomène au niveau mondial. Pour le corps médical, suivre les résultats de recherches et d’études publiées dans les articles scientifiques constitue un enjeu important, difficile à aborder tant à cause de la quantité que de la diversité des publications diffusées chaque jour. Par exemple, au plus fort de l’épidémie, NIH (National Institutes of Health) a recensé la publication ou pré-publication de 2 500 articles pertinents par semaine.
Dans ce cadre, Benoit Favre de l’équipe TALEP (traitement automatique du langage écrit et parlé) du LIS a entamé une collaboration avec le Dr Stephane Delliaux (AMU/APHM) pour faciliter la veille scientifique sur la COVID-19 à l’aide du TAL. L’enjeu fondamental est de mettre en place des méthodes de compréhension automatique du contenu des articles, afin d’aiguiller les chercheurs et praticiens vers les résultats de recherche les plus pertinents pour leur domaine de compétence, et d’extraire des informations précises sur les études décrites, dans le but d’en synthétiser le contenu.
Ce projet explore les questions suivantes :
  • quels sont les besoins des personnels médicaux en terme de veille bibliographique et où les méthodes de TALN peuvent-elles intervenir pour leur faciliter la tâche ?
  • quels modèles de TAL permettent le mieux de traiter les informations scientifiques dans un contexte médical en prenant en compte les nombreux efforts d’annotation et de classement existants ?
  • comment synthétiser les résultats médicaux exprimés dans les publications au jour le jour et en se basant sur des indices peu nombreux et faibles quantités de données ?
Les résultats préliminaires montrent que le transfert de modèles de type "transformers" vers des tâches dont les données d'entraienement sont de petite taille (cadre few-shots learning) représentent un challenge qui est loin d'être résolu. Des pistes possible explorées actuellement concernent l'augmentation de données et l'exploitation de ressources annexes fondées sur l'expertise médicale. Les travaux futurs s'orienteront vers la création d'algorithmes d'aide à la génération de synthèses pour la veille scientifique dans un contexte où peu d'exemples d'apprentissages sont disponibles et dans lequel une tracabilité et interprétabilité des décisions des systèmes automatiques sont indispensables. Contact : Benoit Favre - équipe TALEP - LIS


Publication du "Guided Tour of AI Research" chez Springer co-édité par Odile Papini (équipe LIRICA, LIS)

Les 3 volumes de "A Guided Tour of Artificial Intelligence Research" viennent de paraître chez Springer :
  1. Knowledge Representation, Reasoning and Learning
  2. AI Algorithms
  3. Interfaces and Applications of AI
Ils constituent un vaste panorama de toute la recherche en intelligence artificielle, en plus de 1900 pages, 53 chapitres, 3 préfaces, 3 postfaces et 1 épilogue auxquelles ont contribué 144 auteurs. C’est une version anglaise, complètement revue et substantiellement augmentée (de quelque 500 pages) d’un ensemble comparable paru en français il y a 6 ans chez Cépaduès. Plusieurs membres du Laboratoire ont contribué à cet ouvrage, dont la réalisation a été coordonnée par Pierre Marquis, Odile Papini et Henri Prade.

Livre Springer


Prix de Thèse AMU pour Marianna Girlando - équipe LIRICA

Marianna Girlando a obtenu le prix de thèse AMU 2020 pour un doctorat effectué en cotutelle entre l'Université d'Aix Marseille et l'Université d'Helsinki sous la direction de Nicola Olivetti (Aix-Marseille Université, LIS, équipe LIRICA) et Sara Negri (Helsinki University, Finland). Le titre de la thèse est : On the proof theory of conditional logic (De la théorie de la démonstration pour logiques conditionnelles)

Résumé de la thèse :

La thèse se place à l’intersection de trois sujets de recherche : logiques conditionnelles, théorie de la démonstration et sémantique de voisinage. La famille de logiques conditionnelles considérées provient des ouvrages de Stalnaker et Lewis. Elle est une extension de la logique classique propositionnelle avec un opérateur modal à deux places, qui exprime une notion affinée de conditionnalité. La sémantique de ces logiques est définie en termes de modèles de voisinage. Le but de la recherche est d’étudier la théorie de la démonstration des logiques conditionnelles, en précisant leurs calculs des sequents. Les calculs définis sont des extensions du calcul des sequents de Gentzen ; ils sont ´étiquetés, c’est à dire définis en enrichissant le langage, ou internes, qui rajoutent des connecteurs structurels aux sequents. La thèse est organisée en six chapitres. Le chapitre 1 présente les axiomes et la sémantique des logiques conditionnelles et le chapitre 2 introduit la théorie de la démonstration. Les contributions originelles au sujet sont traitées dans les chapitres 3 – 6. Le chapitre 3 introduit des calculs de sequents étiquetés basés sur la sémantique de voisinage pour les logiques conditionnelles préférentielles. Le chapitre 4 présente différents systèmes internes de calcul pour les logiques counterfactuelles, une sous-famille des logiques préférentielles. Le chapitre 5 analyse la relation parmi les systèmes de preuve en présentant les deux côtés d’une traduction entre un calcul étiqueté et un calcul interne. Finalement, au chapitre 6, les méthodes de la théorie de la démonstration conditionnelle sont appliquées à une logique épistémique multi-agente.   Lien : http://www.theses.fr/2019AIXM0038


Drones, capteurs bio-mimétique, gestion de trajectoire.

Obtention d'une bourse DGA dans le cadre d'une collaboration entre l'équipe Biorob de l'Institut des Sciences du Mouvement et l'équipe GMOD du LIS

L'ISM (T. Raharijaona, Biorob) et le LIS (R. Raffin, G-Mod) ont obtenu une bourse de thèse DGA sur le sujet "Accostage de précision référencé capteur d’un hexarotor miniature complètement actionné". L'objectif de la thèse est de développer les capteurs bio-mimétique de l'ISM afin de prendre en compte l'environnement spatial d'un drone non piloté, dans un espace confiné. Cette géométrie sera progressivement intégrée à la gestion de la trajectoire du mobile, durant le vol, jusqu'au retour.


Le Silence de la Mer : la mer silencieuse permet le retour près des côtes des mammifères marins

En plein confinement, l’équipe du professeur Hervé Glotin, , chercheur au Laboratoire Informatique et Systèmes (LIS UMR7020) et titulaire de la chaire Intelligence Artificielle et Bioacoustique à l’Université de Toulon, a lancé l'expédition « Silence de la mer » dans le cadre de la mission Sphyrna Odyssey.


En raison d'un trafic maritime intense, la Méditerranée est l'une des mers au monde qui subit le plus de perturbations acoustiques. Cette pollution sonore a pratiquement disparu pendant le confinement. D'où l'idée d'aller étudier la faune sous-marine et l'impact des bruits produits par l’humain.
  • En collaboration avec Seaproven, la plateforme technologique SMIoT et dans le cadre du pôle INPS de l’UTLN, Hervé Glotin et son équipe pilotent la mission « Silence de la mer ». Elle vise à caractériser le milieu marin, à mesurer le comportement en 3D et la densité de présence de plusieurs espèces de cétacés aux alentours des côtes pendant et après le confinement. L'expédition doit permettre de connaître plus précisément l’impact anthropophonique sur l’éloignement des populations des côtes.
  • La première phase de cette mission a permis de remonter un siècle en arrière, d'enregistrer les paysages acoustiques que nos grands-parents pouvaient entendre, mais qui sont usuellement masqués par les bruits industriels.
Premier constat, les espèces maritimes ont repris possession de leur territoire naturel, à l'image des deux rorquals observés près des calanques en avril.
  • En comparant des enregistrements acoustiques réalisés avant le confinement et ceux d’aujourd’hui, la mission tente d'observer les évolutions. Dans cette mer calme, les animaux arrivent à communiquer sur de plus longues distances, peut-être le double ou le quadruple d'avant le confinement. Ces changements drastiques pourraient changer certains de leurs comportements. Par exemple, la distance entre les individus pourrait augmenter pendant des séquences de chasse, permettant de couvrir une plus large zone, mais également de repérer les proies plus facilement. La communication entre les groupes éloignés est facilitée, favorisant les liens sociaux.
  • « Nous observons ainsi des animaux moins stressés qui reprennent leurs droits » souligne Hervé Glotin. « Dès le premier jour de la mission, nous avons observé un groupe de grands dauphins (12 à 15 individus, dont 3 petits) dans la rade de Hyères. Ces animaux apaisés ont nagé pendant près de 30 minutes autour des navires de la mission. Une rencontre en groupe et sur plusieurs heures est assez rare. Il s'agit d'un comportement inhabituel, peut-être la norme dans une mer sans activité humaine. Le trafic maritime est proche de celui d’avant-guerre ! Les cétacés devraient se rapprocher des côtes qu’ils fuient depuis 20 ans. Cette mer silencieuse permet de réaliser des expériences idéales, protocoles scientifiques dans une piscine de 100 km² et 2 km de profondeur avec un unique émetteur : un cargo au loin. Dès lors nous pouvons rendre compte de sa pollution acoustique ».
  • Une mer également moins polluée par les rejets des bateaux, surtout à proximité des lieux touristiques et des grandes routes commerciales. De nombreuses analyses chimiques ont été réalisées pour le confirmer.
Enfin, l'équipe a mesuré avec des drones les basses fréquences acoustiques, de manière conjointe avec l’observatoire de neutrinos MEUST et ses kilomètres de fibre optique placés dans les abysses.

Liens dans les médias :



VPP4Islands propose de créer des centrales vertes flexibles

Dans le cadre d’une initiative ambitieuse, l’université d’Aix-Marseille coordonne un projet financé par le programme européen pour la recherche et le développement, Horizon 2020. « VPP4Islands » porte sur l’optimisation des centrales électriques virtuelles (Virtual Power Plant). Cette initiative vise à favoriser l’intégration des énergies renouvelables et à optimiser le rendement des petits réseaux électriques existants dans les îles.

 
  • Cette initiative vise à favoriser l’intégration des énergies renouvelables et à optimiser le rendement des petits réseaux électriques existants dans les îles.
 
  • L’équipe porteuse du VPP4Islands et ses 17 partenaires européens proposent de créer des centrales électriques virtuelles (CEV) flexibles et interopérables. Il s'agit de faire face aux incertitudes inhérentes aux sources d'énergies renouvelables, des les intégrer plus facilement au réseau électrique sans nuire à sa stabilité.
 
  • La CEV proposée ne sera pas considérée comme une centrale électrique conventionnelle constituée de petites sources d'énergie distribuées, mais plutôt comme une centrale verte flexible. Elle pourra stocker le surplus de l’énergie produite, modifier son mode de fonctionnement et son architecture pour soutenir la croissance, pallier aux changements imprévisibles de la demande d'énergie, du climat ou du marché.
 
  • En s’appuyant sur l'agrégation et la gestion intelligente des ressources énergétiques distribuées, le VPP4Islands augmentera la flexibilité et la rentabilité des systèmes énergétiques tout en fournissant de nouveaux services. Il permettra de mieux maîtriser la demande des consommateurs en les incitants à devenir des « consomm’acteurs ».
 
  • Dans l’objectif de révolutionner le mode opératoire les centrales électriques virtuelles et de créer des communautés énergétiques plus performantes, le projet VPP4Islands souhaite proposer des solutions innovantes basées sur les concepts du jumeau numérique (Digital Twin), des systèmes virtuels de stockage d'énergie et de la technologie des registres distribués (Distributed Ledger Technology).
  VPP4Islands ambitionne de devenir le leader de la décarbonation insulaire et du développement des CEVs. VPP4Islands promeut les systèmes énergétiques décentralisés et durables à travers des outils et des concepts innovants tout en considérant les contraintes liées aux infrastructures des îles et les coûts de la mise en œuvre des solutions proposées.  


D'une pierre deux coups

A l'initiative du LIS, des étudiants rencontrant des difficultés financières vont assurer du soutien scolaire pour des collégiens de zones d'éducations prioritaires renforcées

Le fils d’un enseignant en REP+ ( réseau d’éducation prioritaire renforcée) nous a fait part de la situation dramatique des élèves en difficulté pour suivre l’enseignement à distance, spécialement en mathématiques. Le LIS a alors proposé à la Ville de Marseille et à la déléguée du Préfet à la Politique de la Ville de lancer à titre expérimental une action d’aide à la scolarité dans le cadre du plan de soutien lancé par le gouvernement (https://www.education.gouv.fr/covid-19-renforcer-la-continuite-educative-dans-les-quartiers-prioritaires-303462 ).

Notre initiative permet à la puissance publique de coordonner et de financer une opération d’entre aide entre deux groupes de nos concitoyens qui souffrent particulièrement de la situation créée par la pandémie : les étudiants à ressources diminuées et les élèves les plus en difficulté dans le suivi de l’enseignement à distance. Elle est complémentaire des autres actions de type « aide aux devoirs » ou « cordées de la réussite »

Elle s'adresse à quinze élèves de REP+ de troisième, jugés par leurs enseignants comme « tangents » quant à leur possibilité de suivre une seconde de type général et qui pourraient donc particulièrement souffrir de cette période au niveau de leur orientation. Il nous semble qu’il s’agit là d’un public prioritaire, car sa réussite est un indicateur important du bon fonctionnement de « l’ascenseur social ».

Selon les enseignants de terrain et les responsables pédagogiques de ces établissements, la principale source de décrochage scolaire pour ces élèves réside dans la difficulté de suivre à distance un enseignement de mathématiques.

Les enseignants de mathématiques des collèges Belle de mai, Manet, Pythéas ont conçu un formulaire de candidature, diffusé ensuite par le Département d'informatique de l'AMU.  Il a permis de sélectionner quinze étudiants en difficultés financières parmi soixante-trois réponses. Pour 15€ net de l’heure, ils délivrent deux heures de tutorat par semaine sur huit semaines à partir du 5 ou du 11 mai. Le coût de 3 600 € est pris en charge par les MPT (maisons pour tous) et MFA (maison des familles et des associations) du 14ème et MPT Belle de Mai sur des reliquats d’actions qui n’ont pu avoir lieu. Le soutien se fait en binôme par le biais des professeurs référents de la matière sous contrôle des Chefs d'établissement.

L’action a débuté le 11 mai et se poursuivra jusqu’aux vacances. Des financements sont demandés pour son extension aux trente-trois établissements de REP+ de l’académie en incluant les vacances. 330 élèves seraient touchés pour une enveloppe de 120 000 € à distribuer aux étudiants participants.



Conférence MachineLearning@LIS

ML@LIS: une journée de conférence dédiée au Machine Learning dans les travaux de recherche du LIS. Découvrez le programme, proposez une présentation et inscrivez-vous!

À l'occasion de la conférence ML@LIS qui aura lieu le 2 Avril à St Jérôme, les chercheurs du Laboratoire d'Informatique et Systèmes feront des présentations scientifiques sur leur travaux de recherche ayant attrait aux aspects théoriques, techniques ou applicatifs du Machine Learning. L'objectif de cette conférence est double: d'abord animer la vie interne du laboratoire, faire en sorte que nous découvrions ce qui se fait dans les différentes équipes, nouer des liens et peut-être même ouvrir la porte à des collaborations si les discussions vont bon train; ensuite, donner un aperçu de ce qui se fait en Machine Learning au LIS pour les spectateurs extérieurs. Cette conférence est gratuite et ouverte sur inscription à toute personne du LIS ou de l'extérieur intéressée par le Machine Learning. Retrouvez toutes les informations sur le site de la conférence: https://mlatlis.lis-lab.fr/.


Le LIS lauréat de deux Chaires de recherche et d’enseignement en Intelligence Artificielle (IA)

Deux projets portés par le LIS pour l'appel ANR Chaire IA ont été sélectionnés, il s'agit des projets:
  • ADSIL (ADvanced Submarine Intelligent Listening) - porté par Hervé Glotin et l'équipe DYNI du LIS
  • Massal’IA (Propositional Reasoning for Large-Scale Optimization: Application to Clean Energy Mobility Issues) - porté par LI Chu-Min et les équipes COALA et MOFED du LIS
Ces deux projets font partie de la liste des 40 projets sélectionné au niveau national (dont 27 dans des unités CNRS - voir : Près de 3/4 des Chaires IA de l'ANR au sein des unités du CNRS )



La physique a-t-elle besoin des nombres réels ?

L’usage des nombres réels pour représenter des grandeurs physiques semble aller de soi. Pourtant, ces nombres ne sont pas aussi réels que le suggère leur nom, et ils engendrent parfois illusions et faux espoirs. Un article de Jean-Paul Delahaye dans la dernière chronique "Logique et Calcul" de "Pour la Science" présentant des travaux de Pablo Arrighi de l'équipe CANA du LIS. https://www.pourlascience.fr/sr/logique-calcul/la-physique-a-t-elle-besoin-des-nombres-reels-18431.php



Soutenance de thèse Agus Budi Raharjo

Equipe DANA, pôle Sciences des Données - Titre : Reliability in Ensemble Learning and Learning from Crowds - le 2 décembre 2019 à 14h salle de conférences Gérard JAUMES, Bâtiment Polytech, Campus de Saint-Jérôme

La soutenance sera présentée devant un jury composé de :
  - Younès BENNANI, Pr., Université Paris 13,Rapporteur.
  - Xi-Zhao WANG, Pr., Shenzhen University, Rapporteur.
  - Jean-Daniel ZUCKER, Pr., Université Sorbonne, Examinateur.
  - Franck MARZANI, Pr., Université de Bourgogne, Examinateur.
  - Nicoleta ROGOVSCHI, MCF, Université Paris Descartes, Examinatrice.
  - Mohamed QUAFAFOU, Pr., Université d'Aix Marseille, Directeur de thèse.
----------------
Abstract:
The combination of several human expert labels is generally used to make reliable decisions. The literature shows that this approach is better than the one based only on a single expert. Moreover, the research community on ensemble learning has made a significant effort to show that the use of several models, like classifiers, improves the performance compared with the use of only a classifier. However, using humans or learning systems to improve the overall decision is a crucial problem. Indeed, several human experts or machine learning have not necessarily the same performance. Hence, a great effort is made to deal with this performance problem in the presence of several actors, i.e., humans or classifiers. To contribute to the study of this problem, we analyze it, from the uncertainty viewpoint, to make the classification more reliable. In this thesis, we present two following contributions:
  • Reliable classifiers in ensemble learning: the first contribution is a method, based on weighted voting, which allows selecting a reliable combination of classifications. Our algorithm RelMV transforms confidence scores, obtained during the training phase, into reliable scores. By using these scores, it determines a set of reliable candidates through both static and dynamic selection process.
  • Reliable annotators in learning from crowds: when it is hard to find expert labels as ground truth, we propose an approach based on Bayesian and expectation-maximization(EM) as our second contribution. The aim is to evaluate the reliability degree of each annotator and to aggregate the appropriate labels carefully. Also, we optimize the computation time of the algorithm in order to adapt a large number of data collected from crowds.
These two models are evaluated on synthetic datasets performing binary and multi-class classification tasks. The obtained outcomes show better accuracy, stability, and computation time compared to the previous methods.
Also, we conduct an experiment considering the melanoma diagnosis problem using a real-world medical dataset consisting of a set of skin lesions images, which is annotated by multiple dermatologists. We have tackled the following problem: ranking the annotators to select reliable ones. Experimental results show that our methods behave as well as the most efficient methods according to accuracy and stability. However, our method outperforms the other methods when we consider the computation time.
----------------
Résumé :
La combinaison de plusieurs annotateurs experts est considérée pour prendre des décisions fiables dans le cas de données non étiquetées, bien que l’estimation des annotations d’experts ne soit pas une tâche facile en raison de divers niveaux de performance. De plus, cela entraîne le problème de l’incertitude des étiquettes. Dans l’apprentissage supervisé, la performance contrastée des annotateurs peut se produire dans l’apprentissage ensembliste ou lorsque les vérités terrains sont absente. Dans l’apprentissage ensembliste, lorsque les données d'entraînement sont disponibles, différents classificateurs de base comme annotateurs fournissent des prévisions incertaines dans la phase de test. Alors que dans un cas où il n’y a pas des vérités terrains dans la phase d'entraînement, nous considérons les étiquettes proposées par plusieurs annotateurs sur les foules comme une pseudo-vérité de fond. Dans cette thèse, la première contribution basée sur le vote pondéré dans l’apprentissage ensembliste est proposée pour fournir des prédictions de combinaison fiables. Notre algorithme transforme les scores de confiance obtenus pendant le processus d'apprentissage en scores fiables. Ensuite, nous déterminons un ensemble de candidats fiables par une sélection statique et dynamique. Lorsqu’il est difficile de trouver des experts comme les vérités terrains, une approche fondée sur l'estimation du maximum de vraisemblance et l'espérance-maximisation est proposée comme deuxième contribution pour sélectionner des annotateurs fiables. De plus, nous optimisons le temps de calcul de nos cadres afin d’adapter un grand nombre de données. Enfin, nos contributions visent à fournir des décisions fiables compte tenu des prédictions incertaines des classificateurs dans l’apprentissage ensembliste ou des annotations incertaines dans l’apprentissage de la foule.


Soutenance de thèse Damien Busatto-Gaston

Equipe MoVe, Pôle CALCUL - Titre : Synthèse symbolique de contrôleurs pour systèmes temporisés: robustesse et optimalité - Mardi 3 décembre 2019 à 14H Amphi Sciences Naturelles St Charles

Le jury sera composé de

  • Nathalie BERTRAND, INRIA Rennes, Examinatrice
  • Patricia BOUYER-DECITRE, LSV, Examinatrice
  • Krishnendu CHATTERJEE, IST Austria, Rapporteur
  • Benjamin MONMEGE, LIS, Directeur
  • Joël OUAKNINE, MPI, Rapporteur
  • Laure PETRUCCI, LIPN, Examinatrice
  • Pierre-Alain REYNIER, LIS, Directeur
  • Igor WALUKIEWICZ, LaBRI, Rapporteur

--------------------------------------------------------------------------------

Résumé:
Le domaine de la synthèse réactive a pour objectif d'obtenir
un système correct par construction à partir d'une spécification logique.
Une approche classique consiste à se ramener à un jeu à somme nulle,
où deux joueurs interagissent tour-à-tour dans
un système de transitions, et à se demander si le joueur "contrôleur" peut garantir
que son objectif sera rempli, et ce indépendamment des décisions
du joueur "environnement".
Nous étudions des spécifications temps-réel, modélisées par un automate temporisé
équipé d'un objectif d'accessibilité ou de Büchi, et présentons
des méthodes symboliques pour synthétiser des stratégies du contrôleur.
Nos contributions concernent deux problématiques distinctes :
on peut souhaiter que le contrôleur obtienne une stratégie robuste aux perturbations,
ou bien le faire jouer de manière optimale dans un jeu pondéré.

--------------------------------------------------------------------------------
Abstract:
The field of reactive synthesis studies ways to obtain,
starting from a specification, a system that is correct by construction.
A classical approach models this setting as a
zero-sum game played by two players on a transition system,
and asks whether player controller can
ensure an objective against any competing player environment.
We focus on real-time specifications,
modelled as timed automata with reachability or Büchi acceptance conditions,
and present symbolic ways to synthesise strategies for the controller.
We consider two problems, either restricting controller to robust strategies
or aiming for optimal strategies in a weighted game setting.


Le LIS participe à la 1ère édition des "journées IA en région Sud" le 28/11/2019 à Avignon (site centre-ville).

Ces journées sont organisées par Avignon Université sous l’égide de l’Institut 3IA Côte d’Azur et en collaboration avec les universités d’Aix-Marseille (AMU), Sophia Antipolis, Avignon (AU) et Toulon.
Cette journée se place aussi dans le cadre des "Rencontres HumanIA" en Avignon.
Le programme est disponible ici : https://lia.univ-avignon.fr/iasud2019/
Il y a également un lien vers une page d'inscription : gratuite mais obligatoire !



Journées du GdR IG-RV (Informatique Graphique et Réalité Virtuelle) du 12 au 15 novembre

L’équipe G-Mod organise en partenariat avec l’Institut des Sciences du Mouvement les journées du GdR IG-RV (Informatique Graphique et Réalité Virtuelle). Ces journées JFIGRV2019 se décomposent en :
  • une journée Jeunes Chercheurs le 12 novembre à Luminy (Polytech)
  • 3 jours de conférence les 13, 14 et 15 novembre au Palais des Congrès du Parc Chanot

Toutes les informations sont disponibles sur le site de la conférence : https://jfigrv2019.sciencesconf.org Les orateurs invités parleront de simulation prédictive, de réseau de connaissance pour la RV dans les jeux vidéo, d’annotation sémantique 3D et de génération de détails.

De plus, nous organisons aussi le mardi 12 novembre, en parallèle de la journée Jeunes Chercheurs, la journée nationale et annuelle du GT GDMM (Géométrie Discrète et Morphologie Mathématique). Ca se passe aussi sur le campus de Luminy -> https://gdmm2019.lis-lab.fr



Publication du livre de Lyes BENYOUCEF sur les Systèmes de Production Reconfigurables (RMSs)

Lyes BENYOUCEF de l'équipe MOPS du Pôle ACS vient de publier un livre chez Springer Series in Advanced Manufacturing intitulé "Reconfigurable Manufacturing Systems: From Design to Implementation".

Avec ses 11 chapitres, ce livre aborde les dernières avancées dans les domaines de l'intelligence artificielle, l'ingénierie des systèmes, la recherche opérationnelle et l'optimisation multicritères dédiées aux systèmes de production reconfigurable de la phase de conception à la phase d'implémentation et de pilotage.

https://www.springer.com/gp/book/9783030287818


Le projet "OPeRA" en collaboration avec l'école nationale d'ingénieurs de Tunis (ENIT) et l'université de Tunis El-Manar soumis dans le cadre de l'appel à projet PHC Utique 2020 a été accepté.

OPeRA : OPTIMISATION DES RESSOURCES EN APPRENTISSAGE PROFOND

Le projet OPeRA est une nouvelle coopération qui s'établit au sein du bassin méditerranéen. Le projet regroupe deux partenaires académiques (le laboratoire d'informatique et systèmes de Marseille -LIS- et le laboratoire de modélisation mathématique et numérique dans les sciences de l'ingénieur de Tunis -LAMSIN-) et implique un partenaire privé de R&D et de consulting IT spécialisée dans la science des données (EURA NOVA) pour collaborer sur le thème de l’apprentissage profond.

Description Le projet OPeRA a comme objectif principal de répondre à la question fondamentale et d'actualité d'accélérer les méthodes d'apprentissage profond et réduire leurs coûts sans impacter de manière significative leurs performances. C'est une question primordiale et nécessaire afin de démocratiser le développement des algorithmes d'apprentissage profond et favoriser leur déploiement sans trop de contraintes dans plusieurs secteurs applicatifs. Cette question est à l'intersection de plusieurs domaines de recherche, notamment l'informatique et les mathématiques appliquées. Un intérêt particulier est donné aux techniques de compression des réseaux de neurones profonds basées sur des méthodes numériques d'optimisation et d'algèbre tensorielle. Le projet a aussi comme objectif de dynamiser les relations entre le monde de la recherche et le monde industrielle autour de problématiques liées à l'apprentissage automatique en général et l'apprentissage profond en particulier. Des actions de diffusion et de valorisation seront conduites dans cette perspective. Pour atteindre ces objectifs, le projet OPeRA regroupe des compétences en apprentissage automatique en lien à la fois avec l'informatique et les mathématiques appliquées. Le consortium du projet est composé de deux partenaires académiques (le laboratoire d'informatique et systèmes de Marseille et le laboratoire de modélisation mathématique et numérique dans les sciences de l'ingénieur de Tunis) et implique un partenaire privé de R&D et de consulting IT spécialisée dans la science des données (EURA NOVA)  


Workshop Weighted Automata: Theory and Applications, WATA 2020

10th International Workshop Weighted Automata: Theory and Applications, WATA 2020 April 14–17, 2020, CIRM@Marseille, France

10th International Workshop Weighted Automata: Theory and Applications WATA 2020 April 14–17, 2020, CIRM@Marseille, France The workshop covers all aspects of weighted automata, ranging from the theory of weighted automata and quantitative logics to applications for real-time systems and natural language processing. The aim is to present tutorials and survey lectures by outstanding scientists in this area. We invite everybody to participate in this workshop without fee and to present their own technical contributions in this area. https://wata2020.lis-lab.fr


Soutenance de thèse de Sébastien RATEL

  • Date et heure: Vendredi 8 Novembre 2019 à 14h00
  • Lieu: Salle de séminaire du 2ème étage de la Frumam, St Charles
  • Titre: "Densité, VC-dimension et étiquetages de graphes"
  • Encadrants: Victor CHEPOI et Arnaud LABOUREL

Résumé
Un schéma d'étiquetage est un procédé permettant de distribuer la représentation d'un graphe sur ses sommets. Il consiste en une fonction d'encodage qui attribue des étiquettes binaires (courtes) à chaque sommet, et en une fonction de décodage qui, étant données les informations locales contenues dans deux étiquettes, et sans connaissance supplémentaire sur le graphe, permet de répondre (rapidement) à un type de requête pré-établi. Une partie des résultats de cette thèse sont initialement motivés par la construction de telles représentations distribuées. Ce document traite cependant de problèmes d'intérêt plus généraux tels que l'étude de bornes sur la densité de graphes, de la VC-dimension de familles d'ensembles, ou de propriétés métriques et structurelles. Nous établissons dans un premier temps des bornes supérieures sur la densité des sous-graphes de produits cartésien de graphes, puis des sous-graphes de demi-cubes. Pour ce faire, nous définissons des extensions du paramètre classique de VC-dimension (utilisé par Haussler, Littlestone et Warmuth en 1994 pour majorer la densité des sous-graphes d'hypercubes). De ces bornes sur la densité, nous déduisons des bornes supérieures sur la longueur des étiquettes attribuées par un schéma d'adjacence à ces familles de graphes. Dans un second temps, nous nous intéressons à des schémas de distance et de routage pour deux familles importantes de la théorie métrique des graphes: les graphes  médians et les graphes pontés. Nous montrons que la famille des graphes médians, sans cube, avec $n$ sommets, admet des schémas de distance et de routage utilisant tous deux des étiquettes de $O(\log^3 n)$. Ces étiquettes sont décodées en temps constant pour retourner, respectivement, la distance exacte entre deux sommets, ou le port vers un sommet rapprochant (strictement) une source d'une destination. Nous décrivons ensuite un schéma de distances $4$-approchées pour la famille des graphes pontés, sans $K_4$, avec $n$ sommets, utilisant des étiquettes de $O(\log^3 n)$ bits. Ces dernières peuvent être décodées en temps constant pour obtenir une  valeur entre la distance exacte et quatre fois celle-ci.
Jury
  • Nicolas NISSE, I3S/INRIA, Rapporteur
  • Laurent VIENNOT, IRIF/INRIA, Rapporteur
  • Olivier BOUSQUET, Google AI, Examinateur
  • Nadia CREIGNOU, LIS, Examinatrice
  • Cyril GAVOILLE, LaBRI, Examinateur
  • Nabil MUSTAFA, ESIEE, Examinateur
  • Victor CHEPOI, LIS, Directeur
  • Arnaud LABOUREL, LIS, Directeur


LIS PhDay 31/10/2019, St Jérôme

Venez au LIS PhDay 2019 jeudi 31 octobre, salle de conférence du bâtiment Polytech/LIS sur le site St Jérôme à Marseille !

Le LIS PhDay 2019, rassemblement annuel des jeunes chercheurs du LIS (doctorants, ATER, postdocs), aura lieu jeudi 31 octobre 2019, salle de conférence du bâtiment Polytech/LIS sur le site St Jérôme à Marseille. Programme prévisionnel:
  • 9h15: accueil
  • 9h30 : 3-4 interventions scientifiques (20-25'/pers)
  • 11h : pause
  • 11h15 : 3-4 interventions scientifiques (20-25'/pers)
  • 12h30 : buffet
  • 14h : rencontre avec anciens
  • 15h30 : activité détente, team-building
  • 18h: apéro en ville
Inscription en 30s (aidez-nous à ajuster les quantités!) : https://forms.gle/g8uU4SknutQJh2hD7


Le traitement de modèles graphiques (SAT, Réseaux de contraintes, Réseaux Bayésiens, Champs de Markov, etc.) par les méthodes de décomposition développées par l'équipe COALA au service de la bio-informatique.

Dans le cadre du programme non-thématique ANR De-Mo-Graph coordonné nationalement par l'équipe COALA, le système ToulBar2 (développé à l'INRA-MIA-Toulouse) dans sa version BTD (Backtracking on Tree-Decompostion : méthode de résolution basée sur la décomposition arborescente de graphes conçue et développée par l'équipe) a vu une application remarquable en bio-informatique. Ainsi, en collaboration avec un biochimiste belge et des chercheurs japonais, ces techniques ont permis d’aboutir à la création d'une protéine symétrique capable de s'auto-assembler. Ces résultats sont évoqués dans l’article intitulé « L’intelligence Artificielle stimule l’étude des protéines » publié par la revue La Recherche dans son numéro 548 de juin 2019. Cela montre l'apport fondamental que peuvent offrir les méthodes d'optimisation sous contraintes dans les systèmes d'intelligence artificielle (l'algorithme de base BTD avait fait l'objet d'une première publication dans la revue de référence Artificial Intelligence en 2003).



Saison indécidabilité et impossibilité

Dans le cadre du séminaire Move, une série de 10 exposés est prévue au cours de l'année 2019/2020 sur les thèmes de l'indécidabilité et de l'impossibilité. Ces exposés font intervenir des orateurs des équipes MoVe et DALGO du LIS et de l'équipe GDAC de l'I2M.

Le programme est disponible sur la page des séminaires de l'équipe MoVe : ICI.

Cette série d'exposés s'inscrit dans le cadre des activités communes du Pôle Calcul du LIS.

Elle est évidemment ouverte aux collègues d'autres équipes/pôles intéressés par ces thèmes.


Soutenance de Thèse de Riikka Huusari (équipe QARMA)

Date et Lieu : 7 novembre 14h Salle des Voutes - Site St Charles
Encadrants : Cecile Capponi et Hachem Kadri
Titre : Kernel learning for structured data: A study on learning operator- and scalar-valued kernels for multi-view and multi-task learning problems

Résumé :

The current era of enthusiastic data gathering has made datasets with non-standard structures more common. This includes the already well-known multi-task framework where each data sample is associated with multiple output labels, as well as the multi-view learning paradigm, in which each data sample can be seen to contain numerous possibly heterogeneous descriptions. To obtain a good performance in tasks like these, it is important to model the interactions present in the views or output variables well. Kernel methods offer a justified and elegant way to solve many machine learning problems. Operator-valued kernels, which generalize the well-known scalar-valued kernels, have been under attention recently as a way to learn vector-valued functions. For both scalar- and operator-valued kernel methods the choice of a good kernel function suitable for the data plays crucial role for the success on the learning task, and a natural question to ask is: is it possible to automate the process of choosing the kernel? Kernel learning tries to answer this question by treating it as a machine learning problem. This thesis offers kernel learning as a solution for various machine learning problems. The problems range from supervised to unsupervised, yet the data is always described under multiple views or has multiple output variables. In both of these cases it is important to model the interactions present in order to obtain good learning results. Chapters two and three investigate learning the interactions with multi-view data. In the first of these, the focus is in supervised inductive learning and the interactions are modelled with operator-valued kernels. These kernels are learnable, adapting to the data at hand in the learning stage. We give a generalization bound for the algorithm developed to jointly learn this kernel and predictive function, and illustrate its performance experimentally.Chapter three tackles multi-view data and kernel learning in unsupervised context and proposes a scalar-valued kernel learning method for completing missing data in kernel matrices of a multi-view problem. In the last chapter we turn from multi-view to multi-output learning, and return to the supervised inductive learning paradigm. We propose a method for learning inseparable operator-valued kernels that model interactions between inputs and multiple output variables. We also provide insight to current state of operator-valued kernel learning and introduce a general framework to study them.

Jury :

  • Juho Rousu (Prof, Aalto University) : rapporteur
  • Amaury Habrard (Prof, Université de Saint-Etienne) : rapporteur
  • Alain Rakotomamonjy (Prof, Université de Rouen) : examinateur
  • Massih-Reza Amini (Prof, Université Grenoble Alpes) : examinateur
  • Liva Ralaivola (Université d'Aix-Marseille) : examinateur
  • Cecile Capponi (Université d'Aix-Marseille) : supervisor
  • Hachem Kadri (Université d'Aix-Marseille) : supervisor
 


Prix du Meilleur Papier Etudiant pour Manon Scholivet à la conférence TALN-RECITAL 2019

Manon Scholivet (équipe TALEP) a obtenu le prix du meilleur papier étudiant à la conférence TALN-RECITAL qui s'est tenu à Toulouse du 1 au 5 juillet 2019 avec sa publication : "Méthodes de représentation de la langue pour l’analyse syntaxique multilingue" - Lien vers la conférence

Manon Scholivet de l'équipe TALEP du Pôle Sciences des Données du LIS a obtenu le prix du meilleur papier étudiant à la conférence TALN-RECITAL qui s'est tenu à Toulouse du 1 au 5 juillet 2019 avec sa publication : "Méthodes de représentation de la langue pour l’analyse syntaxique multilingue" -

Résumé

L’existence de modèles universels pour décrire la syntaxe des langues a longtemps été débattue. L’apparition de ressources comme le World Atlas of Language Structures et les corpus des Universal Dependencies rend possible l’étude d’une grammaire universelle pour l’analyse syntaxique en dépendances. Notre travail se concentre sur l’étude de différentes représentations des langues dans des systèmes multilingues appris sur des corpus arborés de 37 langues. Nos tests d’analyse syntaxique montrent que représenter la langue dont est issu chaque mot permet d’obtenir de meilleurs résultats qu’en cas d’un apprentissage sur une simple concaténation des langues. En revanche, l’utilisation d’un vecteur pour représenter la langue ne permet pas une amélioration évidente des résultats dans le cas d’une langue n’ayant pas du tout de données d’apprentissage.


Nouveau projet européen : l'Innovative Training Network "COBRA - COnversational BRain"

L'équipe R2I du pôle Science des Données du LIS est partenaire du nouveau projet de formation européen COBRA (COnversationnal BRain) qui viens d'être accepté. Le projet est porté par le Laboratoire Parole et Langage (LPL, Aix en Provence). Le LIS est impliqué sur les modèles de conversations des systèmes interactifs humanoïdes.

COBRA aims to train the next generation of researchers to accurately characterize and model the linguistic, cognitive and brain mechanisms deployed by human speakers in conversational interactions with human interlocutors as well as artificial dialog systems. It relies on a cross-sectoral international network of 11 world-level academic research centers and 4 nonacademic partners with 3 fast-developing SMEs and 1 world-level company. The partners' unique combined expertise and high complementarity will allow COBRA to offer 15 ESRs an excellent training programme as well as strong exposure to the non-academic sector in the emerging field of conversational brains. Training will cover scientific and technical skills, from the joint monitoring of brain and physiological activities in two or more people talking to each other to making multi-language databases, resources and findings available in open access, as well as transferable skills. The ESRs will conduct experimental and corpus studies on the alignment and prediction processes that make conversation between people both easy and fluent, across a large variety of communicational settings and in different languages, to better understand how these processes contribute to setting up brain-to-brain coupling relationships. Collaborative work with non-academic partners will foster the development of more effective and socially acceptable text-to-speech synthesizers, artificial dialogue systems, and social humanoid robots with high-level conversational skills. The project will open new career perspectives for ESRs with interdisciplinary training in language sciences, neuroscience and dialog systems on a very fast-growing digital market. COBRA’s training programme will also have major societal implications as it will concern aspects of the European citizens’ everyday life, from spoken interactions with machines to conversing in a non-native language.


L'équipe R2I du LIS sur le podium @VarDial2019

Adrian CHIFU a représenté l’équipe R2I du LIS à la compétition organisée pour VarDial2019 et ses soumissions ont été classées 2ème, 3ème et 4ème, respectivement pour une des sous-tâches.

\


Adrian CHIFU a représenté l’équipe R2I du LIS à la compétition organisée pour VarDial2019 (https://sites.google.com/view/vardial2019/campaign), workshop en colocation avec NACL2019 (https://naacl2019.org). Ses 3 soumissions pour la première sous-tâche MRC (Moldavian vs. Romanian Cross-dialect Topic identification - binary classification by dialect) ont été classées 2ème, 3ème et respectivement 4ème.


Résumé de l'article en anglais :

This article presents the model that generated the runs submitted by the R2I LIS team to the VarDial2019 evaluation campaign, more particularly, to the binary classification by dialect sub-task of the Moldavian vs. Romanian Cross-dialect Topic identification (MRC) task. The team proposed a majority vote-based model, between five supervised machine learning models, trained on forty manually- crafted features. One of the three submitted runs was ranked second at the binary classifi- cation sub-task, with a performance of 0.7963, in terms of macro-F1 measure. The other two runs were ranked third and fourth, respectively.



DISCRETE TIME QUANTUM SIMULATOR

Le projet DISCRETE TIME QUANTUM SIMULATOR, porté par Giuseppe Di Molfetta de l'équipe CANA di LIS a été accepté lors de l'appel A*Midex PÉPINIÈRE D'EXCELLENCE 2018

Richard Feynman suggested that computers that use quantum logic for information processing can simulate some quantum systems efficiently, even when this is not possible to computers based on classical logic. To simulate the dynamics of a quantum system usually means to describe it in terms of qubits, and its dynamics by a succession of logical gates – which are unitary transformations involving at most two qubits at time. This is the paradigm known as the Quantum Circuit Model, in analogy with the logical circuits of classical computers. Nevertheless, this way of “interpreting” the system and its dynamics is very artificial and detached from the expected inner workings of Nature. A more natural way of describing quantum systems and their dynamics within a computational perspective is given by Quantum Walks (QWs) and Quantum Cellular Automata (QCA). These two models also describe the system as collection of finite dimensional systems, but the dynamics is autonomous and generated by local interactions.
The evolution of a qubit in a QCA or in a QW is thus fully determined by the surrounding qubits and the interactions between them. Besides being a more natural way to describe physical systems, the structure of QWs and QCA is also more suitable for nowadays implementations. As QWs and QCA have a discrete space-time, they are more amendable to the development of coarse graining procedures. The aim of such procedures is to find an effective description of the system, without resorting to all its degrees of freedom. This effective description might be highly advantageous when treating many-body quantum systems. Moreover, when taking the limit of the spacing between cells and the time-step to zero, a continuous dynamic emerges, as described by partial differential equations. This has already been done for several quantum walks, and the dynamics of relativistic quantum fields was obtained. Quantum cellular automata and different models of quantum walks will be employed in this project allowing for the simulation of other systems. At each level of coarse graining the continuous limit will be obtained, and an effective dynamic will emerge. In this project we will exploit discrete space-time quantum computational models–based descriptions and harvest them for questions of physical interest. For instance, we will address the following questions: what kinds of phenomenology can emerge from a continuous limit of different interactions and distributions of QCA and alternative models of QWs? Is it possible to describe some of these dynamics in an efficient way by a classical computer, or are there intrinsic quantum properties that render the description unavoidably quantum? In the latter case, is there a simplified level of description where a classical description becomes possible.


9 postes d’ATER sont ouverts au Département Informatique et Interactions avec rattachement LIS

Voir détails sur : https://www.lis-lab.fr/offre-de-cdd



France Culture : Des sons à écouter en stéréo

"Les cachalots sont des monstres… de douceur" François Sarano. Depuis Moby Dick et le naufrage de l’Essex, depuis les traités d’interdiction de la chasse aux baleines, la relation des hommes et des cachalots a bien évolué. Munis de microphones aquatiques, nous partons les rencontrer au large de Toulon sur un petit voilier avec Hervé Glotin, professeur à l’Université de Toulon qui analyse leur signal acoustique depuis bien longtemps. Peut-être qu’au fil de la navigation, nous allons dériver jusqu’en Antarctique avec Flore Samara qui nous raconte comment l’on a découvert que les bruits de battements de cœurs puissant enregistrer par la marine militaire était des chants de baleines. Et avec elle, écouter quelques espèces comme la baleine bleue antarctique, la baleine pygméen de Madagascar, les orques… Olivier Adam, bioacousticien, spécialiste des chants de baleines à bosse questionne le positionnement actuel de la recherche et comment l’étude de ces espèces parapluies sont un indicateur écologiques puissant. François Sarano va parfois ressurgir des abysses pour nous raconter sa relation avec le clan d’Irene Gueule Tordue sur la côté ouest de l’Ile Maurice.

Comme François Sarano, Hervé Glotin, Flore Samaran, Olivier Adam, incarnent aussi de nouvelles figures de l’exploration qui n’hésitent pas à partir dans des mondes hostiles pour faire avancer la science. A chaque saison, ils partent sur le terrain, inventant des outils de recherche très audacieux et témoignent de leur inquiétude quand à l’avenir des espèces marines.

Avec : Hervé Glotin est professeur à l’Université Sud-Toulon-Var. Il travaille sur les orques, cachalots, baleines à bosse, rorqual commun. Flore Samaran est enseignante chercheuse à l’ENSTA-Bretagne et spécialiste de l’acoustique passive. Elle installe tous les ans des balises acoustiques en Antarctique pendant les rotations du Marion Dufresnes pour écouter les baleines bleues. François Sarano, plongeur, océanographe, ancien responsable scientifique de la calypso de Cousteau. Il vit depuis une petite dizaine d’années avec un clan de Cachalots dans l’Ocean Indien. Olivier Adam, est bioacousticien, professeur à Sorbonne-Université et à l’institut des neurosciences Paris Saclay, spécialiste des chants de baleines à bosse.

Une série documentaire d'Aline Pénitot réalisée par Gilles Mardirossian.

Pour y accéder : Oublier Moby Dick (1/4) : A l’écoute des Cachalots et autres cétacés


Appel à projets générique ANR 2019 : 13 projets du LIS en phase 2

Le LIS coordonne ou participe à 13 propositions qui ont été sélectionnées pour la phase 2 de l'appel ANR 2019



Le LIS va participer à l'organisation de la prochaine édition de la conférence LREC, en 2020, à Marseille du 11 au 16 mai 2020

The 12th Conference on Language Resources and Evaluation (LREC 2020) will take place on May 13-15, 2020, at the Palais du Pharo in Marseille, France. LREC aims to provide an overview of the state-of-the-art, explore new R&D directions and emerging trends, and exchange information regarding language resources and their applications, evaluation methodologies, and tools. Conference papers are due by November 25, 2019. For more information, including conference topics, visit the conference webpage: https://lrec2020.lrec-conf.org

12th Conference on Language Resources and Evaluation

LREC 2020

FIRST CALL FOR PAPERS

Palais du Pharo Marseille, France

Main Conference: 13-14-15 May 2020

Workshops and Tutorials: 11-12-16 May 2020

Conference website: https://lrec2020.lrec-conf.org/

The European Language Resources Association (ELRA) is glad to announce the 12th edition of LREC, organised with the support of national and international organisations among which AFCP, AILC, ATALA, CLARIN, ILCB, LDC, ...

CONFERENCE AIMS LREC is the major event on Language Resources (LRs) and Evaluation for Human Language Technologies (HLT). LREC aims to provide an overview of the state-of-the-art, explore new R&D directions and emerging trends, exchange information regarding LRs and their applications, evaluation methodologies and tools, on-going and planned activities, industrial uses and needs, requirements coming from e-science and e-society, with respect both to policy issues as well as to scientific/technological and organisational ones.

LREC provides a unique forum for researchers, industrials and funding agencies from across a wide spectrum of areas to discuss issues and opportunities, find new synergies and promote initiatives for international cooperation, in support of investigations in language sciences, progress in language technologies (LT) and development of corresponding products, services and applications, and standards.

CONFERENCE TOPICS 

Issues in the design, construction and use of LRs: text, speech, sign, gesture, image, in single or multimodal/multimedia data
  • Guidelines, standards, best practices and models for LRs interoperability
  • Methodologies and tools for LRs construction and annotation
  • Methodologies and tools for extraction and acquisition of knowledge
  • Ontologies, terminology and knowledge representation
  • LRs and Semantic Web (including Linked Data, Knowledge Graphs, etc.)
  • LRs and Crowdsourcing
  • Metadata for LRs and semantic/content mark-up

Exploitation of LRs in systems and applications

  • Sign language, multimedia information and multimodal communication
  • LRs in systems and applications such as: information extraction, information retrieval, audio-visual and multimedia search, speech dictation, meeting transcription, Computer Aided Language Learning, training and education, mobile communication, machine translation, speech translation, summarisation, semantic search, text mining, inferencing, reasoning, sentiment analysis/opinion mining, etc.
  • Interfaces: (speech-based) dialogue systems, natural language and multimodal/multisensory interactions, voice-activated services, etc.
  • Use of (multilingual) LRs in various fields of application like e-government, e-participation, e-culture, e-health, mobile applications, digital humanities, social sciences, etc.
  • Industrial LRs requirements
  • User needs, LT for accessibility

LRs in the age of deep neural networks

  • Semi-supervised, weakly-supervised and unsupervised machine learning approaches
  • Representation Learning for language
  • Techniques for (semi-)automatically generating training data
  • Cross-language NLP & Cross-domain NLP with reduction of human effort

Issues in LT evaluation

  • LT evaluation methodologies, protocols and measures
  • Validation and quality assurance of LRs
  • Benchmarking of systems and products
  • Usability evaluation of HLT-based user interfaces and dialogue systems
  • User satisfaction evaluation

General issues regarding LRs & Evaluation

  • International and national activities, projects and initiatives
  • Priorities, perspectives, strategies in national and international policies for LRs
  • Multilingual issues, language coverage and diversity, less-resourced languages
  • Open, linked and shared data and tools, open and collaborative architectures
  • Replicability and reproducibility issues
  • Organisational, economical, ethical and legal issues

LREC 2020 HOT TOPICS

Less Resourced and Endangered Languages

Special attention will be devoted to less resourced and endangered languages: it is expected that LREC2020 makes room to activities carried out to support indigenous languages, building on the United Nations/UNESCO International Year of Indigenous Languages being celebrated in 2019.

Language and the Brain

Studying the neural basis of language helps in understanding both language processing and the brain mechanisms. LREC2020 will encourage all submissions addressing language and the brain. Among possible subtopics, submissions could focus on new datasets and resources (neuroimaging, controlled corpora, lexicons, etc.), methods aiming at new multimodal experimentations (e.g. EEG in virtual reality), language processing applications (e.g. brain decoding, brain-computer interfaces), etc.

Machine/Deep Learning

The availability of LRs is a key element of the development of high quality Human Language Technologies based on AI/Machine Learning approaches, and LREC is the best place to get access to this data, in many languages and for many domains. In addition to submissions addressing ML issues based on large quantities of data, those applied to languages for which only small, noisy or sparse data exist are also most welcomed.

DESCRIBE AND SHARE YOUR LRs! In addition to describing your LRs in the LRE Map – now a normal step in the submission procedure of many conferences – LREC recognises the importance of sharing resources and making them available to the community. When submitting a paper, you will be offered the possibility to share your LRs (data, tools, web-services, etc.), uploading them in a special LREC repository set up by ELRA. Your LRs will be made available to all LREC participants before the conference, to be re-used, compared, analysed. This effort of sharing LRs, linked to the LRE Map for their description, contributes to creating a common repository where everyone can deposit and share data.

PROGRAMME

The Scientific Programme will include invited talks, oral presentations, poster and demo presentations, and panels, in addition to a keynote address by the winner of the Antonio Zampolli Prize.

We will also organise an Industrial Track and a Reproducibility Track: for these there will be separate Calls.

SUBMISSIONS AND DATES

Submission of oral and poster (or poster+demo) papers: 25 November 2019

  • LREC2020 asks for full papers from pages to 8 pages (plus more pages for references if needed) , which must strictly follow the LREC stylesheet which will be available on the conference website. Papers must be submitted through the LREC2020 submission platform (it uses START from S oftconf) and will be peer-reviewed.

Submission of proposals for workshopstutorials and panels24 October 2019

  • Proposals should be submitted via an online form on the LREC website and will be reviewed by the Programme Committee.

PROCEEDINGS

The Proceedings will include both oral and poster papers, in the same format.

There is no difference in quality between oral and poster presentations. Only the appropriateness of the type of communication (more or less interactive) to the content of the paper will be considered.

LREC 2010, LREC 2012 and LREC 2014 Proceedings are included in the Thomson Reuters Conference Proceedings Citation Index. The other editions are being processed.

LREC Proceedings are indexed in Scopus (Elsevier).

Substantially extended versions of papers selected by reviewers as the most appropriate will be considered for publication in a special issue of the Language Resources and Evaluation Journal published by Springer (a SCI-indexed journal).

Any question, please write to lrec@lrec-conf.org.

 


Participation du LIS à la journée de lancement du GDR "Traitement Automatique de la Langue"

La journée inaugurale du pré-GDR sur le Traitement automatique des langues aura lieu le jeudi 14 mars 2019 à MAISON DES SCIENCES DE L’HOMME PARIS NORD sur le thème “Apprentissage, modèles linguistiques et cognitifs”. Lien vers la page

La journée inaugurale du pré-GDR sur le Traitement automatique des langues aura lieu le jeudi 14 mars 2019 à MAISON DES SCIENCES DE L’HOMME PARIS NORD sur le thème “Apprentissage, modèles linguistiques et cognitifs”. Le pré-GDR TAL est un outil d’animation de la communauté scientifique créé en 2018. La communauté TAL est secouée par un débat sur l’intérêt de la modélisation de la langue alors que nombre d’applications adoptant des méthodes statistiques et engrangeant les succès s’en émancipent, voire produisent leurs propres modèles. Cette journée présentera les travaux du groupe de travail “Apprentissage et modèles pour le TAL” et ses réflexions sur la cohabitation et la complémentarité de l’apprentissage et des modèles linguistiques. Des perspectives de ce que pourraient être les nouveaux modèles de la langue seront aussi introduites aux travers d’exposés scientifiques d’invités et discutées autour d’une table ronde à laquelle seront conviés des industriels. Les orateurs invités sont Jean Luc Schwartz (GIPSA-Lab) et Emmanuel Dupoux (LSPC). Cette journée sera aussi l’occasion de présenter le préGDR TAL, sa structuration et ses autres groupes de travail, sa gouvernance et quelques-unes de ses actions et intégrera plusieurs temps d’échange avec les participants. Comité d’organisation A. Allauzen, LIMSI TLP N. Asher, IRIT MELODI F. Bechet, LIS TALEP T. Charnois, LIPN RCNL G. Damnati, ORANGE Labs

Programme

9H Accueil 9H15 – 10H15 Session GDR TAL général 9H15 – 9H40 Intervention de Jamal ATIF – INS2I + échanges 9H40 – 10H15 Présentation du préGDR TAL : sa gouvernance, sa structure et ses groupes de travail et actions par Béatrice Daille (LS2N TALN) + échanges 10h15 Pause Café 10h30 à 12H30 Session GT1 “Apprentissage et modèles pour le TAL” 10H30-11H15 Restitution des axes de réflexion : GR1 Modèles computationnels de la langue écrite, de la langue orale et de la langue des signes GR3 Apprentissage et modélisation statistique pour le TAL GR6 Sémantique et compréhension par Nicholas Asher (IRIT MELODI), Frédéric Béchet (LIS TALEP) et Maxime Amblard (LORIA SEMMAGRAMME) 11H15-12H30 Table ronde prospective des travaux à venir du GT1 et discussions animée par Nicholas Asher (IRIT MELODI) et Frédéric Béchet (LIS TALEP) Intervenants : Alexandre Allauzen (LIMSI TLP), Jean-Francois Bonastre (LIA), Benoit Crabbé (LLF), Géraldine Damnati (Orange Labs), Guillaume Gravier (IRISA LinkMedia), Laure Soulier (LIP6 MLIA) 12h30 Buffet (Offert aux participants) 14H-16H Session Exposés invités prospectifs du GT1 14h00 Jean Luc Schwartz (GIPSA-lab PCMD)- Modélisation cognitive des unités de la parole On peut jusqu’à un certain point concevoir le langage comme une construction humaine adaptée, en un sens à définir, à nos capacités cognitives. Cette vision – qui fait débat – a comme double conséquence de proposer que les formes du langage et les principes de traitement sont eux-mêmes des produits de principes cognitifs plus généraux. C’est l’approche qui est suivie ici, dans le cadre des traitements des unités de bas niveau, « en dessous des mots » – les syllabes, les consonnes, les voyelles. J’aborderai ces questions dans le cadre computationnel de la robotique bayésienne, développé en collaboration avec mes collègues Pierre Bessière et Julien Diard ; et en lien avec les avancées expérimentales et théoriques que nous avons faites autour de l’hypothèse du « système miroir », ce système neuronal qui, dans le cerveau des primates et des humains, permet de comprendre ce que fait l’autre en le simulant mentalement. Il y aura donc des questions théoriques, des simulations bayésiennes, et des données expérimentales. 15h00 Emmanuel Dupoux (LSCP CoML) – Apprentissage non supervisé de la parole : le bébé et la machine Les systèmes de traitement automatique de la parole sont construit à partir de milliers d’heures de parole annotées plus des quantités massives de ressources textuelles. Ceci les rends difficile à déployer dans des langues dites ‘faiblement dotées’ qui ne disposent pas de telles ressources. Or, le bébé humain apprends à parler avant qu’il n’apprenne à lire et écrire. Le but de cette présentation est de passer en revue les principaux algorithmes d’apprentissage machine non supervisé appliqué à la découverte de représentations linguistiques, et qui, à l’instar du nourrisson, se passent totalement d’annotations écrites. 16h00-16H30 Discussion générale avec les participants et clôture


Recrutement Campagne Emploi 2019
6 postes d'enseignant-chercheur ouvert sur le LIS

Le LIS est laboratoire d'accueil pour 6 postes d'enseignant-chercheur à l'AMU, 2 à la Faculté des Sciences, 2 à l'IUT, 2 à l'école POLYTECH.
  • Faculté des Sciences

    • PR 27 pour le pôle CALCUL
    • MCF 27 pour le pôle Sciences des données
    •  
  • IUT

    • MCF 61 pour le pôle Signal et Image à l’IUT à Luminy
    • MCF 27 pour le pôle Calcul à l’IUT d’Arles
    •  
  • Polytech Marseille

    • PR 27 profil recherche ouvert sur les Pôles Calcul et Sciences des Données
    • PR 61/63 profil large sur le LIS, FRESNEL et l’IM2NP

Voir la rubrique EMPLOI pour les détails sur les profils


Voir la page : https://www.lis-lab.fr/offre-de-poste-pr-ou-mcf