Bandeau du Laboratoire d'Informatique & Systèmes (LIS)

Motasem Nawaf revient au LIS comme maître de conférence dans l'équipe Image et Modèles

Son projet de recherche au LIS sera axé sur les domaines de la vision par ordinateur et de la photogrammétrie. Motasem Nawaf a obtenu sa thèse en vision, image et signal, à l’université de Saint-Étienne en cotutelle avec l’Université Heriot-Watt au Royaume-Uni. Il concentre ses recherches sur les domaines de traitement d’image, la robotique sous-marine, la vision par ordinateur, et l’intelligence artificielle. Il participe à plusieurs projets nationaux et internationaux, co-encadre trois thèses, et co-rédige plus de vingt-quatre publications dans des revues et des congrès internationaux. Il enseigne au département Informatique et interactions de la faculté de sciences, dans le master Traitement du Signal et des Images. Il assure principalement des cours dans la spécialité Images Modèles et Vision (IMOVI).
  • Contact : Motasem Nawaf, équipe I&M : Images et Modèles
« La carrière d’enseignant-chercheur a toujours été mon objectif, depuis mes études de premier cycle » explique Motasem Nawaf. « J'ai surtout été attiré par la vision par ordinateur et ses domaines connexes, tels que la reconstruction 3D, le traitement d'images, l'analyse du mouvement et l'apprentissage automatique. Ma passion pour la robotique sous-marine remonte à mon stage de master, lorsque j'ai décidé avec quatre collègues d'Ocean Systems Lab à l'Université Heriot-Watt au Royaume-Uni de participer au défi SAUC-E (http://sauc-europe.org), organisé à La Spezia (Italie), au Centre de recherche sous-marin de l'OTAN (maintenant CMRE). Un défi relevé avec notre AUV (Robot sous-marin autonome). Après 8 mois de préparation, nous avons réussi les qualifications et obtenu la quatrième position sur seize équipes ». Avant sa thèse, il a suivi une formation de cinq ans en génie informatique . Motasem Nawaf a étudié dans cinq universités  (Bourgogne, Gérone, Heriot-Watt, INSA de Lyon, et Université Alep .  Après son doctorat, il a occupé un poste d'ATER à Télécom Saint Étienne, puis participé à plusieurs UE sur le traitement du signal et des images, ainsi que sur les notions fondamentales en télécommunications et en informatique. « Enseigner m'a toujours procuré une grande satisfaction » poursuit Motasem Nawaf. « J'ai d’ailleurs pratiquement toujours mené cette activité en parallèle de mes recherches. J’ai assuré des cours en troisième année de l'école d'ingénieur Polytech Marseille, et en master TSI (traitement de signal et de l’image) et en Master IS (Image et Systèmes). En 2017 et 2018, j'ai participé à l'élaboration du master TSI dans lequel on m’a confié la responsabilité de deux modules du parcours IMOVI. À l’heure actuelle, j’ai accumulé huit années d’expérience en enseignement et plus de 800 heures eq. TD ». C'est en octobre 2015 qu'il commencé à travailler au laboratoire LIS UMR 7020 (anciennement LSIS UMR 7296) à Luminy-Marseille en tant qu'ingénieur de recherche CNRS, principalement dédié au projet DGA RAPID LORI (localisation et reconnaissance d'objets immergés). En octobre 2018, il  rejoint le projet GREENEXPLORER qui vise au développement et à la modélisation de méthodes pour la photogrammétrie sous-marine dans des environnements complexes et non rigides. En 2020, il a travaillé en tant qu’ingénieur R&D en technologie pour plusieurs partenaires industriels, tels que Airbus, Philotech, et Septentrion Environnement sur des projets touchant au développement d’applications d'imagerie et d'intelligence artificielle , la détection d’objets par apprentissage profond (Deep Learning), la mesure et mise à l’échelle en temps réel avec un smartphone, le guidage par réalité augmenté temps réel, et le contrôle qualité d'objet industriel en temps réel. En début 2021, il décide de  passer le concours de maître de conférences pour un poste au sien de l’équipe I&M. Il est classé premier. Son projet de recherche au LIS ciblera les domaines de la vision par ordinateur et de la photogrammétrie. « J'associerai aux techniques de vision une composante sémantique de plus en plus indispensable dans une approche interdisciplinaire » assure-t-il « Cette composante sera issue des techniques du deep learning, mais aussi des réseaux sémantiques, les deux approches ayant déjà été abordées par l'équipe I\&M. Mes centres d'intérêts en recherche et les problématiques visées sont guidés par les besoins réels des applications (biologie, archéologie, etc.) ou même par la communication avec un public commun (visites virtuelles, enseignement des sciences). Photogrammétrie sous-marine. Les mers et les océans renferment une grande biodiversité. Ils hébergent également une grande partie du patrimoine culturel humain. Il convient de documenter les sites sous-marin (archéologiques ou de biologie marine) avec autant de détails que possible, et de mettre ces données à la disposition des archéologues, des biologistes et du grand public. La photogrammétrie sous-marine apporte une solution en permettant de reproduire en 3D les lieux de fouille. Cependant, l'absence d'une vue d'ensemble du site, et les conditions d’éclairage souvent difficiles, conduisent à mener les opérations de survol en aveugle. Pour résoudre ce type de problème, nous proposons de guider le relevé sur la base d'une approche d’odométrie visuelle,  mise en œuvre en totalité ou en partie sur un système embarqué en temps réel, qui montre approximativement les zones déjà survolées. En photogrammétrie traditionnelle, il faut prendre de nombreuses images fortement redondantes prises depuis différents points de vue. L'idée de la caméra plénoptique est de simuler un réseau bidimensionnel de petites caméras alignées, appelé Micro-lens Array (MLA). Une caméra plénoptique dispose d'une matrice de micro lentilles située en arrière de la lentille principale qui capturent la position et la direction de chaque rayon lumineux dans le champ de l’image. Ce dispositif permet de refocaliser la scène ou d'obtenir des images avec des points de vue différents, et ce, après la capture de l'image. Notre objectif est de réaliser la reconstruction d'un flux vidéo en ligne, plutôt qu'une seule prise de scène, afin d'obtenir un modèle 3D complet d’un site couvert par plusieurs images.