<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
  <head>
    <meta http-equiv="content-type" content="text/html;
      charset=ISO-8859-1">
  </head>
  <body bgcolor="#ffffff" text="#000000">
    <br>
    <h2>Post-doc position at LIMSI-CNRS in the Spoken Language
      Processing group</h2>
    <p>A post-doc position will be proposed at LIMSI-CNRS, in the
      context of the ANR-funded CHIST-ERA CAMOMILE Project
      (Collaborative Annotation of multi-MOdal, MultI-Lingual and
      multi-mEdia documents).<br>
    </p>
    <h3>Description</h3>
    Human activity is constantly generating large volumes of
    heterogeneous data, in particular via the Web. These data can be
    collected and explored to gain new insights in social sciences,
    linguistics, economics, behavioural studies as well as artificial
    intelligence and computer sciences.<br>
    In this regard, 3M (multimodal, multimedia, multilingual) data could
    be seen as a paradigm of sharing an object of study, human data,
    between many scientific domains. But, to be really useful, these
    data should be annotated, and available in very large amounts.
    Annotated data is useful for computer sciences which process human
    data with statistical-based machine learning methods, but also for
    social sciences which are more and more using the large corpora
    available to support new insights, in a way which was not imaginable
    few years ago. However, annotating data is costly as it involves a
    large amount of manual work, and in this regard 3M data, for which
    we need to annotate different modalities with different levels of
    abstraction is especially costly. Current annotation framework
    involves some local manual annotation, with the help sometimes of
    some automatic tools (mainly pre-segmentation).<br>
    The project aims at developing a first prototype of collaborative
    annotation framework on 3M data, in which the manual annotation will
    be done remotely on many sites, while the final annotation will be
    localized on the main site. Furthermore, with the same principle,
    some systems devoted to automatic processing of the modalities
    (speech, vision) present in the multimedia data will help the
    transcription, by producing automatic annotations. These automatic
    annotations are done remotely in each expertise point, which will be
    then combined locally to produce a meaningful help to the
    annotators.<br>
    In order to develop this new annotation concept, we will test it on
    a practical case study: the problem of person annotation (who is
    speaking?, who is seen?) in video, which needs collaboration of high
    level automatic systems dealing with different media (video, speech,
    audio tracks, OCR, ...). The quality of the annotated data will be
    evaluated through the task of person retrieval.<br>
    This new way to envision the annotation process, should lead to some
    methodologies, tools, instruments and data that are useful for the
    whole scientific community who have interest in 3M annotated data.<br>
    <h3>Skills</h3>
    A PhD in a field related to the project is required.<br>
    <h3>Contacts</h3>
    <ul>
      <li>Claude Barras (<a moz-do-not-send="true"
          class="moz-txt-link-abbreviated"
          href="mailto:Claude.Barras@limsi.fr">Claude.Barras@limsi.fr</a>)</li>
      <li>Gilles Adda (<a moz-do-not-send="true"
          class="moz-txt-link-abbreviated"
          href="mailto:Gilles.Adda@limsi.fr">Gilles.Adda@limsi.fr</a>)</li>
    </ul>
    <h3>Agenda</h3>
    <ul>
      <li>Starting date:  Fall 2012</li>
      <li>Duration of the project: 36 months</li>
    </ul>
  </body>
</html>