Appel: DEFT'07

Thierry Hamon thierry.hamon at LIPN.UNIV-PARIS13.FR
Fri Feb 2 20:17:47 UTC 2007


Date: Fri, 2 Feb 2007 10:39:30 +0100
From: Hurault-Plantet Martine <mhp at limsi.fr>
Message-Id: <200702021039.30299.mhp at limsi.fr>
X-url: http://deft07.limsi.fr/
X-url: http://deft07.limsi.fr/inscription.php
X-url: http://deft07.limsi.fr/corpus-desc.php#telecharg
X-url: http://www.lri.fr/ia/fdt/DEFT05/
X-url: http://www.lri.fr/ia/fdt/DEFT06/
X-url: http://afia2007.imag.fr/
X-url: http://deft07.limsi.fr/inscription.php



[Veuillez excuser les réceptions multiples / merci de redistribuer à
toute personne intéressée]

******************************************************************
DEFT'07   Troisième Appel à participation

Atelier d'évaluation en fouille de textes sur la classification
de textes d'opinions

http://deft07.limsi.fr/

******************************************************************
Dates importantes :

Inscription : à partir du 18 décembre 2006
	    (http://deft07.limsi.fr/inscription.php)
Diffusion des corpus d'apprentissage : à partir du 4 janvier 2007
	    (http://deft07.limsi.fr/corpus-desc.php#telecharg)
Test : 3 jours entre le 19 mars et le 30 mars 2007,
       au choix de chaque équipe
Atelier : le 3 juillet lors de la plate-forme AFIA 2007

******************************************************************

L'intérêt d'une conférence d'évaluation est de permettre de
confronter, sur un même corpus, des méthodes et logiciels d'équipes
différentes. Depuis deux ans, l'atelier d'évaluation DEFT propose des
thèmes relevant de la fouille de textes en langue française.  Les deux
éditions précédentes ont été consacrées à l'identification du locuteur
d'un discours (DEFT'05 http://www.lri.fr/ia/fdt/DEFT05/) et à la
segmentation thématique de textes (DEFT'06
http://www.lri.fr/ia/fdt/DEFT06/).

DEFT'07 se tiendra début juillet dans le cadre de la plate-forme de
l'AFIA (http://afia2007.imag.fr/). Le thème de cette nouvelle édition
est la classification de textes d'opinion.

Un texte d'opinion présente un avis argumenté, positif ou négatif, sur
un sujet donné. Les domaines faisant l'objet de textes d'opinions sont
nombreux : critiques de films ou de livres, jugements qualitatifs de
produits, controverses sur un projet politique ... les exemples ne
manquent pas. Est-il possible de classer automatiquement un texte
d'opinion suivant le jugement, favorable ou défavorable, qu'il exprime
? C'est l'enjeu du défi que nous proposons.

Pour ce défi, nous avons choisi des textes d'opinion venant de
différents domaines :

    * les critiques de films, livres, spectacles et BD ;
    * les tests de jeux vidéo ;
    * les relectures d'articles de conférences,
    * les interventions des parlementaires et du gouvernement
      dans les débats sur les projets de lois votés à l'Assemblée
      nationale.

Ces textes présentent la particularité d'être associés d'emblée à un
jugement exprimé sous la forme d'une note ou d'un vote. Ce sont ces
jugements qui serviront de référence lors de l'évaluation des
résultats. A partir de ces jugements, nous avons défini pour chaque
corpus un ensemble de classes d'opinion :

    * les classes bien, moyen, mauvais, pour les corpus sur les films,
      livres, spectacles, BD, sur les jeux vidéos, et les relectures
      d'articles

    * les classes pour et contre pour le corpus sur les projets de
      lois.

La tâche des participants à DEFT'07 consistera à attribuer
automatiquement une classe d'opinion à chaque texte - critique, test,
relecture, ou intervention - de chaque corpus.

Les équipes participant à DEFT'07 devront s'inscrire à l'aide du
formulaire en ligne, et signer les accords de restriction d'usage des
corpus (http://deft07.limsi.fr/inscription.php).

Des corpus d'apprentissage sont fournis aux participants inscrits. Ces
corpus sont composés de 60% des corpus d'origine. Ils contiennent la
classe attribuée à chaque texte. Les participants ont jusqu'à la
mi-mars pour mettre en place leurs méthodes de classification sur les
corpus d'apprentissage. Seuls les corpus d'apprentissage fournis sont
autorisés pour l'entraînement à la tâche.

Les 40% de corpus restants seront utilisés pour le test. Le test aura
lieu sur une fenêtre de 15 jours, à partir de la mi-mars. A partir de
la date qu'ils auront choisie dans cet intervalle, les participants
auront trois jours pour appliquer, sur les corpus de test, les
méthodes mises en oeuvre sur les corpus d'apprentissage.

******************************************************************
Comités :

Comité d'organisation :
Co-responsables : Thomas Heitz (LRI) et Martine Hurault-Plantet
(LIMSI)
Membres : Jean-Baptiste Berthelin (LIMSI), Sarra El Ayari (LIMSI),
Cyril Grouin (LIMSI), Michèle Jardino (LIMSI), Zohra Khalis
(Epigénomique), et Michel Lastes (LIMSI), webmestre

Comité de programme :
Co-présidents : Benoît Habert (LIMSI), Patrick Paroubek (LIMSI), et
Violaine Prince (LIRMM)
Membres : Nathalie Aussenac-Gilles (IRIT), Catherine Berrut (CLIPS), 
Fabrice Clérot (France Telecom), Guillaume Cleuziou (LIFO), Béatrice
Daille (LINA), Marc El-Bèze (LIA), Patrick Gallinari (LIP6), Éric
Gaussier (Xerox Research), Thierry Hamon (LIPN), Fidélia
Ibekwe-SanJuan (URSIDOC-SII), Éric Laporte (IGM-LabInfo), Pascal
Poncelet (LGI2P), Christian Rétoré (LABRI), Christophe Roche (LISTIC),
Mathieu Roche (LIRMM), Pascale Sébillot (IRISA), Yannick Toussaint
(LORIA), François Yvon (ENST).


-------------------------------------------------------------------------
Message diffuse par la liste Langage Naturel <LN at cines.fr>
Informations, abonnement : http://www.atala.org/article.php3?id_article=48
English version       : 
Archives                 : http://listserv.linguistlist.org/archives/ln.html
                                http://liste.cines.fr/info/ln

La liste LN est parrainee par l'ATALA (Association pour le Traitement
Automatique des Langues)
Information et adhesion  : http://www.atala.org/
-------------------------------------------------------------------------



More information about the Ln mailing list