Appel: Atelier "Fouille de Donnees Complexes : complexite liee aux donnees multiples et massives", FDC at EGC2013

Thierry Hamon thierry.hamon at UNIV-PARIS13.FR
Wed Oct 31 12:29:15 UTC 2012


Date: Wed, 31 Oct 2012 10:19:27 +0100
From: Guillaume Cleuziou <guillaume.cleuziou at univ-orleans.fr>
Message-ID: <5090ED1F.6090805 at univ-orleans.fr>
X-url: http://eric.univ-lyon2.fr/~gt-fdc/


*Appel à communication*

*----------------------------------------------------*
** _10ème_ édition de l'atelier **
*----------------------------------------------------*

*Fouille de données complexes*

- *complexité liée aux données multiples et massives* -

29 janvier 2013 à Toulouse, France


*Dans le cadre de la 13ème édition de la conférence internationale 
francophone EGC 2013 (http://www.irit.fr/EGC2013/).*

https://sites.google.com/site/afdc2013/

http://eric.univ-lyon2.fr/~gt-fdc/

///////////////////////////////////
*Dates importantes *
//////////////////////////////////


***Date limite de soumission : 30 Novembre 2012*
Notification aux auteurs : 17 Décembre 2012
Réception des versions finales : 11 janvier 2013
Programme préliminaire : 15 Janvier 2013

////////////////////////////////////////////////////////////////////////

Cet atelier est devenu au fil des années un lieu privilégié de rencontre
où chercheurs/industriels viennent partager leurs expériences et
expertises dans le domaine de la fouille de données complexes.

L'atelier est ouvert en termes de propositions. Nous souhaitons stimuler
particulièrement des discussions aussi bien du point de vue expérimental
que théorique, académique et industriel. Les présentations pourront
concerner aussi bien des travaux aboutis, des réflexions, que des études
préliminaires (exposant davantage des problématiques originales que des
solutions) en fouille de données complexes. Enfin, les discussions sur
les problématiques inter ou pluridisciplinaires sont également
bienvenues.



////////////////////////////////////////////////////////////////////////

*Instructions aux auteurs *

////////////////////////////////////////////////////////////////////////

Les auteurs sont invités à soumettre électroniquement leur proposition
en utilisant easychair
https://www.easychair.org/account/signin.cgi?conf=egcfdc10

*La taille des soumissions sera de 12 pages maximum*. Elle pourra être
beaucoup plus courte, en particulier pour les articles présentant un
travail qui débute ou présentation de projet de recherche.Le format
latex à utiliser est celui de la revue Revue des Nouvelles Technologie
de l'Information (RNTI) disponible pour les ateliers à l'adresse
suivante:

http://www.antsearch.univ-tours.fr/rnti/default.asp?FCT=DP&ID_PAGE=7 

///////////////////////////////////
*Description*
///////////////////////////////////

Dans tous les domaines tels que le multimédia, la télédétection,
l'imagerie médicale, les bases de données, le web sémantique, la
bio­informatique, la géomatique et bien d'autres encore, les données à
traiter pour y extraire de la connaissance sont de plus en plus
complexes, volumineuses et massives (Big Data) couvrant des téraoctets,
des pétaoctets et des zettaoctets.

Nous sommes ainsi conduits à manipuler des données souvent peu ou non
structurées :

  * issues de diverses provenances : comme des capteurs ou sources
    physiquesd'informations variées ;
  * représentant la même information à des dates différentes ;
  * regroupant différentes vues ou types d'informations (images, textes)
    ou encore denatures différentes (logs, contenu de documents,
    ontologies, etc.).
  * ayant des distributions différentes et déséquilibrées (ce qui
    devient aujourd'hui unenorme et non une exception)
  * ...

Aussi la fouille de données complexes ne doit plus être considérée comme 
un processus isolé mais davantage comme une des étapes du processus plus 
général d'extraction de connaissances dans les bases de données  (ECDB). 
En effet, avant d'appliquer des techniques de fouille de données, les 
données complexes et massives ont besoin de mise en forme et de 
structuration.Pour le deuxième année consécutive nous choisissons 
d'orienter l'atelier sur deux problématiques plus spécifiques et 
complémentaires :

  * La complexité liée aux données multiples (multi­sources,
    multi-vues,tableaux multiples, séquentielles, etc.)
  * La complexité liée aux données massives au regard des solutions
    émergentes en matière de traitements décentralisés des données ou
    des traitements massivement parallèles(cloud computing, paradigme
    type MapReduce)

Depuis bientôt quatre ans, le groupe de travail EGC « Fouille de Données
Complexes » tente de fédérer et d'animer les recherches actuelles dans
le domaine de la fouille sur données multiples. Les problématiques de
stockage et d'indexation d'une part et de traitement par des approches
probabilistes, possibilistes ou floues d'autre part ont été exposées. Il
s'agira pour cette année de poursuivre l'animation de cette thématique
et de la situer dans un nouvel environnement technique offert par les
paradigmes types MapReduce (les traitements massivement parallèles) et
le cloud computing (informatique en nuage). En effet, l'amélioration de
la performance des réseaux permet aujourd'hui d'envisager des solutions
de stockage et de traitement décentralisé des données, prenant tout leur
sens lorsque ces données proviennent de sources multiples.

Les contributions scientifiques attendues pour cet atelier pourront
correspondre à l'une ou l'autre de ces orientations avec une forte
incitation à proposer des contributions se situant à l'intersection de
ces domaines. Une liste de thèmes est donnée ci­ dessous et reste
ouverte et non limitative :

  * Pré traitement, structuration et organisation des données complexes
    et massives (Big Data)
  * Processus et méthodes de fouille de données complexes (clustering,
    bi­clustering, etc.)
  * Calculs intensifs pour la fouille de données massives (Big data)
  * Classification et fusion de données multi­sources et distribuées
  * Classification et traitement collaboratif et/ou coopératif
  * Retours d'expériences d'extraction de connaissances à partir de
    données complexes
  * Rôle des connaissances en fouille de données complexes
  * Fouille de données imprécises et/ou incertaines
  * Fouille de Données décentralisée et dématérialisée (Cloud mining)
  * Fouille de Données et les algorithmes massivement distribués

*Responsables :*

  * Guillaume Cleuziou (LIFO, Université d'Orléans)
  * Cyril de Runz (CReSTIC, Université de Reims Champagne­Ardenne)
  * Germain Forestier (MIPS, Université de Haute-Alsace)
  * Mustapha Lebbah (LIPN, Université Paris 13)

-------------------------------------------------------------------------
Message diffuse par la liste Langage Naturel <LN at cines.fr>
Informations, abonnement : http://www.atala.org/article.php3?id_article=48
English version       : 
Archives                 : http://listserv.linguistlist.org/archives/ln.html
                                http://liste.cines.fr/info/ln

La liste LN est parrainee par l'ATALA (Association pour le Traitement
Automatique des Langues)
Information et adhesion  : http://www.atala.org/
-------------------------------------------------------------------------



More information about the Ln mailing list