[Corpora-List] Call: workshop on CHARACTERISATION OF INTERNET CONTENT, extended deadline
Natalia Grabar
ngr at biomath.jussieu.fr
Wed Dec 17 07:43:53 UTC 2003
Bonjour,
L'appel à participation pour la Journée d'Etudes ATALA du 31/01/2004
sur le thème "CARACTÉRISATION DES CONTENUS DE L'INTERNET : AU-DELÀ DU
LEXIQUE, L'APPROCHE SÉMANTIQUE" est prolongé au 05 janvier 2004.
Les auteurs intéressés par cette thématique et qui souhaitent proposer
une intervention peuvent donc le faire jusqu'à cette date. La
notification aux auteurs sera rendue le 10 janvier 2004.
Les organisateurs
F. Rastier
N. Grabar
T. Beauvisage
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
[english version below]
Journées d'Étude de l'Association pour le Traitement Automatique des LAngues
(ATALA)
APPEL À COMMUNICATIONS
Lieu :
ENST, 46, rue Barrault, 75013 Paris, Métro : Corvisart
Date :
SAMEDI 31 JANVIER 2004
Titre :
CARACTÉRISATION DES CONTENUS DE L'INTERNET : AU-DELÀ DU LEXIQUE, L'APPROCHE SÉMANTIQUE.
Journée organisée par François Rastier (CNRS - UMR 7114, Paris X -
MoDyCo), Natalia Grabar (CRIM/INaLCO, STIM / DSI / AP-HP, Paris 6) et
Thomas Beauvisage (France Télécom R&D - DIH/UCE, Paris X - MoDyCo)
[L'appel à participation peut-être consulté sur le site de l'ATALA (www.atala.org)]
=============
Problématique
=============
Les applications de caractérisation, de détection et de traitement des
contenus Internet (Web, mail, forums...) se multiplient, soit pour
l'accès, soit pour le filtrage. Il y a là une demande sociale
croissante qui intéresse naturellement le traitement automatique du
langage : dans ce cadre, le TAL se pose comme consommateur de
contenus, mais également comme producteur d'outils qui exploitent ces
contenus. Cependant, si la masse des documents accessibles sur le Web
et des échanges via le réseau s'apparente à une mine de textes
numérisés en constante extension, le repérage, la collecte et le
traitement de ces documents posent une série de problèmes, tant au
niveau technique que théorique.
En premier lieu, le contenu textuel des documents nécessite bien
souvent d'adapter les outils de TAL (vocabulaire spécifique,
formatage, correction orthographique et grammaticale). Plus
généralement, la nature polysémiotique des contenus Web invite à
s'interroger sur la place et la pertinence d'un traitement réduit au
lexique, comme c'est fréquemment le cas. Deux exemples illustrent un
dépassement heureux du "tout lexical" :
- les moteurs de recherche ont significativement amélioré
leurs performances en exploitant finement les éléments structurels
des documents HTML (balises "keywords"...) et la structure de liens
du Web.
- dans les applications de filtrage, les mots-clé s'avèrent
très insuffisants. Ils ne constituent qu'une amorce et doivent être
exploités en combinaison avec des indices provenant d'autres
paliers linguistiques (morphologie, ponctuation, syntaxe,
...). Images, formulaires, mise en forme, évolutivité, services
proposés, structure des échanges sont autant d'éléments qui
obligent à replonger les contenus Internet dans les modes
d'activité, d'interaction et, en quelque sorte, de consommation
particuliers.
Ces problèmes appellent l'ingénierie linguistique à s'interroger plus
profondément sur l'utilisation qu'elle fait des contenus accessibles
sur Internet. Il importe de définir quels sont les éléments textuels
ou non textuels qui participent à la caractérisation des contenus
Internet, par-delà le matériel lexical, et de déterminer les outils
nécessaires à cette caractérisation. Cette journée d'étude cherchera à
faire le point sur les problèmes rencontrés, et les solutions
apportées dans différentes applications.
=========
Objectifs
=========
Cette journée d'étude a pour objectif de faire le point sur les
problèmes rencontrés par les outils de TAL pour la description et
l'exploitation des contenus disponibles sur Internet (pages et sites
du Web, mail, forums, etc.) Les difficultés concernent notamment :
- les méthodes de récupération des contenus, l'accessibilité
des contenus, les formalismes pour le stockage des informations,
etc. ;
- la sémantique des contenus Internet : contenu textuel
vs. services proposés, contenus multimédia et interactifs,
sémiotique des pages ;
- les méthodes de catégorisation : détection thématique,
catégorisation des sites et de pages, genres propres à Internet. De
manière générale, ces problèmes marquent les liens naissants entre
le TAL et l'Internet. Mais surtout, ils invitent à réfléchir sur
les apports et les limites des outils de TAL et la description des
contenus Internet.
Nous nous intéressons en particulier aux travaux qui dépassent les
analyses mono-critériales (par exemple, par mots-clé) et privilégient
l'analyse qui se situe aux différents niveaux de complexité du
document :
- à l'intérieur de l'unité ergonomique que constitue le
document : éléments textuels (lexicaux, grammaticaux, etc.),
visuels (pictogrammes, logos) et structurels (texte, péritexte) ou
autres pages (frames),
- dans le contexte proche du document : le site ou le service
proposé par la page, le réseau de pages dans lequel elle s'inscrit
(liens externes et internes, pointeurs), les scénarios d'usage dans
lesquels elle s'inscrit, etc.
- dans l'intégration intertextuelle du document à Internet
(connectivité, hypertexte).
=======================
Modalités de soumission
=======================
Les auteurs sont priés de soumettre un résumé de 2 à 4 pages de leurs
travaux en précisant :
- cadre et objectifs des travaux,
- aboutissement des travaux,
- tenants théoriques et applicatifs,
- bibliographie.
Les résumés doivent être envoyés à l'adresse suivante :
indices.internet at ml.free.fr
(l'adresse sera fermée au 01/02/2004)
Formats acceptés (dans l'ordre de préférence) : PDF, PS, TXT, DOC, RTF
Langues de présentation : français, anglais
=================
Dates importantes
=================
Réception des résumés : 05 janvier 2004
Notification d'acceptation : 10 janvier 2004
Journée d'étude : 31 janvier 2004
<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
Workshops of the Association pour le Traitement Automatique des LAngues
(ATALA)
CALL FOR SUBMISSIONS
Location:
ENST, 46, rue Barrault, 75013 Paris, Métro : Corvisart
Date:
SATURDAY JANUARY 31TH, 2004
Subject:
CHARACTERISATION OF INTERNET CONTENT: BEYOND KEYWORDS, SEMANTIC APPROACH.
Workshop organised by François Rastier (CNRS - UMR 7114, Paris X -
MoDyCo), Natalia Grabar (CRIM/INaLCO, STIM / DSI / AP-HP, Paris 6) and
Thomas Beauvisage (France Télécom R&D - DIH/UCE, Paris X - MoDyCo)
[This call for submissions is also available on the ATALA website (www.atala.org)]
======
Issues
======
Applications related to characterisation, detection and processing of
Internet content (Web, mail, fora, ...) are ever more numerous, both
in relation to Internet access and content filtering. Therefore, there
exists a real social need which is direclty related to NLP techniques:
NLP appears here as the user of Internet content, but also as the
developer of tools for the content processing. But while all documents
available on the Web and network exchanges (mails, web discussion
fora, ...) make up a digitised text repository that is constantly
expanding, their detection, collection and processing raise a series
of technical and theoretical problems.
First of all, NLP tools have to be adapted to the lexical content of
Internet documents (specific vocabulary, formatting, check spelling,
grammatical correction). More generally, the poly-semiotic nature of
Web content raises questions about the relevance of lexicon-specific
content processing. Two examples can help us realise the usefulness of
going beyond lexical approaches:
- search engines have significantly improved their
performances with the exploitation of structural elements of HTML
pages ("keywords" tags, ...) and Web links.
- in filtering applications, key-words seem to be
insufficient. They make up a baseline and have to be combined with
other types of features (morphology, punctuation, syntax, etc.).
Pictures, formularies, layout, evolutivity, services offered, exchange
structures are some other elements which require considering Internet
content as a specific activity, with its own interaction modes and its
specific user-centered rules.
Because of these problems, computational linguistics has to study
further the use of Internet content. It is then important to define
which textual and non-textual elements -going beyond merely lexical
material- participate in the characterisation of Internet content and
which kinds of tools are useful to bring this characterisation to
light. This workshop is organised to point to existing problems and
current solutions in different applications.
==========
Objectives
==========
This workshop is organised to point to existing problems faced by NLP
tools for the description and use of material available on the
Internet (Web pages and sites, mail, fora, instant mail, etc). Such
problems concerns in particular:
- methods for content collection, accessibility of content,
formalisms for information storage, etc.
- the semantics of Internet content: textual content
vs. services offered, multimedia and interactive content, semiotics
of web pages;
- categorisation methods: topic detection, categorisation of
sites and pages, Internet-specific genres.
Globally speaking, these problems reveal new links between NLP and the
Internet. On the same time, because of these problems, computational
linguistics has to study further the benefits and limitations of NLP
tools for the description and use of Internet content.
We are particularly interested in work which goes beyond the
single-criterion analysis (i.e. keywords) and offers an analysis which
takes into account different organisational levels of the document:
- inside the ergonomic unity of the document: textual
(lexical, grammatical, etc.), visual (pictures, logos),
structural (text, peritext) or other elements (frames),
- the environment of the document: the sites or the services
proposed within the document, the network of pages which the
document is part of (internal, external links, anchors), the usage
scenarii in which the document exists, etc.
- in the intertextual integration of the document on the
Internet (connectivity, hypertext).
==========
Submission
==========
Interested authors can send a 2-to-4-page abstract of their work,
providing the
following information:
- research objectives and application fields,
- stage of research work,
- theoretical and practical research-related issues,
- bibliography.
Abstracts have to be sent to the following e-mail address:
indices.internet at ml.free.fr
(this adress will be close on Feb. 1st 2004.
Accepted document formats (in preference order): PDF, PS, TXT, DOC, RTF
Official languages: French, English
===============
Important dates
===============
Submission: January 05, 2003
Notification: January 10, 2004
Workshop: January 31, 2004
<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<
More information about the Corpora
mailing list