<html>
  <head>
    <meta http-equiv="content-type" content="text/html;
      charset=ISO-8859-15">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <meta http-equiv="content-type" content="text/html;
      charset=ISO-8859-15">
    Apologies for cross-posting!<br>
    <br>
    =======================<br>
    NLP & DBpedia Workshop 2013<br>
    =======================<br>
    Free, open, interoperable and multilingual NLP for DBpedia and
    DBpedia for NLP:<br>
    <a class="moz-txt-link-freetext" href="http://nlp-dbpedia2013.blogs.aksw.org/">http://nlp-dbpedia2013.blogs.aksw.org/</a><br>
    <br>
    Collocated with the International Semantic Web Conference 2013 (ISWC
    2013)<br>
    21-22 October 2013, in Sydney, Australia (*Submission deadline July
    8th*)<br>
    **********************************<br>
    <br>
    Recently, the DBpedia community has experienced an immense increase
    in activity and we believe, that the time has come to explore the
    connection between DBpedia & Natural Language Processing (NLP)
    in a yet unpreceded depth. The goal of this workshop can be
    summarized by this (pseudo-) formula:<br>
    <br>
    NLP & DBpedia == DBpedia4NLP && NLP4DBpedia<br>
    <a class="moz-txt-link-freetext" href="http://db0.aksw.org/downloads/CodeCogsEqn_bold2.gif">http://db0.aksw.org/downloads/CodeCogsEqn_bold2.gif</a><br>
    <br>
    DBpedia has a long-standing tradition to provide useful data as well
    as a commitment to reliable Semantic Web technologies and living
    best practices. With the rise of WikiData, DBpedia is step-by-step
    relieved from the tedious extraction of data from Wikipedia’s
    infoboxes and can shift its focus on new challenges such as
    extracting information from the unstructured article text as well as
    becoming a testing ground for multilingual NLP methods. <br>
    <br>
    Contribution<br>
    =========<br>
    Within the timeframe of this workshop, we hope to mobilize a
    community of stakeholders from the Semantic Web area.  We envision
    the workshop to produce the following items:<br>
    *   an open call to the DBpedia data consumer community will
    generate a wish list of data, which is to be generated from
    Wikipedia by NLP methods. This wish list will be broken down to
    tasks and benchmarks and a GOLD standard will be created.<br>
    *  the benchmarks and test data created will be collected and
    published under an open license for future evaluation (inspired by
    OAEI and UCI-ML).  An overview of the benchmarks can be found here:
    <a class="moz-txt-link-freetext" href="http://nlp-dbpedia2013.blogs.aksw.org/benchmarks">http://nlp-dbpedia2013.blogs.aksw.org/benchmarks</a><br>
    <br>
    Please sign up to our mailing list, if you are interested in
    discussing guidelines and NLP benchmarking:
<a class="moz-txt-link-freetext" href="http://lists.informatik.uni-leipzig.de/mailman/listinfo/nlp-dbpedia-public">http://lists.informatik.uni-leipzig.de/mailman/listinfo/nlp-dbpedia-public</a><br>
    <br>
    Important dates<br>
    ===========<br>
    8 July 2013, Paper Submission Deadline<br>
    9 August 2013, Notification of accepted papers sent to authors <br>
    <br>
    Motivation<br>
    =======<br>
    The central role of Wikipedia (and therefore DBpedia) for the
    creation of a Translingual Web has recently been recognized by the
    Strategic Research Agenda (cf. section 3.4, page 23) and most of the
    contributions of the recently held Dagstuhl seminar on the
    Multilingual Semantic Web also stress the role of Wikipedia for
    Multilingualism. As more and more language-specific chapters of
    DBpedia appear (currently 14 language editions), DBpedia is becoming
    a driving factor for a Linguistic Linked Open Data cloud as well as
    localized LOD clouds with specialized domains (e.g. the Dutch
    windmill domain ontology created from <a class="moz-txt-link-freetext" href="http://nl.dbpedia.org">http://nl.dbpedia.org</a> ).<br>
    <br>
    The data contained in Wikipedia and DBpedia have ideal properties
    for making them a controlled testbed for NLP. Wikipedia and DBpedia
    are multilingual and multi-domain, the communities maintaining these
    resource are very open and it is easy to join and contribute. The
    open license allows data consumers to benefit from the content and
    many parts are collaboratively editable.  Especially, the data in
    DBpedia is widely used and disseminated throughout the Semantic Web.
    <br>
    <br>
    NLP4DBpedia<br>
    ==========<br>
    DBpedia has been around for quite a while, infusing the Web of Data
    with multi-domain data of decent quality. These triples are,
    however, mostly extracted from Wikipedia infoboxes. To unlock the
    full potential of Wikipedia articles for DBpedia, the information
    contained in the remaining part of the articles needs to be analysed
    and triplified. Here, the NLP techniques may be of favour.<br>
    <br>
    DBpedia4NLP<br>
    ==========<br>
    On the other hand NLP, and information extraction techniques in
    particular, involve various resources while processing texts from
    various domains. These resources may be used e.g. as an element of a
    solution e.g. gazetteer being an important part of a rule created by
    an expert or disambiguation resource, or while delivering a solution
    e.g. within machine learning approaches. DBpedia easily fits in both
    of these roles.<br>
    <br>
    We invite papers from both these areas including: <br>
    1. Knowledge extraction from text and HTML documents (especially
    unstructured and semi-structured documents) on the Web, using
    information in the Linked Open Data (LOD) cloud, and especially in
    DBpedia.<br>
    2. Representation of NLP tool output and NLP resources as RDF/OWL,
    and linking the extracted output to the LOD cloud.<br>
    3. Novel applications using the extracted knowledge, the Web of Data
    or NLP DBpedia-based methods.<br>
    <br>
    The specific topics are listed below.<br>
    <br>
    Topics<br>
    =====<br>
    - Improving DBpedia with NLP methods<br>
    - Finding errors in DBpedia with NLP methods<br>
    - Annotation methods for Wikipedia articles<br>
    - Cross-lingual data and text mining on Wikipedia<br>
    - Pattern and semantic analysis of natural language, reading the
    Web, learning by reading<br>
    - Large-scale information extraction<br>
    - Entity resolution and automatic discovery of Named Entities <br>
    - Multilingual entity recognition task of real world entities<br>
    - Frequent pattern analysis of entities<br>
    - Relationship extraction, slot filling<br>
    - Entity linking, Named Entity disambiguation, cross-document
    co-reference resolution<br>
    - Disambiguation through knowledge base<br>
    - Ontology representation of natural language text<br>
    - Analysis of ontology models for natural language text<br>
    - Learning and refinement of ontologies<br>
    - Natural language taxonomies modeled to Semantic Web ontologies<br>
    - Use cases for potential data extracted from Wikipedia articles<br>
    - Use cases of entity recognition for Linked Data applications<br>
    - Impact of entity linking on information retrieval, semantic search
    <br>
    <br>
    Furthermore, an informal list of NLP tasks can be found on this
    Wikipedia page:
<a class="moz-txt-link-freetext" href="http://en.wikipedia.org/wiki/Natural_language_processing#Major_tasks_in_NLP">http://en.wikipedia.org/wiki/Natural_language_processing#Major_tasks_in_NLP</a><br>
    These are relevant for the workshop as long as they fit into the
    DBpedia4NLP  and NLP4DBpedia frame (i.e. the used data evolves
    around Wikipedia and DBpedia).<br>
    <br>
    Submission formats<br>
    ==============<br>
    <br>
    Paper submission<br>
    -----------------------<br>
    All papers must represent original and unpublished work that is not
    currently under review. Papers will be evaluated according to their
    significance, originality, technical content, style, clarity, and
    relevance to the workshop. At least one author of each accepted
    paper is expected to attend the workshop.<br>
    <br>
    * Full research paper  (up to 12 pages)<br>
    * Position papers (up to 6 pages)<br>
    * Use case descriptions (up to 6 pages)<br>
    * Data/benchmark paper (2-6 pages, depending on the size and
    complexity)<br>
    <br>
    Note: data and benchmarks papers are meant to provide a citable
    reference for your data and benchmarks. We kindly require, that you
    upload any data you use to our benchmark repository in parallel to
    the submission. We recommend to use an open license (e.g. CC-BY),
    but minimum requirement is free use. Please write to the mailing
    list, if you have any problems. <br>
    <br>
    Full instructions are available at:
    <a class="moz-txt-link-freetext" href="http://nlp-dbpedia2013.blogs.aksw.org/submission/">http://nlp-dbpedia2013.blogs.aksw.org/submission/</a><br>
    <br>
    Submission of data and use cases<br>
    --------------------------------------------<br>
    This workshop also targets non-academic users and developers. If you
    have any (open) data (e.g. texts or annotations) that can be used
    for benchmarking NLP tools, but do not want or needd to write an
    academic paper about it, please feel free to just add it to this
    table: <a class="moz-txt-link-freetext" href="http://tinyurl.com/nlp-benchmarks">http://tinyurl.com/nlp-benchmarks</a> or upload it to our
    repository: <br>
    <a class="moz-txt-link-freetext" href="http://github.com/dbpedia/nlp-dbpedia">http://github.com/dbpedia/nlp-dbpedia</a><br>
    <br>
    Full instructions are available at:
    <a class="moz-txt-link-freetext" href="http://nlp-dbpedia2013.blogs.aksw.org/benchmarks/">http://nlp-dbpedia2013.blogs.aksw.org/benchmarks/</a><br>
    <br>
    Also if you have any ideas, use cases or data requests please feel
    free to just post them on our mailing list: nlp-dbpedia-public [at]
    lists.informatik.uni-leipzig.de or send them directly to the chairs:
    nlp-dbpedia2013 [at] easychair.org<br>
    <br>
    Program committee<br>
    ==============<br>
    *  Guadalupe Aguado, Universidad Politécnica de Madrid, Spain<br>
    *  Chris Bizer, Universität Mannheim, Germany<br>
    *  Volha Bryl, Universität Mannheim, Germany<br>
    *  Paul Buitelaar, DERI, National University of Ireland, Galway<br>
    *  Charalampos Bratsas, OKFN, Greece, Αριστοτέλειο Πανεπιστήμιο
    Θεσσαλονίκης, (Aristotle  University of Thessaloniki), Greece<br>
    *  Philipp Cimiano, CITEC, Universität Bielefeld, Germany<br>
    *  Samhaa R. El-Beltagy, جامعة_النيل (Nile University), Egypt<br>
    *  Daniel Gerber, AKSW, Universität Leipzig, Germany<br>
    *  Jorge Gracia, Universidad Politécnica de Madrid, Spain<br>
    *  Max Jakob, Neofonie GmbH, Germany<br>
    *  Anja Jentzsch, Hasso-Plattner-Institut, Potsdam, Germany<br>
    *  Ali Khalili, AKSW, Universität Leipzig, Germany<br>
    *  Daniel Kinzler, Wikidata, Germany<br>
    *  David Lewis, Trinity College Dublin, Ireland<br>
    *  John McCrae, Universität Bielefeld, Germany<br>
    *  Uro¨ Milo¨ević, Institut Mihajlo Pupin, Serbia<br>
    *  Roberto Navigli, Sapienza, Università di Roma, Italy<br>
    *  Axel Ngonga, AKSW, Universität Leipzig, Germany<br>
    *  Asunción Gómez Pérez, Universidad Politécnica de Madrid, Spain<br>
    *  Lydia Pintscher, Wikidata, Germany<br>
    *  Elena Montiel Ponsoda, Universidad Politécnica de Madrid, Spain<br>
    *  Giuseppe Rizzo, Eurecom, France<br>
    *  Harald Sack, Hasso-Plattner-Institut, Potsdam, Germany<br>
    *  Felix Sasaki, Deutsches Forschungszentrum für künstliche
    Intelligenz, Germany<br>
    *  Mladen Stanojević, Institut Mihajlo Pupin, Serbia<br>
    *  Hans Uszkoreit, Deutsches Forschungszentrum für künstliche
    Intelligenz, Germany<br>
    *  Rupert Westenthaler, Salzburg Research, Austria<br>
    *  Feiyu Xu, Deutsches Forschungszentrum für künstliche Intelligenz,
    Germany<br>
    <br>
    Contact<br>
    =====<br>
    Of course we would prefer that you will post any questions and
    comments regarding NLP and DBpedia to our public mailing list at:  
    nlp-dbpedia-public [at] lists.informatik.uni-leipzig.de<br>
    <br>
    If you want to contact the chairs of the workshop directly, please
    write to: <br>
    nlp-dbpedia2013 [at] easychair.org<br>
    <br>
    Kind regards,<br>
    Sebastian Hellmann, Agata Filipowska, Caroline Barrière, <br>
    Pablo N. Mendes, Dimitris Kontokostas<br>
    <br>
    <br>
    <div class="moz-signature">-- <br>
      Dipl. Inf. Sebastian Hellmann<br>
      Department of Computer Science, University of Leipzig <br>
      Events: NLP & DBpedia 2013
      (<a class="moz-txt-link-freetext" href="http://nlp-dbpedia2013.blogs.aksw.org">http://nlp-dbpedia2013.blogs.aksw.org</a>, Deadline: *July 8th*)<br>
      Venha para a Alemanha como PhD:
      <a class="moz-txt-link-freetext" href="http://bis.informatik.uni-leipzig.de/csf">http://bis.informatik.uni-leipzig.de/csf</a><br>
      Projects: <a class="moz-txt-link-freetext" href="http://nlp2rdf.org">http://nlp2rdf.org</a> , <a class="moz-txt-link-freetext" href="http://linguistics.okfn.org">http://linguistics.okfn.org</a> ,
      <a class="moz-txt-link-freetext" href="http://dbpedia.org/Wiktionary">http://dbpedia.org/Wiktionary</a> , <a class="moz-txt-link-freetext" href="http://dbpedia.org">http://dbpedia.org</a><br>
      Homepage: <a class="moz-txt-link-freetext" href="http://bis.informatik.uni-leipzig.de/SebastianHellmann">http://bis.informatik.uni-leipzig.de/SebastianHellmann</a><br>
      Research Group: <a class="moz-txt-link-freetext" href="http://aksw.org">http://aksw.org</a><br>
    </div>
  </body>
</html>