<html><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; ">[apologies for multiple copies]<br><br>ICMI WORKSHOP ON MULTIMODAL CORPORA FOR MACHINE LEARNING<br>Taking Stock and Roadmapping the Future<br>Alicante, Spain, November 18, 2011<br><br>Organizers Dirk Heylen, Patrizia Paggio, Michael Kipp<br><br>Scope<br>A Multimodal Corpus involves the recording, annotation and analysis of <br>several communication modalities such as speech, hand gesture, facial <br>expression, body posture, etc. As many research areas are moving from <br>focused but single modality research to fully-fledged multimodality <br>research, multimodal corpora are becoming a core research asset and an <br>opportunity for an interdisciplinary exchange of ideas, concepts and <br>data. The number of publicly available multimodal corpora is constantly <br>growing as is the interest in studying multimodal communication by <br>machines and through machines. However, this does not mean that it <br>becomes easier to find an appropriate corpus for a task. The <br>construction of a corpus is consuming a high amount of resources <br>(timewise and moneywise) and most corpora are built for a specific <br>application in a specific project.<br><br>This workshop follows similar events held at LREC 00, 02, 04, 06, 08 and <br>10. This year the special topic of this workshop concerns taking stock <br>and roadmapping the future. The workshop addresses producers and users <br>of multimodal corpora - the ICMI community in particular - and brings <br>them together to take stock of the current state of affairs in the use <br>and production of multimodal corpora (in particular for machine <br>learning) and to identify needs and requirements for improvements and <br>for new initiatives.  Questions include: What are the major limitations <br>of current corpora? What are best practices? What are the major <br>obstacles to progress and how can they be circumpassed? How do <br>technologies that aid in constructing corpora (annotation software, <br>capturing hardware and software) need to be improved? Are there problems <br>with the dissemination and exploitation of corpora and if so, how can <br>they be solved?<br><br>Other topics to be addressed include but are not limited to:<br>* Machine learning applied to multimodal data<br>* Methods, tools, and best practices for the acquisition, creation, <br>management, access,<br>* distribution, and use of multimedia and multimodal corpora, including <br>crowd-sourcing<br>* Multimodal corpus collection activities (e.g. emotional behaviour, <br>human-avatar interaction, human-robot interaction, etc.) and <br>descriptions of existing multimodal resources<br>* Relations between modalities in natural (human) interaction and in <br>human-computer interaction<br>* Multimodal interaction in specific scenarios, e.g. group interaction <br>in meetings<br>* Coding schemes for the annotation of multimodal corpora<br>* Collaborative coding<br>* Evaluation and validation of multimodal annotations<br>* Interoperability between multimodal annotation tools (exchange <br>formats, conversion tools, standardization)<br>* Metadata descriptions of multimodal corpora<br>* Automatic annotation, based e.g. on motion capture or image <br>processing, and the integration with manual annotations<br>* Corpus-based design of multimodal and multimedia systems, in <br>particular systems that involve human-like modalities either in input <br>(Virtual Reality, motion capture, etc.) and output (virtual characters)<br>* Automated multimodal fusion and/or generation (e.g., coordinated <br>speech, gaze, gesture, facial expressions)<br><br>Important dates:<br>Submissions due: July 8, 2011<br>Notification of Acceptance: August 1, 2011<br>Camera ready paper due: August 28, 2011<br>Workshop: November 18, 2011<br><br>Submissions<br>Submissions should be sent to: heylen at ewi.utwente.nl<br>Papers can be from 4 to 6 pages long.<br>The paper format is the same as ICMI. The workshop papers will be <br>included in a USB stick. The workshop is planned to result in a <br>follow-up publication.<br><br>Workshop website: <a href="http://www.multimodal-corpora.org/">http://www.multimodal-corpora.org/</a><br>ICMI website: <a href="http://www.acm.org/icmi/2011/">http://www.acm.org/icmi/2011/</a><br><div apple-content-edited="true"> <span class="Apple-style-span" style="border-collapse: separate; color: rgb(0, 0, 0); font-family: Helvetica; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-align: auto; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-border-horizontal-spacing: 0px; -webkit-border-vertical-spacing: 0px; -webkit-text-decorations-in-effect: none; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; font-size: medium; "><div>____________________________</div><div><br></div><div>Patrizia Paggio</div><div>Senior researcher</div><div>University of Copenhagen</div><div>Centre for Language Technology (CST)</div><div>Njalsgade 140, build. 25</div><div>DK-2300 Copenhagen S</div><div>email: <a href="mailto:paggio@hum.ku.dk">paggio@hum.ku.dk</a></div><div>web: ww.cst.dk/patrizia</div><div>phone: +45 35329072</div><div>fax: +45 35329089</div><div><br></div></span><br class="Apple-interchange-newline"><span><img height="112" width="240" src="cid:E44DFAD2-DAB1-41BE-93B1-87533C198D22"></span> </div><br></body></html>