Call for Participation:  SemEval-2010 Shared Task #7 (Argument Selection and Coercion)<br> <br>Webpage: <br><a href="http://asc-task.org/">http://asc-task.org</a> <br> <br>This shared task will be of interest to researchers working on: <br>
- Predicate-argument structure <br>- Type shifting violations and coercions <br>- Metaphor and Metonymy <br>- Creative word use <br> <br>Task Description <br> <br>This task involves identifying the compositional operations involved in <br>
argument selection. Most annotation schemes to date encoding propositional <br>or predicative content have focused on the identification of the predicate <br>type, the argument extent, and the semantic role (or label) assigned to <br>
that argument by the predicate. In contrast, this task attempts to capture <br>the 'compositional history' of the argument selection relative to the <br>predicate. In particular, this task attempts to identify the operations of <br>
type adjustment induced by a predicate over its arguments when they do not <br>match its selectional properties. The task is defined as follows: for each <br>argument of a predicate, identify whether the entity in that argument <br>
position satisfies the type expected by the predicate. If not, then one <br>needs to identify how the entity in that position satisfies the typing <br>expected by the predicate; that is, to identify the source and target types <br>
in a type-shifting (or coercion) operation. The possible relations between <br>the predicate and a given argument will, for this task, be restricted to <br>selection and coercion. <br> <br>In selection, the argument NP satisfies the typing requirements of the <br>
predicate. For example, in the sentence 'The child threw the ball', the <br>object NP 'the ball' directly satisfies the type expected by the predicate, <br>Physical Object. <br> <br>If this is not the case, then a coercion has occurred. For example, in the <br>
sentence 'The White House denied this statement.', the type expected in <br>subject position by the predicate is Human, but the surface NP is typed as <br>Location. The task is to identify both the type mismatch and the type <br>
shift; namely Location -> Human. <br> <br>Resources and Corpus Development <br> <br>The following methodology was used in the creation of the data set: (1) For <br>a chosen set of selection contexts, randomly select a set of sentences from <br>
a variety of corpora, including the BNC and other sources; (2) Identify the <br>target noun phrase in each sentence, and determine the composition type in <br>each case; (3) In cases of coercion, identify the source and target types <br>
for the semantic head of each relevant noun phrase. Double annotation and <br>adjudication is performed over the data set. <br> <br>Evaluation Methodology <br> <br>Precision and recall will be used as evaluation metrics. A scoring program <br>
will be supplied for participants. Two Subtasks will be evaluated <br>separately: (1) identifying the argument type and (2) identifying the <br>compositional operation (i.e. selection vs. coercion). This task is part of <br>
a larger effort to annotate text with compositional operations. <br> <br>Organizers: <br>James Pustejovsky, Nicoletta Calzolari, Anna Rumshisky, <br>Elisabetta Jezek, Valeria Quochi, Olga Batiukova, Jessica Moszkowicz <br>
 <br>Timeline <br>11/10/09 - Trial data for English and Italian posted <br>3/10/10 - Training data for English and Italian released <br>3/25/10 - Test data for English and Italian released <br>4/02/10 - Closing competition <br>
 <br>For more up-to-date information, please contact the organzers or see the <br>task webpage at: <br><a href="http://asc-task.org/">http://asc-task.org</a> <br> <br>Trial data is currently available now at: <br><a href="http://asc-task.org/data/trial-data">http://asc-task.org/data/trial-data</a> <br>
 <br>Training and test data will be posted according to the timeline on the SemEval-2010 website: <br><a href="http://semeval2.fbk.eu/semeval2.php">http://semeval2.fbk.eu/semeval2.php</a> <br>