<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01//EN" "http://www.w3.org/TR/html4/strict.dtd">
<html>
<head>
</head>







<body style="background-color: #fff;">
<span style="display:none"> </span>

<!--~-|**|PrettyHtmlStartT|**|-~-->
<div id="ygrp-mlmsg" style="position:relative;">
  <div id="ygrp-msg" style="z-index: 1;">
<!--~-|**|PrettyHtmlEndT|**|-~-->

    <div id="ygrp-text" >
      
      
      <p><font size="4"><br></font><br><div class="gmail_quote"><div><div><div><font face="Calibri"><span></span><span>Dans le cadre des séminaires du Labex-EFL 2013, veuillez noter que les prochaines sessions seront assurées, en janvier 2013, par les deux professeurs invités suivants:</span><br>

<u><br></u></font></div><div><font face="Calibri"><u><br></u></font></div><div><div><div><div><div><div><ul><li><span><b><font face="Calibri" size="5"><u>Janet Fodor</u></font></b></span></li>

</ul><div><font face="Calibri"><span><b>Distinguished Professor, Graduate Center, City University of New York</b></span></font></div></div></div><div><font color="#3b3b3b" face="Calibri"><span><b><br>

</b></span></font></div><div><font face="Calibri"><b>07/01/13, 14h-16h</b><br><b>Lieu: Université Paris 7, 175 rue du Chevaleret, 75013, salle 4C92</b></font></div><div><font face="Calibri"><br></font></div></div></div></div>

<font face="Calibri"><u><span style="text-align:center;">Modeling Language Acquisition: From Math to Biology (</span><span style="text-align:center;">Joint work with William Sakas)</span></u></font></div><div><span style="font-family:Calibri;">The modern study of language learnability was founded in the 1960’s following Chomsky and Miller’s remarkable collection of papers on the formal properties of natural language, including mathematical modeling of the relations between properties of languages and properties of the grammars that generate them. The learnability studies that ensued, including the groundbreaking work by Gold (1967), were mathematical also, and hence untrammeled by any demands of psychological plausibility. For instance, under a psychological interpretation of Gold’s learning algorithm the grammar hypothesized by a learner in response to linguistic input might bear no relation to the properties of that input. By contrast, we expect that when children change their grammar hypotheses in response to a novel input sentence, the properties of that sentence guide them toward a new grammar which could incorporate it. It would be odd indeed (cause for concern!) if a child shifted from one grammar to an arbitrarily different one, just because the former proved inadequate.</span></div>

<div><font face="Calibri">For learnability theory to become a contributing partner in the modeling of real-life language learning, it therefore had to incorporate more realistic assumptions about languages and language learners. The first noteworthy study in this tradition was by Wexler & Culicover (1980). Their aim was to show that it was possible for a linguistically authentic grammar to be acquired by computational operations of a reasonably modest complexity, on the basis of a language sample consonant with the language that toddlers are exposed to. In other words, a learning model for natural language was to be developed which was computationally sound, but also psychologically feasible and in tune with current linguistic theory.<br>

No sooner had W&C completed their learnability proof than the linguistic theory that it presupposed (Chomsky’s Extended Standard Theory) was abandoned. In 1981Chomsky introduced his new Government-Binding (GB) theory, which had universal principles, and a finite collection of parameters as the means to codify cross-language syntactic differences. Chomsky was not explicit about the mechanism for setting the parameters, but he evidently regarded it as more or less automatic, instantaneous and computation-free, offering an explanation for how children acquire a rich target language in just a few years. Nevertheless, a decade passed before any parameter-setting model was computationally implemented. Moreover, the models then developed all departed from Chomsky’s original conception of triggering, by portraying learning as a process of testing out whole grammars until one is found that fits the facts of the target language. Instead of n isolated observations needed to trigger n individual parameters, these approaches require the learner to search through the vast domain of 2<sup>n</sup> grammars.<br>

In our work we have tried to hold tight to the notion of input guidance embodied in Chomsky’s original concept. We maintain that an input sentence not yet licensed by the learner’s grammar can <u>reveal</u> to the learning mechanism, without resort to extensive testing or trial-and-error, which parameter settings could license it. In the ‘Structural Triggers’ framework that we have developed, parameter values are taken to be UG-specified I-language entities in the form of ‘treelets’ (sub-structures of sentential trees), e.g., a PP node immediately dominating a preposition and a nominal trace, which would establish the positive value of the preposition-stranding parameter. Because treelets are structured entities, they aren’t directly observable in a learner’s primary linguistic data. Also, they may contain phonologically empty categories, such as the trace in the stranded-preposition treelet. What is observable by a learner is only the ‘E-trigger’ for that parameter value, e.g., a sentence with a preposition lacking an overt object. On hearing such a sentence, the learner must somehow recognize it as a manifestation of the abstractly specified I-trigger. In a structural triggers learning model (STL), this is achieved by the learner’s sentence processing mechanism (‘the parser’), assumed to be innate. The parser processes sentences in the usual fashion, applying the learner’s currently best grammar hypothesis, and upgrading it on-line if and where it finds that a new treelet is needed in order to parse an incoming sentence. In this respect, and only this, a child’s processing of sentences differs from an adult’s. This process of patching gaps in parse trees makes maximum use of the information that the input contains, and with the least wasted effort since presumably a child’s primary goal on hearing a sentence is to parse and understand it, as part of normal social interaction (What is Mommy saying to me?). Importantly, the parsing mechanism is what provides the link – notably missing in the original switch-setting metaphor – between the E-language facts available to the child and the I-language knowledge that is acquired. This concept of grammar acquisition as continuous with sentence processing fits well with the recent shift of emphasis to a conception of the language faculty as a biological organ, functioning in concert with other perceptual and conceptual systems.<br>

<font color="#1562c1"><br></font><b>09/01/13, 16h-18h</b><br><b>Lieu, ILPGA, 19 rue des bernardins, 75005, salle Mac</b></font></div><div><font face="Calibri"><b><br></b></font><div><div><div>

<div><div><font face="Calibri"><div><u><span style="text-align:center;">Center-embedded Sentences: A Phonological Challenge (</span><span style="text-align:center;">Joint research with Stefanie Nickels, McGill University)</span></u></div>

</font></div></div></div></div></div><font face="Calibri">Many explanations have been proposed for the extreme processing difficulty of doubly center-embedded relative clause (2CE-RC) constructions. We offer a phonological explanation. We maintain (i) that a sentence cannot be easily parsed and comprehended if it cannot be assigned a supportive prosodic contour, and (ii) that the flat structure of prosodic phrasing corresponds very poorly to the strongly hierarchical syntactic tree structure of 2CE-RC sentences.<br>

            Sentence (1) is a commonly cited example in the literature. (2) is from the experimental materials of Gibson & Thomas (1999). Both are typically pronounced awkwardly, with ‘list intonation’. Assigning the requisite nested syntactic structure is so difficult that such sentences are often judged more grammatical when the second VP is (ungrammatically!) omitted, as in (3). This is the ‘missing VP illusion’. <br>

(1) The boy the dog the cat scratched bit died.<br>(2) The ancient manuscript that the grad student who the new card catalog had confused <br>     a great deal was studying in the library was missing a page.<br>(3) *The ancient manuscript that the grad student who the new card catalog had <br>

     confused a great deal was missing a page.<br>However, we find that the correct nested structure [NP1 [NP2 [NP3 VP1] VP2 ] VP3] can be facilitated by a prosodic phrasing which packages the center constituents (NP2 NP3 VP1 VP2) up together. Because there are length limits on prosodic phrases, this is feasible only if the center constituents are all short, and the outer constituents (NP1 and NP2) are each long enough to constitute a separate prosodic phrase. This is the case in (4). Both intuitively and as confirmed by our experimental data, examples like (4) are easier to pronounce and to understand than examples like (5), which has the same overall sentence length but has its weight in the wrong places: skinny outer constituents and fat inner ones.<br>

(4) The rusty old ceiling pipes that the plumber my dad trained fixed continue to leak      <br>                 occasionally.   <br>(5) The pipes that the unlicensed plumber the new janitor reluctantly assisted tried to    <br>

                 repair burst.<br>It appears that the critical factor is avoidance of a prosody in which VP2 (tried to repair in (5)) breaks away as a separate prosodic phrase on its own. We believe the explanation for this is that syntax-prosody alignment is achieved by <u>syntactic</u> readjustment (Wagner 2010, Chomsky & Halle 1968, contra Selkirk 2000), creating a flatter tree structure. A prosodically separated VP2 would require (string-vacuous) extraposition of VP2 out of the relative clause it is in, but extraposition of a finite VP is illicit syntactically.<br>

<font color="#007329"><br></font><b>14/01/13, 14h-16h</b><br><b>Lieu: Université Paris 7, 175 rue du Chevaleret, 75013, salle 4C92</b></font></div><div><font face="Calibri"><br></font><div><div>

<div><div><div><font face="Calibri"><u><span style="text-align:center;">A New Mis-fit Between Grammars and </span>Parser's<span style="text-align:center;"> </span></u></font></div></div></div>

</div></div><font face="Calibri">In early days of generative grammar, the study of sentence processing suffered a disappointment: the failure of the Derivational Theory of Complexity (DTC). The number of transformational rules applied in the syntactic derivation of a sentence did not predict how difficult it was to parse. Worse still, it proved impossible to reverse the transformational component so that it would derive the correct deep structure (hence meaning) from a surface word string. Reactions to this mismatch between the linguists’ grammar and the needs of sentence processing were varied. Some linguists (Bresnan; Gazdar et al.) responded by abandoning transformational rules, turning to grammar formalisms that deliver monostratal derivations that could run equally well in any direction. Efficiently functioning parsers for several languages have been developed in these frameworks over the years; see Abeillé (1988).<br>

Within the Transformational Grammar (TG) framework, psycholinguists responded to the DTC by abandoning the aim of using the grammar as a set of directions for processing. Instead (Wanner & Kaplan; Fodor) a surface string was processed as if it were a deep structure, until that failed due to a constituent not in its underlying position (a ‘filler’ such as a wh-phrase) or an obligatory constituent absent from the word string (a ‘gap’ or trace of movement); then the parser paired up fillers and gaps guided by some (ill-defined) consultation with grammatical constraints. Many experiments filled in details (anticipation of gaps, sensitivity to islands, etc.) but this general approach remained essentially unchanged throughout the period of Government-Binding Theory.  <br>

With the advent of the Minimalist Program (MP) in the 1990s the situation worsened. One improvement from a psycholinguistic perspective was that syntactic derivations became monostratal, with movement (now copy-merge) interleaved with structure building operations. But movement and structure building were now both misaligned with sentence processing. This is because MP derivations inherently operate bottom-up, and at least in right-branching languages this means from right to left: starting at the end of a sentence. Again, a flurry of reactions to the problem. Fong (2005) created a filler-gap parser that computes MP structural representations but without direct use of an MP grammar. Chesi (2007) has reconfigured MP grammars so that they generate sentences top-down, left-to-right. Neeleman & van de Koot (2010) step away from the grammar/parser mis-fit by positing that both represent the same facts but at two different Marr-like levels of abstraction.<br>

>From the point of view of a working psycholinguist, I propose instead that the parser would build MP trees from interlocking chunks of tree structure, each chunk being the largest substructure introduced by one word of a sentence. Where do the chunks come from? The MP grammar generates complete sentential trees, which are then chopped up into these parser-friendly building blocks. One major problem remains, however. The tree chunks need to be informatively tagged so that they can be correctly stitched together by the parser, e.g., combining a chunk containing a filler with a chunk containing a gap. This is the case in other theories, such as HPSG; but in the Minimalist Program no node labels (except lexical ones) are permitted. <br>

<font color="#007329"><br></font><b>16/01/13, 16h-18h</b><br></font><div><div><div><div><div><div><font face="Calibri"><b>Lieu, ILPGA, 19 rue des bernardins, 75005, salle Mac</b></font></div>

</div></div><div><font face="Calibri"><br></font></div></div></div></div><font face="Calibri"><u>Disambiguating Triggers for Syntactic Parameters (<span style="text-align:center;">Joint work with William Sakas)</span></u><br>

Models of child language acquisition vary widely. Some presuppose innate guidance that permits rapid and largely error-free learning of syntax, while others assume statistical analysis of the linguistic input and/or trial-and-error procedures of various kinds. What type of model is capable of matching the achievements of child learners depends in large part on how ambiguous the input is with respect to the triggers (cues) for setting parameters. Ideally, each (non-default) parameter value would have an unambiguous trigger, a type of sentence uniquely compatible with that parameter setting. In reality, this seems unlikely to be true for the natural language domain. A simple example often noted: SVO word order is compatible with V2 (verb-second) grammars and with non-V2 grammars.<br>

We cannot – for obvious reasons – establish the extent of between-parameter ambiguity in the entire domain of natural languages: many of the languages in that domain are as yet unknown and unanalyzed. But we can approach the question by examining a constructed domain of languages, as much like natural languages as possible, but whose syntactic parameters and structural properties are all precisely specified. In our project, we created a domain of 3,072 languages characterized by 13 familiar syntactic parameters (head direction, null subject, etc.). We discovered unambiguous triggers for all of the non-default parameter values in all of the languages. However, in order to achieve this we had to posit a tool-kit of between-parameter priority relations to disambiguate triggers that otherwise would have been parametrically ambiguous. (This is similar to the findings of Dresher & Kaye, 1990, for phonological parameters.) The possible source of the priority relations then becomes a question of interest.<br>

 </font></div><div><font face="Calibri"><br></font></div><div><font face="Calibri"><br></font></div><div><ul><li><font face="Calibri" size="5"><b><u>Irina Sekerina</u></b></font></li></ul><div><font face="Calibri"><b><br>

</b></font></div><font face="Calibri"><span><b>Associate Professor of Psychology, College of Staten Island</b></span><br><b><span style="color:rgb(59,59,59);"><u>Thème</u></span><span style="color:rgb(59,59,59);">: “Visual World Eye-Tracking: A Lifespan Perspective</span></b></font></div>

<div><font face="Calibri"><font color="#3b3b3b"><span><br></span></font><u>Dates :</u><br><b>07/01/13, 16h-18h</b><br><b>Lieu: Université paris 7, 175 rue du Chevaleret, 75013, salle 4C92</b></font></div>

<div><font face="Calibri"><br></font><span style="font-family:Calibri;"><u>"Introduction:</u> the eye and eye movements, types of eye-trackers, eye movements in reading, Eye movements in speech: The visual World Eye-Tracking Paradigm (VWP), Practicalities of the VWP, Topics in the VWP research, The VWP Examaple: Spoken-word recognition"</span></div>

<div><font face="Calibri"><br><b>14/01/13, 16h-18h</b><br><b>Lieu: Université Paris 7, 175 rue du Chevaleret, 75013, salle 4C92</b></font></div><div><font face="Calibri"><br></font><font face="Calibri"><u>"Children:</u> Development of eye-movement control in children, The Looking-While-Listening Paradigm, The VWP and development of processing strategies in children, Topics in the VWP research with children, The VWP and SLI children"<br>

<br><b>21/01/13, 16h-18h</b><br><b>Lieu: Université paris 7, 175 rue du Chevaleret, 75013, salle 4C92</b></font></div><div><font face="Calibri"><br></font><font face="Calibri"><u>"People with Aphasia</u>: Spoken word recognition in aphasia, Processing of sentences with synthetic dependencies in aphasia"<br>

<br><b>28/01/13, 16h-18h</b><br><b>Lieu: Université Paris 7, 175 rue du Chevaleret, 75013, salle 4C92</b></font></div><div><font face="Calibri"><br><u>"Bilinguals:</u> Spoken word recognition in bilinguals (Russian-English, Dutch-English, French-English), Processing of grammatical gender in bilinguals (Spanish-English), Contrast and prosody in bilinguals (Russian-English)"<br>

Détail des séminaires en pj.<br></font></div><div></div><div></div><div><font face="Calibri"><br></font></div><br></div></div></div><br><br>
</p>

    </div>
     

    <!--~-|**|PrettyHtmlStart|**|-~-->
    <div style="color: #fff; height: 0;">__._,_.___</div>

        
  
   
    <div id="ygrp-actbar" style="clear: both; margin-bottom: 10px; white-space: nowrap; color: #666; padding-top: 15px;">
      <div>
        <a href="mailto:jacqueline.vaissiere@univ-paris3.fr?subject=Re%A0%3A%20Labex-EFL%2F%20S%E9minaires%20Janvier%202013%2F%20J%2EFodor%20et%20I%2ESekerina%3A%20dates%2C%20lieux%2C%20titres" style="margin-right: 0; padding-right: 0;">
          Répondre à <span style="font-weight: 700;">expéditeur</span></a> |
        <a href="mailto:parislinguists@yahoogroupes.fr?subject=Re%A0%3A%20Labex-EFL%2F%20S%E9minaires%20Janvier%202013%2F%20J%2EFodor%20et%20I%2ESekerina%3A%20dates%2C%20lieux%2C%20titres">
          Répondre à <span style="font-weight: 700;">groupe</span></a> |
                  <a href="http://fr.groups.yahoo.com/group/parislinguists/post;_ylc=X3oDMTJwa3Zrc2ZzBF9TAzk3NDkwNDY4BGdycElkAzMxNDkxMjQEZ3Jwc3BJZAMyMTIzODEyNTI4BG1zZ0lkAzQzNDAEc2VjA2Z0cgRzbGsDcnBseQRzdGltZQMxMzU3NDg2MDYx?act=reply&messageNum=4340">Répondre <span style="font-weight: 700;">en mode Web</span></a> |
                <a href="http://fr.groups.yahoo.com/group/parislinguists/post;_ylc=X3oDMTJlbmtxMW9sBF9TAzk3NDkwNDY4BGdycElkAzMxNDkxMjQEZ3Jwc3BJZAMyMTIzODEyNTI4BHNlYwNmdHIEc2xrA250cGMEc3RpbWUDMTM1NzQ4NjA2MQ--" style="font-weight: 700;">Nouvelle discussion</a>
      </div>

                <a href="http://fr.groups.yahoo.com/group/parislinguists/message/4328;_ylc=X3oDMTM0dXZrYnZzBF9TAzk3NDkwNDY4BGdycElkAzMxNDkxMjQEZ3Jwc3BJZAMyMTIzODEyNTI4BG1zZ0lkAzQzNDAEc2VjA2Z0cgRzbGsDdnRwYwRzdGltZQMxMzU3NDg2MDYxBHRwY0lkAzQzMjg-">Toute la discussion</a>
          (<span style="font-weight: 700;">3</span>)
          </div> 
<!------- Start Nav Bar ------>
<!-- |**|begin egp html banner|**| -->
<!-- |**|end egp html banner|**| -->

<!-- |**|begin egp html banner|**| -->
<div id="ygrp-vital" style="background-color: #e0ecee; font-family: Verdana; font-size: 10px; margin-bottom: 10px; padding: 10px;">
      <span id="vithd" style="font-weight: bold; color: #333; text-transform: uppercase; ">Activités récentes:</span>

    <ul style="list-style-type: none; margin: 0; padding: 0; display: inline;">
            <li style="border-right: 1px solid #000; font-weight: 700; display: inline; padding: 0 5px; margin-left: 0;">
      <span class="cat"><a href="http://fr.groups.yahoo.com/group/parislinguists/members;_ylc=X3oDMTJmZHYwdGJqBF9TAzk3NDkwNDY4BGdycElkAzMxNDkxMjQEZ3Jwc3BJZAMyMTIzODEyNTI4BHNlYwN2dGwEc2xrA3ZtYnJzBHN0aW1lAzEzNTc0ODYwNjE-?o=6" style="text-decoration: none;">Nouveaux membres</a></span>
      <span class="ct" style="color: #ff7900;">3</span>
    </li>
                                              </ul>
    
  <div style="clear: both; padding-top: 2px; color: #1e66ae;">
    <a href="http://fr.groups.yahoo.com/group/parislinguists;_ylc=X3oDMTJlMnUybzdwBF9TAzk3NDkwNDY4BGdycElkAzMxNDkxMjQEZ3Jwc3BJZAMyMTIzODEyNTI4BHNlYwN2dGwEc2xrA3ZnaHAEc3RpbWUDMTM1NzQ4NjA2MQ--" style="text-decoration: none;">Aller sur votre groupe</a>
  </div>
</div>

      <div id="ygrp-grfd" style="font-family: Verdana; font-size: 12px; padding: 15px 0;">
      
<!-- |**|begin egp html banner|**| -->

      Pour se desinscire, envoyer un mel à parislinguists-unsubscribe@yahoogroups.com<BR>
Pour s'inscrire, envoyer un mel à parislinguists-subscribe@yahoogroups.com      
<!-- |**|end egp html banner|**| -->

    </div>
  
<div id="ft" style="font-family: Arial; font-size: 11px; margin-top: 5px; padding: 0 2px 0 0; clear: both;">
  <a href="http://fr.groups.yahoo.com/;_ylc=X3oDMTJkcGpybGJpBF9TAzk3NDkwNDY2BGdycElkAzMxNDkxMjQEZ3Jwc3BJZAMyMTIzODEyNTI4BHNlYwNmdHIEc2xrA2dmcARzdGltZQMxMzU3NDg2MDYx" style="float: left;"><img src="http://l.yimg.com/a/i/us/yg/logo/fr.gif" height="19" width="145" alt="Yahoo! Groupes" style="border: 0;"/></a>
  <div style="color: #747575; float: right;">Passer Ã : <a href="mailto:parislinguists-traditional@yahoogroupes.fr?subject=Changer le format : Traditionnel" style="text-decoration: none;">Texte seulement</a>, <a href="mailto:parislinguists-digest@yahoogroupes.fr?subject=Messages du groupe : Résumé" class="margin-rt" style="text-decoration: none;">Résumé du jour</a> • <a href="mailto:parislinguists-desabonnement@yahoogroupes.fr?subject=Désinscription" style="text-decoration: none;">Désinscription</a> • <a href="http://fr.docs.yahoo.com/info/utos.html" style="text-decoration: none;">Conditions d’utilisation</a></div>
</div>

<!-- |**|end egp html banner|**| -->

  </div> <!-- ygrp-msg -->

  <!-- Sponsor -->
  <!-- |**|begin egp html banner|**| -->
  <div id="ygrp-sponsor" style="width:160px; float:right; clear:none; margin:0 0 25px 0; background: #fff;">

<!-- Start Recommendations -->
<div id="ygrp-reco">
     </div>
<!-- End Recommendations -->



  </div>   <!-- |**|end egp html banner|**| -->

  <div style="clear:both; color: #FFF; font-size:1px;">.</div>
</div>

  <img src="http://geo.yahoo.com/serv?s=97490468/grpId=3149124/grpspId=2123812528/msgId=4340/stime=1357486061" width="1" height="1"> <br>

<div style="color: #fff; height: 0;">__,_._,___</div>
<!--~-|**|PrettyHtmlEnd|**|-~-->

</body>

<!--~-|**|PrettyHtmlStart|**|-~-->
<head>
  <style type="text/css">
  <!--
  #ygrp-mkp {
  border: 1px solid #d8d8d8;
  font-family: Arial;
  margin: 10px 0;
  padding: 0 10px;
}

#ygrp-mkp hr {
  border: 1px solid #d8d8d8;
}

#ygrp-mkp #hd {
  color: #628c2a;
  font-size: 85%;
  font-weight: 700;
  line-height: 122%;
  margin: 10px 0;
}

#ygrp-mkp #ads {
  margin-bottom: 10px;
}

#ygrp-mkp .ad {
  padding: 0 0;
}

#ygrp-mkp .ad p {
  margin: 0;
}

#ygrp-mkp .ad a {
  color: #0000ff;
  text-decoration: none;
}
  #ygrp-sponsor #ygrp-lc {
  font-family: Arial;
}

#ygrp-sponsor #ygrp-lc #hd {
  margin: 10px 0px;
  font-weight: 700;
  font-size: 78%;
  line-height: 122%;
}

#ygrp-sponsor #ygrp-lc .ad {
  margin-bottom: 10px;
  padding: 0 0;
}

  a {
    color: #1e66ae;
  }

  #actions {
    font-family: Verdana;
    font-size: 11px;
    padding: 10px 0;
  }

  #activity {
    background-color: #e0ecee;
    float: left;
    font-family: Verdana;
    font-size: 10px;
    padding: 10px;
  }

  #activity span {
    font-weight: 700;
  }

  #activity span:first-child {
    text-transform: uppercase;
  }

  #activity span a {
    color: #5085b6;
    text-decoration: none;
  }

  #activity span span {
    color: #ff7900;
  }

  #activity span .underline {
    text-decoration: underline;
  }

  .attach {
    clear: both;
    display: table;
    font-family: Arial;
    font-size: 12px;
    padding: 10px 0;
    width: 400px;
  }

  .attach div a {
    text-decoration: none;
  }

  .attach img {
    border: none;
    padding-right: 5px;
  }

  .attach label {
    display: block;
    margin-bottom: 5px;
  }

  .attach label a {
    text-decoration: none;
  }
  
  blockquote {
    margin: 0 0 0 4px;
  }

  .bold {
    font-family: Arial;
    font-size: 13px;
    font-weight: 700;
  }

  .bold a {
    text-decoration: none;
  }

  dd.last p a {
    font-family: Verdana;
    font-weight: 700;
  }

  dd.last p span {
    margin-right: 10px;
    font-family: Verdana;
    font-weight: 700;
  }

  dd.last p span.yshortcuts {
    margin-right: 0;
  }

  div.attach-table div div a {
    text-decoration: none;
  }

  div.attach-table {
    width: 400px;
  }

  div.file-title a, div.file-title a:active, div.file-title a:hover, div.file-title a:visited {
    text-decoration: none;
  }

  div.photo-title a, div.photo-title a:active, div.photo-title a:hover, div.photo-title a:visited {
    text-decoration: none;
  }

  div#ygrp-mlmsg #ygrp-msg p a span.yshortcuts {
    font-family: Verdana;
    font-size: 10px;
    font-weight: normal;
  }

  .green {
    color: #628c2a;
  }

  .MsoNormal {
    margin: 0 0 0 0;
  }

  o {
    font-size: 0;
  }

  #photos div {
    float: left;
    width: 72px;
  }

  #photos div div {
    border: 1px solid #666666;
    height: 62px;
    overflow: hidden;
    width: 62px;
  }

  #photos div label {
    color: #666666;
    font-size: 10px;
    overflow: hidden;
    text-align: center;
    white-space: nowrap;
    width: 64px;
  }

  #reco-category {
    font-size: 77%;
  }

  #reco-desc {
    font-size: 77%;
  }

  .replbq {
    margin: 4px;
  }

  #ygrp-actbar div a:first-child {
   /* border-right: 0px solid #000;*/
    margin-right: 2px;
    padding-right: 5px;
  }

  #ygrp-mlmsg {
    font-size: 13px;
    font-family: Arial, helvetica,clean, sans-serif;
    *font-size: small;
    *font: x-small;
  }

  #ygrp-mlmsg table {
    font-size: inherit;
    font: 100%;
  }

  #ygrp-mlmsg select, input, textarea {
    font: 99% Arial, Helvetica, clean, sans-serif;
  }

  #ygrp-mlmsg pre, code {
    font:115% monospace;
    *font-size:100%;
  }

  #ygrp-mlmsg * {
    line-height: 1.22em;
  }

  #ygrp-mlmsg #logo {
    padding-bottom: 10px;
  }

  #ygrp-mlmsg a {
    color: #1E66AE;
  }

  #ygrp-msg p a {
    font-family: Verdana;
  }

  #ygrp-msg p#attach-count span {
    color: #1E66AE;
    font-weight: 700;
  }

  #ygrp-reco #reco-head {
    color: #ff7900;
    font-weight: 700;
  }

  #ygrp-reco {
    margin-bottom: 20px;
    padding: 0px;
  }

  #ygrp-sponsor #ov li a {
    font-size: 130%;
    text-decoration: none;
  }

  #ygrp-sponsor #ov li {
    font-size: 77%;
    list-style-type: square;
    padding: 6px 0;
  } 

  #ygrp-sponsor #ov ul {
    margin: 0;
    padding: 0 0 0 8px;
  }

  #ygrp-text {
    font-family: Georgia;
  }

  #ygrp-text p {
    margin: 0 0 1em 0;
  }

  #ygrp-text tt {
    font-size: 120%;
  }

  #ygrp-vital ul li:last-child {
    border-right: none !important; 
  } 
  -->
  </style>
</head>

<!--~-|**|PrettyHtmlEnd|**|-~-->
</html>
<!-- end group email -->