<br><br><div class="gmail_quote">On Thu, Mar 10, 2011 at 11:18 AM, John F. Sowa <span dir="ltr"><<a href="mailto:sowa@bestweb.net">sowa@bestweb.net</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">

A machine learning system might learn simple grammatical patterns.<br>
But if it can't interpret pictures, it won't learn semantics.<br><font color="#888888">
<br>
</font></blockquote><div><br><br>In fact, of course, this caveat holds just as much for the naturalistic data in CHILDES as it does for a corpus of language from children's picture books. The transcripts in CHILDES let us know what was said when and by whom, but they do not include the rest (i.e. the vast majority) of the rich context in which the language is produced and interpreted. Since most of these corpora do not have video (or in many cases even audio) documentation, even if a computer could interpret pictures, it still wouldn't be able to learn semantics from these transcripts. Or at least not much semantics — something might still be inferred from a distributional analysis of lexical and grammatical constructions.<br>
<br>But a great deal (if not all) of children's lexical-conceptual knowledge is not learned through language per se, but is something they learn to map onto language, so a computational model which begins language acquisition without some (proto-)semantics in place won't be very realistic (though it might be interesting in many ways nonetheless).<br>
<br>Michael<br></div></div>