<div>I agree with Shane. The various sign language transcription schemes are used in the same way as transcriptions schemes for English. SW is closer to English words; HamNoSys/Stokoe akin to the International Phonetic Alphabet used in dictionary entries. While it can be done writing an entire or lengthy discourse in IPA (HamNoSys or Stokoe) would be really tedious. SW is easier. But like written English none of our schemes adequately reflect speakers affect.<br>
<br></div>
<div class="gmail_quote">On Wed, May 26, 2010 at 10:40 PM, Shane Gilchrist <span dir="ltr"><<a href="mailto:shane.gilchrist@gmail.com">shane.gilchrist@gmail.com</a>></span> wrote:<br>
<blockquote style="BORDER-LEFT: #ccc 1px solid; MARGIN: 0px 0px 0px 0.8ex; PADDING-LEFT: 1ex" class="gmail_quote">
<div dir="ltr">Charles, 
<div><br></div>
<div>SignWriting was designed for people to write and read.</div>
<div><br></div>
<div>HamNoSys is now geared towards machine translation - they just write phonological units etc - SW can do that if needed to.</div>
<div><br></div>
<div>A deaf HamNoSys transcriber was saying to me that its EASY to write HamNoSys but very difficult to read. In some cases, its only the writer who can understand what he transcribed (!) (and of course the machine itself)</div>

<div><br></div>
<div>Sx<br><br>
<div class="gmail_quote">On 26 May 2010 23:00, Charles Butler <span dir="ltr"><<a href="mailto:chazzer3332000@yahoo.com" target="_blank">chazzer3332000@yahoo.com</a>></span> wrote:<br>
<blockquote style="BORDER-LEFT: #ccc 1px solid; MARGIN: 0px 0px 0px 0.8ex; PADDING-LEFT: 1ex" class="gmail_quote">
<div>
<div style="FONT-FAMILY: arial, helvetica, sans-serif; FONT-SIZE: 12pt">
<div>HamNoSys from my understanding, is like Stokoe, it is a linear exposition of Sign Languages, not based on their actual appearance in space, which Sign Writing does.  The only way to change minds and hearts is to show TISLR, as we are doing in October, with poster sessions and other methodologies, actual linguistic research using both databases and exposition.  </div>

<div> </div>
<div>We are dealing with inertia here, and a real culture of denial that a writing system can actually work.  It will take your groundbreaking work and the work of users like Fernando Capovilla in Brazil to turn that around, and that with so many piles of literature that it cannot be ignored.</div>

<div> </div>
<div>Publish, publish, publish, the overwhelming evidence will change the culture.</div>
<div> </div>
<div>Charles Butler Neto</div>
<div>ASL and Libras user. </div>
<div><br> </div>
<div style="FONT-FAMILY: arial, helvetica, sans-serif; FONT-SIZE: 12pt"><br>
<div style="FONT-FAMILY: arial, helvetica, sans-serif; FONT-SIZE: 13px"><font size="2" face="Tahoma">
<hr size="1">
<b><span style="FONT-WEIGHT: bold">From:</span></b> MARIA AZZOPARDI <<a href="mailto:maria.azzopardi@UM.EDU.MT" target="_blank">maria.azzopardi@UM.EDU.MT</a>><br><b><span style="FONT-WEIGHT: bold">To:</span></b> <a href="mailto:SW-L@LISTSERV.VALENCIACC.EDU" target="_blank">SW-L@LISTSERV.VALENCIACC.EDU</a><br>
<b><span style="FONT-WEIGHT: bold">Sent:</span></b> Wed, May 26, 2010 4:45:08 PM<br><b><span style="FONT-WEIGHT: bold">Subject:</span></b> Re: Data exchange with SignPuddle Markup Language<br></font>
<div>
<div></div>
<div><br>Dear Steve, Val and all the list,<br>I attended the LREC 2010 and I must say I was slightly disappointed at the<br>very low use of SignWriting in Computer Sign Language linguists. There<br>were some researchers that told me they considered SignWriting, but opted<br>
for HanNoSys. It would be ideal if SignWriting were used, I thought, but I<br>probably can't understand the technicalities, as computers are not my<br>area.<br>Could you explain why the situation is so.<br>Thank you very much,<br>
Maria<br><br>> Hi Bill,<br>><br>> In SignPuddle Markup Language, there are 3 main parts of information:<br>> terms, text, and source.  SignWriting can be used in each.  The voice<br>> language items are defined the same as sign language items.<br>
><br>> However, by convention, I will be using voice language items differently<br>> than sign language items.<br>><br>> The voice language items will use UTF-8.  This will be straight<br>> character data, so I'm wrapping the entires as a CDATA block to avoid<br>
> parsing.<br>><br>> The sign language items will use BSW as hexadecimal.  I still need to<br>> decide if terms can be one than one sign.  This will determine if terms<br>> are edited with SignMaker or SignText.  I need to decide the same for<br>
> the source: one sign only, or more than one sign.<br>><br>> For the ultimate in flexibility, I could have the sign language items<br>> use UTF-8; the same as the voice language sections.  I would need to<br>
> encode the Binary SignWriting using the UTF-8 I propose with the plane 4<br>> solution.  This way, we could mix sign language with HTML markup and<br>> other spoken languages.  However, this encoding is not approved by the<br>
> Unicode consortium so it may be considered bad manners to start using<br>> plane 4 without their approval.<br>><br>> Either way I go, I will not need to update the SPML DTD definition.  You<br>> can see that I am not limiting the terms, text, or source.<br>
> <a href="http://www.signpuddle.net/spml.dtd" target="_blank">http://www.signpuddle.net/spml.dtd</a><br>><br>> Here's an abbreviated definition<br>> <!ELEMENT spml (entry+)><br>> <!ELEMENT entry (item+)><br>
> <!ELEMENT item (term*,text?,src?)><br>> <!ELEMENT term (#PCDATA)><br>> <!ELEMENT text (#PCDATA)><br>> <!ELEMENT src (#PCDATA)><br>><br>> + one or more<br>> * zero or more<br>
> ? zero or one<br>><br>> Regards,<br>> -Steve<br>><br>><br><br></div></div></div></div></div></div></blockquote></div><br></div></div></blockquote></div><br><br clear="all"><br>-- <br>Regards, Trevor.<br>
<br><>< Re: deemed!<br>