<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<HTML><HEAD>
<META http-equiv=Content-Type content="text/html; charset=utf-8">
<META content="MSHTML 6.00.2600.0" name=GENERATOR>
<STYLE></STYLE>
</HEAD>
<BODY bgColor=#ffffff>
<DIV><FONT face=Arial size=2>Valerie wrote:</FONT></DIV>
<DIV><FONT face=Arial size=2>.....</FONT>but wouldn't it be wonderful if we 
could sign something on a camera attached to the computer and it would turn it 
into written SignWriting? Is there "Sign Language Recognition Software" 
developed yet? I know people are working on it...if so then later we could try 
to coordinate it with SignWriting.</DIV>
<DIV> </DIV>
<DIV><FONT face=Arial size=2>Well, I know of one project something like that in 
Taiwan.  Here's an abstract of the dissertation of one Liang Rung-huei 
(whom I don't know) who appears to be doing just that.</FONT></DIV>
<DIV><FONT face=Arial size=2></FONT> </DIV>
<DIV><FONT face=Arial size=2>        - 
Wayne</FONT></DIV>
<DIV><FONT face=Arial size=2></FONT> </DIV>
<DIV><FONT face=Arial 
size=2>-----------------------------------------------</FONT></DIV>
<DIV><FONT face=Arial size=2></FONT> </DIV>
<DIV>
<P class=MsoNormal style="MARGIN: 0in 0in 0pt; TEXT-ALIGN: center" 
align=center><B style="mso-bidi-font-weight: normal">A Real-time Continuous 
Gesture Recognition System for <BR>Taiwanese Sign Language<?xml:namespace prefix 
= o ns = "urn:schemas-microsoft-com:office:office" /><o:p></o:p></B></P>
<P class=MsoNormal style="MARGIN: 0in 0in 0pt; TEXT-ALIGN: center" 
align=center>Student: <SPAN lang=ZH-TW 
style="FONT-FAMILY: PMingLiU; mso-ascii-font-family: 'Times New Roman'; mso-hansi-font-family: 'Times New Roman'">梁容輝</SPAN> 
Advisor: <SPAN lang=ZH-TW 
style="FONT-FAMILY: PMingLiU; mso-ascii-font-family: 'Times New Roman'; mso-hansi-font-family: 'Times New Roman'">歐陽明</SPAN></P>
<P class=MsoNormal style="MARGIN: 0in 0in 0pt; TEXT-ALIGN: center" 
align=center><SPAN lang=ZH-TW 
style="FONT-FAMILY: PMingLiU; mso-ascii-font-family: 'Times New Roman'; mso-hansi-font-family: 'Times New Roman'">國立臺灣大學資訊工程學研究所</SPAN></P>
<P class=MsoNormal style="MARGIN: 0in 0in 0pt; TEXT-ALIGN: center" 
align=center>Abstract</P>
<P class=MsoNormal style="MARGIN: 0in 0in 0pt"> <o:p></o:p></P><SPAN 
style="FONT-SIZE: 12pt; FONT-FAMILY: 'Times New Roman'; mso-bidi-font-size: 10.0pt; mso-fareast-font-family: PMingLiU; mso-font-kerning: 1.0pt; mso-fareast-language: ZH-TW; mso-ansi-language: EN-US; mso-bidi-language: AR-SA">In 
this dissertation, a sign language interpreter is built for Taiwanese Sign 
Language (TWL). This system is based on the fundamental vocabularies and 
training sentences in the text book of sign language used by the first grade of 
elementary schools in Taiwan. An instrumented glove, VPL’s DataGlove, is used in 
the system to capture hand configurations for real-time recognition with 
statistical approach. The major contributions of the proposed system are: (1) it 
solves the important end-point detection problem in a stream of hand motion and 
thus enables real-time continuous gesture recognition; (2) this system is the 
first one to take a full set of sign language into consideration, instead of 
focusing on a small set or a self-defined set of gestures; (3) this is the first 
system that aims at automatic recognition of Taiwanese Sign Language (TWL). To 
meet the requirements of large set of vocabularies in sign language and to 
overcome the limitations of current technologies in gesture recognition, three 
concepts in statistical language learning are proposed: segmentation, hidden 
Markov model, and grammar model. Segmentation is done by a strategy of 
monitoring time-varying parameters. Hidden Markov models are built for each 
sub-gesture model, and a bigram scheme is applied to adjacent gestures. Each 
gesture is decomposed into four sub-gesture models: posture, position, 
orientation, and motion. In TWL, there are 51 fundamental postures, 22 basic 
postions, 6 typical orientations, and about 5 motion types. The system uses 
posture sequence as a stem of input gestures and then sub-gesture models are 
recognized simultaneously. We have implemented a system that includes a lexicon 
of 250 vocabularies, and 196 training sentences in Taiwanese Sign Language 
(TWL). This system requires a training phase of postures for each user. Hidden 
Markov models (HMMs) for 51 fundamental postures, 6 orientations, and 12 motion 
primitives are implemented. The recognition rates are 95%, 90.1%, and 87.5%, for 
posture, orientation, and motion models respectively, and the recognition rate 
of an isolated gesture is 82.8% and becomes 94.8% if the decision is within top 
three candidates. A sentence of gestures based on these vocabularies can be 
continuously recognized in real-time and the average recognition rates of inside 
tests are 75.1% for phrases (in average 2.66 gestures per sentence) and 82.5% 
for sentences (in average 4.67 gestures per sentence). However, if top three 
candidates are taken into account, the recognition rates described above are 
82.5% and 86.4%, and the average recognition rate is 
84.6%.</SPAN></DIV></BODY></HTML>