I’m thinking about how to collect deafblind sign language (no video for privacy) examples into a data set.  One thing I could do is convert video to 3D.  If someone has already done this, let me know, otherwise I will start looking for tactile data sets.<div dir="auto"><br></div><div dir="auto">Thanks,</div><div dir="auto"><br></div><div dir="auto">John</div>