EYEWEAR PROCESSING SIGN LANGUAGE TO ISSUE COMMANDS

Eyewear that identifies a hand gesture presenting sign language and then initiates a command indicative of the identified hand gesture. The eyewear uses a convolutional neural network (CNN) to identify the hand gesture by matching a hand motion to a set of hand gestures. The set of hand gestures is...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Hauptverfasser: MAHALINGAM, Anoosh Kruba Chandar, PUA, Jerry Jesada, JÁGER, Zsófia, POUNDS, Jennica
Format: Patent
Sprache:eng ; fre
Schlagworte:
Online-Zugang:Volltext bestellen
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Beschreibung
Zusammenfassung:Eyewear that identifies a hand gesture presenting sign language and then initiates a command indicative of the identified hand gesture. The eyewear uses a convolutional neural network (CNN) to identify the hand gesture by matching a hand motion to a set of hand gestures. The set of hand gestures is a library of hand gestures stored in a memory. The hand gestures can include static hand gestures, moving hand gestures, or both static and moving hand gestures. The eyewear identifies a command corresponding to a hand gesture or a series of hand gestures. L'invention concerne des lunettes qui identifient un geste de la main présentant une langue des signes puis initie une commande indiquant le geste de la main identifié. Les lunettes utilisent un réseau neuronal convolutif (CNN) pour identifier le geste de la main par mise en correspondance d'un mouvement de la main avec un ensemble de gestes de la main. L'ensemble de gestes de la main est une bibliothèque de gestes de la main stockée dans une mémoire. Les gestes de la main peuvent comprendre des gestes de la main statiques, des gestes de la main mobiles, ou à la fois des gestes de la main statiques et mobiles. Les lunettes identifient une commande correspondant à un geste de la main ou à une série de gestes de la main.