WO2023093363 - METHODS AND DEVICES FOR GAZE ESTIMATION
National phase entry:
Publication Number
WO/2023/093363
Publication Date
01.06.2023
International Application No.
PCT/CN2022/125588
International Filing Date
17.10.2022
Title **
[English]
METHODS AND DEVICES FOR GAZE ESTIMATION
[French]
PROCÉDÉS ET DISPOSITIFS D'ESTIMATION DU REGARD
Applicants **
HUAWEI TECHNOLOGIES CO., LTD.
Huawei Administration Building
Bantian, Longgang District
Shenzhen, Guangdong 518129, CN
Inventors
CHUGH, Soumil
19 Allstate Pkwy
Markham, Ontario L3R 5A4, CA
YE, Juntao
19 Allstate Pkwy
Markham, Ontario L3R 5A4, CA
Priority Data
17/536,683
29.11.2021
US
Application details
| Total Number of Claims/PCT | * |
| Number of Independent Claims | * |
| Number of Priorities | * |
| Number of Multi-Dependent Claims | * |
| Number of Drawings | * |
| Pages for Publication | * |
| Number of Pages with Drawings | * |
| Pages of Specification | * |
| * | |
| * | |
International Searching Authority |
CNIPA
* |
| Applicant's Legal Status |
Legal Entity
* |
| * | |
| * | |
| * | |
| * | |
| Entry into National Phase under |
Chapter I
* |
| Translation |
|
Recalculate
* The data is based on automatic recognition. Please verify and amend if necessary.
** IP-Coster compiles data from publicly available sources. If this data includes your personal information, you can contact us to request its removal.
Quotation for National Phase entry
| Country | Stages | Total | |
|---|---|---|---|
| China | Filing | 1297 | |
| EPO | Filing, Examination | 8051 | |
| Japan | Filing | 588 | |
| South Korea | Filing | 574 | |
| USA | Filing, Examination | 2710 |

Total: 13220 USD
The term for entry into the National Phase has expired. This quotation is for informational purposes only
Abstract[English]
Methods and systems for estimating a gaze direction of an individual using a trained neural network. Inputs to the neural network include a face image and an image of a visually significant eye in the face image. Feature representations are extracted for the face image and significant eye image and feature fusion is performed on the feature representations to generate a fused feature representation. The fused feature representation is input into a trained gaze estimator to output a gaze vector including gaze angles, the gaze vector representing a gaze direction. The disclosed network may enable gaze estimation performance on user devices typically having limited hardware and computational resources such as mobile devices.[French]
Procédés et systèmes pour estimer une direction du regard d'un individu à l'aide d'un réseau de neurones artificiels entraîné. Des entrées dans le réseau de neurones artificiels comprennent une image de visage et une image d'un œil visuellement significatif dans l'image de visage. Des représentations de caractéristiques sont extraites pour l'image de visage et une image d'œil significatif et une fusion de caractéristiques est effectuée sur les représentations de caractéristiques pour générer une représentation de caractéristiques fusionnées. La représentation de caractéristiques fusionnées est entrée dans un estimateur de regard entraîné pour délivrer en sortie un vecteur de regard comprenant des angles de regard, le vecteur de regard représentant une direction du regard. Le réseau divulgué peut permettre des performances d'estimation du regard sur des dispositifs utilisateurs ayant typiquement des ressources matérielles et informatiques limitées telles que des dispositifs mobiles.