WO2023165817 - SEMANTIC SLAM FRAMEWORK FOR IMPROVED OBJECT POSE ESTIMATION
National phase entry:
Publication Number
WO/2023/165817
Publication Date
07.09.2023
International Application No.
PCT/EP2023/053866
International Filing Date
16.02.2023
Title **
[English]
SEMANTIC SLAM FRAMEWORK FOR IMPROVED OBJECT POSE ESTIMATION
[French]
STRUCTURE SLAM SÉMANTIQUE POUR ESTIMATION AMÉLIORÉE DE POSE D'OBJET
Applicants **
ROBERT BOSCH GMBH
Postfach 30 02 20
70442 Stuttgart, DE
Inventors
REN, Liu
19951 Blythe Court
Saratoga, CA, California 95070, US
HUANG, Xinyu
20350 Stevens Creek Blvd, Apt. 511
Cupertino, CA, California 95014, US
GUO, Yuliang
410 Sheridan Avenue, Apt. 215
Palo Alto, CA, California 94306, US
Priority Data
17/686677
04.03.2022
US
Application details
| Total Number of Claims/PCT | * |
| Number of Independent Claims | * |
| Number of Priorities | * |
| Number of Multi-Dependent Claims | * |
| Number of Drawings | * |
| Pages for Publication | * |
| Number of Pages with Drawings | * |
| Pages of Specification | * |
| * | |
| * | |
International Searching Authority |
EPO
* |
| Applicant's Legal Status |
Legal Entity
* |
| * | |
| * | |
| * | |
| * | |
| Entry into National Phase under |
Chapter I
* |
| Translation |
|
Recalculate
* The data is based on automatic recognition. Please verify and amend if necessary.
** IP-Coster compiles data from publicly available sources. If this data includes your personal information, you can contact us to request its removal.
Quotation for National Phase entry
| Country | Stages | Total | |
|---|---|---|---|
| China | Filing | 1295 | |
| EPO | Filing, Examination | 6383 | |
| Japan | Filing | 594 | |
| South Korea | Filing | 575 | |
| USA | Filing, Examination | 2710 |

Total: 11557 USD
The term for entry into the National Phase has expired. This quotation is for informational purposes only
Abstract[English]
A computer-implemented system and method for semantic localization of various objects includes obtaining an image from a camera. The image displays a scene with a first object and a second object. A first set of 2D keypoints are generated with respect to the first object. First object pose data is generated based on the first set of 2D keypoints. Camera pose data is generated based on the first object pose data. A keypoint heatmap is generated using the camera pose data. A second set of 2D keypoints is generated with respect to the second object based on the keypoint heatmap. Second object pose data is generated based on the second set of 2D keypoints. First coordinate data of the first object is generated in world coordinates using the first object pose data and the camera pose data. Second coordinate data of the second object is generated in the world coordinates using the second object pose data and the camera pose data. The first object is tracked based on the first coordinate data. The second object is tracked based on the second coordinate data.[French]
Un système et un procédé mis en œuvre par ordinateur permettant la localisation sémantique de divers objets consistent à obtenir une image à partir d'une caméra. L'image affiche une scène présentant un premier objet et un second objet. Un premier ensemble de points clés 2D est généré par rapport au premier objet. Des premières données de pose d'objet sont générées sur la base du premier ensemble de points clés 2D. Des données de pose de caméra sont générées sur la base des premières données de pose d'objet. Une carte thermique de points clés est générée au moyen des données de pose de caméra. Un second ensemble de points clés 2D est généré par rapport au second objet sur la base de la carte thermique de points clés. Des secondes données de pose d'objet sont générées sur la base du second ensemble de points clés 2D. Des premières données de coordonnées du premier objet sont générées dans des coordonnées universelles au moyen des premières données de pose d'objet et des données de pose de caméra. Des secondes données de coordonnées du second objet sont générées dans les coordonnées universelles au moyen des secondes données de pose d'objet et des données de pose de caméra. Le premier objet est suivi sur la base des premières données de coordonnées. Le second objet est suivi sur la base des secondes données de coordonnées.