WO2024157094 - DEPLOYING NEURAL NETWORK MODELS ON RESOURCE-CONSTRAINED DEVICES
National phase entry is expected:
Publication Number
WO/2024/157094
Publication Date
02.08.2024
International Application No.
PCT/IB2024/050170
International Filing Date
08.01.2024
Title **
[English]
DEPLOYING NEURAL NETWORK MODELS ON RESOURCE-CONSTRAINED DEVICES
[French]
DÉPLOIEMENT DE MODÈLES DE RÉSEAU DE NEURONES SUR DES DISPOSITIFS À RESSOURCES LIMITÉES
Applicants **
SONY GROUP CORPORATION
1-7-1 Konan
Minato-ku, Tokyo 108-0075, JP
Inventors
RAO, Krishna Prasad Agara Venkatesha
c/o SISC, Embassy Tech Village (SEZ), Hibiscus (2B)
Tower 2, Devarabisanehalli, Varthur Hobli
Bangalore 560103, IN
KADAKOL, Akshay Shekhar
c/o SISC, Embassy Tech Village (SEZ), Hibiscus (2B)
Tower 2, Devarabisanehalli, Varthur Hobli
Bangalore 560103, IN
KUVALEKAR, Prajot
c/o SISC, Embassy Tech Village (SEZ), Hibiscus (2B)
Tower 2, Devarabisanehalli, Varthur Hobli
Bangalore 560103, IN
R, Ankita
c/o SISC, Embassy Tech Village (SEZ), Hibiscus (2B)
Tower 2, Devarabisanehalli, Varthur Hobli
Bangalore 560103, IN
KODE, Dev Prasad
c/o SISC, Embassy Tech Village (SEZ), Hibiscus (2B)
Tower 2, Devarabisanehalli, Varthur Hobli
Bangalore 560103, IN
Priority Data
18/160,680
27.01.2023
US
Application details
| Total Number of Claims/PCT | * |
| Number of Independent Claims | * |
| Number of Priorities | * |
| Number of Multi-Dependent Claims | * |
| Number of Drawings | * |
| Pages for Publication | * |
| Number of Pages with Drawings | * |
| Pages of Specification | * |
| * | |
| * | |
International Searching Authority |
EPO
* |
| Applicant's Legal Status |
Legal Entity
* |
| * | |
| * | |
| * | |
| * | |
| Entry into National Phase under |
Chapter I
* |
| Translation |
|
Recalculate
* The data is based on automatic recognition. Please verify and amend if necessary.
** IP-Coster compiles data from publicly available sources. If this data includes your personal information, you can contact us to request its removal.
Quotation for National Phase entry
| Country | Stages | Total | |
|---|---|---|---|
| China | Filing | 1550 | |
| EPO | Filing, Examination | 6997 | |
| Japan | Filing | 589 | |
| South Korea | Filing | 575 | |
| USA | Filing, Examination | 2710 |

Total: 12421 USD
The term for entry into the National Phase has expired. This quotation is for informational purposes only
Abstract[English]
A method for deploying neural network models on resource-constrained devices is provided. The method includes storing a model file that includes a neural network model and determining constraint information associated with deployment of the neural network model on the electronic device. The method further includes determining a partition of the neural network model based on the constraint information and the model file and extracting sub-models from the neural network model based on the partition. The method further includes receiving an input associated with a machine learning task and executing operations for loading a sub-model in a working memory of the electronic device, applying the sub-model on the input to generate an intermediate result, and unloading the sub- model from the working memory. The method further includes executing the operations for a next sub-model to generate an output and rendering the output. The intermediate result is an input for the next sub-model.[French]
L'invention concerne un procédé de déploiement de modèles de réseau de neurones sur des dispositifs à ressources limitées. Le procédé comprend le stockage d'un fichier de modèle qui comprend un modèle de réseau de neurones, et la détermination d'informations de contrainte associées au déploiement du modèle de réseau de neurones sur le dispositif électronique. Le procédé comprend en outre la détermination d'une partition du modèle de réseau de neurones sur la base des informations de contrainte et du fichier de modèle, et l'extraction de sous-modèles du modèle de réseau de neurones sur la base de la partition. Le procédé comprend en outre la réception d'une entrée associée à une tâche d'apprentissage automatique, et l'exécution d'opérations de chargement d'un sous-modèle dans une mémoire de travail du dispositif électronique, d'application du sous-modèle sur l'entrée pour générer un résultat intermédiaire, et de déchargement du sous-modèle de la mémoire de travail. Le procédé comprend en outre l'exécution des opérations pour un sous-modèle suivant pour générer une sortie, et le rendu de la sortie. Le résultat intermédiaire est une entrée pour le sous-modèle suivant.