PERFORMING SYNCHRONIZATION IN THE BACKGROUND FOR HIGHLY SCALABLE DISTRIBUTED TRAINING

In one embodiment, a method for training a machine-learning model having multiple parameters includes instantiating trainers each associated with at least a worker thread, a synchronization thread, and a local version of the parameters, using the worker threads to perform training operations that co...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Hauptverfasser: YANG, Jiyan, SU, Bor-Yiing, JIN, Ou, ZHENG, Qinqing, AZZOLINI, Alisson Gusatti, WU, Qiang
Format: Patent
Sprache:eng ; fre
Schlagworte:
Online-Zugang:Volltext bestellen
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
container_end_page
container_issue
container_start_page
container_title
container_volume
creator YANG, Jiyan
SU, Bor-Yiing
JIN, Ou
ZHENG, Qinqing
AZZOLINI, Alisson Gusatti
WU, Qiang
description In one embodiment, a method for training a machine-learning model having multiple parameters includes instantiating trainers each associated with at least a worker thread, a synchronization thread, and a local version of the parameters, using the worker threads to perform training operations that comprise generating an updated local version of the parameters for each trainer using its associated worker thread, while the worker threads are performing training operations, using the synchronization threads to perform synchronization operations that comprise generating a global version of the parameters based on the updated local versions of the parameters and generating a synchronized local version of the parameters for each trainer based on the global version, continuing performing training operations based on the synchronized local versions of the parameters, and determining the parameters at the end of training based on at least a final local version of the parameters associated with one trainer. Selon un mode de réalisation de l'invention, un procédé d'entraînement d'un modèle d'apprentissage automatique comprenant de multiples paramètres comprend les étapes consistant à instancier des entraîneurs dont chacun est associé à au moins un fil exécutant, un fil de synchronisation, et une version locale des paramètres, utiliser les fils exécutants pour effectuer des opérations d'entraînement qui comprennent la génération d'une version locale mise à jour des paramètres pour chaque entraîneur à l'aide du fil exécutant qui lui est associé, tandis que les fils exécutants effectuent des opérations d'entraînement, utiliser les fils de synchronisation pour effectuer des opérations de synchronisation qui comprennent la génération d'une version globale des paramètres d'après les versions locales mises à jour des paramètres et la génération d'une version locale synchronisée des paramètres pour chaque entraîneur d'après la version globale, continuer à effectuer des opérations d'entraînement d'après les versions locales synchronisées des paramètres, et déterminer les paramètres à la fin de l'entraînement d'après au moins une version locale finale des paramètres associée à un des entraîneurs.
format Patent
fullrecord <record><control><sourceid>epo_EVB</sourceid><recordid>TN_cdi_epo_espacenet_WO2022035587A1</recordid><sourceformat>XML</sourceformat><sourcesystem>PC</sourcesystem><sourcerecordid>WO2022035587A1</sourcerecordid><originalsourceid>FETCH-epo_espacenet_WO2022035587A13</originalsourceid><addsrcrecordid>eNqNzLsKwjAUgOEsDqK-wwFnobYUXXNrcrCeSC5IXUqROIkW6vtjBx_A6V8-_iVLF-0b589IBkJH0npHeOMRHQESRKtBcHky3iVSMEuwaGzbQZC85aLVoDBEjyJFrSB6jjSv1mzxGJ5T3vy6YttGR2l3eXz3eRqHe37lT391ZVGWRVXXxwPfV_-pL1jzMbU</addsrcrecordid><sourcetype>Open Access Repository</sourcetype><iscdi>true</iscdi><recordtype>patent</recordtype></control><display><type>patent</type><title>PERFORMING SYNCHRONIZATION IN THE BACKGROUND FOR HIGHLY SCALABLE DISTRIBUTED TRAINING</title><source>esp@cenet</source><creator>YANG, Jiyan ; SU, Bor-Yiing ; JIN, Ou ; ZHENG, Qinqing ; AZZOLINI, Alisson Gusatti ; WU, Qiang</creator><creatorcontrib>YANG, Jiyan ; SU, Bor-Yiing ; JIN, Ou ; ZHENG, Qinqing ; AZZOLINI, Alisson Gusatti ; WU, Qiang</creatorcontrib><description>In one embodiment, a method for training a machine-learning model having multiple parameters includes instantiating trainers each associated with at least a worker thread, a synchronization thread, and a local version of the parameters, using the worker threads to perform training operations that comprise generating an updated local version of the parameters for each trainer using its associated worker thread, while the worker threads are performing training operations, using the synchronization threads to perform synchronization operations that comprise generating a global version of the parameters based on the updated local versions of the parameters and generating a synchronized local version of the parameters for each trainer based on the global version, continuing performing training operations based on the synchronized local versions of the parameters, and determining the parameters at the end of training based on at least a final local version of the parameters associated with one trainer. Selon un mode de réalisation de l'invention, un procédé d'entraînement d'un modèle d'apprentissage automatique comprenant de multiples paramètres comprend les étapes consistant à instancier des entraîneurs dont chacun est associé à au moins un fil exécutant, un fil de synchronisation, et une version locale des paramètres, utiliser les fils exécutants pour effectuer des opérations d'entraînement qui comprennent la génération d'une version locale mise à jour des paramètres pour chaque entraîneur à l'aide du fil exécutant qui lui est associé, tandis que les fils exécutants effectuent des opérations d'entraînement, utiliser les fils de synchronisation pour effectuer des opérations de synchronisation qui comprennent la génération d'une version globale des paramètres d'après les versions locales mises à jour des paramètres et la génération d'une version locale synchronisée des paramètres pour chaque entraîneur d'après la version globale, continuer à effectuer des opérations d'entraînement d'après les versions locales synchronisées des paramètres, et déterminer les paramètres à la fin de l'entraînement d'après au moins une version locale finale des paramètres associée à un des entraîneurs.</description><language>eng ; fre</language><subject>CALCULATING ; COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS ; COMPUTING ; COUNTING ; PHYSICS</subject><creationdate>2022</creationdate><oa>free_for_read</oa><woscitedreferencessubscribed>false</woscitedreferencessubscribed></display><links><openurl>$$Topenurl_article</openurl><openurlfulltext>$$Topenurlfull_article</openurlfulltext><thumbnail>$$Tsyndetics_thumb_exl</thumbnail><linktohtml>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20220217&amp;DB=EPODOC&amp;CC=WO&amp;NR=2022035587A1$$EHTML$$P50$$Gepo$$Hfree_for_read</linktohtml><link.rule.ids>230,308,780,885,25564,76547</link.rule.ids><linktorsrc>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20220217&amp;DB=EPODOC&amp;CC=WO&amp;NR=2022035587A1$$EView_record_in_European_Patent_Office$$FView_record_in_$$GEuropean_Patent_Office$$Hfree_for_read</linktorsrc></links><search><creatorcontrib>YANG, Jiyan</creatorcontrib><creatorcontrib>SU, Bor-Yiing</creatorcontrib><creatorcontrib>JIN, Ou</creatorcontrib><creatorcontrib>ZHENG, Qinqing</creatorcontrib><creatorcontrib>AZZOLINI, Alisson Gusatti</creatorcontrib><creatorcontrib>WU, Qiang</creatorcontrib><title>PERFORMING SYNCHRONIZATION IN THE BACKGROUND FOR HIGHLY SCALABLE DISTRIBUTED TRAINING</title><description>In one embodiment, a method for training a machine-learning model having multiple parameters includes instantiating trainers each associated with at least a worker thread, a synchronization thread, and a local version of the parameters, using the worker threads to perform training operations that comprise generating an updated local version of the parameters for each trainer using its associated worker thread, while the worker threads are performing training operations, using the synchronization threads to perform synchronization operations that comprise generating a global version of the parameters based on the updated local versions of the parameters and generating a synchronized local version of the parameters for each trainer based on the global version, continuing performing training operations based on the synchronized local versions of the parameters, and determining the parameters at the end of training based on at least a final local version of the parameters associated with one trainer. Selon un mode de réalisation de l'invention, un procédé d'entraînement d'un modèle d'apprentissage automatique comprenant de multiples paramètres comprend les étapes consistant à instancier des entraîneurs dont chacun est associé à au moins un fil exécutant, un fil de synchronisation, et une version locale des paramètres, utiliser les fils exécutants pour effectuer des opérations d'entraînement qui comprennent la génération d'une version locale mise à jour des paramètres pour chaque entraîneur à l'aide du fil exécutant qui lui est associé, tandis que les fils exécutants effectuent des opérations d'entraînement, utiliser les fils de synchronisation pour effectuer des opérations de synchronisation qui comprennent la génération d'une version globale des paramètres d'après les versions locales mises à jour des paramètres et la génération d'une version locale synchronisée des paramètres pour chaque entraîneur d'après la version globale, continuer à effectuer des opérations d'entraînement d'après les versions locales synchronisées des paramètres, et déterminer les paramètres à la fin de l'entraînement d'après au moins une version locale finale des paramètres associée à un des entraîneurs.</description><subject>CALCULATING</subject><subject>COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS</subject><subject>COMPUTING</subject><subject>COUNTING</subject><subject>PHYSICS</subject><fulltext>true</fulltext><rsrctype>patent</rsrctype><creationdate>2022</creationdate><recordtype>patent</recordtype><sourceid>EVB</sourceid><recordid>eNqNzLsKwjAUgOEsDqK-wwFnobYUXXNrcrCeSC5IXUqROIkW6vtjBx_A6V8-_iVLF-0b589IBkJH0npHeOMRHQESRKtBcHky3iVSMEuwaGzbQZC85aLVoDBEjyJFrSB6jjSv1mzxGJ5T3vy6YttGR2l3eXz3eRqHe37lT391ZVGWRVXXxwPfV_-pL1jzMbU</recordid><startdate>20220217</startdate><enddate>20220217</enddate><creator>YANG, Jiyan</creator><creator>SU, Bor-Yiing</creator><creator>JIN, Ou</creator><creator>ZHENG, Qinqing</creator><creator>AZZOLINI, Alisson Gusatti</creator><creator>WU, Qiang</creator><scope>EVB</scope></search><sort><creationdate>20220217</creationdate><title>PERFORMING SYNCHRONIZATION IN THE BACKGROUND FOR HIGHLY SCALABLE DISTRIBUTED TRAINING</title><author>YANG, Jiyan ; SU, Bor-Yiing ; JIN, Ou ; ZHENG, Qinqing ; AZZOLINI, Alisson Gusatti ; WU, Qiang</author></sort><facets><frbrtype>5</frbrtype><frbrgroupid>cdi_FETCH-epo_espacenet_WO2022035587A13</frbrgroupid><rsrctype>patents</rsrctype><prefilter>patents</prefilter><language>eng ; fre</language><creationdate>2022</creationdate><topic>CALCULATING</topic><topic>COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS</topic><topic>COMPUTING</topic><topic>COUNTING</topic><topic>PHYSICS</topic><toplevel>online_resources</toplevel><creatorcontrib>YANG, Jiyan</creatorcontrib><creatorcontrib>SU, Bor-Yiing</creatorcontrib><creatorcontrib>JIN, Ou</creatorcontrib><creatorcontrib>ZHENG, Qinqing</creatorcontrib><creatorcontrib>AZZOLINI, Alisson Gusatti</creatorcontrib><creatorcontrib>WU, Qiang</creatorcontrib><collection>esp@cenet</collection></facets><delivery><delcategory>Remote Search Resource</delcategory><fulltext>fulltext_linktorsrc</fulltext></delivery><addata><au>YANG, Jiyan</au><au>SU, Bor-Yiing</au><au>JIN, Ou</au><au>ZHENG, Qinqing</au><au>AZZOLINI, Alisson Gusatti</au><au>WU, Qiang</au><format>patent</format><genre>patent</genre><ristype>GEN</ristype><title>PERFORMING SYNCHRONIZATION IN THE BACKGROUND FOR HIGHLY SCALABLE DISTRIBUTED TRAINING</title><date>2022-02-17</date><risdate>2022</risdate><abstract>In one embodiment, a method for training a machine-learning model having multiple parameters includes instantiating trainers each associated with at least a worker thread, a synchronization thread, and a local version of the parameters, using the worker threads to perform training operations that comprise generating an updated local version of the parameters for each trainer using its associated worker thread, while the worker threads are performing training operations, using the synchronization threads to perform synchronization operations that comprise generating a global version of the parameters based on the updated local versions of the parameters and generating a synchronized local version of the parameters for each trainer based on the global version, continuing performing training operations based on the synchronized local versions of the parameters, and determining the parameters at the end of training based on at least a final local version of the parameters associated with one trainer. Selon un mode de réalisation de l'invention, un procédé d'entraînement d'un modèle d'apprentissage automatique comprenant de multiples paramètres comprend les étapes consistant à instancier des entraîneurs dont chacun est associé à au moins un fil exécutant, un fil de synchronisation, et une version locale des paramètres, utiliser les fils exécutants pour effectuer des opérations d'entraînement qui comprennent la génération d'une version locale mise à jour des paramètres pour chaque entraîneur à l'aide du fil exécutant qui lui est associé, tandis que les fils exécutants effectuent des opérations d'entraînement, utiliser les fils de synchronisation pour effectuer des opérations de synchronisation qui comprennent la génération d'une version globale des paramètres d'après les versions locales mises à jour des paramètres et la génération d'une version locale synchronisée des paramètres pour chaque entraîneur d'après la version globale, continuer à effectuer des opérations d'entraînement d'après les versions locales synchronisées des paramètres, et déterminer les paramètres à la fin de l'entraînement d'après au moins une version locale finale des paramètres associée à un des entraîneurs.</abstract><oa>free_for_read</oa></addata></record>
fulltext fulltext_linktorsrc
identifier
ispartof
issn
language eng ; fre
recordid cdi_epo_espacenet_WO2022035587A1
source esp@cenet
subjects CALCULATING
COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
COMPUTING
COUNTING
PHYSICS
title PERFORMING SYNCHRONIZATION IN THE BACKGROUND FOR HIGHLY SCALABLE DISTRIBUTED TRAINING
url https://sfx.bib-bvb.de/sfx_tum?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-8&ctx_tim=2024-12-29T06%3A30%3A35IST&url_ver=Z39.88-2004&url_ctx_fmt=infofi/fmt:kev:mtx:ctx&rfr_id=info:sid/primo.exlibrisgroup.com:primo3-Article-epo_EVB&rft_val_fmt=info:ofi/fmt:kev:mtx:patent&rft.genre=patent&rft.au=YANG,%20Jiyan&rft.date=2022-02-17&rft_id=info:doi/&rft_dat=%3Cepo_EVB%3EWO2022035587A1%3C/epo_EVB%3E%3Curl%3E%3C/url%3E&disable_directlink=true&sfx.directlink=off&sfx.report_link=0&rft_id=info:oai/&rft_id=info:pmid/&rfr_iscdi=true