MODEL SELECTION LEARNING FOR KNOWLEDGE DISTILLATION

The present disclosure provides method and apparatus for obtaining a target model based on knowledge distillation. A data set and a set of candidate reference models may be obtained. A set of selected reference models selected from the set of candidate reference models may be determined for each tra...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Hauptverfasser: JIANG, Daxin, SHOU, Linjun, LIN, Wutao, GONG, Ming
Format: Patent
Sprache:eng ; fre
Schlagworte:
Online-Zugang:Volltext bestellen
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
container_end_page
container_issue
container_start_page
container_title
container_volume
creator JIANG, Daxin
SHOU, Linjun
LIN, Wutao
GONG, Ming
description The present disclosure provides method and apparatus for obtaining a target model based on knowledge distillation. A data set and a set of candidate reference models may be obtained. A set of selected reference models selected from the set of candidate reference models may be determined for each training sample in the data set. A set of target probability distributions output by the set of selected reference models for the training sample may be acquired. The target model may be trained with the set of target probability distributions. La présente invention concerne un procédé et un appareil permettant d'obtenir un modèle cible sur la base d'une distillation de connaissances. Un ensemble de données et un ensemble de modèles de référence candidats peuvent être obtenus. Un ensemble de modèles de référence sélectionnés qui sont sélectionnés à partir de l'ensemble de modèles de référence candidats peut être déterminé pour chaque échantillon d'apprentissage dans l'ensemble de données. Un ensemble de distributions de probabilité cibles délivrées par l'ensemble de modèles de référence sélectionnés pour l'échantillon d'apprentissage peut être acquis. Le modèle cible peut être formé avec l'ensemble de distributions de probabilité cibles.
format Patent
fullrecord <record><control><sourceid>epo_EVB</sourceid><recordid>TN_cdi_epo_espacenet_WO2021257160A1</recordid><sourceformat>XML</sourceformat><sourcesystem>PC</sourcesystem><sourcerecordid>WO2021257160A1</sourcerecordid><originalsourceid>FETCH-epo_espacenet_WO2021257160A13</originalsourceid><addsrcrecordid>eNrjZDD29Xdx9VEIdvVxdQ7x9PdT8HF1DPLz9HNXcPMPUvD28w_3cXVxd1Vw8QwO8fTxcQSp4WFgTUvMKU7lhdLcDMpuriHOHrqpBfnxqcUFicmpeakl8eH-RgZGhkam5oZmBo6GxsSpAgBHBSgc</addsrcrecordid><sourcetype>Open Access Repository</sourcetype><iscdi>true</iscdi><recordtype>patent</recordtype></control><display><type>patent</type><title>MODEL SELECTION LEARNING FOR KNOWLEDGE DISTILLATION</title><source>esp@cenet</source><creator>JIANG, Daxin ; SHOU, Linjun ; LIN, Wutao ; GONG, Ming</creator><creatorcontrib>JIANG, Daxin ; SHOU, Linjun ; LIN, Wutao ; GONG, Ming</creatorcontrib><description>The present disclosure provides method and apparatus for obtaining a target model based on knowledge distillation. A data set and a set of candidate reference models may be obtained. A set of selected reference models selected from the set of candidate reference models may be determined for each training sample in the data set. A set of target probability distributions output by the set of selected reference models for the training sample may be acquired. The target model may be trained with the set of target probability distributions. La présente invention concerne un procédé et un appareil permettant d'obtenir un modèle cible sur la base d'une distillation de connaissances. Un ensemble de données et un ensemble de modèles de référence candidats peuvent être obtenus. Un ensemble de modèles de référence sélectionnés qui sont sélectionnés à partir de l'ensemble de modèles de référence candidats peut être déterminé pour chaque échantillon d'apprentissage dans l'ensemble de données. Un ensemble de distributions de probabilité cibles délivrées par l'ensemble de modèles de référence sélectionnés pour l'échantillon d'apprentissage peut être acquis. Le modèle cible peut être formé avec l'ensemble de distributions de probabilité cibles.</description><language>eng ; fre</language><subject>CALCULATING ; COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS ; COMPUTING ; COUNTING ; PHYSICS</subject><creationdate>2021</creationdate><oa>free_for_read</oa><woscitedreferencessubscribed>false</woscitedreferencessubscribed></display><links><openurl>$$Topenurl_article</openurl><openurlfulltext>$$Topenurlfull_article</openurlfulltext><thumbnail>$$Tsyndetics_thumb_exl</thumbnail><linktohtml>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20211223&amp;DB=EPODOC&amp;CC=WO&amp;NR=2021257160A1$$EHTML$$P50$$Gepo$$Hfree_for_read</linktohtml><link.rule.ids>230,308,776,881,25542,76289</link.rule.ids><linktorsrc>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20211223&amp;DB=EPODOC&amp;CC=WO&amp;NR=2021257160A1$$EView_record_in_European_Patent_Office$$FView_record_in_$$GEuropean_Patent_Office$$Hfree_for_read</linktorsrc></links><search><creatorcontrib>JIANG, Daxin</creatorcontrib><creatorcontrib>SHOU, Linjun</creatorcontrib><creatorcontrib>LIN, Wutao</creatorcontrib><creatorcontrib>GONG, Ming</creatorcontrib><title>MODEL SELECTION LEARNING FOR KNOWLEDGE DISTILLATION</title><description>The present disclosure provides method and apparatus for obtaining a target model based on knowledge distillation. A data set and a set of candidate reference models may be obtained. A set of selected reference models selected from the set of candidate reference models may be determined for each training sample in the data set. A set of target probability distributions output by the set of selected reference models for the training sample may be acquired. The target model may be trained with the set of target probability distributions. La présente invention concerne un procédé et un appareil permettant d'obtenir un modèle cible sur la base d'une distillation de connaissances. Un ensemble de données et un ensemble de modèles de référence candidats peuvent être obtenus. Un ensemble de modèles de référence sélectionnés qui sont sélectionnés à partir de l'ensemble de modèles de référence candidats peut être déterminé pour chaque échantillon d'apprentissage dans l'ensemble de données. Un ensemble de distributions de probabilité cibles délivrées par l'ensemble de modèles de référence sélectionnés pour l'échantillon d'apprentissage peut être acquis. Le modèle cible peut être formé avec l'ensemble de distributions de probabilité cibles.</description><subject>CALCULATING</subject><subject>COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS</subject><subject>COMPUTING</subject><subject>COUNTING</subject><subject>PHYSICS</subject><fulltext>true</fulltext><rsrctype>patent</rsrctype><creationdate>2021</creationdate><recordtype>patent</recordtype><sourceid>EVB</sourceid><recordid>eNrjZDD29Xdx9VEIdvVxdQ7x9PdT8HF1DPLz9HNXcPMPUvD28w_3cXVxd1Vw8QwO8fTxcQSp4WFgTUvMKU7lhdLcDMpuriHOHrqpBfnxqcUFicmpeakl8eH-RgZGhkam5oZmBo6GxsSpAgBHBSgc</recordid><startdate>20211223</startdate><enddate>20211223</enddate><creator>JIANG, Daxin</creator><creator>SHOU, Linjun</creator><creator>LIN, Wutao</creator><creator>GONG, Ming</creator><scope>EVB</scope></search><sort><creationdate>20211223</creationdate><title>MODEL SELECTION LEARNING FOR KNOWLEDGE DISTILLATION</title><author>JIANG, Daxin ; SHOU, Linjun ; LIN, Wutao ; GONG, Ming</author></sort><facets><frbrtype>5</frbrtype><frbrgroupid>cdi_FETCH-epo_espacenet_WO2021257160A13</frbrgroupid><rsrctype>patents</rsrctype><prefilter>patents</prefilter><language>eng ; fre</language><creationdate>2021</creationdate><topic>CALCULATING</topic><topic>COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS</topic><topic>COMPUTING</topic><topic>COUNTING</topic><topic>PHYSICS</topic><toplevel>online_resources</toplevel><creatorcontrib>JIANG, Daxin</creatorcontrib><creatorcontrib>SHOU, Linjun</creatorcontrib><creatorcontrib>LIN, Wutao</creatorcontrib><creatorcontrib>GONG, Ming</creatorcontrib><collection>esp@cenet</collection></facets><delivery><delcategory>Remote Search Resource</delcategory><fulltext>fulltext_linktorsrc</fulltext></delivery><addata><au>JIANG, Daxin</au><au>SHOU, Linjun</au><au>LIN, Wutao</au><au>GONG, Ming</au><format>patent</format><genre>patent</genre><ristype>GEN</ristype><title>MODEL SELECTION LEARNING FOR KNOWLEDGE DISTILLATION</title><date>2021-12-23</date><risdate>2021</risdate><abstract>The present disclosure provides method and apparatus for obtaining a target model based on knowledge distillation. A data set and a set of candidate reference models may be obtained. A set of selected reference models selected from the set of candidate reference models may be determined for each training sample in the data set. A set of target probability distributions output by the set of selected reference models for the training sample may be acquired. The target model may be trained with the set of target probability distributions. La présente invention concerne un procédé et un appareil permettant d'obtenir un modèle cible sur la base d'une distillation de connaissances. Un ensemble de données et un ensemble de modèles de référence candidats peuvent être obtenus. Un ensemble de modèles de référence sélectionnés qui sont sélectionnés à partir de l'ensemble de modèles de référence candidats peut être déterminé pour chaque échantillon d'apprentissage dans l'ensemble de données. Un ensemble de distributions de probabilité cibles délivrées par l'ensemble de modèles de référence sélectionnés pour l'échantillon d'apprentissage peut être acquis. Le modèle cible peut être formé avec l'ensemble de distributions de probabilité cibles.</abstract><oa>free_for_read</oa></addata></record>
fulltext fulltext_linktorsrc
identifier
ispartof
issn
language eng ; fre
recordid cdi_epo_espacenet_WO2021257160A1
source esp@cenet
subjects CALCULATING
COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
COMPUTING
COUNTING
PHYSICS
title MODEL SELECTION LEARNING FOR KNOWLEDGE DISTILLATION
url https://sfx.bib-bvb.de/sfx_tum?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-8&ctx_tim=2025-02-07T20%3A03%3A33IST&url_ver=Z39.88-2004&url_ctx_fmt=infofi/fmt:kev:mtx:ctx&rfr_id=info:sid/primo.exlibrisgroup.com:primo3-Article-epo_EVB&rft_val_fmt=info:ofi/fmt:kev:mtx:patent&rft.genre=patent&rft.au=JIANG,%20Daxin&rft.date=2021-12-23&rft_id=info:doi/&rft_dat=%3Cepo_EVB%3EWO2021257160A1%3C/epo_EVB%3E%3Curl%3E%3C/url%3E&disable_directlink=true&sfx.directlink=off&sfx.report_link=0&rft_id=info:oai/&rft_id=info:pmid/&rfr_iscdi=true