INTEGRATING BINARY INFERENCE ENGINES AND MODEL DATA FOR EFFICIENCY OF INFERENCE TASKS

In one embodiment, a method includes receiving a user request from a client device associated with a user, accessing an instructional file comprising one or more binary inference engines and one or more encrypted model data corresponding to the one or more binary inference engines, respectively, sel...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Hauptverfasser: WEAVER, Matthew, BELENKO, Dmitry, ZATLOUKAL, Peter, SUN, Chenfan, FARHADI, Ali, CHRONISTER, Andrew, KIRCHHOFF, Alexander, WYSS, Keith, RASTEGARI, Mohammad
Format: Patent
Sprache:eng ; fre
Schlagworte:
Online-Zugang:Volltext bestellen
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
container_end_page
container_issue
container_start_page
container_title
container_volume
creator WEAVER, Matthew
BELENKO, Dmitry
ZATLOUKAL, Peter
SUN, Chenfan
FARHADI, Ali
CHRONISTER, Andrew
KIRCHHOFF, Alexander
WYSS, Keith
RASTEGARI, Mohammad
description In one embodiment, a method includes receiving a user request from a client device associated with a user, accessing an instructional file comprising one or more binary inference engines and one or more encrypted model data corresponding to the one or more binary inference engines, respectively, selecting a binary inference engine from the one or more binary inference engines in the accessed instructional file based on the user request, sending a validation request for a permission to execute the binary inference engine to a licensing server, receiving the permission from the licensing server, decrypting the encrypted model data corresponding to the binary inference engine by a decryption key, executing the binary inference engine based on the user request and the decrypted model data, and sending one or more execution results responsive to the execution of the binary inference engine to the client device. Dans un mode de réalisation, l'invention concerne un procédé qui consiste à recevoir une demande d'utilisateur en provenance d'un dispositif client associé à un utilisateur, à accéder à un fichier instructionnel comprenant un ou plusieurs moteurs d'inférence binaires et une ou plusieurs données de modèle chiffrées correspondant au ou aux moteurs d'inférence binaires, respectivement, à sélectionner un moteur d'inférence binaire à partir du ou des moteurs d'inférence binaires dans le fichier instructionnel auquel on a accédé sur la base de la demande d'utilisateur, à envoyer une requête de validation pour une autorisation d'exécution du moteur d'inférence binaire à un serveur de concession de licence, à recevoir la permission du serveur de concession de licence, à déchiffrer les données de modèle chiffrées correspondant au moteur d'inférence binaire par une clé de déchiffrement, à exécuter le moteur d'inférence binaire sur la base de la demande d'utilisateur et des données de modèle déchiffrées, et à envoyer un ou plusieurs résultats d'exécution en réponse à l'exécution du moteur d'inférence binaire au dispositif client.
format Patent
fullrecord <record><control><sourceid>epo_EVB</sourceid><recordid>TN_cdi_epo_espacenet_WO2020123553A1</recordid><sourceformat>XML</sourceformat><sourcesystem>PC</sourcesystem><sourcerecordid>WO2020123553A1</sourcerecordid><originalsourceid>FETCH-epo_espacenet_WO2020123553A13</originalsourceid><addsrcrecordid>eNqNy7EKwjAQgOEsDqK-w4Gz0Cb0Ac7kEg_1AmmKdCpF4iRaqO-PDg6OTv_y_UvVsWQKCTNLgD0Lph5YPCUSS0ASWKgFFAfn6OgEDjOCjwnIe7b8UT1E_7NkbI_tWi1u430um29Xausp28OuTM-hzNN4LY_yGi5RV7qqtWkag7X5T70B7Ogw1w</addsrcrecordid><sourcetype>Open Access Repository</sourcetype><iscdi>true</iscdi><recordtype>patent</recordtype></control><display><type>patent</type><title>INTEGRATING BINARY INFERENCE ENGINES AND MODEL DATA FOR EFFICIENCY OF INFERENCE TASKS</title><source>esp@cenet</source><creator>WEAVER, Matthew ; BELENKO, Dmitry ; ZATLOUKAL, Peter ; SUN, Chenfan ; FARHADI, Ali ; CHRONISTER, Andrew ; KIRCHHOFF, Alexander ; WYSS, Keith ; RASTEGARI, Mohammad</creator><creatorcontrib>WEAVER, Matthew ; BELENKO, Dmitry ; ZATLOUKAL, Peter ; SUN, Chenfan ; FARHADI, Ali ; CHRONISTER, Andrew ; KIRCHHOFF, Alexander ; WYSS, Keith ; RASTEGARI, Mohammad</creatorcontrib><description>In one embodiment, a method includes receiving a user request from a client device associated with a user, accessing an instructional file comprising one or more binary inference engines and one or more encrypted model data corresponding to the one or more binary inference engines, respectively, selecting a binary inference engine from the one or more binary inference engines in the accessed instructional file based on the user request, sending a validation request for a permission to execute the binary inference engine to a licensing server, receiving the permission from the licensing server, decrypting the encrypted model data corresponding to the binary inference engine by a decryption key, executing the binary inference engine based on the user request and the decrypted model data, and sending one or more execution results responsive to the execution of the binary inference engine to the client device. Dans un mode de réalisation, l'invention concerne un procédé qui consiste à recevoir une demande d'utilisateur en provenance d'un dispositif client associé à un utilisateur, à accéder à un fichier instructionnel comprenant un ou plusieurs moteurs d'inférence binaires et une ou plusieurs données de modèle chiffrées correspondant au ou aux moteurs d'inférence binaires, respectivement, à sélectionner un moteur d'inférence binaire à partir du ou des moteurs d'inférence binaires dans le fichier instructionnel auquel on a accédé sur la base de la demande d'utilisateur, à envoyer une requête de validation pour une autorisation d'exécution du moteur d'inférence binaire à un serveur de concession de licence, à recevoir la permission du serveur de concession de licence, à déchiffrer les données de modèle chiffrées correspondant au moteur d'inférence binaire par une clé de déchiffrement, à exécuter le moteur d'inférence binaire sur la base de la demande d'utilisateur et des données de modèle déchiffrées, et à envoyer un ou plusieurs résultats d'exécution en réponse à l'exécution du moteur d'inférence binaire au dispositif client.</description><language>eng ; fre</language><subject>CALCULATING ; COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS ; COMPUTING ; COUNTING ; ELECTRIC COMMUNICATION TECHNIQUE ; ELECTRICITY ; PHYSICS ; TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHICCOMMUNICATION</subject><creationdate>2020</creationdate><oa>free_for_read</oa><woscitedreferencessubscribed>false</woscitedreferencessubscribed></display><links><openurl>$$Topenurl_article</openurl><openurlfulltext>$$Topenurlfull_article</openurlfulltext><thumbnail>$$Tsyndetics_thumb_exl</thumbnail><linktohtml>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20200618&amp;DB=EPODOC&amp;CC=WO&amp;NR=2020123553A1$$EHTML$$P50$$Gepo$$Hfree_for_read</linktohtml><link.rule.ids>230,308,780,885,25563,76418</link.rule.ids><linktorsrc>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20200618&amp;DB=EPODOC&amp;CC=WO&amp;NR=2020123553A1$$EView_record_in_European_Patent_Office$$FView_record_in_$$GEuropean_Patent_Office$$Hfree_for_read</linktorsrc></links><search><creatorcontrib>WEAVER, Matthew</creatorcontrib><creatorcontrib>BELENKO, Dmitry</creatorcontrib><creatorcontrib>ZATLOUKAL, Peter</creatorcontrib><creatorcontrib>SUN, Chenfan</creatorcontrib><creatorcontrib>FARHADI, Ali</creatorcontrib><creatorcontrib>CHRONISTER, Andrew</creatorcontrib><creatorcontrib>KIRCHHOFF, Alexander</creatorcontrib><creatorcontrib>WYSS, Keith</creatorcontrib><creatorcontrib>RASTEGARI, Mohammad</creatorcontrib><title>INTEGRATING BINARY INFERENCE ENGINES AND MODEL DATA FOR EFFICIENCY OF INFERENCE TASKS</title><description>In one embodiment, a method includes receiving a user request from a client device associated with a user, accessing an instructional file comprising one or more binary inference engines and one or more encrypted model data corresponding to the one or more binary inference engines, respectively, selecting a binary inference engine from the one or more binary inference engines in the accessed instructional file based on the user request, sending a validation request for a permission to execute the binary inference engine to a licensing server, receiving the permission from the licensing server, decrypting the encrypted model data corresponding to the binary inference engine by a decryption key, executing the binary inference engine based on the user request and the decrypted model data, and sending one or more execution results responsive to the execution of the binary inference engine to the client device. Dans un mode de réalisation, l'invention concerne un procédé qui consiste à recevoir une demande d'utilisateur en provenance d'un dispositif client associé à un utilisateur, à accéder à un fichier instructionnel comprenant un ou plusieurs moteurs d'inférence binaires et une ou plusieurs données de modèle chiffrées correspondant au ou aux moteurs d'inférence binaires, respectivement, à sélectionner un moteur d'inférence binaire à partir du ou des moteurs d'inférence binaires dans le fichier instructionnel auquel on a accédé sur la base de la demande d'utilisateur, à envoyer une requête de validation pour une autorisation d'exécution du moteur d'inférence binaire à un serveur de concession de licence, à recevoir la permission du serveur de concession de licence, à déchiffrer les données de modèle chiffrées correspondant au moteur d'inférence binaire par une clé de déchiffrement, à exécuter le moteur d'inférence binaire sur la base de la demande d'utilisateur et des données de modèle déchiffrées, et à envoyer un ou plusieurs résultats d'exécution en réponse à l'exécution du moteur d'inférence binaire au dispositif client.</description><subject>CALCULATING</subject><subject>COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS</subject><subject>COMPUTING</subject><subject>COUNTING</subject><subject>ELECTRIC COMMUNICATION TECHNIQUE</subject><subject>ELECTRICITY</subject><subject>PHYSICS</subject><subject>TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHICCOMMUNICATION</subject><fulltext>true</fulltext><rsrctype>patent</rsrctype><creationdate>2020</creationdate><recordtype>patent</recordtype><sourceid>EVB</sourceid><recordid>eNqNy7EKwjAQgOEsDqK-w4Gz0Cb0Ac7kEg_1AmmKdCpF4iRaqO-PDg6OTv_y_UvVsWQKCTNLgD0Lph5YPCUSS0ASWKgFFAfn6OgEDjOCjwnIe7b8UT1E_7NkbI_tWi1u430um29Xausp28OuTM-hzNN4LY_yGi5RV7qqtWkag7X5T70B7Ogw1w</recordid><startdate>20200618</startdate><enddate>20200618</enddate><creator>WEAVER, Matthew</creator><creator>BELENKO, Dmitry</creator><creator>ZATLOUKAL, Peter</creator><creator>SUN, Chenfan</creator><creator>FARHADI, Ali</creator><creator>CHRONISTER, Andrew</creator><creator>KIRCHHOFF, Alexander</creator><creator>WYSS, Keith</creator><creator>RASTEGARI, Mohammad</creator><scope>EVB</scope></search><sort><creationdate>20200618</creationdate><title>INTEGRATING BINARY INFERENCE ENGINES AND MODEL DATA FOR EFFICIENCY OF INFERENCE TASKS</title><author>WEAVER, Matthew ; BELENKO, Dmitry ; ZATLOUKAL, Peter ; SUN, Chenfan ; FARHADI, Ali ; CHRONISTER, Andrew ; KIRCHHOFF, Alexander ; WYSS, Keith ; RASTEGARI, Mohammad</author></sort><facets><frbrtype>5</frbrtype><frbrgroupid>cdi_FETCH-epo_espacenet_WO2020123553A13</frbrgroupid><rsrctype>patents</rsrctype><prefilter>patents</prefilter><language>eng ; fre</language><creationdate>2020</creationdate><topic>CALCULATING</topic><topic>COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS</topic><topic>COMPUTING</topic><topic>COUNTING</topic><topic>ELECTRIC COMMUNICATION TECHNIQUE</topic><topic>ELECTRICITY</topic><topic>PHYSICS</topic><topic>TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHICCOMMUNICATION</topic><toplevel>online_resources</toplevel><creatorcontrib>WEAVER, Matthew</creatorcontrib><creatorcontrib>BELENKO, Dmitry</creatorcontrib><creatorcontrib>ZATLOUKAL, Peter</creatorcontrib><creatorcontrib>SUN, Chenfan</creatorcontrib><creatorcontrib>FARHADI, Ali</creatorcontrib><creatorcontrib>CHRONISTER, Andrew</creatorcontrib><creatorcontrib>KIRCHHOFF, Alexander</creatorcontrib><creatorcontrib>WYSS, Keith</creatorcontrib><creatorcontrib>RASTEGARI, Mohammad</creatorcontrib><collection>esp@cenet</collection></facets><delivery><delcategory>Remote Search Resource</delcategory><fulltext>fulltext_linktorsrc</fulltext></delivery><addata><au>WEAVER, Matthew</au><au>BELENKO, Dmitry</au><au>ZATLOUKAL, Peter</au><au>SUN, Chenfan</au><au>FARHADI, Ali</au><au>CHRONISTER, Andrew</au><au>KIRCHHOFF, Alexander</au><au>WYSS, Keith</au><au>RASTEGARI, Mohammad</au><format>patent</format><genre>patent</genre><ristype>GEN</ristype><title>INTEGRATING BINARY INFERENCE ENGINES AND MODEL DATA FOR EFFICIENCY OF INFERENCE TASKS</title><date>2020-06-18</date><risdate>2020</risdate><abstract>In one embodiment, a method includes receiving a user request from a client device associated with a user, accessing an instructional file comprising one or more binary inference engines and one or more encrypted model data corresponding to the one or more binary inference engines, respectively, selecting a binary inference engine from the one or more binary inference engines in the accessed instructional file based on the user request, sending a validation request for a permission to execute the binary inference engine to a licensing server, receiving the permission from the licensing server, decrypting the encrypted model data corresponding to the binary inference engine by a decryption key, executing the binary inference engine based on the user request and the decrypted model data, and sending one or more execution results responsive to the execution of the binary inference engine to the client device. Dans un mode de réalisation, l'invention concerne un procédé qui consiste à recevoir une demande d'utilisateur en provenance d'un dispositif client associé à un utilisateur, à accéder à un fichier instructionnel comprenant un ou plusieurs moteurs d'inférence binaires et une ou plusieurs données de modèle chiffrées correspondant au ou aux moteurs d'inférence binaires, respectivement, à sélectionner un moteur d'inférence binaire à partir du ou des moteurs d'inférence binaires dans le fichier instructionnel auquel on a accédé sur la base de la demande d'utilisateur, à envoyer une requête de validation pour une autorisation d'exécution du moteur d'inférence binaire à un serveur de concession de licence, à recevoir la permission du serveur de concession de licence, à déchiffrer les données de modèle chiffrées correspondant au moteur d'inférence binaire par une clé de déchiffrement, à exécuter le moteur d'inférence binaire sur la base de la demande d'utilisateur et des données de modèle déchiffrées, et à envoyer un ou plusieurs résultats d'exécution en réponse à l'exécution du moteur d'inférence binaire au dispositif client.</abstract><oa>free_for_read</oa></addata></record>
fulltext fulltext_linktorsrc
identifier
ispartof
issn
language eng ; fre
recordid cdi_epo_espacenet_WO2020123553A1
source esp@cenet
subjects CALCULATING
COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
COMPUTING
COUNTING
ELECTRIC COMMUNICATION TECHNIQUE
ELECTRICITY
PHYSICS
TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHICCOMMUNICATION
title INTEGRATING BINARY INFERENCE ENGINES AND MODEL DATA FOR EFFICIENCY OF INFERENCE TASKS
url https://sfx.bib-bvb.de/sfx_tum?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-8&ctx_tim=2025-01-08T08%3A14%3A44IST&url_ver=Z39.88-2004&url_ctx_fmt=infofi/fmt:kev:mtx:ctx&rfr_id=info:sid/primo.exlibrisgroup.com:primo3-Article-epo_EVB&rft_val_fmt=info:ofi/fmt:kev:mtx:patent&rft.genre=patent&rft.au=WEAVER,%20Matthew&rft.date=2020-06-18&rft_id=info:doi/&rft_dat=%3Cepo_EVB%3EWO2020123553A1%3C/epo_EVB%3E%3Curl%3E%3C/url%3E&disable_directlink=true&sfx.directlink=off&sfx.report_link=0&rft_id=info:oai/&rft_id=info:pmid/&rfr_iscdi=true