TWO-DIMENSIONAL MESH FOR COMPUTE-IN-MEMORY ACCELERATOR ARCHITECTURE

Embodiments disclosed herein include a compute in-memory (CIM) accelerator architecture for deep neural network (DNN). The CIM accelerator architecture may include a first analog fabric engine having a plurality of compute in-memory (CIM) analog tiles. Each CIM analog tile may be configured to store...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Hauptverfasser: JAIN, Shubham, STANISAVLJEVIC, Milos, TSAI, HsinYu, NARAYANAN, Pritish, BURR, Geoffrey
Format: Patent
Sprache:eng ; fre
Schlagworte:
Online-Zugang:Volltext bestellen
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
container_end_page
container_issue
container_start_page
container_title
container_volume
creator JAIN, Shubham
STANISAVLJEVIC, Milos
TSAI, HsinYu
NARAYANAN, Pritish
BURR, Geoffrey
description Embodiments disclosed herein include a compute in-memory (CIM) accelerator architecture for deep neural network (DNN). The CIM accelerator architecture may include a first analog fabric engine having a plurality of compute in-memory (CIM) analog tiles. Each CIM analog tile may be configured to store a matrix of weight operands producing a vector of outputs from a vector of inputs, and perform in-memory computations. The first analog fabric may also include a plurality of compute cores. Each CIM analog tile and each compute core may include a microcontroller configured to execute a set of instructions. The first analog fabric may also include on-chip interconnects communicatively connecting all CIM analog tiles in the plurality of CIM analog tile to the compute cores. Des modes de réalisation concernent une architecture d'accélérateur de calcul en mémoire (CIM) pour un réseau neuronal profond (RNP). L'architecture d'accélérateur CIM peut comprendre un premier moteur de matrice analogique ayant une pluralité de tuiles analogiques de calcul en mémoire (CIM). Chaque tuile analogique CIM peut être configurée pour stocker une matrice d'opérandes de pondération produisant un vecteur de sorties à partir d'un vecteur d'entrées, et effectuer des calculs en mémoire. La première matrice analogique peut également comprendre une pluralité de cœurs de calcul. Chaque tuile analogique CIM et chaque cœur de calcul peuvent comprendre un microcontrôleur configuré pour exécuter un ensemble d'instructions. La première matrice analogique peut également comprendre des interconnexions sur puce connectant en communication toutes les tuiles analogiques CIM dans la pluralité de tuiles analogiques CIM aux cœurs de calcul.
format Patent
fullrecord <record><control><sourceid>epo_EVB</sourceid><recordid>TN_cdi_epo_espacenet_WO2023186503A1</recordid><sourceformat>XML</sourceformat><sourcesystem>PC</sourcesystem><sourcerecordid>WO2023186503A1</sourcerecordid><originalsourceid>FETCH-epo_espacenet_WO2023186503A13</originalsourceid><addsrcrecordid>eNrjZHAOCffXdfH0dfUL9vT3c_RR8HUN9lBw8w9ScPb3DQgNcdX19NP1dfX1D4pUcHR2dvVxDXIMAco6Bjl7eIa4OoeEBrnyMLCmJeYUp_JCaW4GZTfXEGcP3dSC_PjU4oLE5NS81JL4cH8jAyNjQwszUwNjR0Nj4lQBAP53LLM</addsrcrecordid><sourcetype>Open Access Repository</sourcetype><iscdi>true</iscdi><recordtype>patent</recordtype></control><display><type>patent</type><title>TWO-DIMENSIONAL MESH FOR COMPUTE-IN-MEMORY ACCELERATOR ARCHITECTURE</title><source>esp@cenet</source><creator>JAIN, Shubham ; STANISAVLJEVIC, Milos ; TSAI, HsinYu ; NARAYANAN, Pritish ; BURR, Geoffrey</creator><creatorcontrib>JAIN, Shubham ; STANISAVLJEVIC, Milos ; TSAI, HsinYu ; NARAYANAN, Pritish ; BURR, Geoffrey</creatorcontrib><description>Embodiments disclosed herein include a compute in-memory (CIM) accelerator architecture for deep neural network (DNN). The CIM accelerator architecture may include a first analog fabric engine having a plurality of compute in-memory (CIM) analog tiles. Each CIM analog tile may be configured to store a matrix of weight operands producing a vector of outputs from a vector of inputs, and perform in-memory computations. The first analog fabric may also include a plurality of compute cores. Each CIM analog tile and each compute core may include a microcontroller configured to execute a set of instructions. The first analog fabric may also include on-chip interconnects communicatively connecting all CIM analog tiles in the plurality of CIM analog tile to the compute cores. Des modes de réalisation concernent une architecture d'accélérateur de calcul en mémoire (CIM) pour un réseau neuronal profond (RNP). L'architecture d'accélérateur CIM peut comprendre un premier moteur de matrice analogique ayant une pluralité de tuiles analogiques de calcul en mémoire (CIM). Chaque tuile analogique CIM peut être configurée pour stocker une matrice d'opérandes de pondération produisant un vecteur de sorties à partir d'un vecteur d'entrées, et effectuer des calculs en mémoire. La première matrice analogique peut également comprendre une pluralité de cœurs de calcul. Chaque tuile analogique CIM et chaque cœur de calcul peuvent comprendre un microcontrôleur configuré pour exécuter un ensemble d'instructions. La première matrice analogique peut également comprendre des interconnexions sur puce connectant en communication toutes les tuiles analogiques CIM dans la pluralité de tuiles analogiques CIM aux cœurs de calcul.</description><language>eng ; fre</language><subject>CALCULATING ; COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS ; COMPUTING ; COUNTING ; ELECTRIC DIGITAL DATA PROCESSING ; PHYSICS</subject><creationdate>2023</creationdate><oa>free_for_read</oa><woscitedreferencessubscribed>false</woscitedreferencessubscribed></display><links><openurl>$$Topenurl_article</openurl><openurlfulltext>$$Topenurlfull_article</openurlfulltext><thumbnail>$$Tsyndetics_thumb_exl</thumbnail><linktohtml>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20231005&amp;DB=EPODOC&amp;CC=WO&amp;NR=2023186503A1$$EHTML$$P50$$Gepo$$Hfree_for_read</linktohtml><link.rule.ids>230,308,776,881,25543,76293</link.rule.ids><linktorsrc>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20231005&amp;DB=EPODOC&amp;CC=WO&amp;NR=2023186503A1$$EView_record_in_European_Patent_Office$$FView_record_in_$$GEuropean_Patent_Office$$Hfree_for_read</linktorsrc></links><search><creatorcontrib>JAIN, Shubham</creatorcontrib><creatorcontrib>STANISAVLJEVIC, Milos</creatorcontrib><creatorcontrib>TSAI, HsinYu</creatorcontrib><creatorcontrib>NARAYANAN, Pritish</creatorcontrib><creatorcontrib>BURR, Geoffrey</creatorcontrib><title>TWO-DIMENSIONAL MESH FOR COMPUTE-IN-MEMORY ACCELERATOR ARCHITECTURE</title><description>Embodiments disclosed herein include a compute in-memory (CIM) accelerator architecture for deep neural network (DNN). The CIM accelerator architecture may include a first analog fabric engine having a plurality of compute in-memory (CIM) analog tiles. Each CIM analog tile may be configured to store a matrix of weight operands producing a vector of outputs from a vector of inputs, and perform in-memory computations. The first analog fabric may also include a plurality of compute cores. Each CIM analog tile and each compute core may include a microcontroller configured to execute a set of instructions. The first analog fabric may also include on-chip interconnects communicatively connecting all CIM analog tiles in the plurality of CIM analog tile to the compute cores. Des modes de réalisation concernent une architecture d'accélérateur de calcul en mémoire (CIM) pour un réseau neuronal profond (RNP). L'architecture d'accélérateur CIM peut comprendre un premier moteur de matrice analogique ayant une pluralité de tuiles analogiques de calcul en mémoire (CIM). Chaque tuile analogique CIM peut être configurée pour stocker une matrice d'opérandes de pondération produisant un vecteur de sorties à partir d'un vecteur d'entrées, et effectuer des calculs en mémoire. La première matrice analogique peut également comprendre une pluralité de cœurs de calcul. Chaque tuile analogique CIM et chaque cœur de calcul peuvent comprendre un microcontrôleur configuré pour exécuter un ensemble d'instructions. La première matrice analogique peut également comprendre des interconnexions sur puce connectant en communication toutes les tuiles analogiques CIM dans la pluralité de tuiles analogiques CIM aux cœurs de calcul.</description><subject>CALCULATING</subject><subject>COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS</subject><subject>COMPUTING</subject><subject>COUNTING</subject><subject>ELECTRIC DIGITAL DATA PROCESSING</subject><subject>PHYSICS</subject><fulltext>true</fulltext><rsrctype>patent</rsrctype><creationdate>2023</creationdate><recordtype>patent</recordtype><sourceid>EVB</sourceid><recordid>eNrjZHAOCffXdfH0dfUL9vT3c_RR8HUN9lBw8w9ScPb3DQgNcdX19NP1dfX1D4pUcHR2dvVxDXIMAco6Bjl7eIa4OoeEBrnyMLCmJeYUp_JCaW4GZTfXEGcP3dSC_PjU4oLE5NS81JL4cH8jAyNjQwszUwNjR0Nj4lQBAP53LLM</recordid><startdate>20231005</startdate><enddate>20231005</enddate><creator>JAIN, Shubham</creator><creator>STANISAVLJEVIC, Milos</creator><creator>TSAI, HsinYu</creator><creator>NARAYANAN, Pritish</creator><creator>BURR, Geoffrey</creator><scope>EVB</scope></search><sort><creationdate>20231005</creationdate><title>TWO-DIMENSIONAL MESH FOR COMPUTE-IN-MEMORY ACCELERATOR ARCHITECTURE</title><author>JAIN, Shubham ; STANISAVLJEVIC, Milos ; TSAI, HsinYu ; NARAYANAN, Pritish ; BURR, Geoffrey</author></sort><facets><frbrtype>5</frbrtype><frbrgroupid>cdi_FETCH-epo_espacenet_WO2023186503A13</frbrgroupid><rsrctype>patents</rsrctype><prefilter>patents</prefilter><language>eng ; fre</language><creationdate>2023</creationdate><topic>CALCULATING</topic><topic>COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS</topic><topic>COMPUTING</topic><topic>COUNTING</topic><topic>ELECTRIC DIGITAL DATA PROCESSING</topic><topic>PHYSICS</topic><toplevel>online_resources</toplevel><creatorcontrib>JAIN, Shubham</creatorcontrib><creatorcontrib>STANISAVLJEVIC, Milos</creatorcontrib><creatorcontrib>TSAI, HsinYu</creatorcontrib><creatorcontrib>NARAYANAN, Pritish</creatorcontrib><creatorcontrib>BURR, Geoffrey</creatorcontrib><collection>esp@cenet</collection></facets><delivery><delcategory>Remote Search Resource</delcategory><fulltext>fulltext_linktorsrc</fulltext></delivery><addata><au>JAIN, Shubham</au><au>STANISAVLJEVIC, Milos</au><au>TSAI, HsinYu</au><au>NARAYANAN, Pritish</au><au>BURR, Geoffrey</au><format>patent</format><genre>patent</genre><ristype>GEN</ristype><title>TWO-DIMENSIONAL MESH FOR COMPUTE-IN-MEMORY ACCELERATOR ARCHITECTURE</title><date>2023-10-05</date><risdate>2023</risdate><abstract>Embodiments disclosed herein include a compute in-memory (CIM) accelerator architecture for deep neural network (DNN). The CIM accelerator architecture may include a first analog fabric engine having a plurality of compute in-memory (CIM) analog tiles. Each CIM analog tile may be configured to store a matrix of weight operands producing a vector of outputs from a vector of inputs, and perform in-memory computations. The first analog fabric may also include a plurality of compute cores. Each CIM analog tile and each compute core may include a microcontroller configured to execute a set of instructions. The first analog fabric may also include on-chip interconnects communicatively connecting all CIM analog tiles in the plurality of CIM analog tile to the compute cores. Des modes de réalisation concernent une architecture d'accélérateur de calcul en mémoire (CIM) pour un réseau neuronal profond (RNP). L'architecture d'accélérateur CIM peut comprendre un premier moteur de matrice analogique ayant une pluralité de tuiles analogiques de calcul en mémoire (CIM). Chaque tuile analogique CIM peut être configurée pour stocker une matrice d'opérandes de pondération produisant un vecteur de sorties à partir d'un vecteur d'entrées, et effectuer des calculs en mémoire. La première matrice analogique peut également comprendre une pluralité de cœurs de calcul. Chaque tuile analogique CIM et chaque cœur de calcul peuvent comprendre un microcontrôleur configuré pour exécuter un ensemble d'instructions. La première matrice analogique peut également comprendre des interconnexions sur puce connectant en communication toutes les tuiles analogiques CIM dans la pluralité de tuiles analogiques CIM aux cœurs de calcul.</abstract><oa>free_for_read</oa></addata></record>
fulltext fulltext_linktorsrc
identifier
ispartof
issn
language eng ; fre
recordid cdi_epo_espacenet_WO2023186503A1
source esp@cenet
subjects CALCULATING
COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
COMPUTING
COUNTING
ELECTRIC DIGITAL DATA PROCESSING
PHYSICS
title TWO-DIMENSIONAL MESH FOR COMPUTE-IN-MEMORY ACCELERATOR ARCHITECTURE
url https://sfx.bib-bvb.de/sfx_tum?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-8&ctx_tim=2025-01-24T01%3A49%3A26IST&url_ver=Z39.88-2004&url_ctx_fmt=infofi/fmt:kev:mtx:ctx&rfr_id=info:sid/primo.exlibrisgroup.com:primo3-Article-epo_EVB&rft_val_fmt=info:ofi/fmt:kev:mtx:patent&rft.genre=patent&rft.au=JAIN,%20Shubham&rft.date=2023-10-05&rft_id=info:doi/&rft_dat=%3Cepo_EVB%3EWO2023186503A1%3C/epo_EVB%3E%3Curl%3E%3C/url%3E&disable_directlink=true&sfx.directlink=off&sfx.report_link=0&rft_id=info:oai/&rft_id=info:pmid/&rfr_iscdi=true