基于卷积神经网络的极化码译码算法
针对现有基于神经网络的极化码译码算法仅能对短码进行译码的问题(码长N≤64),提出针对极化码长码(N≥512)的卷积神经网络译码算法,利用神经网络epoch和batch参数来调控神经网络的输入,而不是固定从数据样本中抽取一定比例用作训练集和测试集,解决了由码字过长造成的数据爆炸问题。此外,研究了batch和epoch参数对卷积神经网络译码性能的影响及神经网络使用不同激活函数的性能差异。仿真结果表明,与传统SCL(successive cancellation list,串行抵消列表)译码算法比较,卷积神经网络在低信噪比下取得略优于SCL(L=2)的性能,在高信噪比下取得与SCL(L=2)算法相...
Gespeichert in:
Veröffentlicht in: | 电信科学 2020-06, Vol.36 (6), p.119-124 |
---|---|
Hauptverfasser: | , |
Format: | Artikel |
Sprache: | chi |
Online-Zugang: | Volltext |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | 针对现有基于神经网络的极化码译码算法仅能对短码进行译码的问题(码长N≤64),提出针对极化码长码(N≥512)的卷积神经网络译码算法,利用神经网络epoch和batch参数来调控神经网络的输入,而不是固定从数据样本中抽取一定比例用作训练集和测试集,解决了由码字过长造成的数据爆炸问题。此外,研究了batch和epoch参数对卷积神经网络译码性能的影响及神经网络使用不同激活函数的性能差异。仿真结果表明,与传统SCL(successive cancellation list,串行抵消列表)译码算法比较,卷积神经网络在低信噪比下取得略优于SCL(L=2)的性能,在高信噪比下取得与SCL(L=2)算法相近的性能,并且训练数据集越大,神经网络译码性能越好。 |
---|---|
ISSN: | 1000-0801 |
DOI: | 10.11959/j.issn.1000-0801.2020130 |