-
1
-
2
On the Development Trend in Macro-Evolution and Micro-Progress of Law
Veröffentlicht in Beijing law review
VolltextArtikel -
3
-
4
-
5
-
6
-
7
-
8
-
9
-
10
-
11
-
12
-
13
-
14
-
15
RecurFormer: Not All Transformer Heads Need Self-Attention
Veröffentlicht in arXiv.org
VolltextArtikel -
16
Code-Based English Models Surprising Performance on Chinese QA Pair Extraction Task
Veröffentlicht in arXiv.org
VolltextArtikel -
17
Unveiling and Controlling Anomalous Attention Distribution in Transformers
Veröffentlicht in arXiv.org
VolltextArtikel -
18
-
19
-
20