-
1
-
2
-
3
-
4
Visually Grounded Speech Models for Low-resource Languages and Cognitive Modelling
Veröffentlicht in arXiv.org
VolltextArtikel -
5
-
6
-
7
-
8
-
9
-
10
-
11
-
12
Towards visually prompted keyword localisation for zero-resource spoken languages
Veröffentlicht in arXiv.org
VolltextArtikel -
13
Direct multimodal few-shot learning of speech and images
Veröffentlicht in arXiv.org
VolltextArtikel -
14
Improved Visually Prompted Keyword Localisation in Real Low-Resource Settings
Veröffentlicht in arXiv.org
VolltextArtikel -
15
-
16
Visually grounded few-shot word learning in low-resource settings
Veröffentlicht in arXiv.org
VolltextArtikel -
17
-
18
Unsupervised vs. transfer learning for multimodal one-shot matching of speech and images
Veröffentlicht in arXiv.org
VolltextArtikel -
19
Visually grounded few-shot word acquisition with fewer shots
Veröffentlicht in arXiv.org
VolltextArtikel -
20
Visually Grounded Speech Models have a Mutual Exclusivity Bias
Veröffentlicht in arXiv.org
VolltextArtikel