LEARNING REPRESENTATIONS OF EEG SIGNALS WITH SELF-SUPERVISED LEARNING

Self-supervised learning (SSL) is used to leverage structure in unlabeled data, to learn representations of EEG signals. Two tasks based on temporal context prediction as well as contrastive predictive coding are applied to two clinically-relevant problems: EEG-based sleep staging and pathology dete...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Hauptverfasser: AIMONE, CHRISTOPHER ALLEN, JACOB BANVILLE, HUBERT, WOOD, SEAN ULRICH NIETHE
Format: Patent
Sprache:eng ; fre
Schlagworte:
Online-Zugang:Volltext bestellen
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Beschreibung
Zusammenfassung:Self-supervised learning (SSL) is used to leverage structure in unlabeled data, to learn representations of EEG signals. Two tasks based on temporal context prediction as well as contrastive predictive coding are applied to two clinically-relevant problems: EEG-based sleep staging and pathology detection. Experiments are performed on two large public datasets with thousands of recordings and perform baseline comparisons with purely supervised and hand-engineered paradigms. Selon l'invention, un apprentissage autosupervisé (SSL) est utilisé pour tirer parti de la structure dans des données non étiquetées, pour apprendre des représentations de signaux d'EEG. Deux tâches basées sur une prédiction de contexte temporel et un codage prédictif contrastif sont appliquées à deux problèmes pertinents d'un point de vue clinique : L'invention concerne également la stadification du sommeil et la détection de pathologies basées sur l'EEG. Des expériences sont effectuées sur deux grands ensembles de données publics avec des milliers d'enregistrements et réalisent des comparaisons de niveau de référence avec des paradigmes purement supervisés et empiriques.