Parte 1: La codifica della memoria contestuale e il recupero delle dinamiche temporali sono modulati dall'attenzione lungo la durata della vita degli adulti
Mar 25, 2022
ali.ma@wecistanche.com
Soroush Mirjalili, Patrick Powell, Jonathan Strunk, Taylor James e Audrey Duarte
https://doi.org/10.1523/ENEURO.0387-20.2020 Dipartimento di Psicologia, Georgia Institute of Technology, Atlanta, GA 30318

Dosaggio di Cistanche tubulosa per migliorare la memoria
Astratto
I ricordi episodici sono multidimensionali e includono caratteristiche semplici e complesse. Come codifichiamo e recuperiamo con successo queste caratteristiche nel tempo, se queste dinamiche temporali sono preservate attraverso l'età, anche in condizioni di riduzionememoriaperformance e il ruolo dell'attenzione su queste dinamiche temporali è sconosciuto. Nel presente studio, abbiamo applicato la decodifica multivariata risolta nel tempo all'elettroencefalografia oscillatoria (EEG) in un campione di durata della vita di un adulto per studiare l'ordine temporale della codifica e del riconoscimento riusciti di caratteristiche del contesto percettivo semplici e complesse. Al momento della codifica, i partecipanti hanno studiato le immagini di oggetti in bianco e nero presentati con caratteristiche di contesto sia di colore (basso livello/semplice) che di scena (alto livello/complesso) e successivamente hanno creato un contestomemoriadecisioni per entrambe le caratteristiche. Le richieste di attenzione sono state manipolate facendo in modo che i partecipanti si occupassero della relazione tra l'oggetto e il colore o la scena ignorando l'altra caratteristica del contesto. Coerentemente con i modelli gerarchici di percezione visiva, le caratteristiche visive semplici (colore) sono state codificate con successo prima di quelle complesse (scene). Queste caratteristiche sono state riconosciute con successo nell'ordine temporale inverso. È importante sottolineare che queste dinamiche temporali dipendevano sia dal fatto che queste caratteristiche del contesto fossero al centro dell'attenzione, sia preservate attraverso l'età, nonostante il contesto correlato all'etàmemoriamenomazioni. Questi nuovi risultati supportano l'idea che episodicaricordisono codificati e recuperati successivamente, probabilmente dipendenti dai percorsi di input e output del lobo temporale mediale (MTL) e dalle influenze attenzionali che influenzano l'attività all'interno di questi percorsi attraverso l'età.
Parole chiave: invecchiamento; Attenzione; memoria di contesto; memoria episodica; analisi di pattern multivariati
Dichiarazione di significato
Gli eventi che impariamo e ricordiamo nelle nostre vite consistono in semplici dettagli contestuali come il colore e altri più complessi come le scene. Se li impariamo e li riconosciamomemoriadettagli in successione o simultanea, e non è noto se l'attenzione ad alcune funzionalità ma non ad altre influisca quando le codifichiamo e le recuperiamo. Utilizzando modelli di attività neurale ad alta risoluzione temporale, abbiamo scoperto che i dettagli del colore sono stati codificati con successo prima di quelli della scena ma riconosciuti nell'ordine inverso. È importante sottolineare che queste dinamiche temporali dipendevano da quale caratteristica era al centro dell'attenzione e sono state preservate nel corso dell'età. Questi risultati chiariscono il modo successivo in cui le caratteristiche che costituiscono i nostri ricordi vengono codificate e recuperate e le condizioni che influiscono su queste dinamiche.
introduzione
Numerosi episodicimemoriagli studi hanno studiato le basi neurali della codifica e del recupero di successo di diversi tipi di caratteristiche del contesto, inclusi il colore, lo spazio e vari attributi semantici (Uncapher et al., 2006; Awipi e Davachi, 2008; Duarte et al., 2011; Staresina et al. ., 2011; Park et al., 2014; Liang e Preston, 2017). Sebbene diverse regioni supportino la codifica e/o il recupero episodici di successo indipendentemente dalla natura delle caratteristiche del contesto, altre sono selettive del contenuto. Poco si sa del corso del tempo con cui le diverse caratteristiche del contesto vengono codificate e recuperate con successo.
Perché le dinamiche temporali della codifica e/o del recupero del contesto di successo dovrebbero essere influenzate dal tipo di funzionalità del contesto? Numerosi studi sulla percezione hanno stabilito che caratteristiche semplici come il colore sono discriminate prima nel tempo e da regioni corticali visive precedenti rispetto a caratteristiche più complesse come le scene (Carlson et al., 2013; Kravitz et al., 2014; Clarke et al., 2015) . Alcune regioni che supportano la percezione delle caratteristiche supportano anche la codifica di successo delle caratteristiche a cui sono sensibili (Hayes et al., 2007; Awipi e Davachi, 2008; Preston et al., 2010; Dulas e Duarte, 2011). È quindi possibile che semplici funzioni di contesto possano essere codificate con successomemoriaprima di quelli complessi.
Le caratteristiche del contesto potrebbero non essere recuperate nello stesso ordine in cui sono percepite. In uno studio recente i ricercatori hanno utilizzato analisi multivariate di pattern (MVPA) dell'attività dell'elettroencefalografia (EEG) per decodificare i tempi in cui le informazioni percettive e concettuali di alto livello sono state discriminate e successivamente ricostruite damemoria(Linde-Domingo et al., 2019). Coerentemente con le gerarchie di elaborazione visiva feed-for-ward (Carlson et al., 2013; Kravitz et al., 2014), i dettagli percettivi sono stati discriminati prima di quelli concettuali più complessi. È interessante notare che queste dinamiche temporali sono state invertite durante il richiamo. Questi risultati, insieme all'evidenza EEG intracranica che mostra il flusso di informazioni invertito all'interno del lobo temporale mediale (MTL) tra la codifica e il recupero (Fell et al., 2016), supportano l'idea che il ricordo possa procedere in ordine inverso rispetto alla percezione.
L'inversione del flusso di informazioni tra percezione e ricordo è intrigante, ma rimangono diverse domande. In primo luogo, è ovvio che anche le caratteristiche semplici che sono state percepite in precedenza sarebbero state codificate con successomemoriaprima di quelli percepiti dopo. Se complesso Questo lavoro è stato sostenuto dalla National Science Foundation Grant 1125683 (to AD), il Ruth L. Kirschstein National Research Service Award Institutional Research Training Grant dal National Institutes of Health National Institute on Aging Grant 5T32AG000175 e National Institute on Aging 1R21AG 064309-01.
Ringraziamenti: Ringraziamo tutti i partecipanti alla ricerca.
Questo è un articolo ad accesso aperto distribuito secondo i termini della Creative Commons Attribution 4.0 Licenza internazionale, che consente l'uso, la distribuzione e la riproduzione illimitati con qualsiasi mezzo a condizione che l'opera originale sia adeguatamente attribuita.
le caratteristiche si riattivano prima di quelle semplici (Linde-Domingo et al., 2019), anche la capacità di riconoscere con successo una caratteristica complessa dovrebbe verificarsi prima. In secondo luogo, l'invecchiamento normale è associato al rallentamento neurocognitivo (Salthouse, 1996), con studi EEG e MEG che mostrano ritardi di elaborazione per più componenti neurali (Onofrj et al., 2001; Zanto et al., 2010; Clarke et al., 2015). Non è noto se questo rallentamento possa essere osservato anche per i corsi temporali della codifica e/o del recupero di funzionalità di contesto semplici e complesse. Terzo, nelle situazioni del mondo reale, l'attenzione può essere diretta all'elaborazione di alcune caratteristiche rispetto ad altre. Se l'attenzione è rivolta alle caratteristiche episodiche di alto livello rispetto a quelle di basso livello, ad esempio, non è chiaro che le caratteristiche di basso livello avrebbero la stessa priorità durante la codifica. In effetti, ampie prove da studi sul potenziale correlato agli eventi (ERP) sull'attenzione mostrano latenze ERP precedenti per stimoli visivi assistiti rispetto a quelli non presidiati (Hillyard e Anllo-Vento, 1998; Woodman, 2010).
Qui, abbiamo studiato i corsi temporali di codificazione e riconoscimento di successo di caratteristiche percettive semplici e complesse e come l'attenzione potrebbe influire su queste dinamiche temporali durante la vita adulta. Le richieste di attenzione sono state manipolate facendo in modo che i partecipanti si occupassero della relazione tra un oggetto e il colore o la scena ignorando l'altra caratteristica del contesto. Sia per la codifica che per il recupero, abbiamo addestrato classificatori di pattern multivariati per distinguere il contesto riuscito da quello non riuscitomemoriaseparatamente per le caratteristiche del colore e della scena dall'EEG oscillatorio. Abbiamo valutato il contestomemoriaprecisione di classificazione nel tempo per ciascuna caratteristica in funzione del fatto che siano state seguite o meno durante la codifica. Abbiamo esplorato l'adattamento dei nostri dati a uno dei tre modelli (Fig. 1).
Se la gerarchia di elaborazione feed-forward alla codifica e le dinamiche temporali invertite al recupero sono inalterabili e indipendenti dai propri obiettivi attuali, prevediamo che i risultati si adatteranno al modello gerarchico, attraverso l'età. Tuttavia, se l'attenzione modula queste dinamiche, prevediamo che l'adattamento all'attenzione o ai modelli ibridi sarà ridotto con l'età; poiché la capacità di occuparsi selettivamente delle caratteristiche rilevanti per il compito si riduce con l'età (Hasher e Zacks, 1988; Campbell et al., 2010). Qualsiasi modulazione dell'attenzione sulle dinamiche temporali dovrebbe essere ridotta, contribuendo potenzialmente al contesto legato all'etàmemoriamenomazioni (James et al., 2016a; Powell et al., 2018).

Materiali e metodi
Partecipanti
I partecipanti erano costituiti da 52 adulti destrimani (21 donne) di età compresa tra 18 e 74 anni. Sono stati esclusi i dati di altri cinque anziani (61-76 anni): due per mancanza di comprensione delle procedure del compito, due per EEG rumoroso (cioè , DC drift, movimento) e uno per malfunzionamento del computer. I dati di un giovane adulto (21 anni) sono stati esclusi a causa dell'EEG rumoroso. Un sottoinsieme dei dati degli adulti giovani e anziani, ma non di mezza età, è stato incluso in studi pubblicati in precedenza che esaminavano diverse domande di ricerca (James et al., 2016b; Strunk et al., 2017; Powell et al., 2018). Tutti i soggetti erano madrelingua inglese e avevano

Figura 1. Tre modelli ipotizzati si adattano alla codifica del contesto di funzionalità di basso ordine (colore) e di alto livello (scena) e alla dinamica temporale di recupero. I dati previsti per ciascun modello rappresentano i primi picchi di contesto di classificazione localememoriadecodifica del successo (corretto o errato) tra i partecipanti. Nel modello di elaborazione gerarchica (a), le caratteristiche del contesto di basso livello, in questo caso il colore, elaborate dalle aree corticali visive precedenti, sono codificate prima e recuperate dopo quelle di alto livello, in questo caso la scena, indipendentemente dal fatto che sono stati presi in considerazione durante la codifica. Per questo modello, se la scena fosse il contesto di destinazione, gli istogrammi di codifica e recupero sarebbero identici a quelli mostrati. In alternativa, nel modello di elaborazione basato sull'attenzione (b), la caratteristica del contesto presidiato verrà codificata e recuperata prima della caratteristica che viene ignorata. Come mostrato nella parte b, la codifica del colore precede la codifica della scena quando il colore è la caratteristica "bersaglio" presidiata e la stessa dinamica temporale sarebbe valida al momento del recupero. Se la scena fosse l'obiettivo, l'ordine degli istogrammi sarebbe invertito rispetto a quelli mostrati. Infine, nel modello di elaborazione ibrido (c), le dinamiche temporali di codifica e recupero si basano sia sulla complessità delle caratteristiche del contesto, sia se fossero il bersaglio o il distrattore. Nell'esempio nella parte c, la codifica della scena segue la codifica del colore con un ritardo maggiore quando il colore è l'obiettivo rispetto a quando è il distrattore, mentre il recupero della scena precede il recupero del colore con un ritardo più breve. Se la scena fosse l'obiettivo, la distanza tra i picchi diminuirebbe per la codifica e aumenterebbe per il recupero rispetto a quanto mostrato.
visione normale o corretta. I partecipanti sono stati ricompensati con crediti del corso o $ 10/he sono stati reclutati dal Georgia Institute of Technology e dalla comunità circostante. Nessuno dei partecipanti ha riferito di disturbi neurologici o psichiatrici, malattie vascolari o uso di farmaci che influiscono sul sistema nervoso centrale. I partecipanti hanno completato una batteria di test neuropsicologici standardizzati che consistono in sottotest delmemoriascala di valutazione (Williams, 1991), comprendente l'apprendimento delle liste, il riconoscimento, l'estensione verbale avanti e indietro, il richiamo immediato e ritardato, il riconoscimento visivo, il richiamo, la riproduzione e il riconoscimento ritardato. Sono stati esclusi i partecipanti che hanno ottenuto un punteggio di 0,2 DS al di fuori della media del campione. Inoltre, agli anziani è stata somministrata la valutazione cognitiva di Montreal (MoCA; Nasreddine et al., 2005) per testare ulteriormente i disturbi cognitivi lievi. Sono stati inclusi solo i partecipanti con un punteggio di 26 o superiore per il MoCA. Tutti i partecipanti hanno firmato moduli di consenso approvati dal Georgia Institute of Technology Institutional Review Board.
Materiali
Un totale di 432 immagini di oggetti in scala di grigi sono state selezionate dai DVD di oggetti fotografici di Hemera Technologies e dalle immagini di Google. Alla codifica sono stati presentati 288 di questi oggetti; in metà delle prove, l'attenzione dei partecipanti era rivolta a un colore e nell'altra metà a una scena. Ogni oggetto in scala di grigi è stato presentato al centro dello schermo e un quadrato colorato e una scena sono stati presentati a sinistra oa destra dell'oggetto. Per tutte le prove in un blocco, lo stesso tipo di funzionalità di contesto è stato presentato sullo stesso lato dell'oggetto. Il pilotaggio ha mostrato che questo ha ridotto al minimo la confusione dei partecipanti e il movimento degli occhi-
mento manufatti. Le posizioni di queste caratteristiche del contesto
sono stati controbilanciati tra i blocchi in modo che fossero mostrati un numero uguale di volte sul lato destro e sinistro dell'oggetto al centro. Per ogni prova di codifica, ai partecipanti è stato chiesto di concentrarsi sulle associazioni tra l'oggetto e il quadrato colorato o la scena, che fungeva da contesto di destinazione per quella prova. Le potenziali scene includevano un monolocale,

Figura 2. Disegno sperimentale. Durante lo studio, ai partecipanti è stato chiesto di effettuare una valutazione soggettiva sì/no sulla relazione tra l'oggetto e il quadrato colorato (ad esempio, "questo colore è probabile per questo oggetto?"), dove è stato presentato uno dei tre possibili colori (rosso , verde, marrone) o la scena (ad esempio, "è probabile che questo oggetto appaia in questa scena?"), in cui è stata presentata una delle tre possibili scene (paesaggio urbano, monolocale, isola). Ai partecipanti è stato chiesto di prestare attenzione a un contesto e di ignorare l'altro. Durante il test, i partecipanti hanno formulato fino a tre risposte per ogni prova (riconoscimento dell'oggetto e contesto del colore e della scenamemoriadecisioni).
paesaggio urbano o isola. Le scene sono state tratte da Creative Commons. I potenziali quadrati colorati erano verdi, marroni o rossi. Ciascuna delle immagini del contesto e dell'oggetto copre un angolo visivo verticale e orizzontale massimo di ;3 gradi. Durante il recupero, tutti i 288 oggetti sono stati inclusi nel filememoriatestare oltre a 144 nuove immagini di oggetti che non sono state presentate durante la codifica. Gli elementi di studio e test sono stati controbilanciati tra i soggetti.
Disegno sperimentale e analisi statistiche
La figura 2 illustra la procedura utilizzata durante le fasi di studio e test. Prima dell'inizio di ogni fase, ai partecipanti sono state fornite istruzioni e istruzioni
10 prove per la pratica. Per la fase di studio, ai partecipanti è stato chiesto di effettuare una valutazione soggettiva sì/no sulla relazione tra l'oggetto e il quadrato colorato (ad esempio, "questo colore è probabile per questo oggetto?") o la scena (ad esempio, "è questo oggetto che potrebbe apparire in questa scena?"). Le istruzioni per l'attività specificavano che in qualsiasi prova specifica, il partecipante doveva prestare attenzione a un contesto e ignorare l'altro. All'interno della fase di studio, c'erano quattro blocchi in cui ogni blocco consisteva di quattro mini-blocchi e ciascuno di essi comprendeva 18 prove. Prima di iniziare ogni mini-blocco, ai partecipanti è stato fornito un prompt (ad es. "Ora valuterai quanto è probabile il colore per l'oggetto" o "Ora valuterai quanto è probabile la scena per l'oggetto"). Dal momento che prove precedenti lo hanno suggeritomemoriale prestazioni negli anziani sono più interrotte quando devono passare da due tipi distinti di compiti (Kray e Lindenberger, 2000), i mini blocchi sono stati utilizzati per orientare i partecipanti a quale contesto dovrebbero prestare attenzione nelle prove imminenti. Inoltre, riduce le esigenze del compito di dover passare dal giudicare un contesto (ad esempio, il colore) al giudicare l'altro (ad esempio, la scena). Ciascuna prova in un mini blocco aveva una richiesta di promemoria presentata sotto le immagini durante le prove di studio (Fig. 2).
Durante il test, ai partecipanti sono stati presentati oggetti vecchi e nuovi. Analogamente alla fase di studio, ogni oggetto era affiancato sia da una scena che da un quadrato colorato. Per ogni oggetto, il partecipante ha inizialmente deciso se si trattava di una vecchia o di una nuova immagine. Se il partecipante ha rilevato che l'oggetto era nuovo, la prova successiva è iniziata dopo 2000 ms. Se i partecipanti dichiaravano che era vecchio, allora veniva loro chiesto di fare due ulteriori valutazioni su ciascuna caratteristica del contesto e la loro certezza sul loro giudizio (ad esempio, una sul quadrato colorato e un'altra sulla scena). L'ordine della seconda e della terza domanda è stato controbilanciato tra i partecipanti. Per i vecchi oggetti, l'abbinamento è stato impostato in modo che un numero uguale di vecchi oggetti fosse presentato con: (1) entrambe le immagini di contesto corrispondenti a quelle presentate in fase di codifica, (2) solo la corrispondenza dei colori, (3) solo le corrispondenza della scena e (4) nessuna corrispondenza dell'immagine del contesto. Le risposte alle domande di contesto sono state fornite su una scala da adulti che hanno terminato tutti e quattro i blocchi di studio prima dei quattro blocchi di test. Per gli anziani (over 60), per meglio equiparare vocememoriaprestazioni con i giovani adulti e per permetterci di esplorare gli effetti dell'età nelle dinamiche temporali dell'EEG non confusi da effetti dell'età in generalememoriaabilità (Rugg e Morcom, 2005), ilmemoriail carico è stato dimezzato in modo da completare due volte un ciclo di studio-test di due blocchi (due studi, due test, due studi, due test). Tutti i partecipanti hanno completato una breve pratica dei blocchi di studio e test prima di iniziare il primo blocco di studio. Pertanto, i partecipanti sapevano dell'imminentememoriatest anche se non gli è stato detto di concentrarsi sulle decisioni di codifica e di non memorizzare per il test imminente.
Raccolta dati
I dati EEG continui registrati sul cuoio capelluto sono stati registrati da 32 elettrodi Ag-AgCl utilizzando un sistema di amplificazione ActiveTwo (BioSemi). La posizione dell'elettrodo si basa sul sistema esteso 10–20 (Nuwer et al., 1998). Le posizioni degli elettrodi erano costituite da: AF3, AF4, FC1, FC2, FC5, FC6, FP1, FP2, F7, F3, Fz, F4, F8, C3, Cz, C4, CP1, CP2, CP5, CP6, P7, PO3 , PO4, P3, Pz, P4, P8, T7, T8, O1, Oz e O2. Gli elettrodi mastoidei esterni sinistro e destro sono stati utilizzati per fare riferimento offline. Due elettrodi aggiuntivi hanno registrato l'elettrooculogramma orizzontale (HEOG) ai canti laterali dell'occhio sinistro e destro e due elettrodi posti sopra e sotto l'occhio destro hanno registrato l'EOG verticale (VEOG). La frequenza di campionamento dell'EEG era di 1024 Hz con una risoluzione di 24- bit senza pre-elaborazione dell'EEG con filtro passa alto o passa basso
L'analisi offline dei dati EEG è stata eseguita in MATLAB 2015b utilizzando i toolbox EEGLAB, ERPLAB e FIELDTRIP. I dati continui sono stati campionati fino a 256 Hz, riferiti alla media degli elettrodi mastoidei sinistro e destro, e passa banda filtrata tra 0.5 e 125 Hz. I dati sono stati quindi cronometrati da –1000 ms prima dell'inizio dello stimolo a 3000 ms. L'intervallo di tempo di interesse era dall'inizio dello stimolo a 2000 ms, ma è necessario un intervallo di tempo più lungo per tenere conto della perdita di segnale a entrambe le estremità dell'epoca durante la trasformazione wavelet. Ciascuna epoca è stata corretta in base alla media dell'intera epoca e un processo di rifiuto automatico ha eliminato le epoche in cui si verificava un battito di ciglia durante l'inizio dello stimolo o le epoche con sbalzi di tensione estremi che si estendevano su due o più elettrodi. I processi di rifiuto automatizzato hanno identificato epoche con i seguenti parametri nei dati grezzi. (1) L'intervallo di tensione era maggiore del 99° percentile di tutti gli intervalli di tensione delle epoche entro un intervallo di tempo di 400-ms (spostandosi in intervalli di 100-ms in ciascuna epoca). (2) La pendenza del trend lineare era superiore al 95° percentile di tutti gli intervalli di epoche con un valore R2 minimo di 0,303) L'intervallo di tensione era maggiore del 95° percentile di tutti gli intervalli di tensione di epoche entro un intervallo di tempo di 100-ms (spostamento a intervalli di 25-ms in ciascuna epoca), tra 150 e 150 ms dall'inizio dello stimolo solo per gli elettrodi frontali e oculari. Quindi è stata eseguita un'analisi dei componenti indipendenti (ICA) su tutti gli elettrodi della testa per identificare gli artefatti oculari (cioè ammiccamenti e movimenti oculari orizzontali). I componenti relativi agli artefatti oculari sono stati omessi dai dati ispezionando visivamente le mappe dei componenti topografici e l'andamento temporale dei componenti con gli elettrodi oculari. Ciascuna epoca è stata ricalcolata su un periodo di tempo compreso tra – 300 e –{28}}ms prima dell'inizio dello stimolo poiché le epoche non erano più state basate su un periodo di tempo specifico dopo l'eliminazione dei componenti correlati all'attività oculare. Se un set di dati aveva un elettrodo rumoroso (ad es., 0,30 percento dei dati necessari per essere rifiutato), veniva eliminato dal flusso di elaborazione e interpolato utilizzando i canali vicini per stimare l'attività all'interno del canale danneggiato prima di eseguire la procedura di frequenza temporale. Dopo tutte le fasi di elaborazione, il ;13 percento (SD=8 percento) delle epoche è stato rimosso.
Decomposizione della frequenza
Ogni epoca è stata trasformata in una rappresentazione di frequenza temporale utilizzando wavelet Morlet con 78 frequenze distanziate linearmente da 3 a 80 Hz, a cinque cicli. Durante la trasformazione wavelet, ogni epoca è stata ridotta all'intervallo di tempo di interesse e campionata a 50,25 Hz. Per i seguenti MVPA, abbiamo esaminato solo le prove in cui i partecipanti hanno riconosciuto correttamente gli oggetti come vecchi (risultati dell'oggetto). La decisione di selezionare solo item hit trial si basava sul presupposto che il corretto riconoscimento dei contesti associati fosse subordinato al corretto riconoscimento dell'oggetto presentato centralmente. Il numero medio di prove per adulti più giovani, di mezza età e anziani è il seguente: più giovane (M=190.50, SD=41.01), di mezza età (M{ {16}}.31, SD=40.24), precedente (M=177.06, SD=38.56).
Classificazione risolta nel tempo
Eravamo interessati a classificare il primo momento in cui le caratteristiche del colore e del contesto della scena sono state codificate e recuperate con successo. Al fine di massimizzare il numero di prove disponibili per addestrare il classificatore, siamo crollati tra i livelli di confidenza per i tipi di prova corretti e non corretti sia nella codifica che nel recupero. Cioè, alcuni partecipanti hanno avuto pochissime prove per condizioni di confidenza specifiche (ad es. contesto corretto con elevata confidenza), rendendo difficile includere la fiducia nelle analisi di classificazione che includono tutti i partecipanti. Allo stesso modo, per il recupero, abbiamo compresso tutti i tipi di prova (cioè, entrambe le immagini di contesto corrispondono a quelle presentate in fase di codifica, solo la corrispondenza dei colori, solo la corrispondenza della scena e nessuna delle immagini del contesto corrisponde) per aumentare la potenza per rilevare gli effetti di interesse. È importante notare che le proporzioni di questi tipi di prova erano più o meno equivalenti per prove con contesto corretto e non corretto (contesto corretto: 29,5% entrambi i contesti corrispondono, 23,2% solo colori, 22,1% solo scene, 25,2% nessuno dei due corrispondenza del contesto; contesto errato: 20,7 percento di entrambi i contesti corrispondono, 27,5 percento solo di colori, 28,0 percento solo di scene, 23,8 percento di nessuno dei due contesti). Queste proporzioni erano più o meno simili per le diverse condizioni di attenzione (cioè, assistere al colore vs assistere alla scena). Per ciascuna analisi di classificazione, abbiamo selezionato uno specifico intervallo di tempo scorrevole di 300-ms e spostato la finestra temporale di un punto temporale (20 ms) nel periodo iniziale 2- della codifica e dell'elementomemoriaepoche di recupero delle porzioni (cioè, a partire dall'inizio dello stimolo sia alla codifica che al recupero). Questo intervallo di tempo di 300-ms è stato scelto per massimizzare le informazioni disponibili affinché il classificatore separi le prove corrette da quelle errate, consentendo anche una risoluzione temporale sufficiente per rilevare le differenze di latenza di picco tra le condizioni. I primi 2 s sono stati scelti per l'analisi della classificazione in modo che fosse coerente con i precedenti studi EEG, compresi quelli che utilizzavano lo stesso compito, mostrando episodimemoriaeffetti all'interno di questo intervallo di tempo (Rugg e Curran, 2007; James et al., 2016a; Powell et al., 2018). Cioè, anche durante il periodo di riconoscimento dell'oggetto, l'attività EEG è sensibile al contestomemoriaprecisione. In secondo luogo, il campionamento di periodi di tempo successivi dello studio ha prodotto effetti simili e/o meno significativi di quelli presentati. Terzo, poiché le domande di riconoscimento del colore e del contesto della scena sono state presentate e hanno ricevuto risposta più avanti nel processo, abbiamo mirato a ridurre la potenziale influenza del colore e della percezione della scena sullamemoriaeffetti di successo. Successivamente, per ogni intervallo di 300 ms, sono state estratte le caratteristiche in base ai modelli spaziali comuni (CSP) dai dati in ciascuna banda di frequenza separatamente, inclusi d (3–4 Hz), u (4–7 Hz ), a (8–14 Hz), b (14–30 Hz) e g (30–80 Hz). L'algoritmo CSP mira ad aumentare la discriminabilità imparando filtri spaziali che massimizzano la potenza del segnale filtrato e minimizzano la potenza per l'altra classe (Herbert et al., 2000). In breve, vengono calcolate le matrici di covarianza media delle prove di ciascuna classe, producendo C1 e C2 per le due classi. Successivamente, utilizzando il concetto di scomposizione agli autovalori, viene risolto un problema di ottimizzazione di w ¼ argmax per trovare i filtri spaziali ottimali. In altre parole, i filtri spaziali proiettano in modo ottimale i segnali dello spazio corrente (cioè attraverso gli elettrodi originali) in un nuovo spazio in cui il segnale su ciascun elettrodo proiettato è una combinazione lineare dei segnali attraverso tutti gli elettrodi originali e la varianza di questi segnali è altamente discriminabile per le prove delle due classi (es. contesto corretto vs contesto errato). Successivamente, una volta estratti separatamente i filtri spaziali su diverse bande di frequenza, abbiamo applicato i criteri di Fisher per selezionare le migliori caratteristiche per ogni individuo per ridurre lo spazio delle caratteristiche per addestrare il classificatore (Phan e Cichocki, 2010). Per essere coerenti tra tutte le analisi e i partecipanti ed evitare il rischio di overfitting e underfitting in base al numero di prove, abbiamo selezionato le cinque migliori caratteristiche con i punteggi Fisher più alti per ciascuna analisi. Infine, abbiamo addestrato un ingenuo classificatore bayesiano a distinguere le prove contestuali corrette da quelle non corrette (Fukunaga, 1993). Abbiamo utilizzato 5-l'accuratezza media della convalida incrociata piegata come criterio per valutare le prestazioni del classificatore. Di conseguenza, per ogni partecipante, abbiamo ottenuto un valore di accuratezza del classificatore per ciascuno degli intervalli 86, 300-ms (con la risoluzione di 20-ms punti temporali scorrevoli, ovvero [0, 300 ms], [20, 320 ms], [40, 340 ms],..., [1700, 2000 ms]) per ciascuna fase dell'esperimento (codifica, recupero), condizione di attenzione (bersaglio, distrattore), e caratteristica del contesto (colore, scena). Mentre il livello di probabilità teorico per i problemi di classificazione binaria è del 50 percento, ci sono alcuni studi che hanno mostrato che il vero livello di performance casuale può essere notevolmente diverso dal valore teorico (Commbrisson e Jerbi, 2015; Jamalabadi et al., 2016). Di conseguenza, abbiamo utilizzato i test di permutazione (Nichols e Holmes, 2002) ripetendo l'analisi di classificazione per ottenere un valore nullo empirico
distribuzione per le prestazioni del classificatore. Per essere più specifici, per ogni analisi e partecipante separati, abbiamo condotto la stessa procedura di classificazione della convalida incrociata 5-fold risolta nel tempo dei dati reali con etichette vere, ma abbiamo utilizzato etichette che sono state mescolate casualmente a ogni ripetizione. Questo processo è stato condotto 500 volte per partecipante per ciascuna delle analisi di classificazione con assegnazione casuale di etichette su ogni ripetizione. Ciò ha stabilito una distribuzione nulla empirica dei punteggi delle prestazioni di classificazione. Successivamente, abbiamo impostato l'accuratezza, che era superiore al 95 per cento dei valori di performance nella distribuzione nulla, come soglia per determinare la significatività della performance di un classificatore per ciascun soggetto. Ma è importante notare che ogni intervallo di tempo avrà la propria distribuzione nulla empirica e il 95° percentile per la distribuzione nulla è diverso nei diversi intervalli di tempo e, per essere più prudenti, abbiamo selezionato il 95° percentile più alto tra gli intervalli di tempo come soglia per quel soggetto e analisi.
Al fine di mostrare che le prestazioni di classificazione sono significativamente al di sopra delle possibilità tra i soggetti e per mostrare periodi di tempo generali dimemoriadecodificabilità del successo nel tempo, abbiamo sottratto l'andamento temporale del livello di probabilità empirica di ciascun partecipante dall'andamento temporale effettivo della performance di classificazione dell'individuo. Abbiamo quindi calcolato la media di questi corsi di differenza di tempo tra le condizioni di partecipazione e colore della scena. Infine, abbiamo calcolato la media di questi percorsi individuali di differenza tra i partecipanti. Questi tra i partecipanti, i corsi medi di classificazione delle probabilità reali per la codifica e il recupero e gli intervalli di confidenza del 95% sono mostrati nella Figura 3. Come si può vedere nella Figura 3, le prestazioni di classificazione sono state significativamente maggiori del caso, tra i soggetti, per gran parte dei la codifica e gli intervalli di tempo di recupero. Il successo della memoria contestuale era decodificabile al massimo tra 680–980 ms alla codifica (punto medio di 830 ms; Fig. 3a) e tra 340 e 640 ms al recupero (punto medio di 490 ms; Fig. 3b).
Infine, abbiamo tracciato i valori di precisione del classificatore su un diagramma in cui ogni punto del diagramma (Fig. 4) rappresentava il punto medio di ciascun intervallo di tempo 300-ms. In ciascuno di questi diagrammi, ci sarebbero più intervalli di tempo la cui precisione di classificazione è maggiore degli intervalli di tempo adiacenti (ovvero, gli intervalli di tempo subito prima e subito dopo l'intervallo di tempo corrente, con 20-ms differenza di punto medio) . Tuttavia, poiché ci sarebbero molti momenti che si qualificano per questo criterio, abbiamo ampliato l'intervallo di adiacenza a 60 ms. Per essere più specifici, sono stati selezionati come potenziali momenti di picco solo gli intervalli di tempo che avevano una maggiore precisione di classificazione rispetto a tutti gli intervalli di tempo all'interno del loro vicinato temporale di 60-ms. Ad esempio, nella Figura 4, mentre A ha prestazioni più elevate rispetto agli intervalli di tempo subito prima e dopo, non può essere selezionato come picco potenziale poiché B si trova nel suo quartiere definito e ha prestazioni più elevate. Inoltre, i momenti di picco selezionati dovrebbero avere prestazioni significativamente superiori al livello di probabilità. Di conseguenza, non verrebbero presi in considerazione eventuali momenti di picco che avessero prestazioni inferiori alla soglia di significatività. Anche in questo caso, nella Figura 4, B non sarà considerato poiché ha ottenuto risultati inferiori al livello di probabilità empirico. Infine, se ci fosse

Figura 3. L'andamento temporale del contesto del caso realememoriaperformance di classificazione del successo, mediata tra condizioni di attenzione e partecipanti a (a) codifica e (b) recupero con intervalli di confidenza del 95%. Ogni punto temporale in questi diagrammi rappresenta il punto medio dell'intervallo di tempo 300-ms associato. Poiché il primo intervallo di tempo include 0–300 ms, i diagrammi iniziano da 150 ms e terminano con 1850 ms, il punto medio dell'ultimo intervallo di tempo (1700, 2000 ms). L'area grigia in ogni figura indica l'intervallo di confidenza del 95 percento del contesto delle possibilità effettivememoriaperformance di classificazione del successo tra i partecipanti. Se l'area grigia di un punto temporale specifico raggiunge il 0 percento , il rendimento effettivo non è significativamente diverso dal caso, tra i partecipanti, per l'intervallo di tempo 300-ms associato. Ad esempio, durante la codifica, l'intervallo di confidenza associato al punto temporale 1030 ms, il punto medio dell'intervallo 880–1180 ms, raggiunge lo zero.

Figura 4. Un esempio dei risultati del contesto risolto nel tempomemoriaclassificazione dell'accuratezza da un soggetto rappresentativo e analisi di classificazione. Ogni punto temporale nel diagramma rappresenta il punto medio dell'intervallo di tempo 300-ms associato. Poiché il primo intervallo di tempo include 0–300 ms, il diagramma inizia dal punto medio di questo intervallo di tempo, come mostrato dalla linea tratteggiata verticale di sinistra. Inoltre, il diagramma termina con il punto medio dell'ultimo intervallo di tempo (1700, 2000 ms) come mostrato dalla linea tratteggiata verticale destra. Si noti che la soglia è impostata come il valore più alto del 95° percentile nel tempo nella distribuzione nulla risolta nel tempo affinché ciascun soggetto sia più conservativo (vedi Materiali e metodi).

Figura 5. Oggetto, colore e contesto della scenamemoriadiscriminabilità.
picchi multipli che si sono comportati al di sopra del livello di probabilità empirico, il primo sarebbe stato selezionato come "momento di picco" che ha determinato per la prima volta se una caratteristica del contesto sarebbe stata codificata/recuperata con successo. Come si può vedere nella Figura 4, ci sono alcuni picchi, inclusi C, D ed E, che sono qualificati in base a entrambi i criteri citati, e sceglieremmo C come momento di picco in quella particolare analisi.
Accessibilità del codice
Il codice personalizzato che abbiamo utilizzato in questo studio è disponibile su https://doi.org/10.17605/OSF.IO/FVUZX.
Accessibilità dei dati
I dati e i risultati che supportano i risultati di questo studio sono disponibili su https://doi.org/10.17605/OSF.IO/FVUZX.
