Partie 1 :Modulation dirigée par un objectif des modèles de mémoire neuronale : implications pour la détection de mémoire basée sur FMRI

Mar 19, 2022


Contact : Audrey Huaudrey.hu@wecistanche.com


Veuillez cliquer ici pour la partie 2

Melina R. Uncapher,1* J. Tyler Boyd-Meredith,1* Tiffany E. Chow,3 Jesse Rissman,3 et X Anthony D. Wagner1,2

1Département de psychologie et 2Programme de neurosciences, Université de Stanford, Stanford, Californie 94305, et 3Département de psychologie, Université de Californie, Los Angeles, Los Angeles, Californie 90095

Se souvenir d'un événement passé suscite des modèles neuronaux distribués qui peuvent être distingués des modèles suscités lors de la rencontre d'informations nouvelles. Ces modèles différents peuvent être décodés avec une précision de diagnostic relativement élevée pour des mémoires individuelles à l'aide d'une analyse de modèle multi-voxel (MVPA) de données IRMf. La détection de la mémoire basée sur le cerveau - si elle est valide et fiable - aurait une utilité évidente au-delà du domaine des neurosciences cognitives, dans le domaine du droit, du marketing et au-delà. Cependant, une condition aux limites significative sur la validité du décodage de la mémoire peut être le déploiement de "contre-mesures": stratégies utilisées pour masquer les signaux de la mémoire. Ici, nous avons testé la vulnérabilité de la détection de mémoire basée sur l'IRMf aux contre-mesures, en utilisant un paradigme qui ressemble à l'identification par témoin oculaire. Les participants ont été scannés lors de l'exécution de deux tâches sur des visages précédemment étudiés et nouveaux : (1) tâche de mémoire de reconnaissance standard ; et (2) une tâche dans laquelle ils ont tenté de dissimuler leur véritable état de mémoire. Les analyses univariées ont révélé que les participants étaient capables de moduler stratégiquement les réponses neuronales, la moyenne des essais, dans les régions impliquées dans la récupération de la mémoire, y compris l'hippocampe et le gyrus angulaire. De plus, les régions associées aux changements d'attention dirigés vers un objectif et à la substitution de pensée ont soutenu la dissimulation de la mémoire, et celles associées à la génération de mémoire ont soutenu la dissimulation de la nouveauté. De manière critique, alors que la MVPA permettait une classification fiable des états de mémoire lorsque les participants rapportaient honnêtement la mémoire, la capacité de décoder la mémoire lors d'essais individuels était compromise, voire inversée, lors des tentatives de dissimulation de la mémoire. Ensemble, ces résultats démontrent que les objectifs stratégiques de Tate peuvent être déployés pour masquer les schémas neuronaux liés à la mémoire et déjouer la technologie de décodage de la mémoire, plaçant une condition limite importante sur leur utilité dans le monde réel.

Mots-clés : contre-mesures ; récupération épisodique ; IRM fonctionnelle ; neuroloi; classification des motifs

Cistanche-improve memory12

Cistanche peut améliorer la mémoire

Introduction

De plus en plus de preuves indiquent qu'il est possible de décoder la présence ou l'absence de mémoire d'un stimulus ou d'un événement à partir de schémas distribués d'activité cérébrale humaine, tels que mesurés par l'IRM fonctionnelle (IRMf) et l'analyse de schémas multivoxels (MVPA ; Johnson et al., 2009 ; McDuff et al., 2009 ; Chadwick et al., 2010 ; Quamme et al., 2010 ; Rissman et al., 2010 ; Polyn et al., 2012 ; Poppenk et Norman, 2012 ; Rissman et Wagner, 2012). La littérature en émergence rapide sur le décodage de la mémoire basé sur l'IRMf non seulement informe les théories neurocognitives de la mémoire, mais a également des implications pour le droit, le marketing et au-delà (Meegan, 2008). Par exemple, une méthode fiable et validée pour détecter la mémoire pourrait faire progresser la capacité médico-légale du système de justice pénale à déterminer si un suspect a une connaissance coupable d'informations pertinentes pour le crime (Greely, 2011) ou si un témoin oculaire reconnaît un événement critique. élément. Compte tenu de la grande précision diagnostique observée dans certaines études de décodage de la mémoire basées sur l'IRMf (jusqu'à 70 à 90 % ; Rissman et al., 2010), il peut être tentant de conclure que ces approches ont une utilité médico-légale pour découvrir les états de mémoire d'un individu et peut-être également leur histoire expérientielle avec des informations sur les événements.

Cependant, les techniques de détection de la mémoire basées sur l'IRMf sont encore en cours de développement, et de nombreux défis importants restent à relever avant de déterminer leur pertinence pour une utilisation sur le terrain (Brown et Murphy, 2010 ; Verschuere et al., 2011). L'une des questions ouvertes les plus importantes est de savoir si le décodage de la mémoire est vulnérable aux "contre-mesures": stratégies déployées pour masquer les signaux ou les signaux et tests de détection des "battements" (Farah et al., 2014). Risman et al. (2010) ont rapporté des preuves indirectes suggérant une vulnérabilité aux états d'objectifs stratégiques, car la capacité de détecter des visages nouveaux rencontrés précédemment était réduite à un quasi-hasard lorsque la mémoire des participants était implicitement, plutôt qu'explicitement, sondée. Cependant, d'autres données suggèrent que le manque d'attention à son état mnémonique peut ne pas toujours contrecarrer la classification de la mémoire. Par exemple, Kuhletal. (2013) a pu décoder les détails de la mémoire même lorsque les participants n'avaient pas reçu l'instruction de récupérer ces détails. Ensemble, ces résultats révèlent un besoin d'identifier les conditions dans lesquelles les états d'objectifs stratégiques modifient les modèles de mémoire neuronale : en particulier, les participants peuvent-ils délibérément dissimuler leurs états de mémoire en utilisant des contre-mesures qui semblent coopératives ? Répondre à cette question a non seulement des implications pour délimiter les conditions aux limites des méthodes d'IRMf pour détecter la mémoire, mais aussi pour comprendre la dynamique des processus de récupération axés sur les objectifs.

Ici, nous avons étudié une situation qui ressemble à l'identification par témoin oculaire et des contre-mesures requises qui sembleraient coopératives lors d'un test d'identification par témoin oculaire. Les participants ont vu une série de visages, et leur mémoire pour ces visages a ensuite été sondée de l'une des deux manières lors de l'IRMf. Dans le premier test, les participants ont pris des décisions de reconnaissance explicites concernant des visages déjà rencontrés et nouveaux. Dans le deuxième test, les participants ont tenté de dissimuler leur mémoire pour les visages précédemment rencontrés et de simuler la mémoire pour les nouveaux visages. En utilisant les données de mémoire explicites, nous avons formé des classificateurs pour discriminer les modèles d'activité associés aux expériences subjectives de reconnaissance et de nouveauté. Nous avons ensuite testé si les classificateurs pouvaient décoder les états de mémoire des participants lorsqu'ils s'engageaient dans des contre-mesures.

15_

Matériaux et méthodes

Participants. Vingt-quatre participants masculins droitiers en bonne santé ont été recrutés à l'Université de Stanford et dans les communautés environnantes. Les participants étaient âgés de 18 à 31 ans, avec un âge moyen de 23 4 0,29 ans, étaient des anglophones natifs sans antécédents de complications neurologiques et étaient soit afro-américains (AA ; n 8) soit européens américains (EA ; n 16) selon s'autodéclarer. Les participants ont donné leur consentement éclairé écrit, conformément aux procédures du comité d'examen institutionnel de l'université de Stanford, et ont fait l'objet d'un test de compatibilité avec l'IRMf.

Expérience. L'expérience comprenait deux sessions d'analyse menées à 24 h d'intervalle et a duré environ 5 h sur les deux sessions d'analyse. Chaque participant a été rémunéré 2 $0 pour chaque heure de participation. Les données de deux participants supplémentaires ont été recueillies mais omises des analyses ultérieures en raison de performances inadéquates ou incomplètes : l'une a été omise parce que d était aléatoire (0,08) et l'autre parce que le participant s'est retiré du balayage avant de terminer l'expérience.

Stimuli. Les stimuli faciaux consistaient en 400 photographies en couleur de visages masculins, dont la moitié étaient AA et l'autre moitié étaient EA (les données examinant les effets de la race seront rapportées séparément). Les stimuli faciaux ont été standardisés pour une expression faciale neutre et un éclairage de fond et n'incluaient que la tête et le cou. Les stimuli étaient présentés sur un fond gris avec un réticule de fixation central noir. Pour chaque participant, les stimuli faciaux ont été divisés en deux échantillons à l'aide d'un échantillonnage aléatoire stratifié par race pour attribuer des stimuli à présenter pendant la phase d'encodage (éléments OLD ; 100AA, 100EA) ou à servir d'éléments en aluminium lors de la récupération (NEWitems ; 100AA, 100 EA ).

Jour 1 : encodage. Les participants ont été scannés tout en encodant intentionnellement 200 visages masculins (100 visages AA et 100 visages EA). Chaque visage a été présenté pendant 2 s, avec un intervalle interstimulus (ISI) de 8 s pour un total de 10 s par essai. Chaque visage a été montré deux fois au cours de la phase d'encodage : après que l'ensemble complet de 200 stimuli ait été présenté, les mêmes visages ont été présentés à nouveau dans un ordre différent. Les participants ont reçu une stratégie de codage élaborée pour mémoriser les stimuli, dans laquelle ils ont été chargés de générer des histoires imaginatives impliquant les individus représentés dans les stimuli. Pour confirmer que les participants assistaient aux stimuli et s'engageaient dans la tâche, il leur était demandé d'appuyer sur le bouton droit de l'index sur une boîte de réponse après l'apparition de chaque visage. Les stimuli ont été présentés sur huit passages, avec 50 visages par passage. Les quatre premiers runs consistaient en la première présentation des stimuli de l'étude, et les quatre seconds runs consistaient en la deuxième présentation des stimuli de l'étude. À la fin de chaque course (pour les jours 1 et 2), les participants ont été encouragés à faire une pause aussi longue qu'ils le souhaitaient, en mettant fin à la pause en appuyant sur un bouton. Les pauses variaient entre 10 et 55 s selon les participants.

Concrètement, pour les visages censés être étudiés précédemment, les participants devaient indiquer une « nouvelle » réponse et passer rapidement à une stratégie cognitive pour dissimuler les corrélats neuronaux de leur reconnaissance : il leur était demandé de se concentrer sur les aspects techniques et/ou photographiques. du stimulus auquel ils n'avaient pas assisté auparavant, comme l'exposition, l'éclairage, les bords de ligne, etc. Ici, il a été souligné que l'algorithme informatique était suffisamment sensible pour capter les signaux de la mémoire et que, après avoir déterminé qu'il s'agissait d'un visage, ils devraient - au mieux de leurs capacités - essayer d'empêcher le souvenir du visage de venir à l'esprit en s'occupant des aspects perceptuels des photographies. À l'inverse, pour les stimuli perçus comme non étudiés, les participants devaient indiquer une réponse "ancienne" et utiliser des stratégies cognitives pour obtenir les corrélats neuronaux de la récupération, c'est-à-dire rappeler un individu connu qui ressemblait au visage et revivre tous les souvenirs associés. avec l'individu. Encore une fois, il a été souligné que l'algorithme informatique était suffisamment sensible pour détecter les signaux de nouveauté, de sorte qu'ils devraient rapidement passer à la génération de souvenirs pour le visage qu'ils ont déterminé comme étant nouveau. Pour les visages anciens et nouveaux, les participants ont été invités à utiliser la stratégie cognitive appropriée pendant toute la durée de l'essai (10 s). Les expérimentateurs ont confirmé que tous les participants comprenaient la tâche de mémoire cachée avant de procéder à l'expérience.

Cistanche-improve memory20

Analyses IRMf univariées. La cartographie paramétrique statistique (SPM8 ; Wellcome Department of Cognitive Neurology, Londres, Royaume-Uni ; http://www.fil.ion.ucl.ac.uk/spm/software/spm8), exécutée dans MATLAB 7.7 (R2008b ; MathWorks), a été utilisé à la fois pour le prétraitement des données et l'analyse univariée.

Des procédures de prétraitement standard ont été appliquées aux données. Tous les volumes fonctionnels ont été corrigés en fonction du temps de tranche pour tenir compte des différences de temps d'acquisition entre les tranches, la tranche médiane dans le temps étant utilisée comme référence. Tous les volumes fonctionnels ont été corrigés en mouvement et spatialement réalignés sur le premier volume, suivis d'un réalignement sur le volume moyen de la session. Le volume anatomique pondéré T2- de la session du jour 2 (récupération) a été coenregistré au volume fonctionnel moyen, le volume anatomique pondéré T1- a ensuite été coenregistré à ce volume pondéré T2-coenregistré , puis le volume pondéré T 1- a été segmenté en matière grise, matière blanche et LCR, les images résultantes étant normalisées aux modèles dans l'espace de l'Institut neurologique de Montréal (INM). Les volumes fonctionnels ont été normalisés dans l'espace standard sur la base des paramètres de transformation obtenus lors de la segmentation et rééchantillonnés en voxels de 4 mm 3 . Toutes les images ont ensuite été spatialement lissées avec un noyau gaussien pleine largeur de 8 mm à mi-hauteur (FWHM).

Pour tous les schémas de classification, le nombre d'essais a été équilibré entre les classes (via un sous-échantillonnage aléatoire) dans les bacs d'entraînement et de test avant la classification afin de garantir un taux de précision théorique de la classification des hypothèses nulles de 50 % et une aire sous la courbe (AUC ; voir ci-dessous) de 0,50 ; les analyses avec des étiquettes de classe mélangées ont confirmé que les performances de classification aléatoire convergeaient autour de ces niveaux ("distribution nulle"). Après équilibrage, les données de chaque voxel ont été à nouveau notées z, de sorte que le niveau d'activité moyen de chaque voxel pour les essais de classe A était l'inverse de son niveau d'activité moyen pour les essais de classe B. Pour chaque analyse, l'ensemble du processus de classification a été exécuté 10 fois pour obtenir des estimations stables des performances (des analyses indépendantes ont confirmé que 10 itérations étaient suffisantes pour obtenir des estimations stables des performances).

La régression logistique régularisée (RLR) a été utilisée pour toutes les procédures de classification. Cela a été déterminé précédemment comme étant un choix avantageux dans ce paradigme de classification par Rissman et al. (2010). Cet algorithme a implémenté une fonction de régression logistique multiclasse utilisant une transformation softmax de combinaisons linéaires des caractéristiques (Bishop, 2006) avec un terme de pénalité de crête supplémentaire en tant que gaussien avant les poids des caractéristiques. Ce terme de pénalité a fourni une régularisation L2, imposant de petits poids. Au cours de la formation du classificateur, l'algorithme RLR a appris l'ensemble de pondérations des caractéristiques qui a maximisé la log-vraisemblance des données ; les poids des caractéristiques ont été initialisés à zéro et l'optimisation a été mise en œuvre avec la fonction de minimisation du gradient conjugué de Carl Rasmussen (http://www.gatsby.ucl.ac.uk/Edward/code/minimize/) en utilisant le gradient de la log-vraisemblance combiné avec la pénalité L2.

La pénalité L2 a été fixée à la moitié de l'inverse additif d'un paramètre spécifié par l'utilisateur, multiplié par le carré de la norme L2 du vecteur de poids pour chaque classe, ajouté sur les classes. Nous avons choisi de fixer ce paramètre libre à une valeur fixe de 10 pour toutes les analyses rapportées dans cette étude.

Évaluation des performances du classificateur. Après avoir ajusté les paramètres du modèle RLR à l'aide des données de l'ensemble d'apprentissage, chaque modèle d'activité cérébrale (c. deux valeurs totalisent toujours un). Ces valeurs de probabilité ont été concaténées dans tous les plis de test de validation croisée, puis classées. Le taux de vrais positifs (hit) et le taux de faux positifs (FA) du classificateur ont été calculés à 80 seuils de coupure fixes le long du continuum de probabilité pour générer des courbes de caractéristique de fonctionnement du récepteur (ROC). Les valeurs AUC associées à ces courbes ont été calculées comme décrit par Fawcett (2004) et peuvent être interprétées formellement comme la probabilité qu'un membre choisi au hasard d'une classe ait une probabilité estimée plus faible d'appartenir à l'autre classe que a un membre choisi au hasard de l'autre classe. En d'autres termes, l'AUC indexe la précision moyenne avec laquelle une paire d'essais de classe A et de classe B choisis au hasard pourrait être assignée à leur classe correcte (0,5 est une performance aléatoire ; 1,0 est une performance parfaite). Si votre objectif est une haute spécificité dans l'étiquetage des exemples de classe A et que vous ne voulez pas tolérer de nombreux faux positifs, vous pouvez interroger les suppositions les plus sûres du classificateur. Ici, nous avons fixé arbitrairement ce seuil pour qu'il corresponde aux 10 % supérieurs des suppositions de classification. Notez que nous rapportons la précision plutôt que les valeurs AUC lorsque nous rapportons les essais les plus fiables des classificateurs.

Cartes d'importance. Pour chaque schéma de classification, des cartes d'importance ont été construites selon la procédure décrite dans les études précédentes de la MVPA (Johnson et al., 20{{10}}9 ; McDuff et al., 2{{16 }}09). La valeur d'importance d'un voxel fournit un indice de l'influence de l'augmentation ou de la diminution de son signal sur les prédictions du classificateur. Après la formation, la procédure de classification par régression logistique donne un ensemble de valeurs de poids reflétant la valeur prédictive de chaque voxel (avec des valeurs positives indiquant que les augmentations d'activité sont généralement associées à un résultat de classe A et des valeurs négatives indiquant que les augmentations d'activité sont généralement associées à un résultat de classe). Ces pondérations ont ensuite été multipliées par le niveau d'activité moyen de chaque voxel pour les essais de classe A (qui, en raison de notre procédure d'équilibrage des essais et de notation z, est l'inverse additif de son niveau d'activité moyen pour les essais de classe B). Les voxels avec des valeurs positives pour l'activité et le poids ont reçu des valeurs d'importance positives, les voxels avec une activité et un poids négatifs ont reçu des valeurs d'importance négatives, et les voxels pour lesquels l'activité et le poids avaient des signes opposés ont reçu des valeurs d'importance de zéro (Johnson et al., 2009 ; McDuff et al., 2009). Des cartes récapitulatives au niveau du groupe ont été créées en faisant la moyenne des cartes d'importance des participants individuels et sont affichées dans les figures à des seuils arbitraires : cartes de rendu 3D seuillées entre 0,02 et 0,5 et cartes de rendu 2D entre 0,05 et 0,5 (voir Fig. 4) ou entre 0,15 et 0,5 (voir Fig. 7). Enfin, bien que les cartes d'importance soient un outil utile pour évaluer quels voxels ont été utilisés par le classificateur, ces cartes ne doivent pas être interprétées comme fournissant une évaluation exhaustive des voxels qui sont individuellement informatifs sur la distinction d'intérêt.

Analyses de projecteurs. Les cartes d'importance révèlent quels voxels fournissent des informations de diagnostic aux classificateurs du cerveau entier. Cependant, ils ne révèlent pas si les données de régions anatomiques individuelles peuvent être utilisées seules pour discriminer les résultats des CR. Nous avons effectué des analyses de projecteurs pour fournir des précisions de décodage locales (Kriegeskorte et al., 2006) à travers le cerveau. Il était particulièrement intéressant de savoir si les régions dans lesquelles le signal moyen dépendant du niveau d'oxygène dans le sang (BOLD ; univarié) était modulé de manière significative par des contre-mesures (voir Fig. 2A) permettaient également une précision de décodage essai par essai qui s'écartait considérablement du hasard. Nous avons effectué la classification critique (explicite ¡ hits masqués vs CR) sur des masques sphériques locaux centrés individuellement sur chaque voxel du masque du cerveau entier (à l'exclusion des voxels du cortex moteur et du cervelet). Chaque masque sphérique comprenait tout voxel qui touchait le bord du voxel central ; ainsi, les sphères résultantes contenaient 19 voxels, sauf lorsque la sphère s'étendait au-delà du masque du cerveau entier. Pour déterminer si les précisions de décodage locales ont évolué au cours de l'essai (comme on pouvait s'y attendre si les participants s'intéressaient initialement aux signaux de la mémoire, puis tentaient de dissimuler ces signaux), nous avons mené ces projecteurs séparément pour chacun des six TR.

Nous avons évalué la signification dans chacune de nos sphères de projecteur comme dans les analyses de décodage précédentes : les AUC ont d'abord été calculées pour 1 0 itérations de classification, puis une distribution nulle a été simulée en calculant 10 itérations de classification supplémentaires à l'aide de régresseurs brouillés. Nous avons généré des cartes t au niveau du groupe montrant des sphères qui distinguaient de manière fiable les résultats des CR en effectuant un test t apparié de la valeur AUC moyenne brouillée par rapport à la valeur non brouillée de chaque participant à chaque voxel, sur les 10 itérations. Ces cartes ont été seuillées à p 0,05 (corrigé) en appliquant un seuil de taille de cluster dérivé de simulations de Monte Carlo (Xiong et al., 1995) tel qu'implémenté dans le programme AFNI (Automated Functional Neuro-Imaging) 3dClustSim. La douceur du Monte

La simulation Carlo a été estimée séparément pour chaque participant et chaque point dans le temps à l'aide du programme AFNI 3dFWHMx à partir des ASC moyennes obtenues au cours des itérations de la classification brouillée. Le lissage a été moyenné entre les participants et les points temporels pour calculer une seule valeur de lissage pour chaque dimension. Un seuil de hauteur par voxel de p 0.01 a entraîné une taille de cluster de 22 voxels pour atteindre une signification au niveau du cluster de p {{10}}.{{15} }5 (FWE) dans un délai donné. Pour corriger les comparaisons multiples sur nos six points de temps, nous avons appliqué une correction de Bonferronini, en calculant le seuil d'étendue nécessaire pour atteindre une signification au niveau du cluster de p 0.0083 (ou 0,05/6 ; FWE) à chaque instant ou p 0,05 (FWE) dans l'espace et dans le temps. En utilisant cette méthode, nous avons déterminé qu'une étendue de cluster de 29 voxels était nécessaire pour obtenir une signification au niveau du cluster de p 0,05 (FWE) dans l'espace et les six points temporels.

Cistanche-improve memory4

Résultats

Performances comportementales

Tâche de mémoire explicite

Lorsque les participants ont honnêtement rapporté leur expérience mnémonique suscitée par chaque visage de test, ils ont atteint un taux de succès SD moyen (le taux auquel les images OLD ont été jugées "anciennes" avec précision) de {{0}}.73 0. 12 et un taux FA (le taux auquel les NOUVELLES images sont jugées "anciennes" de manière inexacte) de 0.27 0.10, ce qui donne une moyenne d de 1.27 0.56. Les temps de réponse moyens (RT) étaient plus rapides pour les réponses correctes (hits, 1.74 0.60 s ; CR, 2.10 0.75 s) que pour les réponses incorrectes (FAs, 2.{{16 }}.01 s ; raté : 2.33 0.81 s ; t(23) 5.15, p 3.22 10 5). Les réponses aux appels étaient plus rapides que les réponses CR (t(23) 5,44, p 1.56 10 5).

Comparaison des tâches de mémoire explicite et cachée

La moyenne d était significativement plus grande dans la mémoire explicite que dans la tâche de mémoire cachée (t(23) 2,99, p 6.6 10 3). Il n'y avait aucune différence entre les tâches dans le RT moyen pour tout résultat de mémoire (toutes les valeurs p 0.05). Cependant, il y avait une interaction significative entre la tâche et la mémoire, dans la mesure où la différence moyenne de RT pour les hits et les CR était plus grande dans la mémoire explicite que dans la tâche de mémoire cachée (t(23) 6,25, p 2.22 10 6). Cet effet différentiel de la mémoire sur la RT en fonction de la tâche peut découler de la différence de d entre les conditions de mémoire explicite et cachée et est probablement une conséquence de la nature à double tâche de la condition de mémoire cachée : les participants devaient d'abord déterminer si les visages étaient anciens ou nouveaux, puis passer rapidement à une stratégie de dissimulation de mémoire/nouveauté tout en inversant leurs réponses motrices.

Analyses IRMf univariées

Nous avons d'abord étudié la question de savoir si les participants pouvaient s'engager dans des contre-mesures stratégiques pour moduler les signaux BOLD liés à la mémoire dans les essais (c'est-à-dire les réponses IRMf univariées). Pour ce faire, nous avons identifié les "effets de réussite de la mémoire" (hits CR) pour chaque tâche séparément, puis déterminé où les effets de réussite de la mémoire étaient communs à toutes les tâches, ainsi que là où ils étaient modulés par la tâche. Nous avons ensuite cherché à savoir si la capacité à moduler les effets du succès de la mémoire était influencée par la force de la mémoire.

Effets communs de réussite de la mémoire

Étant donné que les participants devaient déterminer si un visage était ancien ou nouveau dans les deux tâches, nous avons ensuite cherché à déterminer s'il y avait des régions qui différenciaient les résultats des CR dans les deux tâches. Pour ce faire, nous avons masqué inclusivement les contrastes de succès de mémoire précédents (à p {{0}}.01 chacun, pour aboutir à un seuil conjoint de p 0,001). Le résultat de cette procédure de masquage a révélé des effets dans l'IPS gauche et le VTC gauche (Fig. 1C).


moins susceptible de montrer des effets de réussite de mémoire inversée dans l'AnG de gauche (r {{0}}.36, p 0.04). En d'autres termes, leurs effets de succès de mémoire ont persisté malgré les tentatives de dissimulation de leur mémoire. Cette découverte suggère que les participants ayant des souvenirs plus forts avaient plus de difficulté à moduler leur activité AnG pendant la tâche cachée. Fait intéressant, aucun groupe d'hippocampes n'a montré de relation significative entre la force de la mémoire et l'activité (hippocampe droit, r0.{{10}}5,p 0.82 ; campus de l'hippocampe gauche, r0,22, p 0,29), et les pentes des corrélations différaient entre l'AnG et l'hippocampe droit (Williams t(21) 2,49,p 0,021) et différaient légèrement pour l'hippocampe gauche (Williams t(21) 1,62, p 0,12) . Ensemble, ces résultats suggèrent que les participants ayant des souvenirs plus forts étaient moins capables d'exercer un contrôle ciblé sur l'activité liée à la mémoire dans l'AnG gauche, mais cela ne semble pas être le cas dans l'hippocampe bilatéral.

Analyses IRMf multivariées

Notre question centrale est de savoir si l'utilisation de stratégies de contre-mesures cognitives (orientées vers un objectif) permettrait aux participants de masquer les schémas neuronaux liés à la mémoire, affectant ainsi la capacité des techniques multivariées à lire leurs états de mémoire pour des événements individuels. En conséquence, nous avons ensuite évalué la capacité des classificateurs MVPA à décoder l'état de la mémoire des essais de récupération individuels en (1) d'abord en entraînant et en testant un classificateur sur les données de la tâche de mémoire de reconnaissance standard (tâche de mémoire explicite) et (2) en évaluant ensuite si cela Le classificateur pouvait également décoder la mémoire lorsque les participants tentaient de dissimuler leurs états de mémoire (tâche de mémoire cachée). Notre modèle de processus a suggéré trois scénarios alternatifs à tester ; nous commençons par expliquer notre modèle de processus, puis décrivons tour à tour chaque hypothèse.


Vous pourriez aussi aimer