WikiDer > Теория множественных следов
Теория множественных следов это консолидация памяти Модель выдвинута в качестве альтернативы теории прочности. Он утверждает, что каждый раз, когда некоторая информация представляется человеку, она нейронно кодируется в уникальном следе памяти, состоящем из комбинации его атрибутов.[1] Дальнейшее подтверждение этой теории было получено в 1960-х годах благодаря эмпирическим открытиям, согласно которым люди могут помнить определенные атрибуты объекта, не запоминая сам объект.[2] Режим, в котором информация представляется и впоследствии кодируется, может быть гибко встроен в модель. Этот след памяти уникален от всех других, похожих на него, из-за различий в некоторых аспектах атрибутов предмета, и все следы памяти, включенные с рождения, объединяются в представление множества следов в мозгу.[3] При исследовании памяти математическая формулировка этой теории может успешно объяснить эмпирические явления, наблюдаемые в признание и отзывать задачи.
Атрибуты
Атрибуты, которыми обладает предмет, формируют его след и могут относиться ко многим категориям. Когда элемент сохраняется в памяти, информация из каждой из этих атрибутивных категорий кодируется в трассировке элемента. Может иметь место своего рода семантическая категоризация, посредством которой индивидуальный след включается во всеобъемлющие концепции объекта. Например, когда человек видит голубя, след добавляется к скоплению следов «голубя» в его или ее сознании. Этот новый «голубиный» след, хотя и отличается от других экземпляров голубей, которых человек мог видеть в течение своей жизни, служит для поддержки более общей и всеобъемлющей концепции голубя.
Физический
Физические атрибуты предмета кодируют информацию о физических свойствах представленного предмета. Например, это может включать цвет, шрифт, написание и размер, тогда как для изображения эквивалентными аспектами могут быть формы и цвета объектов. Экспериментально было показано, что люди, которые не могут вспомнить отдельное слово, иногда могут вспомнить первую или последнюю букву или даже рифмующиеся слова,[4] все аспекты закодированы в физической орфографии следа слова. Даже когда элемент не представлен визуально, при кодировании он может иметь некоторые физические аспекты, основанные на визуальном представлении элемента.
Контекстуальный
Контекстные атрибуты - это широкий класс атрибутов, которые определяют внутренние и внешние функции, которые действуют одновременно с представлением элемента. Внутренний контекст - это ощущение внутренней сети, которое вызывает трассировка.[5] Это может варьироваться от аспектов настроения человека до других семантических ассоциаций, которые вызывает представление слова. С другой стороны, внешний контекст кодирует информацию о пространственных и временных аспектах по мере представления информации. Это может отражать, например, время дня или погоду. Пространственные атрибуты могут относиться как к физической среде, так и к воображаемой среде. В метод локусов, мнемоническая стратегия, включающая воображаемое пространственное положение, назначает относительные пространственные положения различным запоминаемым элементам, а затем «проходит» по этим назначенным позициям, чтобы запомнить элементы.
Модальный
Атрибуты модальности содержат информацию о методе представления элемента. Наиболее частые типы модальностей в экспериментальных условиях - слуховые и визуальные. Практически можно использовать любую сенсорную модальность.
Классификация
Эти атрибуты относятся к категоризации представленных предметов. Предметы, попадающие в одни и те же категории, будут иметь одинаковые атрибуты класса. Например, если был представлен элемент «приземление», он вызвал бы всеобъемлющую концепцию «футбола» или, в более общем смысле, «спорт», и, вероятно, имел бы общие атрибуты класса с «конечной зоной» и другими элементами, которые вписываются в та же концепция. Один элемент может соответствовать различным концепциям в то время, когда он представлен, в зависимости от других атрибутов элемента, например контекста. Например, слово «звезда» может быть отнесено к классу астрономии после посещения космического музея или к классу со словами «знаменитость» или «знаменитый» после просмотра фильма.
Математическая формулировка
Математическая формулировка следов позволяет создать модель памяти как постоянно растущую матрицу, которая непрерывно получает и включает информацию в виде векторов атрибутов. Теория множественных следов утверждает, что каждый когда-либо закодированный элемент, от рождения до смерти, будет существовать в этой матрице в виде множественных следов. Это делается путем присвоения каждому возможному атрибуту некоторого числового значения, чтобы классифицировать его при кодировании, поэтому каждая закодированная память будет иметь уникальный набор числовых атрибутов.
Матричное определение следов
Присваивая числовые значения всем возможным атрибутам, удобно построить вектор столбца представление каждого закодированного элемента. Это векторное представление также может быть использовано в вычислительных моделях мозга, таких как нейронные сети, которые принимают на вход векторные «воспоминания» и моделируют их биологическое кодирование через нейроны.
Формально кодированную память можно обозначить числовыми присвоениями всем ее возможным атрибутам. Если два предмета воспринимаются как имеющие один и тот же цвет или воспринимаются в одном контексте, числа, обозначающие их цвет и контекстные атрибуты, соответственно, будут относительно близкими. Предположим, мы кодируем всего L атрибуты каждый раз, когда мы видим объект. Затем, когда память закодирована, ее можно записать как м1 с L общее количество числовых записей в векторе-столбце:
- .
Подмножество L Атрибуты будут посвящены контекстным атрибутам, подмножество - физическим атрибутам и так далее. Одно из основных предположений теории множественных следов состоит в том, что, когда мы конструируем несколько воспоминаний, мы организуем атрибуты в одном и том же порядке. Таким образом, мы можем аналогично определить векторы м2, м3, ..., мп для учета п всего закодированных воспоминаний. Теория множественных следов утверждает, что эти воспоминания собираются вместе в нашем мозгу, чтобы сформировать матрицу памяти из простой конкатенации отдельных воспоминаний:
- .
За L общие атрибуты и п общие воспоминания, M буду иметь L ряды и п столбцы. Обратите внимание, что хотя п трассы объединяются в большую матрицу памяти, каждая трасса доступна индивидуально как столбец в этой матрице.
В этой формулировке п разные воспоминания сделаны более или менее независимыми друг от друга. Однако элементы, представленные вместе в некоторых настройках, будут косвенно связаны схожестью их контекстных векторов. Если несколько элементов связаны друг с другом и намеренно закодированы таким образом, скажем, элемент а и предмет б, то память для этих двух может быть построена, каждый из которых имеет k атрибуты следующим образом:
- .
Контекст как стохастический вектор
Когда элементы изучаются один за другим, возникает соблазн сказать, что они изучаются в одном и том же временном контексте. Однако в действительности в контексте есть небольшие вариации. Следовательно, часто считается, что контекстные атрибуты меняются со временем, как моделируется случайный процесс.[6] Учитывая вектор только р общие атрибуты контекста тя что представляет собой контекст памяти мя, контекст следующей закодированной памяти задается тя + 1:
так,
Здесь, ε (j) является случайным числом, выбранным из Гауссово распределение.
Суммарное сходство
Как объясняется в следующем разделе, отличительной чертой теории множественных трассировок является способность сравнивать какой-либо элемент зонда с ранее существовавшей матрицей закодированных воспоминаний. Это имитирует процесс поиска в памяти, посредством чего мы можем определить, видели ли мы когда-либо зонд раньше, как в задачах распознавания, или же зонд вызывает другую, ранее закодированную память, как при вызове по команде.
Во-первых, зонд п кодируется как вектор атрибутов. Продолжая предыдущий пример матрицы памяти M, зонд будет иметь L записи:
- .
Этот п затем сравнивается один за другим со всеми ранее существовавшими воспоминаниями (трассировкой) в M путем определения Евклидово расстояние между п и каждый мя:
- .
Из-за стохастической природы контекста в теории множественных трасс почти никогда не бывает, чтобы объект зонда точно соответствовал закодированной памяти. Тем не менее, большое сходство между п и мя обозначается небольшим евклидовым расстоянием. Следовательно, на расстоянии должна быть выполнена другая операция, которая приводит к очень низкому сходству для большого расстояния и очень высокому подобию для малого расстояния. Линейная операция не устраняет элементы с низким сходством достаточно резко. Интуитивно кажется наиболее подходящей модель экспоненциального распада:
куда τ - параметр распада, который может быть задан экспериментально. Затем мы можем определить сходство со всей матрицей памяти с помощью суммированного подобия СС (п, М) между зондом п и матрица памяти M:
- .
Если элемент зонда очень похож даже на одну из закодированных ячеек памяти, SS получает большой импульс. Например, учитывая м1 в качестве тестового элемента мы получим расстояние, близкое к 0 (не совсем из-за контекста) для i = 1, что добавит почти максимально возможное усиление к SS. Чтобы отличить от фонового сходства (например, всегда будет некоторое низкое сходство с контекстом или несколькими атрибутами), SS часто сравнивают с каким-то произвольным критерием. Если оно выше критерия, то зонд считается среди закодированных. Критерий может варьироваться в зависимости от характера задачи и желания предотвратить ложные срабатывания. Таким образом, теория множественных следов предсказывает, что, получив некоторую реплику, мозг может сравнить эту реплику с критерием, чтобы ответить на такие вопросы, как «была ли эта реплика раньше?» (узнавание) или "какое воспоминание вызывает этот сигнал?" (повторное обращение), которые являются приложениями суммарного сходства, описанными ниже.
Приложения к явлениям памяти
Признание
Теория множественных следов хорошо вписывается в концептуальную основу для признание. Признание требует, чтобы человек определил, видел ли он предмет раньше. Например, распознавание лиц определяет, видел ли человек раньше лицо. Когда его спрашивают об успешно закодированном элементе (то, что действительно видели раньше), распознавание должно происходить с высокой вероятностью. В математических рамках этой теории мы можем моделировать распознавание отдельного объекта зонда. п по суммированному сходству с критерием. Мы преобразуем тестовый элемент в вектор атрибутов, как это делается для закодированных воспоминаний, и сравниваем с каждой когда-либо встреченной трассой. Если суммарное сходство соответствует критерию, мы говорим, что уже видели предмет раньше. Ожидается, что суммарное сходство будет очень низким, если элемент никогда не видели, но относительно большим, если это было из-за сходства атрибутов зонда с некоторой памятью матрицы памяти.
Это может применяться как для распознавания отдельных элементов, так и для ассоциативного распознавания двух или более элементов вместе.
Поданный отзыв
Теория также может объяснить поданный отзыв. Здесь дается некоторая подсказка, которая предназначена для извлечения элемента из памяти. Например, такой фактический вопрос, как «Кто был первым президентом Соединенных Штатов?» - это сигнал к ответу «Джорджа Вашингтона». в "ab" описанной выше структуры, мы можем взять все атрибуты, присутствующие в cue, и перечислить их, считая а элемент в закодированной ассоциации, когда мы пытаемся вспомнить б часть мab объем памяти. В этом примере такие атрибуты, как «первый», «Президент» и «США», будут объединены, чтобы сформировать а вектор, который уже будет сформулирован в мab память, чья б значения кодируют «Джордж Вашингтон». Данный а, есть две популярные модели того, как мы можем успешно вспомнить б:
1) Мы можем просмотреть и определить сходство (а не суммарное сходство, см. Выше для различий) каждого элемента в памяти для а атрибуты, затем выберите ту память, которая имеет наибольшее сходство для а. Что бы ни б-тип атрибутов, с которыми мы связаны, дает то, что мы помним. В мab память дает лучший шанс вспомнить, так как ее а элементы будут иметь большое сходство с репликой а. Тем не менее, поскольку воспоминание происходит не всегда, мы можем сказать, что сходство должно соответствовать критерию, чтобы воспоминание вообще произошло. Это похоже на то, как машина IBM Watson работает. Здесь подобие сравнивает только а-тип атрибуты а к мab.
2) Мы можем использовать правило вероятностного выбора, чтобы определить вероятность отзыва предмета пропорционально его сходству. Это похоже на бросание дротика в мишень, где большие области представлены большим сходством с элементом реплики. С математической точки зрения, учитывая сигнал а, вероятность вызвать желаемое воспоминание мab является:
При вычислении сходства и суммарного сходства мы рассматриваем только отношения между а-тип атрибутов. Мы добавляем ошибка срок, потому что без него вероятность вызова любого воспоминания в M будет 1, но, конечно, бывают случаи, когда отзыв вообще не происходит.
Объяснение других общих результатов
Явления в памяти, связанные с повторением, частотой слов, новизной, забыванием и смежностью, среди прочего, могут быть легко объяснены в сфере теории множественных следов. Известно, что память улучшается при многократном воздействии на предметы. Например, если несколько раз услышать слово в списке, это улучшит распознавание и запоминание этого слова позже. Это связано с тем, что повторная экспозиция просто добавляет память в постоянно растущую матрицу памяти, поэтому суммарное сходство для этой памяти будет больше и, следовательно, с большей вероятностью будет соответствовать критерию.
При распознавании очень распространенные слова труднее распознать как часть заученного списка при проверке, чем редкие слова. Это известно как эффект частоты слов, и его также можно объяснить теорией множественных следов. Для общих слов суммарное сходство будет относительно высоким, независимо от того, было ли слово встречено в списке или нет, потому что вполне вероятно, что слово встречалось и закодировалось в матрице памяти несколько раз на протяжении всей жизни. Таким образом, мозг обычно выбирает более высокий критерий при определении того, входят ли общие слова в список, что затрудняет их успешный выбор. Однако более редкие слова обычно встречаются реже на протяжении всей жизни, и поэтому их присутствие в матрице памяти ограничено. Следовательно, низкое общее суммарное сходство приведет к более слабому критерию. Если слово присутствовало в списке, высокое контекстное сходство во время теста и сходство других атрибутов приведет к достаточному увеличению суммарного сходства, чтобы превзойти прошлый критерий и, таким образом, успешно распознать редкое слово.
Давность в эффект последовательной позиции может быть объяснено тем, что более свежие закодированные воспоминания будут иметь общий временной контекст, наиболее похожий на текущий контекст, поскольку стохастическая природа времени не будет иметь такого явного влияния. Таким образом, контекстное сходство будет высоким для недавно закодированных элементов, поэтому общее сходство будет относительно выше и для этих элементов. Также считается, что стохастический контекстуальный дрейф объясняет забывание, потому что контекст, в котором была закодирована память, теряется со временем, поэтому суммарное сходство для элемента, представленного только в этом контексте, со временем будет уменьшаться.[7][8]
Наконец, эмпирические данные показали эффект примыкания, в результате чего элементы, которые представлены вместе во времени, даже если они не могут быть закодированы как единая память, как в "ab" парадигма, описанная выше, с большей вероятностью запомнится вместе. Это можно рассматривать как результат низкого контекстного дрейфа между элементами, запоминаемыми вместе, поэтому контекстное сходство между двумя элементами, представленными вместе, является высоким.
Недостатки
Один из самых больших недостатков теории множественных трассировок - это потребность в каком-либо элементе, с которым сравнивается матрица памяти при определении успешного кодирования. Как упоминалось выше, это довольно хорошо работает при распознавании и отзыве по сигналу, но есть явная неспособность включить бесплатный отзыв в модель. Свободный отзыв требует от человека свободного запоминания некоторого списка пунктов. Хотя сам процесс запроса на вспоминание может выступать в качестве реплики, которая затем может вызывать техники запоминания с помощью команды, маловероятно, что реплика является достаточно уникальной, чтобы достичь суммарного критерия сходства или иным образом достичь высокой вероятности отзыва.
Другая важная проблема заключается в переводе модели на биологическое значение. Трудно представить, что мозг обладает неограниченной способностью отслеживать такую большую матрицу воспоминаний и продолжать расширять ее с каждым предметом, который он когда-либо представлял. Более того, поиск в этой матрице - это исчерпывающий процесс, который не имеет отношения к биологическим временным масштабам.[9]
Смотрите также
Рекомендации
- ^ Семон, RW (1923). Мнемоническая психология. Лондон: Джордж Аллен и Анвин.
- ^ Андервуд, Б.Дж. (1969). «Некоторые корреляты повторения задания в обучении с произвольным воспроизведением». Журнал вербального обучения и вербального поведения. 8: 83–94. Дои:10.1016 / s0022-5371 (69) 80015-0.
- ^ Hintzman, DL; Блок РА (1971). «Повторение и память: доказательства гипотезы множественных следов». Журнал экспериментальной психологии. 88 (3): 297–306. Дои:10,1037 / ч0030907.
- ^ Коричневый, R; Макнейл Д. (1966). «Феномен« кончика языка »». Журнал вербального обучения и вербального поведения. 5 (4): 325–337. Дои:10.1016 / s0022-5371 (66) 80040-3.
- ^ Бауэр, Г. Х. (1967). «Многокомпонентная теория следа памяти». Психология обучения и мотивации: достижения в области исследований и теории. Психология обучения и мотивации. 1: 229–325. Дои:10.1016 / s0079-7421 (08) 60515-0. ISBN 9780125433013.
- ^ Эстес, WK (1959). Компонентные и паттерновые модели с марковскими интерпретациями. исследования по математической теории обучения. Стэнфорд, Калифорния: Издательство Стэнфордского университета.
- ^ Робинсон, ES (1932). Теория ассоциации сегодня; очерк по систематической психологии. Нью-Йорк: The Century Co.
- ^ Karpicke, JD; Рёдигер Х.Л. (2007). «Повторное извлечение во время обучения - ключ к долгосрочному удержанию». Журнал памяти и языка. 57: 151–162. Дои:10.1016 / j.jml.2006.09.004.
- ^ Берроуз, D; Окада Р. (1975). «Извлечение памяти из коротких и длинных списков». Наука. 188: 1031–1033. Дои:10.1126 / science.188.4192.1031.