Примеры применения теории информации к анализу процессов передачи информации в нервных каналах связи

Определим, как зависит среднее количество информации на символ (сигнальный признак в нервной импульсации) от того, какие сигнальные признаки различает нейрон, принимающий сообщения в форме нервных импульсов.

Допустим, к нейрону поступают с равной частотой 8 сообщений - 8 определённых последовательностей нервных импульсов (рис. 1). Заметим, что в импульсации содержатся “пачки” импульсов двух типов - короткие (по 3 импульса) и длинные (по 5 импульсов), причём длинные по-разному распределены среди коротких: в первом сообщении (1) нет длинных пачек, во втором, третьем, четвёртом (2, 3, 4) - одна длинная “пачка” приходится на две коротких (во втором сообщении она предшествует коротким, в третьем - находится между ними, в четвертом - следует после них), в пятом, шестом, седьмом (5, 6, 7) сообщениях содержатся по две длинных и одной короткой “пачке”, а в восьмом (8) - присутствуют только длинные “пачки”.

Если нейрон, принимающий эту импульсацию, способен различать “пачки” по их длительности, то он может по-разному реагировать на каждую из восьми последовательностей нервных импульсов. Вероятность поступления к нему каждого из таких сообщений равна 1/8 (р/ = 1/8). Для упрощения расчёта примем апостериорную вероятность равной единице 2 = 7). Тогда приход к нейрону любой из последовательностей импульсов, изображенных на рис. 1, даёт ему 3 бита информации.

Понятно, что в таком случае информационная энтропия составляет 3 о

бита на сообщение: Н = k>g2- = -8- (—log2 —) = 3 бит-(сообщение)1.

I 8 8 8 8

Последовательности нервных импульсов (иллюстрация к примеру расчёта информационной энтропии)

Рис. 1. Последовательности нервных импульсов (иллюстрация к примеру расчёта информационной энтропии)

Если же нейрон потеряет способность реагировать на короткие “пачки”, то для него информативными будут только длинные. Такой нейрон станет работать как счетчик числа длинных “пачек”. В тех же последовательностях нервных импульсов он сможет различить не 8, а 4 сообщения: 1 - отсутствие длинных “пачек”; 2 - наличие одной (длинной) “пачки” (для нейрона станут одинаковыми вторая, третья и четвёртая последовательности импульсов); 3 - наличие двух (длинных) “пачек” (нейрон не сможет различить пятую, шестую и седьмую последовательности импульсов); 4 -наличие трёх (длинных) “пачек” (восьмая последовательность импульсов). Следовательно, в таком случае М = 4, априорные вероятности первого и четвёртого сообщений равны 1/8, а второго и третьего - 3/8. Рассчитаем информационную энтропию:

H=-f|tog4|°s44i°844iogil]=47k>g!l+liog4]=("025'3_0i75ii42)=wi бит- (сообщение)'1.

Подобные расчёты позволяют не только сделать вывод, что в нервных каналах связи эффективнее работают нейроны, различающие “пачки” импульсной активности по их продолжительности, но и оценить количество информации, анализируемой нейронами разных типов. Так, у нейронов первого типа информационная энтропия составляет 3 бита на сообщение, тогда как у нейронов второго типа Н = 1,81 бит-(сообщение)’1. Когда такие числа характеризуют один и тот же нейрон при изменении его функционального состояния, получается количественная оценка потерь информации в этом процессе. Например, при нарушении возбудимости нейрон способен реагировать на более длительные стимулы (при прежней их амплитуде), утрачивая тем самым реакции на короткие раздражители. Поэтому даже частичная потеря возбудимости может сопровождаться потерями в передаче информации. Их удается оценить количественно путем расчёта изменения информационной энтропии.

Однако далеко не всякий патологический процесс в нервной системе приводит к понижению информационной энтропии, поскольку организм обладает рядом защитных механизмов, предупреждающих потери информации даже в условиях патологии. Наиболее эффективным способом предупреждения потерь информации во всех сферах человеческой деятельности служит создание информационной избыточности (как и сама информация, её избыточность измеряется в битах). Избыточность информации свойственна, например, любому тексту. Так, в письменных текстах на немецком языке содержится, в среднем, по 1,3 бита на букву, тогда как средняя избыточность достигает 3,4 бита на букву. Следовательно, в таких текстах избыточность значительно больше содержания информации. Эта закономерность характерна для всех языков. Благодаря избыточности подобная форма передачи информации весьма надежна.

Один из эффективных конкретных способов реализации принципа избыточности для повышения надёжности передачи информации состоит в использовании нескольких параллельных каналов связи. Он присущ нервной системе. Так, количество рецепторов гораздо больше числа нейронов, к которым от них поступают сигналы. Пропускная способность любых рецепторных аппаратов значительно выше возможностей осознания сенсорной информации. Человеческое сознание пользуется очень малой долей ин-22

формации, поставляемой в мозг периферическими отделами анализаторов -сенсорными входами (Табл. 1). Например, максимальный поток информации в процессе зрительного восприятия, осознаваемого человеком, составляет всего 40 бит-с’1, тогда как информационная ёмкость потока нервных импульсов в зрительных нервах достигает 107 бит-с’1. Сопоставление этих чисел свидетельствует об огромной избыточности и, следовательно, высокой надёжности информационных процессов в зрительной сенсорной системе. То же свойственно другим анализаторам (Табл. 1) и всем функциональным аппаратам мозга.

Таблица 1

Сравнение потоков информации (ёмкости каналов) на уровне афферентных волокон и сознательного восприятия (по М. Циммерманн, 1984)

Сенсорная система

Число рецепторов

Число афферентных волокон

Общая ёмкость каналов, бит-с’1

Психофизическая оценка емкости каналов (по осознанному восприятию), бит-с’1

Зрительная

2-Ю8

2-Ю6

107

40

Слуховая

3-Ю4

2.104

105

30

Тактильная

107

106

106

5

Обонятельная

7-Ю7

і о5

105

К?)

Вкусовая

3-Ю7

103

103

1 (?)

Применение теории информации к сенсорным системам позволяет сравнивать эффективность различных способов кодирования информации о внешней среде и информационные возможности каждого анализатора, сопоставлять органы чувств с техническими системами передачи информации. Язык теории информации пытаются употреблять для количественной оценки даже тех информационных систем организма человека, которые осуществляют психическую деятельность. На этом пути совершается много ошибок. Среди них следует назвать попытки применения понятий и математического аппарата теории информации к процессам, обеспечивающим осмысление передаваемой информации.

Для определения допустимых границ грамотного приложения теории информации нужно усвоить, что в ней нет положений, которые позволили бы количественно оценить смысл сообщения. “Теория информации, - предупреждал К. Шеннон, — пригодна лишь для систем, в которых нет никакой семантики”. Она позволяет строго изучать только такие каналы связи в организме, которые подобно машине передают всю поступающую к ним информацию без проникновения в её содержание и без выражения субъективного отношения к ней. Например, телеграфист может рассматриваться в качестве элемента системы связи, анализируемой с позиции теории информации, только в том случае, если при передаче сигналов он не вдумывается в их смысл. Результаты изучения сложных психических актов на основе теории информации пока не удовлетворяют исследователей. Однако существует мнение, что её дальнейшее развитие приведёт к созданию математического аппарата, который окажется пригодным для проникновения в сложнейшие механизмы человеческой психики. Сегодня эта теория применима к относительно простым проявлениям деятельности мозга.

 
Посмотреть оригинал
< Пред   СОДЕРЖАНИЕ   ОРИГИНАЛ   След >