Информация. Начав описывать конкретную кибернетическую систему, мы невольно употребляем термин информация, который в своем разговорном

Начав описывать конкретную кибернетическую систему, мы невольно употребляем термин информация, который в своем разговорном, неформальном значении хорошо знаком и понятен каждому культурному человеку. Теперь мы введем кибернетическое понятие информации, имеющее точный количественный смысл.

Представим себе две подсистемы A и B (рис. 1.2), связанные между собой таким образом, что изменение состояния системы A влечет изменение состояния системы B. Это можно выразить такими словами: подсистема A воздействует на подсистему B.

Рис. 1.2. Связанные подсистемы

Рассмотрим подсистемы B в некоторый момент времени t 1 и в более поздний момент времени t 2. Первое обозначим через S 1, второе — через S 2. Cостояние S 2 зависит от состояния S 1. Однако оно не определяется состоянием S 1 однозначно, а зависит от него вероятностным образом, ибо мы рассматриваем не идеализированную теоретическую систему, подчиняющуюся детерминистическому закону движения, а реальную систему, состояния которой S суть результаты опытных данных. При таком подходе тоже можно говорить о законе движения, понимая его в вероятностном смысле, т. е. как условную вероятность состояния S 2 в момент t 2 при условии, что в момент t 1 система имела состояние S 1. Теперь забудем на минуту о законе движения. Обозначим через N полное число возможных состояний подсистемы B и будем представлять себе дело таким образом, что в любой момент времени подсистема B может с равной вероятностью принять любое из N состояний независимо от того, какое состояние она имела в предыдущий момент. Попытаемся количественно выразить степень (или силу) причинно-следственного влияния подсистемы A на такую безынерционную и «беззаконную» подсистему B. Пусть B под действием A переходит в некоторое совершенно определенное состояние. Ясно, что «сила влияния», которая требуется для этого от A, зависит от числа N и тем больше, чем больше N. Если, например, N = 2, то система B, даже будучи совершенно не связана с A, под действием каких-то случайных причин может с вероятностью 1/2 перейти в то самое состояние, которое «рекомендует» система A. Если же N = 109, то, заметив такое совпадение, мы вряд ли усомнимся во влиянии A на B. Следовательно, мерой «силы влияния» A на B в данном единичном акте, т. е. по существу мерой интенсивности причинно-следственной связи между двумя событиями — состоянием подсистемы A в интервале времени от t 1 до t 2 и состоянием подсистемы B в момент t 2 — должна служить какая-то монотонно возрастающая функция N. В кибернетике эта мера называется количеством информации, переданной от A к B между моментами времени t 1 и t 2, а монотонно возрастающей функцией служит логарифм. Итак, в нашем примере количество информации I, переданное от A к B, равно log N.

Выбор логарифмической функции определяется тем ее свойством, что

log N 1 N 2 = log N 1 + log N 2.

Пусть система A действует на систему B, состоящую из двух независимых подсистем B 1 и B 2 с возможным числом состояний N 1 и N 2 соответственно (рис. 1.3). Тогда число состояний системы B есть N 1× N 2, а количество информации I, которое надо передать системе B, чтобы она приняла одно определенное состояние, есть благодаря указанному свойству логарифма сумма

I = log N 1 N 2 = log N 1 + log N 2 = I 1 + I 2,

где I 1 и I 2 — количества информации, потребные подсистемам B 1 и B 2. Благодаря этому свойству информация принимает определенные черты субстанции, она распределяется по независимым подсистемам подобно жидкости, разливающейся по сосудам. Мы говорим о слиянии и разделении информационных потоков, об информационной емкости, о переработке информации и ее хранении.

Рис. 1.3. Воздействие на две независимые подсистемы

Вопрос о хранении информации связан с вопросом о законе движения. Выше мы мысленно отключили закон движения, чтобы определить понятие передачи информации. Если мы теперь рассмотрим закон движения с новой точки зрения, то он сводится к передаче информации от системы B в момент времени t 1 к той же самой системе B в момент t 2. Если состояние системы не меняется с течением времени, то это и есть хранение информации. Если состояние S 2 однозначно определяется состоянием S 1 в предыдущий момент времени, то систему называют полностью детерминированной. Если имеет место однозначная зависимость S 1 от S 2, то систему называют обратимой; для обратимой системы можно, в принципе, по заданному состоянию вычислить все предыдущие состояния, поэтому потери информации не происходит. Если система необратима, информация теряется. Закон движения в сущности есть нечто, регулирующее поток информации во времени от системы к ней самой.

Рис. 1.4. Канал связи

На рис. 1.4 изображена схема передачи информации от системы A к системе C через систему B. Эта последняя носит название канала связи. На состояние B может влиять не только состояние системы A, но еще какой-либо не поддающийся контролю фактор X, называемый помехой. Конечное состояние системы C в этом случае зависит не только от состояния A, но и от фактора Х (искажение информации). Еще одна важная схема обмена информации изображена на рис. 1.5. Это так называемая схема обратной связи. Состояние системы A в момент времени t 1 влияет на состояние B в момент времени t 2, а это последнее влияет на состояние системы A в момент времени t 3. Путь информации замыкается.

Рис. 1.5. Обратная связь

На этом мы пока ограничим наше знакомство с общими понятиями кибернетики и вернемся к эволюции жизни на Земле.

Нейрон

Внешний вид нервной клетки (нейрона) показан схематически на рис. 1.6. Нейрон состоит из довольно крупного (до 0,1 мм) тела, от которого отходят несколько отростков — дендритов, дающих начало все более и более тонким отросткам, подобно ветвям дерева. Кроме дендритов, от тела нервной клетки отходит еще один отросток — аксон, напоминающий длинный тонкий провод. Аксоны бывают очень длинны — до метра — и заканчиваются, подобно дендритам, древовидным разветвлением. На концах веточек, отходящих от аксона, можно видеть маленькие пластинки или луковички. Луковички одного нейрона близко подходят к различным участкам тела или дендритов другого нейрона, почти прикасаясь к ним. Эти контакты носят название синапсов; через них нейроны взаимодействуют друг с другом. Число луковичек, подходящих к дендритам одного нейрона, может исчисляться десятками и даже сотнями. Таким образом, нейроны очень тесно связаны друг с другом; они образуют нервную сеть.

Рис. 1.6. Схема строения нейрона

С точки зрения физико-химических свойств, в первую очередь распределения электрического потенциала по поверхности клетки, нейрон может находиться в одном из двух состояний, которые называют состояниями покоя или возбуждения, и время от времени нейрон под воздействием других нейронов или ка­ких-либо внешних факторов переходит из одного состояния в другое. Этот процесс, конечно, занимает некоторое время, так что исследователь, изучающий, например, динамику электрического состояния нейрона, рассматривает его как систему с непрерывными состояниями. Однако, сведения, которыми мы располагаем в настоящее время, указывают на то, что для работы нервной системы в целом существенным является не характер переходных процессов, а самый факт нахождения тех или иных нейронов в спокойном или возбужденном состоянии. Поэтому можно считать, что нервная сеть — это дискретная система, состоящая из элементарных подсистем — нейронов — с двумя состояниями.

Когда нейрон возбуждается, волна электрического потенциала бежит по аксону и доходит до луковичек на его разветвленных концах. С луковичек через синапсы возбуждение передается на соответствующие участки клеточной поверхности других нейронов. Поведение нейрона зависит от состояния, в котором находятся его синапсы. Простейшая модель функционирования нервной сети исходит из предположения, что состояние нейрона в каждый момент времени есть однозначная функция состояния его синапсов. Экспериментально установлено, что возбуждение одних синапсов способствует возбуждению клетки, другие синапсы, напротив, будучи возбуждены, препятствуют возбуждению в клетке. Наконец, некоторые синапсы могут вовсе не проводить возбуждение от луковичек и, следовательно, не влиять на состояние нейрона. Установлено также, что проводимость синапса увеличивается после первого прохождения через него возбуждения и нескольких следующих прохождений. Происходит как бы замыкание контакта. Это объясняет, каким образом без изменения положения нейронов друг относительно друга может меняться система связей между нейронами и, следовательно, характер функционирования нервной сети.

Представление о нейроне как о мгновенном переработчике информации, поступающей от синапсов, является, конечно, сильно упрощенным. Нейрон, как и всякая клетка, — сложная машина, работа которой еще мало изучена. Эта машина обладает большой внутренней памятью, поэтому ее реакции на внешнее воздействие могут отличаться большим разнообразием. Однако, чтобы понять общие закономерности работы нервной системы, мы можем отвлечься от этих сложностей (у нас, собственно говоря, нет другого выхода!) и исходить из очерченной выше простой модели.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: