Закон информированности-упорядоченности

Закон информированности-упорядоченности утверждает, что в организованном целом не может быть больше порядка, чем информации. Упорядоченность — характеристика системы, отражающая наличие определенным образом установленных взаимосвязей.

Очевидно, достигнутый порядок можно охарактеризовать с помощью как качественных, так и количественных методов. Так, порядок можно в принципе признать полным, если в нем нашли практическое воплощение три аспекта упорядоченност и, выте­кающие из того, что определены:

а) границы системы, т. е. установлено, сколько и каких обра­зующих единиц она включает;

б) переменные, которые характеризуют элементы, образую­щие систему;

в) образ действия каждого элемента и системы их взаимодей­ствия. Таким образом, наше знание о системе связано с порядком в ней.

Для более глубокого понимания того, каким именно образом информация играет основную роль в процессе упорядочения системы, необходимо иметь правильное представление о фунда­ментальной связи понятия «информация» с понятиями «энтро­пия», «разнообразие» и «ограничение».

С самых древних времен человек окружен информацией. Слово «информация» в течение своей долгой жизни не раз пре­терпевало эволюцию, то расширяя, то предельно сужая свои гра­ницы. Изначальное значение — «представление», «понятие», «контур» — затем трансформировалось в «сведения», «передачу сообщений». Общечеловеческое восприятие слова «информа­ция» слишком «эластично» для мира науки. И в этой сфере его свели к «мере определенности в сообщении».

Как бы ни варьировалось слово «информация», главное в нем то, что оно несет сведения, сообщает, рассказывает, знакомит, т.е. снимает, уничтожает незнание о чем-либо, снимает, уничтожает неопределенность.

Обоснование фундаментальной роли информации в окружа­ющем нас мире явилось одним из принципиальных научных до­стижений кибернетики. Образно говоря, если раньше наука по­лагала, что все в мире сводится к веществу или энергии, то с появлением кибернетики информация стала унифицирующим понятием, определяющим действие организационных систем, т.е. систем, поведение которых контролируется (управляется) достижением заранее поставленных целей.

Кибернетическое понятие информации несравненно точнее, глубже и шире, чем значение этого слова в обиходном употребле­нии. Точнее — потому что с точки зрения кибернетики не всякие сведения несут информацию, а лишь те, которые уменьшают не­определенность системы для ее наблюдателя. Глубже — потому что информация является таким же фундаментальным понятием для кибернетики, как понятие энергии для классической физи­ки. Шире — потому что информация в кибернетике не считается привилегией лишь человеческого сознания. Последнее утверждение нуждается в пояснении. При всей общности информационных процессов в ки­бернетических системах любой природы наиболее сложно они протекают в человеческом сознании.

Представление об интересующем нас объекте мы получаем на основе восприятия каких-то его различных состояний, скажем, состояний выхода. Информацию, полученную в результате этого наблюдения, можно квалифицировать как отраженное разнооб­разие. Иными словами, объект проявляет некоторое разнообра­зие состояний и это разнообразие отражается наблюдателем.

Для того чтобы оценивать разнообразие объекта, одним из родоначальников современной теории информации К. Шенно­ном введено такое понятие, как количество разнообразия или мера неопределенности — энтропия. Проще всего было бы оце­нивать его непосредственно числом различных состояний объек­та. Но тогда при одном-единственном состоянии количество раз­нообразия было бы равно единице, а фактически оно отсутству­ет, т.е. равно нулю. Поэтому за единицу целесообразно принять разнообразие объекта, имеющего минимальное число различных состояний — два.

Энтропия тем больше, чем больше число различных возмож­ных состояний объекта. Если исходы или возможности перехода в любое из состояний объекта равновероятны, как, например, в случае с монетой или игральной костью, то энтропия определя­ется в соответствии с конкретными условиями — логарифмом числа различных возможных состояний объекта, чаще всего ло­гарифмом с основанием 2. В последнем случае имеем двоичные единицы для измерения количества разнообразия. Такая двоич­ная единица носит название бит. Разнообразие сторон, монеты составляет 1 бит. Шесть граней игральной кости несут разнообразие, равное 1 log = 2,6 бит.

Любое изменение в сторону неравенства вероятностей умень­шает неопределенность, а следовательно, энтропию. Таким об­разом, ее величина зависит от двух факторов: от количества со­стояний объекта и от распределения их вероятностей. Энтропия максимальна именно при равенстве всех вероятностей возмож­ных состояний системы.

Мир без ограничений был бы всеобщим хаосом. Хаос и оби­лие разнообразия уменьшаются организацией или наложением ограничений.

По мнению одного из классиков экономической теории К. Эрроу, проблема оперативной передачи информации являет­ся одним из главных аспектов структуры производства и рынка в целом. Если учесть колоссальную сложность экономической системы, то вполне понятно, что для ее нормального функциони­рования необходимо непрестанное движение информационных потоков как в рамках самой системы, так и в связях с другими системами общества (рис. 6).

Рис. 6. Информационные потоки в организации [Алиев В.Г.,С.109]

Исследования, проведенные в различных фирмах, выявили следующие аспекты информационных взаимодействий:

1. Большинство работ осуществляется в рамках организации: 93% всех взаимодействий остаются внутренними и лишь 7% при­ходится на контакты с поставщиками и потребителями.

2. Основная часть информации добывается из внутренних ис­точников — до 86%.

3. Только около 10% информации можно считать новой.

Таким образом, закон упорядоченности утверждает, что главным связующим элемен­том системы является упорядоченная информация. Упорядочен­ность — характеристика образом установленных взаимосвязей, обеспечивающих порядок, организованность во всем, устойчивость функционирования системы.

Достигнутую упорядоченность можно охарактеризовать с помо­щью количественных и качественных оценок. Упорядочен­ность в принципе можно признать полной, если при ее оценке учтены следующие три аспекта:

• установлены границы системы и ее структура;

• определены поименные компоненты системы;

• сформулирован порядок взаимодействия компонентов системы

и системы с внешней средой, установлены формы, методы и сред­ства получения, обработки, хранения и передачи информации.

Повышение качества информационного обес­печения системы управления является главным условием качествен­ного функционирования системы и достижения конкурентоспособно­сти выпускаемых ею товаров. Кто владеет качественной информацией - тот владеет ситуацией, имеет достойное положение.

Таким образом, исследование механизмов закона информа­тивности-упорядоченности приводит нас к выводу, что внутренняя организован­ность целого предопределена возможностями преодоления ин­формационной неопределенности в системе.

Она возрастает по мере сокращения этой неопределенности и, наоборот, по мере роста приближает систему к хаосу.

Указанное обстоятельство имеет огромное значение для понимания процессов перехода от организованности к дезорганизации и возможностей их регули­рования и саморегулирования.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: