Информация

1. "Обыденное" значение, по Н.Винеру: " Информация - это обозначение содержания, полученного из внешнего мира в процессе на­шего приспособления к нему и приспосабливания наших чувств». Здесь информация выступает в роли знания, сообщения. 2. Кибернетическое понятие информации, которое было сформулировано в основополагающих работах Н.Винера, осо­бенно К.Шеннона в 1948 году. В теории Шеннона под информацией понимают только те передаваемые сообщения, которые уменьшают неопределённость у получателя инфор­мации. Следовательно, информация измеряется разностью энтропий системы до и после получения информации. Не существует абсолютной информации: есть информация относительно оп­ределённого события (критерия, цели) или объекта, содер­жащаяся в другом событии. Измерение энтропии системы имеет ценность потому, что позволяет оценить влияние собы­тия А на событие В в форме разности Н(В) - Н(В / А), т.е. по количеству информации, которая является мерой отношения, взаимосвязи между системами, явлениями, процессами, а не показателем состо­яния систем.

Информацией является любая связь между системами, в результате которой увеличивается негэнтропия хотя бы одной из этих систем. Не существует абсолютной информации. Есть многомерная информация относительно цели и события в системе, содержащаяся в другом событии или объекте. Можно получить много дополнительных данных по движению и направлению потоков информации между системами путём анализа баланса негэнтропий и энтропий в совокупности систем.

Энтропия является параметром состояния системы, информация - параметром её функции.Чем сложнее принимающие информацию системы, тем эф­фективнее они могут её использовать. В зависимости от сложности системы возникает соответствующая информа­ционная модель. Принятие информации не является только отражением (копированием) состояния системы-отправителя, а процессом, связанным с изменением структуры принявшей её системы. Такие изме­нения структуры имеют разную временную устойчивость и составляют основы инфомоделей и ОНГ.

Во многих случаях информа­ция передаётся между системами не непосредственно, а через посредников или по "дополнительным каналам связи". В этих каналах может возникнуть дополнительная энтропия, что существенно искажает первоначальный поток информации или ОЭ. Кроме того, на эффективную передачу информации влияет также готовность приёмника её рас­шифровать (декодировать при наличии ОНГ). Важен и его интерес (новизна) к данной информации.

Чем больше ОНГ приёмника, тем более точно и качественно, без потерь, он может усвоить информацию. Чем больше приёмник инфор­мации превышает по уровню ОНГ отправителя, тем меньше посторонние шумы могут искажать процесс передачи инфор­мации (умный может понять даже дурака).

Инфообмени­вающиеся системы часто имеют разные размерности ОЭ, ОНГ и поэтому принципиально инфообмен между ними не может быть симметричен. Например, если отправитель информации имеет ОНГ с более высокой размерностью, чем приёмник, то последний уже из-за недостаточных размерностей (разно­образия) не может полностью принимать высланную инфор­мацию. В обратном направлении информация может быт принята полностью.

Обработкой информации называют любое упорядочение полученного системой информации и сочетание её с уже име­ющейся связанной информацией (ОНГ). Об­работка является необходимым условием для получения сис­темой любой информации, так как без этого не увеличивается её ОНГ. В относительно простых неорганических системах это сопровождается возникновением новых структурных эле­ментов.

Приближённую оценку прироста негэнтропийного потенциала даёт отношение ОНГ инфоприёмника к его начальной ОЭ (относительное содержание связанной информации). Обратная коэффициенту Z и величина является коэффициентом увеличения энтропии (рассеивания информации) при инфопередачах: Коэффициент k может изменяться в пределах 1 ¸ ¥. Если ОНГо = 0, т.е. если система - отправитель информации имеет максимальную ОЭ, то k = 1 и дополнительного увеличения энтропии при передаче информации не проис­ходит. Если ОНГп = ОНГо, то k ® ¥, т.е. если ОНГп и ОНГо близки, то информация передается с большими убыт­ками.

Другими словами: чем меньше разность ОЭ или ОНГ между инфообменивающими системами, тем больше рас­сеивается передаваемая информация!! (два похожих умника друг друга не понимают… стакан переполнен). Чем больше и быстрее система способна обрабатывать информацию, тем больше она и может принимать её, тем самым быстрее увеличивается её ОНГ. Предпосылкой уве­личению ОНГ является наличие в системе или в окружающей среде возможности роста не меньшего количества разно­образия (ОЭ).

Повышение ОЭ в инфосистемах нельзя не учитывать в любой практической деятельности. Следовательно "само­произвольность" некодированной передачи информации кажу­щаяся. В действительности для такой передачи необходимы дополнительные условия, которые неполностью раскрыты в кибернетике и синергетике.

Во-первых, должна быть между системами приёмника и отправителя разность ОНГ относи­тельно события (цели) в принимающей системе. Разность ОНГ показывает неравновесное состояние между системами, для достижения этого затрачена дополнительная энергия или ОНГ. Во-вторых, система-приёмник должна иметь структуру, обладающую инструктивными свойствами, т.е. иметь код для дешифрования и хранения информации.

Система - отправитель должна быть готовой принимать ОЭ, при этом в большем количестве, чем количество отправленной инфор­мации. В общей изолированной системе "отправитель-при­ёмник информации" количество ОЭ должно повышаться.!!

Обобщённой информацией является любая связь или отношение между системами, в результате которой повы­шается обобщённая негэнтропия (ОНГ) хотя бы одной системы. Так как элементы системы можно рассматривать как от­дельные системы, то и связи между элементами внутри систе­мы могут являться информацией. В то же время далеко не все связи или сообщения являются информацией. Если они не повышают ОНГ, они могут являться шумом, деструктирую­щим действием, в отдельных случаях, в живой природе и дез­информациeй.

ОЭ и ОНГ имеют намного большее значение при исследовании функционирования систем. Они являются наи­более общими критериями при поиске альтернативных путей развития или при принятии решений. Известно, что при равных возможностях система выбирает процессы, которые обеспечивают наименьшую диссипацию энергии, минимальное увеличение, сохранение или даже уменьшение энтропии. Энт­ропия, в том числе ОЭ в изолированных системах не может самостоятельно уменьшаться или сохранять свою величину. Она может только увеличиваться.

Основным фактором и кри­терием стабильности системы является ОНГ. Как масса и энергия, она имеет свойство инерции. Все системы обладают свойством принимать такую структуру, чтобы по возможности сохранить существующую ОНГ. Под действием внешних сил ОНГ может измениться (уменьшаться или уве­личиваться). Но система всегда старается сохранить макси­мально возможную ОНГ. ОЭ и ОНГ являются характерис­тиками состояния системы относительно её основного кри­терия цели, целесообразности или оптимальности. В случае любой оптимизации решающее значение имеет правильный выбор критериев оптимальности. Критерии зависят от цели или назначения системы, последние в свою очередь, от целей и структуры вышестоящей, более общей по иерархии системы. Однако, общим, решающим критерием при превращении любых сис­тем является ОНГ, т.е. по возможности минимальное её уменьшение. Все процессы подчинены, косвенно в неоргани­ческом мире, этой цели. Таким образом каждая система стре­мится сохранить максимально возможную свою ОНГ, что зависит от эффективности использования поступающих ин­формации, энергии и вещества.

Поскольку основой информации является уменьшение неопределённости систем, необходимо точнее раскрыть её сущность и связь с такими понятиями как вероятность, разно­образие, беспорядок, хаос, неупорядоченность, энтропия, не­предсказуемость, деструктивность, рассеянность, стохас­тичность, случайность и шум. Ч ем более сложны системы, тем сложнее ста­новятся и процессы обработки информации. Кроме её хранения (связывания) появляются процессы системати­зации, выбора, сжатия, отсеивания, рассеяния, старения. В более сложных системах появляются процессы сравнения альтернативных вариантов, обобщения, дифференцирован­ного отсеивания ненужного. В ещё более сложных системах появляются уже процессы селективного поиска ин­формации, моделирования, оптимизации, кодирования, сим­волы и язык, процессы уплотнения и творчества

Существенным различием между неживой и жи­вой природой является то, что системы неживой природы активно не занимаются поиском информации, а принимают то, что поступает. Системы живых организмов умеют уже селектировать (выбирать) нужную им информацию, а ненуж­ную просто не принимают, не обращая на это внимания.

Человек, кроме этих способностей, может также осознать процесс принятия информации и его целесообразно направ­лять, т.е. ввести процесс активного поиска. Поиск в своём первоначальном виде является случайным поиском. В даль­нейшем и в случайном поиске обнаружились свои законо­мерности и возможности повышения эффективности. Появи­лись многочисленные методы планирования эксперименталь­ного поиска. Их целью является получить минимальным объёмом эксперимента (количеством опытов) максимальное количество информации. Появились математические методы планирования и обработки экспериментальных данных, оцен­ки их статистической достоверности. В следующем этапе раз­рабатывались эвристические стратегии выбора. Согласно та­кой стратегии используют целый комплекс методов сжатия поискового поля: детерминированные, статистические, случай­ный поиск, проверка гипотез и др. Поэтапно отсеивают явно неэффективные варианты, информационное поле (массив) сужается и поиск осуществляется более короткими шагами. Значение имеет и количество поисковых признаков, пара­метров и критериев.

Основной целью обработки информации является разработка и оптимизация моделей реальных систем. При этом ценность полученной информации определяется по степени усовершенствования модели приёмника информации, по критериям выполнения его цели. Модель системы-отпра­вителя информации представляет для приёмника интерес только по мере того, сколько она способствует выполнению его целей. Поэтому, он при получении каждой серии инфор­мации решает, необходимо ли ему дополнительная информа­ция о системе отправителя или нет, т.е. необходимо ли ему дальше усовершенствовать модель системы отправителя. Ос­новным критерием усовершенствования модели приемника является повышение ОНГ его модели.

Обработка информации состоит в усовершенствовании модели приёмника по избирательно полученным данным о модели отправителя информации и по критериям ОНГ. В принципе в изолированной системе её общую ОНГ невозможно увеличить, но это возможно локально.Можно использовать доступную ОНГ других систем, в том числе и таких, которые находятся в виде модели или во второй реальности (мысли, образы). Для создания таких ОНГ раньше затрачены энергия и информация, которые могут быть использованы для усиления ОНГ системы-приёмника информации. В ре­зультате сузится поисковое поле приёмника, уменьшается его неопределённость и ОЭ. Система, обладающая большей ОНГ, может получить от системы с меньшим ОНГ, информации значительно больше, чем тратит свою ОНГ и тем самым работает как усилитель информации.

После получения информации существенным этапом является выяснение её содержательности и достоверности.

Качественной стороной информации занимаются такие науки, как семи­отика - теория знаковых систем, и её разделы; синтактика - исследование формальных отношений между знаками; семан­тика - содержание информации; прагматика - вопросы опре­деления ценности информации. Однако, при анализе любых альтернативных методов существо вопроса основывается на определении уменьшения неопределённости. Наиболее общим понятием из перечисленных является неопределённость.

Меру неопределённости можно рассмат­ривать как функцию от числа возможных исходов и ком­бинаций элементов в системе. То же характеризует их разнообразие. В любой системе её разнообразие зависит от количества различных элементов, числа и комбинаций их возможных состояний и количества возможных связей между ними. Поэтому понятия "неопределённость" и "разнообразие" часто употребляются как синонимы.

Мерой неопределённости системы является её энтропия, для сложных многомерных систем - ОЭ. Однако, ряд важных положений, для обосно­вания использования ОЭ выведены на определённых допу­щениях. С помощью классических формул энтропию (не­определённость) можно охарактеризовать совокупностью всех независимых возможных событий. С помощью условных вероятностей и условных энтропий можно описать взаимную зависимость между событиями. Но существующие зави­симости весьма разнообразны. При функциональной, детер­минированной зависимости переходы системы из одного состояния в другое полностью предопределены условиями (ОЭ = 0). Во многих процессах зависимости между собы­тиями носят случайный характер. Среди них есть и такие, в которых событие является сугубо индивидуальным резуль­татом исторически сложившегося стечения случайных об­стоятельств, в цепи которых невозможно обнаружить никаких закономерностей. Однако, при дополнительных допущениях, и такие процессы (т.н.марковские случайные процессы) мож­но характеризовать энтропией (К.Шеннон). Таким образом, применять энтропию как меру неопределённости нужно очень осторожно, проверяя предварительно, насколько исследуемый процесс при условиях данной задачи соответствует принятым допущениям и ограничениям

Вероятность также характеризует неопределённость, но её прямое применение возможно при конкретных, более уз­ких пределах. Для многих сложных вероятностей много­мерных систем применение условных вероятностей в расчётах связано с большими трудностями.

В мире нет чисто слу­чайных или чисто детерминированных систем. Вероятност­ный компонент содержится во всех в первичной реальности существующих системах. Они имеют бесконечно большую размерность, неопределённость в микромире, во времени и пространстве. Их энтропия приближается к бесконечности.

В реальном мире нет абсолютно детерминированных систем.

Имеются искусственно изолированные во времени и в прост­ранстве системы, в которых детерминированный компонент превалирует. Почти во всех системах неопределённость есть некото­рое отношение элемента, входящего в множество, к числу всех элементов в множестве. В каждом отношении сочета­ются случайные и неслучайные факторы. Для уменьшения неопределённости системы необходимо сочетать статистическую теорию информации с использова­нием априорной информации, теорий, гипотез и других мето­дов эвристического моделирования, в том числе с экспе­риментами.

Стохастичность и случайность можно считать синони­мами, также как и неупорядоченность и беспорядок. Имеются понятия для обозначения неопределённости в отдельных об­ластях: шум - в процессе инфопередачи, непредсказуемость - в прогнозах будущего, деструктивность - в структуре, рассеянность - в пространстве.

Целостность систем вытекает из одного их признака – упорядоченности и общих свойств объединённого суперполя в универсуме.

К таким свойствам относят гармонию и когерентность, общие свойства квантовой природы явлений (т.н. квантовый холизм) и вероятностная природа флуктуации и процессов развития. В универсуме существуют различного рода поля, кото­рые могут быть "в состоянии покоя" или находиться в воз­буждённом состоянии (образования волн, виртуальных час­тиц и др.) Известно много типов полей: гравитационное поле; электромагнитное поле (свет, радиоволны и др.);поля малого и большого взаимодействия; квантомеханические поля (позитронное поле).

Все поля соединяются в сверхмалом пространстве (ниже длины шкалы Планка, 10-35 м) в объединённое суперполе, из возбуждения которого могут возникать элементы вещества, энергии и ОНГ. Связанная форма информации - ОНГ содер­жится в каждой системе вместе с массой и энергией. Однако её определение, также как и выяснение процессов её прев­ращения и переходов часто представляет большие трудности.

Чем больше поле локально возбуждается, вибри­рует с образованием волн и материальных частиц, тем боль­ше оно содержит ОНГ.

В качестве первичных элементов поля как системы выделяются кванты. Выяснено, что квантовое дискретное строение имеют не только электромагнитные, но и гравитаци­онные волны и даже пространство и время. Система может быть комбинирована из различных полей, с квантами раз­личного энергосодержания и разной степенью их когерент­ности. Исследование квантовой структуры полей даёт воз­можность выяснить содержание в них связанной информа­ции - ОНГ.

Вибрировать, флуктуировать и образовать виртуальные частицы с квантовой природой могут только хотя бы минимально упорядоченные участки поля. Флуктуацию вызывают локальные неоднородности системы. Неоднородности, в благоприятных для них условиях (например влияние гравитационных сил), имеют тенденцию увеличения. Возникают локальные центры ОНГ, которые притягивают информацию тем больше, чем больше растёт ОНГ. Это является одной из исходных предпосылок появления многообразия систем в универсуме. Наименьшими воображаемыми в настоящее время системами являются кванты энергетических полей: электромагнитного, гравитационного и др.

Основной закономерностью в отношениях между всеми системами и их элементами является иерархическая структура их общего расположения на многих уровнях. Любая система сама уже имеет иерархическую структуру, её элементы образуют нижний уровень. Сама система с её структурой, общими свойствами и функциональной направленностью образует более высокий уровень. Каждая система является частью или элементом системы более высокого уровня.

Иерархическая система не является одномерной, т.е. иерархии переплетаются между собой. Конкретные элементы или системы могут участвовать во многих иерархических комплексах. Как системы, так и элементы рассматриваются в иерархическом комплексе по критериям одной целевой на­правленности или целесообразности. Однако, системы или их элементы могут иметь много целевых направленностей. Тем самым они участвуют во многих целевых иерархических комплексах. Общий иерархический комплекс превращается в переплетённую в многомерном пространстве сложную сетку.

Между системами происходит обмен массой, энергией и информацией (ОНГ). Причиной обмена является неравновесное состояние систем, как во взаимодействии между элементами, так и между системами. Исходной причиной неравновесия являются существующие в универсуме мощные потоки высококачественной (направленной) энергии и ОНГ. Огромными запасами энергии и ОНГ обладает гравитационное поле, а также объединенное суперполе. Поскольку иерархии систем переплетаются между собой, то и внутрисистемные массо-, энерго- или инфообмены могут влиять на процессы в других иерархиях систем. Если бы в системах наблюдались полный беспорядок, хаос, разнообразие, то их со своими характерными свойствами не было бы.

В реальном мире каждая система обладает структурой и упорядоченностью, которые измеряются количеством ОНГ. Каждая система в мире обладает ОЭ и ОНГ (гл. 4). ОНГ как связанная информация нейтрализует часть ОЭ и даёт системе упорядоченность. Системы взаимодействуют между собой путём передачи массы, энергии, ОЭ и ОНГ. В процессе обмена как масса и энергия, так и ОНГ могут концентрироваться или рассеиваться.

В процессе инфообмена информацией считается толь­ко такая связь между системами, в результате которой повы­шается количество ОНГ хотя бы одной системы. В остальных случаях мы имеем дело с рассеянием информации, массы или энергии, или просто шумом.

Из-за ограниченности ресурсов происходит борьба, кон­куренция между системами за овладение ими. Та система, ко­торая притягивает от других больше материальных, энергети­ческих и информационных ресурсов и более эффективно их использует, та обладает более широкими возможностями для существования и развития. В результате этого происходит местная локализация ресурсов и ОНГ. Такой же отбор по эффективности происходит также между мысленными моде­лями реального мира в индивидуальном и общественном сознании.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: