1. "Обыденное" значение, по Н.Винеру: " Информация - это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспосабливания наших чувств». Здесь информация выступает в роли знания, сообщения. 2. Кибернетическое понятие информации, которое было сформулировано в основополагающих работах Н.Винера, особенно К.Шеннона в 1948 году. В теории Шеннона под информацией понимают только те передаваемые сообщения, которые уменьшают неопределённость у получателя информации. Следовательно, информация измеряется разностью энтропий системы до и после получения информации. Не существует абсолютной информации: есть информация относительно определённого события (критерия, цели) или объекта, содержащаяся в другом событии. Измерение энтропии системы имеет ценность потому, что позволяет оценить влияние события А на событие В в форме разности Н(В) - Н(В / А), т.е. по количеству информации, которая является мерой отношения, взаимосвязи между системами, явлениями, процессами, а не показателем состояния систем.
|
|
Информацией является любая связь между системами, в результате которой увеличивается негэнтропия хотя бы одной из этих систем. Не существует абсолютной информации. Есть многомерная информация относительно цели и события в системе, содержащаяся в другом событии или объекте. Можно получить много дополнительных данных по движению и направлению потоков информации между системами путём анализа баланса негэнтропий и энтропий в совокупности систем.
Энтропия является параметром состояния системы, информация - параметром её функции.Чем сложнее принимающие информацию системы, тем эффективнее они могут её использовать. В зависимости от сложности системы возникает соответствующая информационная модель. Принятие информации не является только отражением (копированием) состояния системы-отправителя, а процессом, связанным с изменением структуры принявшей её системы. Такие изменения структуры имеют разную временную устойчивость и составляют основы инфомоделей и ОНГ.
Во многих случаях информация передаётся между системами не непосредственно, а через посредников или по "дополнительным каналам связи". В этих каналах может возникнуть дополнительная энтропия, что существенно искажает первоначальный поток информации или ОЭ. Кроме того, на эффективную передачу информации влияет также готовность приёмника её расшифровать (декодировать при наличии ОНГ). Важен и его интерес (новизна) к данной информации.
Чем больше ОНГ приёмника, тем более точно и качественно, без потерь, он может усвоить информацию. Чем больше приёмник информации превышает по уровню ОНГ отправителя, тем меньше посторонние шумы могут искажать процесс передачи информации (умный может понять даже дурака).
|
|
Инфообменивающиеся системы часто имеют разные размерности ОЭ, ОНГ и поэтому принципиально инфообмен между ними не может быть симметричен. Например, если отправитель информации имеет ОНГ с более высокой размерностью, чем приёмник, то последний уже из-за недостаточных размерностей (разнообразия) не может полностью принимать высланную информацию. В обратном направлении информация может быт принята полностью.
Обработкой информации называют любое упорядочение полученного системой информации и сочетание её с уже имеющейся связанной информацией (ОНГ). Обработка является необходимым условием для получения системой любой информации, так как без этого не увеличивается её ОНГ. В относительно простых неорганических системах это сопровождается возникновением новых структурных элементов.
Приближённую оценку прироста негэнтропийного потенциала даёт отношение ОНГ инфоприёмника к его начальной ОЭ (относительное содержание связанной информации). Обратная коэффициенту Z и величина является коэффициентом увеличения энтропии (рассеивания информации) при инфопередачах: Коэффициент k может изменяться в пределах 1 ¸ ¥. Если ОНГо = 0, т.е. если система - отправитель информации имеет максимальную ОЭ, то k = 1 и дополнительного увеличения энтропии при передаче информации не происходит. Если ОНГп = ОНГо, то k ® ¥, т.е. если ОНГп и ОНГо близки, то информация передается с большими убытками.
Другими словами: чем меньше разность ОЭ или ОНГ между инфообменивающими системами, тем больше рассеивается передаваемая информация!! (два похожих умника друг друга не понимают… стакан переполнен). Чем больше и быстрее система способна обрабатывать информацию, тем больше она и может принимать её, тем самым быстрее увеличивается её ОНГ. Предпосылкой увеличению ОНГ является наличие в системе или в окружающей среде возможности роста не меньшего количества разнообразия (ОЭ).
Повышение ОЭ в инфосистемах нельзя не учитывать в любой практической деятельности. Следовательно "самопроизвольность" некодированной передачи информации кажущаяся. В действительности для такой передачи необходимы дополнительные условия, которые неполностью раскрыты в кибернетике и синергетике.
Во-первых, должна быть между системами приёмника и отправителя разность ОНГ относительно события (цели) в принимающей системе. Разность ОНГ показывает неравновесное состояние между системами, для достижения этого затрачена дополнительная энергия или ОНГ. Во-вторых, система-приёмник должна иметь структуру, обладающую инструктивными свойствами, т.е. иметь код для дешифрования и хранения информации.
Система - отправитель должна быть готовой принимать ОЭ, при этом в большем количестве, чем количество отправленной информации. В общей изолированной системе "отправитель-приёмник информации" количество ОЭ должно повышаться.!!
Обобщённой информацией является любая связь или отношение между системами, в результате которой повышается обобщённая негэнтропия (ОНГ) хотя бы одной системы. Так как элементы системы можно рассматривать как отдельные системы, то и связи между элементами внутри системы могут являться информацией. В то же время далеко не все связи или сообщения являются информацией. Если они не повышают ОНГ, они могут являться шумом, деструктирующим действием, в отдельных случаях, в живой природе и дезинформациeй.
ОЭ и ОНГ имеют намного большее значение при исследовании функционирования систем. Они являются наиболее общими критериями при поиске альтернативных путей развития или при принятии решений. Известно, что при равных возможностях система выбирает процессы, которые обеспечивают наименьшую диссипацию энергии, минимальное увеличение, сохранение или даже уменьшение энтропии. Энтропия, в том числе ОЭ в изолированных системах не может самостоятельно уменьшаться или сохранять свою величину. Она может только увеличиваться.
|
|
Основным фактором и критерием стабильности системы является ОНГ. Как масса и энергия, она имеет свойство инерции. Все системы обладают свойством принимать такую структуру, чтобы по возможности сохранить существующую ОНГ. Под действием внешних сил ОНГ может измениться (уменьшаться или увеличиваться). Но система всегда старается сохранить максимально возможную ОНГ. ОЭ и ОНГ являются характеристиками состояния системы относительно её основного критерия цели, целесообразности или оптимальности. В случае любой оптимизации решающее значение имеет правильный выбор критериев оптимальности. Критерии зависят от цели или назначения системы, последние в свою очередь, от целей и структуры вышестоящей, более общей по иерархии системы. Однако, общим, решающим критерием при превращении любых систем является ОНГ, т.е. по возможности минимальное её уменьшение. Все процессы подчинены, косвенно в неорганическом мире, этой цели. Таким образом каждая система стремится сохранить максимально возможную свою ОНГ, что зависит от эффективности использования поступающих информации, энергии и вещества.
Поскольку основой информации является уменьшение неопределённости систем, необходимо точнее раскрыть её сущность и связь с такими понятиями как вероятность, разнообразие, беспорядок, хаос, неупорядоченность, энтропия, непредсказуемость, деструктивность, рассеянность, стохастичность, случайность и шум. Ч ем более сложны системы, тем сложнее становятся и процессы обработки информации. Кроме её хранения (связывания) появляются процессы систематизации, выбора, сжатия, отсеивания, рассеяния, старения. В более сложных системах появляются процессы сравнения альтернативных вариантов, обобщения, дифференцированного отсеивания ненужного. В ещё более сложных системах появляются уже процессы селективного поиска информации, моделирования, оптимизации, кодирования, символы и язык, процессы уплотнения и творчества
|
|
Существенным различием между неживой и живой природой является то, что системы неживой природы активно не занимаются поиском информации, а принимают то, что поступает. Системы живых организмов умеют уже селектировать (выбирать) нужную им информацию, а ненужную просто не принимают, не обращая на это внимания.
Человек, кроме этих способностей, может также осознать процесс принятия информации и его целесообразно направлять, т.е. ввести процесс активного поиска. Поиск в своём первоначальном виде является случайным поиском. В дальнейшем и в случайном поиске обнаружились свои закономерности и возможности повышения эффективности. Появились многочисленные методы планирования экспериментального поиска. Их целью является получить минимальным объёмом эксперимента (количеством опытов) максимальное количество информации. Появились математические методы планирования и обработки экспериментальных данных, оценки их статистической достоверности. В следующем этапе разрабатывались эвристические стратегии выбора. Согласно такой стратегии используют целый комплекс методов сжатия поискового поля: детерминированные, статистические, случайный поиск, проверка гипотез и др. Поэтапно отсеивают явно неэффективные варианты, информационное поле (массив) сужается и поиск осуществляется более короткими шагами. Значение имеет и количество поисковых признаков, параметров и критериев.
Основной целью обработки информации является разработка и оптимизация моделей реальных систем. При этом ценность полученной информации определяется по степени усовершенствования модели приёмника информации, по критериям выполнения его цели. Модель системы-отправителя информации представляет для приёмника интерес только по мере того, сколько она способствует выполнению его целей. Поэтому, он при получении каждой серии информации решает, необходимо ли ему дополнительная информация о системе отправителя или нет, т.е. необходимо ли ему дальше усовершенствовать модель системы отправителя. Основным критерием усовершенствования модели приемника является повышение ОНГ его модели.
Обработка информации состоит в усовершенствовании модели приёмника по избирательно полученным данным о модели отправителя информации и по критериям ОНГ. В принципе в изолированной системе её общую ОНГ невозможно увеличить, но это возможно локально.Можно использовать доступную ОНГ других систем, в том числе и таких, которые находятся в виде модели или во второй реальности (мысли, образы). Для создания таких ОНГ раньше затрачены энергия и информация, которые могут быть использованы для усиления ОНГ системы-приёмника информации. В результате сузится поисковое поле приёмника, уменьшается его неопределённость и ОЭ. Система, обладающая большей ОНГ, может получить от системы с меньшим ОНГ, информации значительно больше, чем тратит свою ОНГ и тем самым работает как усилитель информации.
После получения информации существенным этапом является выяснение её содержательности и достоверности.
Качественной стороной информации занимаются такие науки, как семиотика - теория знаковых систем, и её разделы; синтактика - исследование формальных отношений между знаками; семантика - содержание информации; прагматика - вопросы определения ценности информации. Однако, при анализе любых альтернативных методов существо вопроса основывается на определении уменьшения неопределённости. Наиболее общим понятием из перечисленных является неопределённость.
Меру неопределённости можно рассматривать как функцию от числа возможных исходов и комбинаций элементов в системе. То же характеризует их разнообразие. В любой системе её разнообразие зависит от количества различных элементов, числа и комбинаций их возможных состояний и количества возможных связей между ними. Поэтому понятия "неопределённость" и "разнообразие" часто употребляются как синонимы.
Мерой неопределённости системы является её энтропия, для сложных многомерных систем - ОЭ. Однако, ряд важных положений, для обоснования использования ОЭ выведены на определённых допущениях. С помощью классических формул энтропию (неопределённость) можно охарактеризовать совокупностью всех независимых возможных событий. С помощью условных вероятностей и условных энтропий можно описать взаимную зависимость между событиями. Но существующие зависимости весьма разнообразны. При функциональной, детерминированной зависимости переходы системы из одного состояния в другое полностью предопределены условиями (ОЭ = 0). Во многих процессах зависимости между событиями носят случайный характер. Среди них есть и такие, в которых событие является сугубо индивидуальным результатом исторически сложившегося стечения случайных обстоятельств, в цепи которых невозможно обнаружить никаких закономерностей. Однако, при дополнительных допущениях, и такие процессы (т.н.марковские случайные процессы) можно характеризовать энтропией (К.Шеннон). Таким образом, применять энтропию как меру неопределённости нужно очень осторожно, проверяя предварительно, насколько исследуемый процесс при условиях данной задачи соответствует принятым допущениям и ограничениям
Вероятность также характеризует неопределённость, но её прямое применение возможно при конкретных, более узких пределах. Для многих сложных вероятностей многомерных систем применение условных вероятностей в расчётах связано с большими трудностями.
В мире нет чисто случайных или чисто детерминированных систем. Вероятностный компонент содержится во всех в первичной реальности существующих системах. Они имеют бесконечно большую размерность, неопределённость в микромире, во времени и пространстве. Их энтропия приближается к бесконечности.
В реальном мире нет абсолютно детерминированных систем.
Имеются искусственно изолированные во времени и в пространстве системы, в которых детерминированный компонент превалирует. Почти во всех системах неопределённость есть некоторое отношение элемента, входящего в множество, к числу всех элементов в множестве. В каждом отношении сочетаются случайные и неслучайные факторы. Для уменьшения неопределённости системы необходимо сочетать статистическую теорию информации с использованием априорной информации, теорий, гипотез и других методов эвристического моделирования, в том числе с экспериментами.
Стохастичность и случайность можно считать синонимами, также как и неупорядоченность и беспорядок. Имеются понятия для обозначения неопределённости в отдельных областях: шум - в процессе инфопередачи, непредсказуемость - в прогнозах будущего, деструктивность - в структуре, рассеянность - в пространстве.
Целостность систем вытекает из одного их признака – упорядоченности и общих свойств объединённого суперполя в универсуме.
К таким свойствам относят гармонию и когерентность, общие свойства квантовой природы явлений (т.н. квантовый холизм) и вероятностная природа флуктуации и процессов развития. В универсуме существуют различного рода поля, которые могут быть "в состоянии покоя" или находиться в возбуждённом состоянии (образования волн, виртуальных частиц и др.) Известно много типов полей: гравитационное поле; электромагнитное поле (свет, радиоволны и др.);поля малого и большого взаимодействия; квантомеханические поля (позитронное поле).
Все поля соединяются в сверхмалом пространстве (ниже длины шкалы Планка, 10-35 м) в объединённое суперполе, из возбуждения которого могут возникать элементы вещества, энергии и ОНГ. Связанная форма информации - ОНГ содержится в каждой системе вместе с массой и энергией. Однако её определение, также как и выяснение процессов её превращения и переходов часто представляет большие трудности.
Чем больше поле локально возбуждается, вибрирует с образованием волн и материальных частиц, тем больше оно содержит ОНГ.
В качестве первичных элементов поля как системы выделяются кванты. Выяснено, что квантовое дискретное строение имеют не только электромагнитные, но и гравитационные волны и даже пространство и время. Система может быть комбинирована из различных полей, с квантами различного энергосодержания и разной степенью их когерентности. Исследование квантовой структуры полей даёт возможность выяснить содержание в них связанной информации - ОНГ.
Вибрировать, флуктуировать и образовать виртуальные частицы с квантовой природой могут только хотя бы минимально упорядоченные участки поля. Флуктуацию вызывают локальные неоднородности системы. Неоднородности, в благоприятных для них условиях (например влияние гравитационных сил), имеют тенденцию увеличения. Возникают локальные центры ОНГ, которые притягивают информацию тем больше, чем больше растёт ОНГ. Это является одной из исходных предпосылок появления многообразия систем в универсуме. Наименьшими воображаемыми в настоящее время системами являются кванты энергетических полей: электромагнитного, гравитационного и др.
Основной закономерностью в отношениях между всеми системами и их элементами является иерархическая структура их общего расположения на многих уровнях. Любая система сама уже имеет иерархическую структуру, её элементы образуют нижний уровень. Сама система с её структурой, общими свойствами и функциональной направленностью образует более высокий уровень. Каждая система является частью или элементом системы более высокого уровня.
Иерархическая система не является одномерной, т.е. иерархии переплетаются между собой. Конкретные элементы или системы могут участвовать во многих иерархических комплексах. Как системы, так и элементы рассматриваются в иерархическом комплексе по критериям одной целевой направленности или целесообразности. Однако, системы или их элементы могут иметь много целевых направленностей. Тем самым они участвуют во многих целевых иерархических комплексах. Общий иерархический комплекс превращается в переплетённую в многомерном пространстве сложную сетку.
Между системами происходит обмен массой, энергией и информацией (ОНГ). Причиной обмена является неравновесное состояние систем, как во взаимодействии между элементами, так и между системами. Исходной причиной неравновесия являются существующие в универсуме мощные потоки высококачественной (направленной) энергии и ОНГ. Огромными запасами энергии и ОНГ обладает гравитационное поле, а также объединенное суперполе. Поскольку иерархии систем переплетаются между собой, то и внутрисистемные массо-, энерго- или инфообмены могут влиять на процессы в других иерархиях систем. Если бы в системах наблюдались полный беспорядок, хаос, разнообразие, то их со своими характерными свойствами не было бы.
В реальном мире каждая система обладает структурой и упорядоченностью, которые измеряются количеством ОНГ. Каждая система в мире обладает ОЭ и ОНГ (гл. 4). ОНГ как связанная информация нейтрализует часть ОЭ и даёт системе упорядоченность. Системы взаимодействуют между собой путём передачи массы, энергии, ОЭ и ОНГ. В процессе обмена как масса и энергия, так и ОНГ могут концентрироваться или рассеиваться.
В процессе инфообмена информацией считается только такая связь между системами, в результате которой повышается количество ОНГ хотя бы одной системы. В остальных случаях мы имеем дело с рассеянием информации, массы или энергии, или просто шумом.
Из-за ограниченности ресурсов происходит борьба, конкуренция между системами за овладение ими. Та система, которая притягивает от других больше материальных, энергетических и информационных ресурсов и более эффективно их использует, та обладает более широкими возможностями для существования и развития. В результате этого происходит местная локализация ресурсов и ОНГ. Такой же отбор по эффективности происходит также между мысленными моделями реального мира в индивидуальном и общественном сознании.