Главная Обратная связь

Дисциплины:






и проектирования систем




 

Современное понимание того, что такое информация и какую роль она играет в искусственных и естественных системах, сложилось не сразу; оно представляет собой совокупность знаний, полученных разны­ми науками: физикой, биологией, философией, теорией связи и т.д.

Хотя физика старается изучать явления природы в максимально объективированной (т.е. не связанной с человеком и его воздействием на окружающий мир) форме, ей не удалось полностью исключить "чело­веческий фактор". Во-первых, при экспериментальном исследовании физических явлений невозможно обойтись без измерения ряда величин, и наличие этих величин в теоретических моделях рано и поздно требует специального рассмотрения того, как именно проводятся измерения, — а без влияния человека не проводятся даже автоматические эксперимен­ты. Во-вторых, физика не могла не заняться изучением технических (т.е. созданных человеком) устройств и тут-то и "попала в ловушку": полностью объективистский подход к машинам все равно обнаружил в их поведении следы человеческой деятельности. Впервые это произошло в термодинамике — науке, изучающей процессы в тепловых машинах. Оказалось, что без введения специального понятия энтропии невозможно дать исчерпывающего описания их действия. Скачок в понимании при­роды этой величины произошел, когда JI. Больцман дал ей статистичес­кую интерпретацию (1877); уже сам Больцман обронил фразу о том, что энтропия характеризует недостающую информацию, но тогда этой фразы никто не понял.

После построения К. Шэнноном теории информации (1948), когда оказалось, что формула Шэннона для информационной энтропии и фор­мула Больцмана для термодинамической энтропии оказались тождест­венными, разгорелись споры о том, является ли это совпадение чисто формальным или оно выражает глубокую связь термодинамики и теории информации. Дискуссии (в особенности благодаря работам Бриллюэна [ 1; 2]) привели к современному пониманию этой неразрывной связи.

Совсем с другой стороны к этой проблеме пришла философская теория познания. Изначальный смысл слова "информация" как "знания, сведения, сообщения, уведомления, известия, ведомости", т.е. нечто присущее только человеческому сознанию и общению, начал расширять­ся и обобщаться. Признав, что наше знание есть отражение реального мира, материалистическая теория познания установила, что отражение является всеобщим свойством материи. Сознание человека является высшей, специфической формой отражения, но существуют и другие формы — психическая (присущая не только человеку, но и животным), раздражимость (охватывающая, кроме того, растения и простейшие организмы) и, наконец, самая элементарная форма — запечатление взаимодействия (присущая и неорганической природе, и элементарным частицам, т.е. всей материи вообще). И теперь, как только состояния одного объекта находятся в соответствии с состояниями другого объек­та (будь то соответствие между положением стрелки вольтметра и на­пряжением на его клеммах или соответствие между нашим ощущением и реальностью), мы говорим, что один объект отражает другой, содер­жит информацию о другом.



Так вновь сомкнулись результаты философского и естественно­научного исследования природы. Иначе и быть не могло — ведь предмет изучения един, хотя это изучение ведется с разных позиций и разными методами. В настоящее время информация рассматривается как фунда­ментальное свойство материи.

Таким образом, ясно, что роль информации в самом существовании систем, искусственных и естественных, огромна. Понятие информации, обладая всеобщностью, приобрело смысл философской категории. Для кибернетики, да и всей системологии, понятие информации столь же фундаментально, как понятие энергии для физики. Недаром признается не менее общим, чем определение А.И. Берга (см. гл. 1), определение кибернетики, предложенное А.Н. Колмогоровым: кибернетика — это наука, которая занимается изучением систем любой природы, способных воспринимать, хранить и перерабатывать информацию и использовать ее для управления и регулирования.

Сигнал есть материальный носитель информации, средство пе­ренесения информации в пространстве и времени.

Утверждая, что объекты выступают в качестве сигналов, мы должны сделать уточнение. Один и тот же объект может "выступать в качестве" разных сигналов: колебания воздуха могут нести звуки музыки, речь лектора, пение птиц или шум самолета; с магнитной ленты можно стереть одну запись и сделать другую и т.д. Следовательно, в качестве сигналов используются не сами по себе объекты, а их состояния.

Далее, не всякое состояние имеет сигнальные свойства. Точнее го­воря, данный объект взаимодействует не только с тем объектом, инфор­мацию о котором мы хотели бы получить, но и с другими, не интересую­щими нас объектами. В результате соответствие состояний ослабевает, разрушается. Условия, обеспечивающие установление и способствующие сохранению сигнального соответствия состояний, называются кодом (в искусственных системах кодом называют комплекс правил образования сигна­ла. При более подробном рассмотрении этого процесса в технических системах ко­дом называют условные, варьируемые правила, а диктуемые техникой условия называют модуляцией. Мы же будем пока использовать самое общее употребле­ние слова "код").Посторонние воздействия, нарушающие это соответствие, называются помехами илишумами. Нарушение соответствия может происходить не только вследствие помех, но и из-за рассогласования кодов взаимо­действующих объектов. В искусственных системах, где такое согласование организуется специально, это явно видно на примере криптографии, основанной на засекречивании кодов. В природных системах согласование кодов происходит в самой структуре систем через естественный отбор различных вариантов.

Сигналы играют в системах особую, очень важную роль. Если энер­гетические и вещественные потоки, образно говоря, питают систему, то потоки информации, переносимые сигналами, организуют все ее функ­ционирование, управляют ею.

Необходимость моделирования самых разнообразных сигналов при­водит к построению частных моделей случайных процессов, т.е. наложе­нием дополнительных ограничений на параметры распределений и на сами распределения. Перечислим наиболее важные классы случайных процессов.

Непрерывные и дискретные по времени процессы. Случайный про­цесс с непрерывным временем характеризуется тем, что его реа­лизации определяются для всех моментов из некоторого (ко­нечного или бесконечного) интервала Т параметра t. Дискретный по времени процесс задается на дискретном ряде точек временной оси (обычно равноотстоящих).

Непрерывные и дискретные по информативному параметру процес­сы. Эти процессы различаются в зависимости от того, из какого (непре­рывного или дискретного) множества принимает значение реализация х случайной величины X.

Стационарные и нестационарные процессы. Так называются про­цессы в зависимости от постоянства или изменчивости их статистичес­ких характеристик. Случайный процесс называется стационарным в узком смысле, если для любого п конечномерные распределения вероят­ностей не изменяются со временем, т.е. при любом т выполняется усло­вие

\ti + т, t2 + Т, ..., tn +т) =Pn(X\,-,X„\tl, t2 t„).

Если же условие независимости от времени выполняется только для первых двух моментов (среднего и функции автокорреляции), то про­цесс называется стационарным в широком смысле (или в смысле Хинчина).

Эргодические и неэргодические процессы. На практике при описа­нии случайных величин вместо рассмотрения их распределений часто ограничиваются только их числовыми характеристиками, обычно мо­ментами. В тех случаях, когда распределение неизвестно, моменты (и другие числовые характеристики) можно оценить статистически.

Перенос такой практики на произвольные случайные процессы тре­бует не только учета зависимости отстоящих друг от друга ("разнесен­ных") во времени значений, но и наложения дополнительных требова­ний. Требование совпадения величин, получающихся при усреднении по ансамблю (т.е. при фиксированном времени) и при усреднении по вре­мени (точнее, по одной реализации), и называется условием эргодич­ности. Это требование можно толковать и как совпадение результатов усреднения по любой реализации. Как и для стационарности, можно различать эргодичность в узком и широком смысле.

Первым специфическим понятием теории информации является по­нятие неопределенности случайного объекта, для которой удалось ввести количественную меру, названную энтропией. Начнем с простейшего варианта — со случайного события. Пусть, например, некоторое событие может произойти с вероятностью 0,99 и не произойти с вероятностью 0,01, а другое событие имеет вероятности соответственно 0,5 и 0,5. Оче­видно, что в первом случае результатом опыта "почти наверняка" яв­ляется наступление события, во втором же случае неопределенность ис­хода так велика, что от прогноза разумнее воздержаться.

Для характеристики размытости распределений широко использует­ся второй центральный момент (дисперсия) или доверительный интер­вал. Однако эти величины имеют смысл лишь для случайных числовых величин и не могут применяться к случайным объектам, состояния кото­рых различаются качественно, хотя и в этом случае можно говорить о большей или меньшей неопределенности исхода опыта. Следовательно, мера неопределенности, связанной с распределением, должна быть некоторой его числовой характеристикой, функционалом от распределе­ния, никак не связанным с тем, в какой шкале измеряются реализации случайного объекта

Из опыта мы знаем, что не существует проблемы, если мы желаем преобразовать механическую энергию в тепло. Для примера рассмотрим соскальзывание камня с горки. Сила тяжести совершает работу, камень начинает соскальзывать с горки, т.е. приобретает скорость. Трение тормозит движение камня, из-за чего повышается температура в местах соприкосновения камня и горки. тепло течет от более нагретых частей системы к более холодным и таким образом рассеивается в окружающем камень пространстве и в самом камне. В данном примере энергия механического движения преобразуется в теплоту безо всяких затруднений.

Попробуем обратить рассмотренный процесс. будем нагревать камень, надеясь, что благодаря нагреванию совершится механическая работа, т.е. камень поднимется вверх на горку. Сколько бы попыток мы не совершили, камень по-прежнему останется у основания горки. Мы видим, что в этом случае преобразование теплоты в механическую работу вызывает затруднения. Возникает вопрос – почему? Ведь такой процесс не противоречит закону сохранения энергии.

Т.е. в природе существует множество процессов, которые происходят самопроизвольно, хотя обратные процессы никогда не наблюдаются. приведем еще примеры. Чашка, стоящая на краю стола, будет разбита, если уроните ее на пол, однако сколько бы вы ни прикладывали ту же самую силу, которая привела к падению чашки, черепки никогда не соберутся снова. Духи из флакона самопроизвольно распространятся по комнате, но никогда сами по себе не соберутся опять во флакон. Интересно, что в приведенных примерах реализация обратных процессов не привела бы к нарушению закона сохранения энергии (первое начало термодинамики).

Для того чтобы объяснить отсутствие обратимости множества процессов, наблюдаемых в природе, во второй половине 19 в. был сформулирован новый закон - второе начало термодинамики. Согласно этому закону, можно судить, какие процессы возможны в природе, а какие – нет. Второе начало термодинамики можно сформулировать несколькими способами. В принципе, все они эквивалентны друг другу.

Первая формулировка принадлежит Клаузису (1822-1888): теплота в естественных условиях переходит от горячего тела к холодному, в то время как от холодного тела к горячему теплота сама по себе не переходит. Очевидно, формулировка Клаузиуса относится к процессу обмена теплотой и, с первого взгляда, не вполне ясно, как применить ее к более широкому классу процессов.

Исторически более общая формулировка была получена в ходе изучения тепловых двигателей. тепловой двигатель это любое устройство, которое преобразует теплоту в механическую работу. В таком устройстве рабочее тело обязательно получает некоторое количество теплоты Q1 от нагревателя, совершает механическую работу А и часть теплоты Q2 передает холодильнику. Термический коэффициент полезного действия h определяется формулой:

Было бы великолепно, если бы вся теплота, полученная от нагревателя, превратилась в механическую работу ( в этом случае Q2 =0). Коэффициент полезного действия такого двигателя оказался бы равным 100%! Этот двигатель получил название вечный двигатель второго рода («перпетум мобиле второго рода»). Но все попытки сконструировать двигатель, который позволял бы превратить всю теплоту, полученную от нагревателя, в эквивалентную ей механическую работу, оказались безуспешными. Т.е. такой двигатель невозможен. В связи с чем и появилась еще одна формулировка второго начала термодинамики (Кельвина -Планка): невозможен периодический процесс, единственным результатом которого является превращение теплоты, полученной от нагревателя, в эквивалентную ей механическую работу.

Наиболее общая формулировка второго начала термодинамики была дана позже. Она носит название «принцип возрастания энтропии» (или «неравенство Клаузиуса»). Дадим эту формулировку без использования понятия энтропия: любые процессы, происходящие в замкнутой системе, переводят ее из более упорядоченного в более беспорядочное (хаотическое) состояние. Замкнутой системой называется такая система, которая не обменивается с окружающей средой веществом и (или) энергией.

Таким образом, второе начало термодинамики указывает направление происходящих в замкнутых системах процессов: возможны лишь такие процессы, которые приводят к возрастанию хаоса и беспорядка в замкнутых системах, к снижению уровня их организованности. Именно поэтому говорят, что второе начало термодинамики определяет термодинамическую стрелу времени. Для замкнутых систем нормальному ходу времени соответствуют процессы, приводящие к увеличению хаоса и беспорядка в этих системах.

Дадим теперь формулировку второго начала термодинамики, используя понятие «энтропия». Понятие «энтропия» сегодня настолько широко используется в научно-популярной литературе, что можно сказать: это понятие стало частью общей культуры, а не просто научным термином.

Энтропия – это физическая величина, которая характеризует степень неупорядоченности любой системы: чем больше энтропия, тем более неупорядоченное состояние занимает система; чем меньше энтропия, тем меньше в системе хаоса и беспорядка, тем более организованной она является.

В физике показано, что энтропия также характеризует отклонение системы от равновесия. Равновесному состоянию системы соответствует максимум хаоса и беспорядка. Чем более упорядоченной (другими словами, более организованной) является система, тем дальше она удалена от равновесия. Все сказанное иллюстрирует рис. 2.3.

Теперь можно дать еще одну формулировку второго начала термодинамики: при любых процессах полная энтропия замкнутой системы либо увеличивается, либо остается постоянной. (Среди физиков бытует шутка, в которой энтропия сравнивается со старой властной теткой: ее все недолюбливают, но она всегда права.)

 

Равновесное состояние системы
Система уходит от равновесного состояния
Максимум энтропии
Наименьший порядок в системе (максимум хаоса)
Энтропия уменьшается
Порядок возрастает, хаотичность снижается

Рис. 2.3. Иллюстрация к толкованию термина «энтропия»

 

Энтропию принято обозначать латинской буквой S. Если энтропия замкнутых систем может только возрастать или оставаться постоянной, это означает, что изменение энтропии D S может быть либо больше нуля, либо равно нулю. Математически эта формулировка записывается так (это и есть неравенство Клаузиуса):

Изменение энтропии равно нулю для обратимых процессов и больше нуля во всех других случаях. Все реальные процессы, происходящие в природе, являются необратимыми.

Таким образом, второе начало термодинамики говорит о том, как изменяется степень упорядоченности любой замкнутой системы с нормальным течением времени. Понятно, что замкнутой системой может быть только неживой объект.

Рассмотрим, распространяется ли второе начало термодинамики на живые объекты. Первоначально выделим три наиболее характерные отличия живого и неживого вещества с точки зрения физики

Во-первых, любое живое существо является принципиально открытой системой, которая обменивается с окружающей средой веществом и энергией. Во-вторых, для нормальной жизнедеятельности живого организма важно, чтобы его энтропия не возрастала (соответственно степень упорядоченности не уменьшалась) в процессе жизни. Это означает, что изменение энтропии живого вещества D Sживого должно быть отрицательным или, в крайнем случае, равным нулю: . В-третьих, любой живой организм (даже простейший) является высокоорганизованной системой, далекой от состояния теплового равновесия с окружающей средой. Каким же образом удается живой системе длительное время поддерживать свою высокую упорядоченность, свое «неравновесие» с окружающей средой?

Обмен энергией
Окружающая среда
Обмен веществом
Замкнутая система
Для ответа на поставленный вопрос рассмотрим некоторое живое существо (например, зайца в лесу), которое для поддержания своей жизнедеятельности взаимодействует с окружающей средой (рис. 2.4). В данном случае окружающей средой является лес. Строго говоря, в окружающую среду следует добавить еще атмосферу и Солнце. «Живое» в процессе своей жизнедеятельности обменивается с окружающей средой веществом и энергией.

 

 

Рис. 2.4. Эволюция «живого»

Это означает, что изменение энтропии живого вещества D Sживого должно быть отрицательным или, в крайнем случае, равным нулю: .

«Живое» является открытой системой. Образуем из живого существа и окружающей среды замкнутую систему, для которой должно выполняться второе начало термодинамики ( ). Изменение энтропии этой замкнутой системы складывается из изменения энтропии «живого» и изменения энтропии окружающей среды:

(2.3)

Поскольку первое слагаемое должно быть отрицательным, а сумма положительной, то достичь этого можно лишь при условии, если изменение энтропии окружающей среды будет больше нуля, да еще по модулю превосходить изменение энтропии живого:

(2.4)

 

Отметим, что наиболее важные результаты теории информации — тео­ремы о кодировании — являются теоремами о существовании и носят асимптотический характер, т.е. не являются конструктивными. Одна­ко уже само знание потенциальных возможностей имеет огромное зна­чение: сравнение характеристик реальных систем с теоретическими пределами позволяет судить о достигнутом уровне и о целесообраз­ности дальнейших затрат на его повышение. Прикладные же вопросы рассматриваются в специальном разделе теории информации — теории кодирования, которая изучает способы построения конкретных ко­дов и их свойства, в частности точные или граничные зависимости вероятностей ошибок от параметров кода.

Для напоминания об основных понятиях теории информации приве­дем вариант блок-схемы системы передачи информации (рис.). На этом рисунке приведено большинство введенных в данной главе понятий и обозначений.

Значение теории информации выходит далеко за рамки теории связи, так как именно ее появление привело к широкому обсуждению но­вых понятий, к более глубокому пониманию открытых ранее законо­мерностей природы (например, второго закона термодинамики) и в конечном счете к тому, что понятие информации вошло теперь в число философских категорий, расширив и углубив тем самым наше видение и понимание мира.

 

Блок схема передачи информации

 

Вместе с тем некоторые специалисты различных отраслей науки не­критически распространяли методы и конкретные результаты теории информации на Любые информационные процессы в реальном мире. Уже сам Шэннон заметил эту тенденцию и настоятельно предостерегал от того, чтобы ей безоглядно следовать [8] . Дело в том, что шэнноновское количество информации является характеристикой, лишь с одной стороны описывающей информационные отношения. Именно эта сторона — соответствие состояний — играет главную роль в техни­ческих устройствах. Однако в этом соответствии не проявляют себя (и, следовательно, могут не учитываться) такие свойства информа­ции, как смысл, доброкачественность (степень истинности), ценность, полезность, временное старение, причинно-следственная направлен­ность и т.д. — свойства, весьма существенные для информационных отношений с участием живых организмов, людей, коллективов. Исследование проблем использования информации ведется в различ­ных направлениях, достигнуты и успехи (семиотика, теория полез­ности, теория решений и выбора и т.д.). С некоторыми из них мы познакомимся в других разделах книги.

Необходимость расширения принципов и методов исследования ин­формационных процессов вытекает не только из внутренней логики развития науки, стремящейся ко все большим обобщениям, снятию или ослаблению ограничений, предположений и т.п. К развитию новых подходов толкает сильное "внешнее" давление общественной прак­тики: масштабы и значение информационных потоков в современном обществе так резко возросли в последние годы, что даже возникло образное выражение "информационный взрыв" [3]. Появилась но­вая отрасль — "индустрия обработки данных", затраты на которую в промышленно развитых странах превосходят затраты на энергетику. Этой общественной потребности отвечает возникновение новой отрас­ли науки — информатики.

Для системного анализа теория информации имеет двоякое значение. Во-первых, ее конкретные методы и результаты позволяют провести ряд количественных исследований информационных потоков в изу­чаемой или проектируемой системе (если в этом возникнет необходи­мость) . Однако более важным является эвристическое значение основных понятий теории информации — неопределенности, энтропии, количества информации, избыточности, пропускной способности и пр. Их использование столь же важно для понимания системных процес­сов, как и использование понятий, связанных с временными, энерге­тическими процессами. Системный анализ неизбежно выходит на исследование ресурсов (наличных и необходимых), которые потребуются для решения анализируемой проблемы. Информационные ресурсы играют далека не последнюю роль наряду с остальными ресурсами – материальными, энергетическими, временными, кадровыми.





sdamzavas.net - 2018 год. Все права принадлежат их авторам! В случае нарушение авторского права, обращайтесь по форме обратной связи...