Главная Обратная связь

Дисциплины:






Семиотический аспект рассмотрения информации.



 

Основная часть экономических сведений хранится, передается и обрабатывается в форме знаков – цифр, букв, символов, формирующих сообщения. Поэтому описание и анализ экономической информации может быть осуществлен в терминах семиотики – теории о знаковых системах. Несмотря на то, что внешние признаки указывают на культурологическую или лингвистическую направленность семиотики, есть примеры попыток применения этого подхода в анализе экономических категорий. Укажем на подход Георга Зиммеля к исследованию сущности денег с позиций семиотики, предпринятый автором еще в 1900 году в монографии «Философия денег».

Семиотика предполагает рассмотрение объекта с трех точек зрения: синтаксической, семиотической и прагматической.

1) Синтаксический аспект – отражает физические характеристики информации: способ представления, скорость передачи, тип носителя, способ кодирования, используемые каналы, надёжность и безопасность передачи. Информация, рассматриваемая только с точки зрения синтаксиса, может считаться данными, т.к. в этом аспекте не рассматривается ее содержание.

2) Содержательная сторона характеризует семантический аспект информации, когда рассматривается состав содержащихся сведений и связь между ними.

3) Прагматический аспект информации связан с ценностью информации для пользователя при принятии им решения.

Меры информации.

 

Для определения меры информации необходимо ввести понятие меры неопределенности. Неопределенность – непременное свойство любого хозяйственного или управленческого решения: такие решения – это выбор из нескольких возможных вариантов и полной уверенности, что выбран действительно лучший – практически никогда не бывает. Уменьшение неопределенности выбора лучшего решения возможно благодаря получению новых сведений или дополнительной информации

Оценить неопределенность в реальной хозяйственной ситуации довольно сложно. Поэтому для разработки понятийного аппарата лучше прибегнуть к формальным моделям.

Энтропия системы.

Принятой мерой неопределенности системы a является энтропия, обозначаемая H(a). При получении сообщения b энтропия системы - Нb(a). Как мы заметили, может быть, что Нb(a)< Н(a), Нb(a)> Н(a) и Нb(a)= Н(a) – все зависит от того, что за сообщение b получено. Интересно, что именно разность Н(a)- Нb(a) оказывается важной характеристикой полученного сообщения b.

Этой важной характеристикой сообщения b о системе a является количество информации Ib(a), содержащееся в сообщении b о системе a:

Ib(a)= Н (a)- Нb(a)

Понятно, что Ib(a)может быть положительной – тогда сообщение уменьшает неопределенность, отрицательной – когда неопределенность растет и нулевой, когда сообщение не несет информации, полезной для принятия решения. В последнем случае



Н (a)= Нb(a):

т.е. неопределенность системы по получении сообщения b не изменилась и количество информации в b равно нулю.

Другим крайним случаем является ситуация, когда сообщение b полностью снимает неопределенность иНb(a) = 0. В этом случае сообщение b содержит полную информацию о системе a и Ib(a)= Н (a).

Теперь для определения количества информации нам надо понять, как оценивать энтропию системы.

В общем случае, энтропия системы, имеющей k возможных состояний, H(a), согласно формуле Шеннона, равна:

,

где Pi – вероятность того, что система находится в i-м состоянии.





sdamzavas.net - 2018 год. Все права принадлежат их авторам! В случае нарушение авторского права, обращайтесь по форме обратной связи...