Категории
Самые читаемые
Лучшие книги » Научные и научно-популярные книги » Воспитание детей, педагогика » Проектирование распределенных информационных систем - Елена Чернопрудова

Проектирование распределенных информационных систем - Елена Чернопрудова

Читать онлайн Проектирование распределенных информационных систем - Елена Чернопрудова

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 2 3 4 5 6 7 8
Перейти на страницу:

Действительно:

N = m n,

где: N – число всевозможных отображаемых состояний;

m – основание системы счисления (разнообразие символов, применяемых в алфавите);

n – число разрядов (символов) в сообщении.

Поэтому в различных системах счисления один разряд имеет различный вес, и соответственно меняется единица измерения данных. Так, в двоичной системе счисления единицей измерения служит «бит» – двоичный разряд, в десятичной системе счисления – «дит», как десятичный разряд.

Например:

а) сообщение в двоичной системе 10111011 имеет объем данных Vд = 8 бит;

б) сообщение в десятичной системе 275903 имеет объем данных Vд = 6 дит.

В современной ЭВМ наряду с минимальной единицей данных «бит» широко используется укрупненная единица измерения «байт», равная 8 бит.

Определение количества информации на синтаксическом уровне невозможно без рассмотрения понятия неопределенности состояния системы (энтропии системы).

Действительно, получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы. До получения информации получатель мог иметь некоторые предварительные (априорные) сведения о системе ɑ. Мера неосведомленности о системе H (ɑ) и является для него мерой неопределенности состояния системы. После получения некоторого сообщения получатель приобретает некоторую дополнительную информацию Iβ(ɑ), уменьшающую его априорную неосведомленность так, что апостериорная (после получения сообщения β) неопределенность состояния системы становится равной Hβ(ɑ). Тогда количество информации Iβ(ɑ) о системе ɑ, полученное в сообщении β, определится как:

Iβ (ɑ) = H (ɑ) – Hβ (ɑ),

т. е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы. Если конечная неопределенность Hβ (ɑ) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации станет равным:

Iβ (ɑ) = H (ɑ)

Иными словами, энтропия системы H (ɑ) может рассматриваться как мера недостающей информации. Энтропия системы H (ɑ), имеющей N возможных состояний согласно формуле ШЕННОНА, равна:

где Pi – вероятность того, что система находится в i-м состоянии.

Для случая, когда все состояния системы равновероятны, ее энтропия определяется по формуле:

Рассмотрим пример. По каналу связи передается n- разрядное сообщение, использующее m различных символов.

Так как количество всевозможных кодовых комбинаций определяется по формуле N = m n, то при равновероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет определяться по формуле ХАРТЛИ:

I = log N = n log m

Если в качестве основания логарифма принять m, то формула упростится и количество информации станет равным:

I = n

В данном случае количество информации (при условии полного априорного незнания абонентном содержания сообщения) будет равно объему данных I = Vд, полученных по каналу связи.

Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно «бит» и «дит».

Степень информативности сообщения определяется отношением количества информации к объему данных, т.е.

Y = 1/ Vд , причем 0≤Y≤1,

где: Y – характеризует лаконичность сообщения.

С увеличением Y уменьшаются объемы работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.

Семантическая мера информации.

Синтаксические меры количества информации в общем случае не могут быть непосредственно использованы для измерения смыслового содержания, ибо имеют дело с обезличенной информацией, не выражающей смыслового отношения к объекту.

Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне наибольшее признание получила тезаурусная мера информации, предложенная Ю.И. ШНЕЙДЕРОМ. Он связывает семантические свойства информации прежде всего со способностью пользователя принимать поступившее сообщение. Используется понятие «тезаурус пользователя». Тезаурус можно трактовать как совокупность сведений, которыми располагает данная система, пользователь.

В зависимости от соотношений между смысловым содержанием информации Ŝ и тезаурусом пользователя Sn изменяется количество семантической информации Jc, воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. При Sn ≈ 0 пользователь не воспринимает, не понимает поступающую информацию; при Sn→∞ пользователь все знает, и поступающая информация ему не нужна: и в том, и в другом случае Jc ≈0. Максимальное значение Jc приобретает при согласовании Ŝ c тезаурусом Sn (Sn – Sn opt), когда поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе) сведения ( рисунок 1.9).

Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной.

Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным (семантический шум) для пользователя некомпетентного.

В то же время понятная, но известная компетентному пользователю информация представляет собой для него тоже семантический шум.

Рисунок 1.9 – Зависимость Jc = f (Sn)

При разработке информационного обеспечения АИС следует стремиться к согласованию величиныŜ и Sn так, чтобы циркулирующая в системе информация была понятна, доступна для восприятия и обладала наибольшей содержательностью S, т.е.

S = Jc/Vд

Прагматическая мера информации – это ее полезность, ценность для управления. Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе.

Ценность информации целесообразно измерять в тех же самых единицах (или близких к ним), в которых измеряется целевая функция управления системой. В автоматизированной системе управления производством, например, ценность информации определяется эффективностью осуществляемого на ее основе экономического управления, или иначе, приростом экономического эффекта функционирования системы управления, обусловленным прагматическими свойствами информации:

Jnβ (γ) = П (γ/β) – П (γ),

где: Jnβ (γ) – ценность информационного сообщения β для системы управления γ;

П (γ) – априорный ожидаемый экономический эффект функционирования системы управления γ;

П (γ/β) – ожидаемый эффект функционирования системы γ при условии, что для управления будет использована информация, содержащаяся в сообщении β.

Поскольку экономический эффект функционирования АИС складывается из экономического эффекта решения отдельных функциональных задач, то для вычисления Jn следует определить:

Zβ -множество задач, для решения которых используется информация β;

F – частоту решения каждой задачи за период времени, для которого оценивается экономический эффект;

Rβ – степень влияния информационного сообщения β на точность решения задачи, 0≤ R ≤ 1.

Тогда:

где Пj – экономический эффект от решения j-й задачи в системе.

В такой постановке единицей измерения ценности информации АИС является обычно рубль.

Качество информации.

Информация в АИС является и предметом труда и продуктом труда, поэтому от ее качества существенно зависят эффективность и качество функционирования системы.

Качество информации можно определить как совокупность свойств, обусловливающих возможность ее использования для удовлетворения определенных в соответствии с ее назначением потребностей.

Конец ознакомительного фрагмента.

1 2 3 4 5 6 7 8
Перейти на страницу:
На этой странице вы можете бесплатно скачать Проектирование распределенных информационных систем - Елена Чернопрудова торрент бесплатно.
Комментарии
Открыть боковую панель
Комментарии
Сергей
Сергей 24.01.2024 - 17:40
Интересно было, если вчитаться