Носители
информации
Носителями
информации
являются
данные
,
представляю
-
щие
собой
зарегистрированные
сигналы
.
При
этом
физический
метод
регистрации
может
быть
любым
:
механическое
переме
-
щение
физических
тел
,
изменение
их
формы
или
параметров
качества
поверхности
,
изменение
электрических
,
магнитных
,
оптических
характеристик
,
изменение
состояния
электронной
системы
и
многое
другое
.
В
соответствии
с
методом
регистра
-
ции
данные
могут
храниться
и
транспортироваться
на
носителях
различных
видов
.
Самым
распространенным
носителем
данных
,
хотя
и
не
самым
экономичным
,
по
-
видимому
,
является
бумага
.
На
бумаге
данные
регистрируются
путем
изменения
оптических
характеристик
ее
поверхности
.
Изменение
оптических
свойств
(
изменение
коэффициента
отражения
поверхности
в
определен
-
ном
диапазоне
длин
волн
)
используется
также
в
устройствах
,
осуществляющих
запись
лазерным
лучом
на
пластмассовых
но
-
сителях
с
отражающим
покрытием
(CD-ROM).
В
качестве
носи
-
телей
,
использующих
изменение
магнитных
свойств
,
можно
на
-
звать
магнитные
ленты
и
диски
.
Регистрация
данных
путем
из
-
менения
химического
состава
поверхностных
веществ
носителя
широко
используется
в
фотографии
.
Свойства
информации
весьма
тесно
связаны
со
свойствами
ее
носителей
.
Любой
носитель
можно
характеризовать
парамет
-
ром
разрешающей
способности
(
количеством
данных
,
записан
-
ных
в
принятой
для
носителя
единице
измерения
)
и
динамиче
-
ским
диапазоном
(
логарифмическим
отношением
интенсивности
амплитуд
максимального
и
минимального
регистрируемого
сиг
-
налов
).
От
этих
свойств
носителя
нередко
зависят
такие
свойства
информации
,
как
полнота
,
доступность
и
достоверность
.
Напри
-
мер
,
мы
можем
рассчитывать
на
то
,
что
в
базе
данных
,
размещае
-
мой
на
компакт
-
диске
,
проще
обеспечить
полноту
информации
,
чем
в
аналогичной
по
назначению
базе
данных
,
размещенной
на
гибком
магнитном
диске
,
поскольку
в
первом
случае
плотность
324
записи
данных
на
единице
длины
дорожки
намного
выше
.
Для
обычного
потребителя
доступность
информации
в
книге
заметно
выше
,
чем
той
же
информации
на
компакт
-
диске
,
поскольку
не
все
потребители
обладают
необходимым
оборудованием
.
В
ходе
информационного
процесса
данные
преобразуются
из
одного
вида
в
другой
с
помощью
методов
.
Обработка
данных
включает
в
себя
множество
различных
операций
.
По
мере
раз
-
вития
научно
-
технического
прогресса
и
общего
усложнения
свя
-
зей
в
человеческом
обществе
трудозатраты
на
обработку
данных
неуклонно
возрастают
.
Прежде
всего
это
связано
с
постоянным
усложнением
условий
управления
производством
и
обществом
.
Второй
фактор
,
также
вызывающий
общее
увеличение
объемов
обрабатываемых
данных
,
тоже
связан
с
научно
-
техническим
прогрессом
,
а
именно
с
быстрыми
темпами
появления
и
внедре
-
ния
новых
носителей
данных
,
средств
их
хранения
и
доставки
.
В
структуре
возможных
операций
с
данными
можно
вы
-
делить
следующие
этапы
:
–
сбор
данных
–
накопление
информации
с
целью
обеспече
-
ния
достаточной
полноты
для
принятия
решений
;
–
формализация
данных
–
приведение
данных
,
поступаю
-
щих
из
разных
источников
,
к
одинаковой
форме
,
чтобы
сделать
их
сопоставимыми
между
собой
,
то
есть
повысить
их
уровень
доступности
;
–
фильтрация
данных
–
отсеивание
«
лишних
»
данных
,
в
ко
-
торых
нет
необходимости
для
принятия
решений
;
при
этом
должен
уменьшаться
уровень
«
шума
»,
а
достоверность
и
адекватность
данных
должны
возрастать
;
–
сортировка
данных
–
упорядочение
данных
по
заданному
признаку
с
целью
удобства
использования
;
повышает
доступ
-
ность
информации
;
–
архивация
данных
–
организация
хранения
данных
в
удоб
-
ной
и
легкодоступной
форме
;
служит
для
снижения
экономиче
-
ских
затрат
по
хранению
данных
и
повышает
общую
надежность
информационного
процесса
;
325
–
защита
данных
–
комплекс
мер
,
направленных
на
предот
-
вращение
утраты
,
воспроизведения
и
модификации
данных
;
–
транспортировка
данных
–
прием
и
передача
(
доставка
и
поставка
)
данных
между
удаленными
участниками
информа
-
ционного
процесса
;
при
этом
источник
данных
в
информатике
принято
называть
сервером
,
а
потребителя
–
клиентом
;
–
преобразование
данных
–
перевод
данных
из
одной
фор
-
мы
в
другую
или
из
одной
структуры
в
другую
.
Преобразование
данных
часто
связано
с
изменением
типа
носителя
:
например
,
книги
можно
хранить
в
обычной
бумажной
форме
,
но
можно
ис
-
пользовать
для
этого
и
электронную
форму
,
и
микрофотопленку
.
Необходимость
в
многократном
преобразовании
данных
возни
-
кает
также
при
их
транспортировке
.
Совокупность
технических
средств
,
требуемых
для
переда
-
чи
сообщения
от
источника
к
получателю
,
называют
системой
связи
.
В
функциональных
схемах
и
их
реализациях
такие
узлы
,
как
кодер
и
модулятор
,
объединяют
в
передающем
устройстве
;
аналогично
демодулятор
и
декодер
объединяются
в
едином
уст
-
ройстве
–
приемнике
.
Модуляция
(
от
лат
. modulatio –
мерность
,
размеренность
)
это
преобразование
по
заданному
закону
стацио
-
нарных
параметров
,
характеризующих
поток
данных
.
Например
,
для
гармонических
колебаний
могут
быть
модулированы
по
оп
-
ределенному
закону
амплитуда
,
частота
и
фаза
колебаний
.
Соот
-
ветственно
примеры
амплитудной
,
частотной
и
фазовой
модуля
-
ции
представлены
на
рис
. 12.7.
Типичная
функциональная
схема
,
включающая
основные
узлы
системы
связи
,
представлена
на
рис
. 12.8.
Указанная
здесь
линия
связи
,
во
многих
случаях
ото
-
ждествляемая
с
каналом
передачи
,
предназначена
для
передачи
сигналов
с
минимально
возможной
потерей
их
интенсивности
.
В
линии
связи
локализована
неизбежно
присутствующая
в
систе
-
ме
связи
помеха
,
приводящая
к
случайному
непредсказуемому
искажению
формы
передаваемого
сигнала
.
Приведенный
здесь
список
типовых
операций
с
данными
далеко
не
полон
.
Миллионы
людей
во
всем
мире
занимаются
326
созданием
,
обработкой
,
преобразованием
и
транспортировкой
данных
,
поэтому
работа
с
информацией
может
иметь
огром
-
ную
трудоемкость
и
ее
надо
автоматизировать
.
Рис
. 12.7.
Схемы
модуляции
:
а
–
гармонические
колебания
несущей
частоты
;
б
–
модулирующий
сигнал
;
в
–
амплитудно
-
модулированное
колебание
;
г
–
частотно
-
модулированное
колебание
;
д
–
фазово
-
модулированное
колебание
Рис
. 12.8.
Функциональная
схема
передачи
информации
12.4.
Измерение
количества
информации
.
Энтропия
Для
автоматизации
работы
с
данными
,
относящимися
к
раз
-
личным
типам
,
очень
важно
унифицировать
их
форму
представле
-
ния
–
для
этого
обычно
используется
прием
кодирования
,
то
есть
выражение
данных
одного
типа
через
данные
другого
типа
.
Есте
-
ственные
человеческие
языки
–
это
не
что
иное
,
как
системы
коди
-
327
рования
понятий
для
выражения
мыслей
посредством
речи
.
Исто
-
рия
знает
интересные
,
хотя
и
безуспешные
попытки
создания
«
универсальных
»
языков
и
азбук
.
Однако
эта
проблема
универсального
средства
кодирова
-
ния
достаточно
успешно
реализуется
в
отдельных
отраслях
тех
-
ники
,
науки
и
культуры
.
В
качестве
примеров
можно
привести
систему
записи
математических
выражений
,
телеграфную
азбу
-
ку
,
морскую
флажковую
азбуку
,
систему
Брайля
для
слепых
и
многое
другое
.
Своя
система
существует
и
в
вычислительной
технике
–
она
называется
двоичным
кодированием
и
основана
на
представлении
данных
последовательностью
всего
двух
знаков
:
0
и
1.
Эти
знаки
называются
двоичными
цифрами
,
по
англий
-
ски
– binary digit
или
,
сокращенно
, bit (
бит
).
Бит
(
двоичный
разряд
)
является
наименьшей
единицей
пред
-
ставления
данных
,
принятой
в
информатике
и
вычислительной
технике
.
Совокупность
двоичных
разрядов
,
выражающих
число
-
вые
или
иные
данные
,
образует
битовый
рисунок
.
Практика
пока
-
зывает
,
что
с
битовым
представлением
удобнее
работать
,
если
этот
рисунок
имеет
регулярную
форму
.
В
настоящее
время
в
качестве
таких
форм
используются
группы
из
восьми
битов
,
которые
назы
-
ваются
байтами
.
Понятие
о
байте
как
группе
взаимосвязанных
битов
поя
-
вилось
вместе
с
первыми
образцами
электронной
вычислитель
-
ной
техники
.
Долгое
время
оно
было
машинно
зависимым
,
то
есть
для
разных
вычислительных
машин
длина
байта
была
раз
-
ной
.
Только
в
конце
60-
х
годов
понятие
байта
стало
универсаль
-
ным
и
машинно
независимым
.
Во
многих
случаях
целесообразно
использовать
не
восьмиразрядное
кодирование
,
а
16-
разрядное
,
24-
разрядное
, 32-
разрядное
и
более
.
Группа
из
16
взаимосвязан
-
ных
бит
(
двух
взаимосвязанных
байтов
)
в
информатике
называ
-
ется
словом
.
Соответственно
,
группы
из
четырех
взаимосвязан
-
ных
байтов
(32
разряда
)
называются
удвоенным
словом
,
а
груп
-
пы
из
восьми
байтов
(64
разряда
) –
учетверенным
словом
.
328
Байт
является
в
информатике
наименьшей
единицей
измере
-
ния
.
Поскольку
одним
байтом
,
как
правило
,
кодируется
один
сим
-
вол
текстовой
информации
,
для
текстовых
документов
размер
в
байтах
соответствует
лексическому
объему
в
символах
.
Более
крупная
единица
измерения
–
килобайт
(
Кбайт
).
Условно
можно
считать
,
что
1
Кбайт
примерно
равен
1000
байт
.
Условность
связа
-
на
с
тем
,
что
для
вычислительной
техники
,
работающей
с
двоич
-
ными
числами
,
более
удобно
представление
чисел
в
виде
степени
двойки
и
потому
на
самом
деле
1
Кбайт
равен
2
10
байт
(1024
байт
).
Однако
всюду
,
где
это
не
принципиально
,
с
инженерной
погреш
-
ностью
(
до
3 %) «
забывают
»
о
«
лишних
»
байтах
.
В
килобайтах
измеряют
сравнительно
небольшие
объемы
данных
.
Условно
можно
считать
,
что
одна
страница
неформати
-
рованного
машинописного
текста
составляет
около
2
Кбайт
.
Более
крупные
единицы
измерения
данных
образуются
до
-
бавлением
префиксов
мега
-,
гига
-
тера
-:
1
Мбайт
= 1024
Кбайт
≈
10
20
байт
;
1
Гбайт
= 1024
Мбайт
≈
10
30
байт
;
1
Тбайт
= 1024
Гбайт
≈
10
40
байт
.
В
более
крупных
единицах
пока
нет
практической
надоб
-
ности
.
При
хранении
данных
решаются
две
проблемы
:
как
сохра
-
нить
данные
в
наиболее
компактном
виде
и
как
обеспечить
к
ним
удобный
и
быстрый
доступ
.
Для
обеспечения
доступа
необходи
-
мо
,
чтобы
данные
имели
упорядоченную
структуру
.
Поскольку
адресные
данные
тоже
имеют
размер
и
тоже
подлежат
хранению
,
хранить
данные
в
виде
мелких
единиц
,
таких
как
байты
,
неудобно
.
Их
неудобно
хранить
и
в
более
крупных
единицах
(
килобайтах
,
мегабайтах
и
т
.
п
.),
поскольку
неполное
заполнение
одной
единицы
хранения
приводит
к
неэффективно
-
сти
хранения
.
329
В
качестве
единицы
хранения
данных
принят
объект
пе
-
ременной
длины
,
называемый
файлом
.
Файл
–
это
последова
-
тельность
произвольного
числа
байтов
,
обладающая
уникаль
-
ным
собственным
именем
.
Обычно
в
отдельном
файле
хранят
данные
,
относящиеся
к
одному
типу
.
В
этом
случае
тип
данных
определяет
тип
файла
.
Проще
всего
представить
себе
файл
в
виде
безразмерного
канцелярского
досье
,
в
которое
можно
по
желанию
добавлять
со
-
держимое
или
извлекать
его
оттуда
.
Поскольку
в
определении
файла
нет
ограничений
на
размер
,
можно
представить
себе
файл
,
имеющий
0
байтов
(
пустой
файл
),
и
файл
,
имеющий
любое
число
байтов
.
В
определении
файла
особое
внимание
уделяется
имени
.
Оно
фактически
несет
в
себе
адресные
данные
,
без
которых
дан
-
ные
,
хранящиеся
в
файле
,
не
станут
информацией
из
-
за
отсутст
-
вия
метода
доступа
к
ним
.
Кроме
функций
,
связанных
с
адреса
-
цией
,
имя
файла
может
хранить
и
сведения
о
типе
данных
,
за
-
ключенных
в
нем
.
Для
автоматических
средств
работы
с
данными
это
важно
,
поскольку
по
имени
файла
они
могут
автоматически
определить
адекватный
метод
извлечения
информации
из
файла
.
Количество
информации
оценивают
количественной
ме
-
рой
Н
,
получившей
название
энтропии
.
Понятие
энтропии
(
от
греч
. entrope
−
обращение
)
распространилось
на
ряд
облас
-
тей
знания
.
Энтропия
в
термодинамике
характеризует
вероят
-
ность
теплового
состояния
вещества
,
его
способность
совершать
работу
,
в
математике
−
степень
неопределенности
ситуации
или
задачи
.
В
теории
информации
понятие
энтропии
как
способно
-
сти
источника
отдавать
информацию
было
введено
американ
-
ским
инженером
К
.
Шенноном
в
работе
«
Математическая
тео
-
рия
связи
»,
опубликованной
в
1948
году
.
Степень
неопределенности
состояний
объекта
зависит
от
числа
n
возможных
состояний
(S
1
, S
2
,..., S
n
)
с
вероятностями
Р
(S
1
), P(S
2
), ..., P(S
n
).
Например
,
при
бросании
монеты
их
может
быть
только
два
,
при
бросании
кубика
−
шесть
.
Степень
неопре
-
деленности
состояния
объекта
возрастает
с
увеличением
n.
Если
330
состояние
объекта
не
изменяется
, P(S
1
) = 1,
а
вероятности
ос
-
тальных
состояний
равны
нулю
,
то
объект
вовсе
не
обладает
неопределенностью
−
энтропия
такого
объекта
равна
нулю
.
Таким
образом
,
в
теории
информации
энтропия
как
степень
неопределенности
состояния
объекта
,
имеющего
n
возможных
состояний
с
вероятностями
Р
(S
1
), P(S
2
), ..., P(S
n
),
определяется
выражением
( )
( )
( )
1
log
.
n
i
a
i
i
H S
P S
P S
=
= −
∑
(12.1)
Логарифм
в
формуле
(12.1)
может
быть
взят
при
любом
основании
,
изменение
основания
приводит
только
к
появлению
множителя
перед
знаком
суммы
,
т
.
е
.
к
изменению
единицы
из
-
мерения
.
Наименование
этой
единицы
зависит
от
выбора
осно
-
вания
логарифма
при
вычислении
энтропии
:
при
выборе
двоич
-
ного
основания
(
а
= 2)
получаем
уже
знакомую
единицу
изме
-
рения
информации
–
бит
,
при
других
основаниях
а
= 10 –
дит
,
при
использовании
натуральных
логарифмов
–
нит
.
При
использовании
двоичного
основания
формула
(12.1)
принимает
вид
( )
( )
( )
2
1
log
.
n
i
i
i
H S
P S
P S
=
= −
∑
(12.2)
Целесообразность
использования
двоичных
логарифмов
легко
понять
,
вычисляя
энтропию
объекта
,
имеющего
два
рав
-
новероятных
состояния
.
В
этом
случае
P(S
1
) = P(S
2
) = 0,5.
По
формуле
(12.2)
находим
:
( )
( )
( ) ( )
( )
1
2
1
2
2
2
2
2
log
log
1
1
1
1
log
log
1.
2
2
2
2
H S
P S
P S
P S
P S
= −
−
=
= −
−
=
Таким
образом
,
за
единицу
измерения
энтропии
при
вы
-
боре
двоичных
логарифмов
принимается
степень
неопределен
-
331
ности
объекта
,
имеющего
два
возможных
равновероятных
со
-
стояния
.
Эта
единица
измерения
и
называется
двоичной
едини
-
цей
или
битом
.
Рассмотрим
основные
свойства
энтропии
.
1.
Энтропия
объекта
есть
величина
вещественная
и
неот
-
рицательная
,
так
как
( )
0
1,
i
P S
≤
≤
то
( )
0.
H S
≥
2.
Энтропия
объекта
равна
нулю
в
том
крайнем
случае
,
когда
одно
из
возможных
состояний
S
n
имеет
вероятность
P( S
n
) = 1,
т
.
е
.
H( S) = 0
при
P( S
n
) = 1.
(12.3)
В
этом
случае
информация
о
состоянии
объекта
достовер
-
но
известна
заранее
,
поэтому
в
объекте
нет
никакой
неопреде
-
ленности
.
3.
Энтропия
объекта
с
одинаковыми
вероятностями
со
-
стояний
максимальна
и
равна
логарифму
числа
состояний
.
Дейст
-
вительно
,
пусть
P( S
i
) = 1/ n,
тогда
по
формуле
для
энтропии
объекта
(12.2)
находим
( )
( )
( )
2
1
2
1
1
log
1
1
1
log
log
log .
n
i
i
i
n
n
i
i
H S
P S
P S
n
n
n
n
n
=
=
=
= −
=
= −
=
=
∑
∑
∑
Do'stlaringiz bilan baham: |