Большая Советская Энциклопедия (ИН) - БСЭ БСЭ
Шрифт:
Интервал:
Закладка:
Дальнейшее развитие И. п. направлено на его механизацию и автоматизацию. Для этого используются перфокарты ручного обращения (с краевой перфорацией, щелевые и просветные), счётно-перфорационные машины, электронные цифровые вычислительные машины, а также специальные технические средства — микрофотографические, с магнитной и видеомагнитной записью информации и т. д.
Лит.: Михайлов А. И., Черный А. И., Гиляревский Р. С., Основы информатики, 2 изд., М., 1968, с. 244—620; Bourne Ch. P., Methods of information handling, N. Y., 1963; Vickery B. C., On retrieval system theory, 2 ed., L., 1965.
А. И. Чёрный.
«Информационный указатель Государственных стандартов СССР»
«Информацио'нный указа'тель Госуда'рственных станда'ртов СССР» (ИУС), ежемесячное официальное издание Государственного комитета стандартов Совета Министров СССР. Издаётся в Москве с 1940. Рассчитано на широкий круг инженерно-технических работников. Включает перечень государственных стандартов (располагается по разделам и группам классификатора ГОСТов), утвержденных Госстандартом СССР за прошедший месяц (в том числе на аттестованную продукцию), номера отмененных и измененных стандартов и инструкций. К каждому номеру ИУС выпускается приложение (тексты изменений и поправок, внесённых в государственные стандарты). На основе материалов государственной регистрации стандартов ИУС составляет Всесоюзный информационный фонд стандартов и технических условий. Тираж (1971) 47 тыс. экземпляров.
Информационный язык (в информационно-логической системе)
Информацио'нный язы'к для информационно-логической системы, формальная семантическая система, состоящая из некоторого алфавита (списка элементарных символов) и правил образования, преобразования и интерпретации. Правила образования устанавливают, какие комбинации элементарных символов допускаются, правила преобразования — какие допускаются преобразования выражений (на И. я.) с целью получения логического вывода, а правила интерпретации — как надлежит понимать выражения, составленные по правилам образования. Так как И. я. используется в информационно-логических системах для записи фактов и сведений, он должен быть недвусмысленным, удобным для дедуктивного логического вывода и отождествления разным образом записанных одинаковых фактов и сведений, пригодным для использования в информационной машине. Такое построение И. я. позволяет вводить в машину не все известные факты и сведения (это было бы невозможно), а лишь основные, из которых в ней можно получить остальные по правилам преобразования.
Чем более формализован реальный язык той или иной отрасли науки (наиболее формализованные языки используются в математике и химии), тем легче создать для неё И. я. Необходимо отличать И. я. от информационно-поискового языка , предназначенного для решения другой, значительно более простой задачи — для поиска текстов (документов), основное смысловое содержание которых отвечает на некоторый информационный запрос , и поэтому имеющего иную структуру.
А. И. Чёрный.
Информационный язык (в обработке информации)
Информацио'нный язы'к, специальный искусственный язык, используемый в системах обработки информации (см. Языки информационные ).
Информация (в кибернетике)
Информа'ция в кибернетике. Естественнонаучное понимание И. основано на двух определениях этого понятия, предназначенных для различных целей (для информации теории , иначе называемой статистической теорией связи, и теории статистических оценок ). К ним можно присоединить и третье (находящееся в стадии изучения), связанное с понятием сложности алгоритмов.
Центральное положение понятия И. в кибернетике объясняется тем, что кибернетика (ограничивая и уточняя интуитивное представление об И.) изучает машины и живые организмы с точки зрения их способности воспринимать определённую И., сохранять её в «памяти», передавать по «каналам связи» и перерабатывать её в «сигналы», направляющие их деятельность в соответствующую сторону.
В некоторых случаях возможность сравнения различных групп данных по содержащейся в них И. столь же естественна, как возможность сравнения плоских фигур по их «площади»; независимо от способа измерения площадей можно сказать, что фигура A имеет не большую площадь, чем B , если A может быть целиком помещена в В (сравни примеры 1—3 ниже). Более глубокий факт — возможность выразить площадь числом и на этой основе сравнить между собой фигуры произвольной формы — является результатом развитой математической теории. Подобно этому, фундаментальным результатом теории И. является утверждение о том, что в определённых весьма широких условиях можно пренебречь качественными особенностями И. и выразить её количество числом. Только этим числом определяются возможности передачи И. по каналам связи и её хранения в запоминающих устройствах.
Пример 1. В классической механике знание положения и скорости частицы, движущейся в силовом поле, в данный момент времени даёт И. о её положении в любой будущий момент времени, притом полную в том смысле, что это положение может быть предсказано точно. Знание энергии частицы даёт И., но, очевидно, неполную.
Пример 2. Равенство
a = b (1)
даёт И. относительно вещественных переменных a и b. Равенство
a 2 = b 2 (2)
даёт меньшую И. [так как из (1) следует (2), но эти равенства не равносильны]. Наконец, равенство
a 3 = b 3 (3)
равносильное (1), даёт ту же И., то есть (1) и (3) — это различные формы задания одной и той же И.
Пример 3. Результаты произведённых с ошибками независимых измерений какой-либо физической величины дают И. о её точном значении. Увеличение числа наблюдений увеличивает эту И.
Пример 3 а. Среднее арифметическое результатов наблюдений также содержит некоторую И. относительно рассматриваемой величины. Как показывает математическая статистика, в случае нормального распределения вероятностей ошибок с известной дисперсией среднее арифметическое содержит всю И.
Пример 4. Пусть результатом некоторого измерения является случайная величина X . При передаче по некоторому каналу связи X искажается, в результате чего на приёмном конце получают величину Y = X + q, где q не зависит от X (в смысле теории вероятностей). «Выход» Y даёт И. о «входе» X ; причём естественно ожидать, что эта И. тем меньше, чем больше дисперсия случайной ошибки q.
В каждом из приведённых примеров данные сравнивались по большей или меньшей полноте содержащейся в них И. В примерах 1—3 смысл такого сравнения ясен и сводится к анализу равносильности или неравносильности некоторых соотношений. В примерах 3 а и 4 этот смысл требует уточнения. Это уточнение даётся, соответственно, математической статистикой и теорией И. (для которых эти примеры являются типичными).
В основе теории информации лежит предложенный в 1948 американским учёным К. Шенноном способ измерения количества И., содержащейся в одном случайном объекте (событии, величине, функции и т. п.) относительно другого случайного объекта. Этот способ приводит к выражению количества И. числом. Положение можно лучше объяснить в простейшей обстановке, когда рассматриваемые случайные объекты являются случайными величинами, принимающими лишь конечное число значений. Пусть X — случайная величина, принимающая значения x 1 , x 2 ,..., xn с вероятностями p 1 , p 2 ,..., pn , а Y — случайная величина, принимающая значения y 1 , y 2 ,..., ym с вероятностями q 1 , q 2 ,..., qm . Тогда И. I (X ,Y ) относительно Y , содержащаяся в X , определяется формулой
где pij — вероятность совмещения событий X = xi и Y = yj и логарифмы берутся по основанию 2. И. I (X , Y ) обладает рядом свойств, которые естественно требовать от меры количества И. Так, всегда I (X , Y ) ³ 0 и равенство I (X , Y ) = 0 возможно тогда и только тогда, когда pij = pi qj при всех i и j, т. е. когда случайные величины X и Y независимы. Далее, всегда I (X , Y ) £ I (Y , Y ) и равенство возможно только в случае, когда Y есть функция от X (например, Y = X 2 и т. д.). Кроме того, имеет место равенство I (X , Y ) = I (Y , X ).