Информация

Основное понятие кибернетики. Кибернетика изучает машины и живые организмы исключительно с точки зрения их способности воспринимать определенную П., сохранять эту И. в "памяти", передавать ее по каналам связи и перерабатывать ее в "сигналы", направляющие их деятельность в соответствующую сторону. Интуитивное представление об И. относительно каких-либо величин или явлений, содержащейся в нек-рых данных, в кибернетике ограничивается и уточняется. В нек-рых случаях возможность сравнения различных групп данных по содержащейся в них И. столь же естественна, как возможность сравнения плоских фигур по их "площади": независимо от способа измерения площадей можно сказать, что фигура Аимеет не большую площадь, чем В, если .4 может быть целиком помещена в B. (ср. примеры 1-3 ниже). Более глубокий факт — возможность выразить площадь числом и на этой основе сравнивать между собой фигуры произвольной формы — является результатом развитой математич. теории. Подобно этому фундаментальным результатом теории И. является утверждение о том, что в определенных, весьма широких, условиях можно пренебречь качественными особенностями И. и выразить ее количество числом. Только этим числом определяются возможности передачи И. по каналам связи и ее хранения в запоминающих устройствах. Пример 1. Знание положения и скорости частицы, движущейся в силовом поле, дает И. о ее положении в любой будущий момент времени, притом полную, т. к. это положение может быть предсказано точно. Знание энергии частицы также дает И., но, очевидно, неполную. Пример 2. Равенство а=b (1) дает И. относительно переменных аи b. Равенство а 2=b2 (2) дает меньшую И. [т. к. из (1) следует (2), но эти равенства не равносильны]. Наконец, равенство а 3=b3(3) равносильное (1), дает ту же И., то есть (1) и (3) — это различные формы задания одной и той же И. Пример 3. Результаты произведенных с ошибками независимых измерений к.-л. физич. величины дают И. о ее точном значении. Увеличение числа наблюдений увеличивает эту И. Пример 3 а. Среднее арифметическое результатов наблюдений также содержит нек-рую И. относительно рассматриваемой величины. Как показывает математич. статистика, в случае нормального распределения вероятностей ошибок с известной дисперсией среднее арифметическое содержит всю И. Пример 4. Пусть результатом нек-рого измерения является случайная величина x. При передаче по нек-рому каналу связи x искажается, в результате чего на приемном конце получают величину где 8 не зависит от x (в смысле теории вероятностей). "Выход" hдает И. о "входе" x, причем естественно ожидать, что эта И. тем меньше, чем больше "рассеяние" значений q. В каждом из приведенных примеров данные сравнивались по большей или меньшей полноте содержащейся в них И. В примерах 1-3 смысл такого сравнения ясен и сводится к анализу равносильности или неравносильности нек-рых соотношений. В примерах За и 4 этот смысл требует уточнения. Это уточнение дается, соответственно, математич. статистикой и теорией И. (для к-рых эти примеры являются типичными). В основе информации теории лежит предложенный в 1948 К. Шенноном (С. Shannon) способ измерения количества И., содержащейся в одном случайном объекте (событии, величине, функции и т. п.) относительно другого случайного объекта. Этот способ приводит к выражению количества И. числом. Положение можно всего лучше объяснить в простейшей обстановке, когда рассматриваемые случайные объекты являются случайными величинами, принимающими лишь конечное число значений. Пусть x — случайная величина, принимающая значения х 1, х 2, ..., х п с вероятностями р 1, р 2, . .., р п, а h — случайная величина, принимающая значения у 1, у 2, ..., у т с вероятностями q1, q2 ,..., qm. Тогда И. I(x, h) относительно h, содержащаяся в x, определяется формулой где р ij- вероятность совмещения событий x=xi и h=yj и логарифмы берутся по основанию 2. И. I(x,h)обладает рядом свойств, к-рые естественно требовать от меры количества И. Так, всегда I(x,h)>0 и равенство I(x,h)= 0 возможно тогда и только тогда, когда р ij=piqj при всех iи j, т. е. когда случайные величины x и h независимы. Далее, всегда и равенство возможно только в случае, когда т] есть функция от x (напр., h = x2 и т. д.). Неожиданным может казаться лишь равенство I(x, h)= I(h, x). Величина носит название энтропии случайной величины x. Понятие энтропии относится к числу основных понятий теории И. Количество И. и энтропия связаны соотношением где H(x, h) — энтропия пары (x, h), т. е. Величина энтропии указывает среднее число двоичных знаков, необходимое для различения (или записи) возможных значений случайной величины. Это обстоятельство позволяет понять роль количества И. (4) при "хранении" И. в запоминающих устройствах. Если случайные величины x и hнезависимы, то для записи значения x требуется в среднем Н(x)двоичных знаков, для значения hтребуется Н(h)двоичных знаков, а для пары (x, h) требуется H(x)+H(h) двоичных знаков. Если же случайные величины x и h зависимы, то среднее число двоичных знаков, необходимое для записи пары (x, h), оказывается меньшим суммы Н(x)+ +H(h), так как Н(x,h) = Н(x)+Н(h)-I(x, h). С помощью значительно более глубоких теорем выясняется роль количества И. (4) в вопросах передачи И. по каналам связи. Основная информационная характеристика каналов, так наз. емкость, определяется через понятие "П.". Если x и h могут принимать бесконечное число значений, то предельным переходом из (4) получается формула где буквами ри qобозначены соответствующие плотности вероятности. При этом энтропии Н(x) и H(h) не существуют, но имеет место формула, аналогичная (5) где — дифференциальная энтропияx[h(h)и h(x,h) определяются подобным же образом]. Пример 5. Пусть в условиях примера 4 случайные величины x и q имеют нормальное распределение вероятностей с нулевыми средними значениями и дисперсиями, равными соответственно и Тогда, как можно подсчитать по формулам (6) или (7): I(h, x)=I(x, h)= Таким образом, количество И. в "принятом сигнале" h относительно "переданного сигнала" x стремится к нулю при возрастании уровня "помех" q (т. е. при ) и неограниченно возрастает при исчезающе малом влиянии "помех" (т. е. при ). Особенный интерес для теории связи представляет случай, когда в обстановке примеров 4 и 5 случайные величины x и h заменяются случайными функциями (или, как говорят, случайными процессами) x(t)и h(t), к-рые описывают изменение нек-рой величины на входе и на выходе передающего устройства. Количество И. в h(t)относительно x(t) при заданном уровне помех ("шумов", по акустич. терминологии) q(t)может служить критерием качества самого этого устройства. В задачах математич. статистики также пользуются понятием И. (ср. примеры 3 и 3а). Однако как по своему формальному определению, так и по своему назначению оно отличается от вышеприведенного (из теории И.). Статистика имеет дело с большим числом результатов наблюдений и заменяет обычно их полное перечисление указанием нек-рых сводных характеристик. Иногда при такой замене происходит потеря И., но при нек-рых условиях сводные характеристики содержат всю И., содержащуюся в полных данных (разъяснение смысла этого высказывания дано в конце примера 6). Понятие И. в статистике было введено Р. Фишером (R. Fisher) в 1921. Пример 6. Пусть x1, x2, ..., xn- результаты пнезависимых наблюдений нек-рой величины, распределенные по нормальному закону с плотностью вероятности где параметры а и s2 (среднее и дисперсия) неизвестны и должны быть оценены по результатам наблюдений. Достаточными статистиками (т. е. функциями от результатов наблюдений, содержащими всю И. о неизвестных параметрах) в этом примере являются среднее арифметическое и так наз. эмпирическая дисперсия Если параметр а 2 известен, то достаточной статистикой будет только (ср. пример За выше). Смысл выражения "вся И." может быть пояснен следующим образом. Пусть имеется к.-л. функция неизвестных параметров j=j(а, s2) и пусть x*=j*(x1, x2, ..., xn) — к.-л. ее оценка, лишенная систематич. ошибки. Пусть качество оценки (ее точность) измеряется (как это обычно делается в задачах математич. статистики) дисперсией, разности j*-j. Тогда существует другая оценка j**, зависящая не от отдельных величин xi, а только от сводных характеристик и s2, не худшая (в смысле упомянутого критерия), чем j*. Р. Фишером была предложена также мера (среднего) количества И. относительно неизвестного параметра, содержащейся в одном наблюдении. Смысл этого понятия раскрывается в теории статистич. оценок. Лщп. см. при ст. Информации передача. Ю. В. Прохоров.

Источник: Математическая энциклопедия на Gufo.me


Значения в других словарях

  1. информация — -и, ж. 1. То же, что информирование. 2. Сообщение о положении дел где-л., о каких-л. событиях и т. д. [Николай] научился в любой деревне --- находить смелого человека, готового посильно снабдить нужной информацией, показать дорогу, покормить. Малый академический словарь
  2. ИНФОРМАЦИЯ — ИНФОРМАЦИЯ (от лат. informa-tio — сообщение) — англ. information; нем. Information. 1. Сообщение о ч.-л. 2. Сведения, являющиеся объектом хранения, переработки и передачи. Социологический словарь
  3. информация — Сведения о предметах, процессах и явлениях окружающего мира, передаваемые людьми устно, письменно или иным способом (напр., с помощью условных сигналов, технических средств и т. д.). С сер. Техника. Современная энциклопедия
  4. информация — Информ/а́ци/я [й/а]. Морфемно-орфографический словарь
  5. Информация — I Информа́ция (от лат. informatio — разъяснение, изложение) первоначально — сведения, передаваемые одними людьми другим людям устным, письменным или каким-либо другим способом (например, с помощью условных сигналов... Большая советская энциклопедия
  6. информация — орф. информация, -и Орфографический словарь Лопатина
  7. информация — 1. Сведения, содержащиеся в данном речевом сообщении и рассматриваемые как объект передачи, хранения и переработки. 2. Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами. 3. См. Толковый переводоведческий словарь
  8. информация — Польское – informacja. Латинское – informatio (представление). Слово распространилось в русском языке в эпоху Петра I. Оно пришло из польского языка, который, в свою очередь, заимствовал его из латинского, со значением «сведения о ком или чем-либо». Этимологический словарь Семёнова
  9. информация — (лат. informatio разъяснение; просвещение) 1) Осведомление; сообщение, сведения о ч.-л.; 2) обмен сведениями между людьми, человеком и автоматом; обмен сигналами в животном и растительном мире; 3) мера организации системы; теория... Словарь лингвистических терминов Жеребило
  10. информация — • полная ~ Словарь русской идиоматики
  11. информация — (от лат. informare — изображать, составлять понятие о чем-либо, сообщать). Сведения, содержащиеся в конкретном высказывании и представляющие собой объект передачи, хранения, переработки, воспроизведения. Словарь лингвистических терминов Розенталя
  12. информация — ИНФОРМАЦИЯ и, ж. information f., пол. informacyia < , лат. informatio разъяснение, изложение. Сообщение, осведомление о чем-л. БАС-1. Везде и во всем интерес монаршей охранять со всякою верностью, .. Словарь галлицизмов русского языка
  13. ИНФОРМАЦИЯ — Понятие, связанное с: 1) конституционным правом граждан РФ на И.; 2) статусом средств массовой И.; 3) правом граждан РФ знакомиться в органах государственной власти и местного самоуправления с документами и материалами... Словарь по конституционному праву
  14. информация — ИНФОРМАЦИЯ в системе АПК, совокупность сведений, данных, знаний о состоянии и изменениях в с.-х. произ-ве и перерабат. пром-сти, а также в агроинфраструктуре; форма связи между управляемыми и управляющими объектами АПК. Сельскохозяйственный словарь
  15. информация — ИНФОРМАЦИЯ (от лат. informatio — осведомление) — есть выбор одного (или нескольких) сигналов, параметров, вариантов, альтернатив и т.п. из многих возможных, и этот выбор должен быть запомнен. В теории... Энциклопедия эпистемологии и философии науки
  16. информация — сущ., ж., употр. сравн. часто (нет) чего? информации, чему? информации, (вижу) что? информацию, чем? информацией, о чём? об информации 1. Информация о ком-либо или о чём-либо — это передача или изложение фактов и сведений о ком-либо или о чём-либо. Толковый словарь Дмитриева
  17. информация — Заимств. в Петровскую эпоху из польск. яз., где informacja < лат. informatio «представление (о чем-л.)», суф. производного от informare «изображать, представлять» (исходное слово forma, «вид, образ», см. форма). Этимологический словарь Шанского
  18. информация — Сведения о чем-либо, являющиеся объектом сбора, хранения, переработки. Стоимость И. включает в себя: время руководителей и подчиненных, затраченное на сбор И.. а также фактические издержки связанные с анализом рынка, оплатой машинного времени, использованием услуг внешних консультантов и др. Большой бухгалтерский словарь
  19. информация — ИНФОРМАЦИЯ — ДЕЗИНФОРМАЦИЯ Агент жил скромно: чинил часы и время от времени передавал информацию, точнее, дезинформацию, которую ему заботливо готовило начальство. Ю. Колесников. Занавес приподнят. Словарь антонимов русского языка
  20. информация — ИНФОРМАЦИЯ -и; ж. [лат. informatio — разъяснение, изложение] 1. = Информирование. Сообщить в порядке информации. Средства массовой информации (о газетах, радио, телевидении). 2. Сообщение о состоянии дел где-л., о каких-л. событиях, процессах и т.п. Толковый словарь Кузнецова
  21. информация — Один из объектов гражданских прав, предусмотренных ст. 128 ГК РФ. в самом ГК РФ не определено понятие и.; защита предусмотрена для более узкого объекта данного вида — служебной и коммерческой тайны. Большой юридический словарь
  22. информация — ИНФОРМАЦИЯ, и, ж. 1. Сведения об окружающем мире и протекающих в нём процессах, воспринимаемые человеком или специальным устройством (спец.). Передача информации. Теория информации (раздел кибернетики, изучающий способы измерения и передачи информации). Толковый словарь Ожегова
  23. информация — Информации, ж. Общего определения до сих пор не выработано. Наиболее употребительные сводятся к следующим: 1. Сообщение, описание фактов. 2. Новости, новые сведения. 3. Уменьшение неопределенности в результате сообщения. Большой словарь иностранных слов
  24. информация — ИНФОРМ’АЦИЯ, информации, ·жен. (·книж., офиц.). 1. только ед. Действие по гл. информировать. Информация поставлена на должную высоту. 2. Сообщение, осведомляющее о положении дел или о чьей-нибудь деятельности, сведения о чем-нибудь. Давать информацию. Газетная информация. Неверная информация. Толковый словарь Ушакова
  25. информация — информация I ж. 1. Сообщение о положении дел где-либо, о состоянии чего-либо. 2. Сведения об окружающем мире и протекающих в нём процессах, воспринимаемые человеком или специальными устройствами. Толковый словарь Ефремовой
  26. ИНФОРМАЦИЯ — (от лат. informatio — осведомлять) 1) любое сообщение о чем-либо; 2) сведения, данные, значения экономических показателей, являющиеся объектами хранения... Экономический словарь терминов
  27. ИНФОРМАЦИЯ — ИНФОРМАЦИЯ (от лат. informatio — разъяснение, изложение) — первоначальная — сведения, передаваемые людьми устным, письменным или другим способом (с помощью условных сигналов, технических средств и т. д.); с сер. Большой энциклопедический словарь
  28. Информация — лат. informatio — ознакомление, представление. 1) любые сведения, данные, сообщения, передаваемые посредством сигналов; 2) уменьшение неопределенности в результате передачи сведений, данных, сообщений — в этом качестве И. противопоставляется энтропии. Словарь по культурологии
  29. информация — информа́ция начиная с Петра I; см. Смирнов 123. Через польск. informacja из лат. informātiō "представление, понятие о ч.-л.". Этимологический словарь Макса Фасмера
  30. ИНФОРМАЦИЯ — ИНФОРМАЦИЯ (лат. informatio — разъяснение, изложение, осведомленность) — одно из наиболее общих понятий науки, обозначающее некоторые сведения, совокупность каких-либо данных, знаний и т.п. В границах системно-кибернетического подхода... Новейший философский словарь