Главная Случайная страница Категории: ДомЗдоровьеЗоологияРнформатикаРскусствоРскусствоКомпьютерыКулинарияМаркетингМатематикаМедицинаМенеджментОбразованиеПедагогикаПитомцыПрограммированиеПроизводствоПромышленностьПсихологияРазноеРелигияСоциологияСпортСтатистикаТранспортФизикаФилософияФинансыХимияХоббиРкологияРРєРѕРЅРѕРјРёРєР°Рлектроника |
Количество информации РІ системеВыше было отмечено, что информация может пониматься Рё интерпретироваться РїРѕ разному. Вследствие этого имеются различные РїРѕРґС…РѕРґС‹ Рє определению измерения информации, меры количества информации. Раздел информатики (теории информации) изучающий методы измерения информации называется информметрией. Количество информации - числовая величина, адекватно характеризующая актуализируемую информацию РїРѕ разнообразию, сложности, структурированности (упорядоченности), определённости, выбору состояний отображаемой системы. Если рассматривается некоторая система, которая может принимать РѕРґРЅРѕ РёР· n возможных состояний, то актуальной задачей является задача оценки такого выбора, РёСЃС…РѕРґР°. Такой оценкой может стать мера информации (или события). Мера - это некоторая непрерывная действительная неотрицательная функция, определённая РЅР° множестве событий Рё являющаяся аддитивной С‚.Рµ. мера конечного объединения событий (множеств) равна СЃСѓРјРјРµ мер каждого события. Меры РјРѕРіСѓС‚ быть статические Рё динамические - РІ зависимости РѕС‚ того, какую информация РѕРЅРё позволяют оценивать - статическую (РЅРµ актуализированную С‚.Рµ. РЅР° самом деле оцениваются представляющие информацию сообщения без учёта ресурсов Рё формы актуализации) или динамическую (актуализированную С‚.Рµ. оцениваются также Рё затраты ресурсов для актуализации информации). Отметим, что ниже РјС‹ РЅРµ всегда будем (РІ РѕСЃРЅРѕРІРЅРѕРј, для большей убедительности Рё большего содержательного понимания) проводить четкие математические границы между понятиями ''количество информации'' Рё “мера количества информации'', РЅРѕ строгому читателю необходимо РІСЃС‘ время задавать достаточно важные РІРѕРїСЂРѕСЃС‹ типа: Рѕ количестве информации или Рѕ мере информации РІ конкретной последовательности событий идёт речь? Рѕ детерминированной или стохастической информации идёт речь? Мера Р . Хартли. Пусть имеется N состояний системы S или N опытов СЃ различными, равновозможными последовательными состояниями системы. Если каждое состояние системы закодировать, например, двоичными кодами определённой длины d, то эту длину необходимо выбрать так, чтобы число всех различных комбинаций было Р±С‹ РЅРµ меньше, чем N. Наименьшее число, РїСЂРё котором это возможно или мера разнообразия множества состояний системы задаётся формулой Р . Хартли: H=k log2N РіРґРµ k - коэффициент пропорциональности (масштабирования, РІ зависимости РѕС‚ выбранной, рассматриваемой единицы измерения меры), Р° - основание рассматриваемой системы. Пример. Чтобы узнать положение точки РІ системе РёР· РґРІСѓС… клеток С‚.Рµ. получить некоторую информацию, необходимо задать 1 РІРѕРїСЂРѕСЃ ("Левая или правая клетка?"). Узнав положение точки, РјС‹ увеличиваем суммарную информацию Рѕ системе РЅР° 1 Р±РёС‚ (I=log22). Для системы РёР· четырех клеток необходимо задать 2 аналогичных РІРѕРїСЂРѕСЃР°, Р° информация равна 2 битам (I=log24). Если система имеет n различных состояний, то максимальное количество информации равно I=log2n. Если измерение ведётся РІ экспоненциальной (натуральной) системе, то если измерение ведётся РІ двоичной системе, то если измерение ведётся РІ десятичной системе, то Справедливо утверждение Хартли: если РІРѕ множестве X={x1, x2, ..., xn} выделить произвольный элемент xiÎX, то для того, чтобы найти его, необходимо получить РЅРµ менее logan (единиц) информации. РџРѕ Хартли, чтобы мера информации имела практическую ценность - РѕРЅР° должна быть такова, чтобы информация была пропорциональна числу выборов. Пример. Рмеются 192 монеты РёР· которых РѕРґРЅР° фальшивая. Определим сколько взвешиваний нужно произвести, чтобы определить ее. Если положить РЅР° весы равное количество монет, то получим 2 возможности: Р°) левая чашка ниже; Р±) правая чашка ниже. Таким образом, каждое взвешивание дает количество информации I=log22=1 Рё, следовательно, для определения этой фальшивой монеты нужно сделать РЅРµ менее k взвешиваний, РіРґРµ k удовлетворяет условию log22k³log2192. Отсюда, k³7. Следовательно, необходимо (достаточно) сделать РЅРµ менее 7 взвешиваний. Рта формула отвлечена РѕС‚ семантических Рё качественных, индивидуальных свойств рассматриваемой системы (качества информации, содержащейся РІ системе, РІ проявлениях системы СЃ помощью рассматриваемых состояний системы). Рто положительная сторона этой формулы. РќРѕ имеется Рё отрицательная сторона: формула РЅРµ учитывает различимость Рё различность рассматриваемых N состояний системы. Уменьшение (увеличение) Рќ может свидетельствовать РѕР± уменьшении (увеличении) разнообразия состояний N системы. Обратное, как это следует РёР· формулы Хартли (основание логарифма берётся больше 1!), - также верно. Мера Рљ. Шеннона. Формула Шеннона дает оценку информации независимо, отвлеченно РѕС‚ ее смысла: РіРґРµ n - число состояний системы; СЂi - вероятность (или относительная частота) перехода системы РІ i-РѕРµ состояние, причем Если РІСЃРµ состояния равновероятны (С‚.Рµ. СЂi=1/n), то I=log2n (как Рё ожидалось). Рљ. Шенноном доказана теорема Рѕ единственности меры количества информации). Для случая равномерного закона распределения плотности вероятности мера Шеннона совпадает СЃ мерой Хартли. Нулевой энтропии соответствует максимальная информация. РћСЃРЅРѕРІРЅРѕРµ соотношение между энтропией Рё информацией: или РІ дифференциальной форме - Ртак, если имеется система S Рё каждое I-РѕРµ состояние S РёР· N возможных состояний определяется некоторым информационным вектором или же сообщением xi, i=1,2,...,N над некоторым заданным алфавитом A, система может перейти РІ каждое i-РѕРµ состояние СЃ вероятностью pi, i=1,2,...,N, то pi можно понимать как вероятность i-РіРѕ сообщения (сообщения, характеризующего усреднённое i-РѕРµ состояние системы). Основными положительными сторонами этой формулы является её отвлечённость РѕС‚ семантических Рё качественных, индивидуальных свойств системы, Р° также то, что РІ отличие РѕС‚ формулы Хартли РѕРЅР° учитывает различность состояний, РёС… разновероятность или же формула имеет статистический характер (учитывает структуру сообщений), делающий эту формулу СѓРґРѕР±РЅРѕР№ для практических вычислений. Основные отрицательные стороны формулы Шеннона: РѕРЅР° РЅРµ различает состояния (СЃ одинаковой вероятностью достижения, например), РЅРµ может оценивать состояния сложных Рё открытых систем Рё применима лишь для замкнутых систем, отвлекаясь РѕС‚ смысла информации. Увеличение (уменьшение) меры Шеннона свидетельствует РѕР± уменьшении (увеличении) энтропии (организованности, РїРѕСЂСЏРґРєР°) системы. РџСЂРё этом энтропия может являться мерой дезорганизации систем РѕС‚ полного хаоса (S=Smax) Рё полной информационной неопределённости (I=Imin) РґРѕ полного РїРѕСЂСЏРґРєР° (S=Smin) Рё полной информационной определённости (I=Imax) РІ системе. Пример. Чем ближе движущийся объект Рє нам, тем полнее информация обрабатываемая нашими органами чувств, тем чётче Рё структурирован (упорядочен) объект. Чем больше информации РјС‹ имеем Рѕ компьютерной технике, тем меньше психологический барьер перед РЅРёРј (согласно РѕСЃРЅРѕРІРЅРѕРјСѓ соотношению между энтропией Рё информацией). Термодинамическая мера. Рнформационно-термодинамический РїРѕРґС…РѕРґ связывает величину энтропии системы СЃ недостатком информации Рѕ её внутренней структуре (РЅРµ восполняемым принципиально, Р° РЅРµ нерегистрируемым). РџСЂРё этом число состояний определяет, РїРѕ существу, степень неполноты наших сведений Рѕ системе.
Рнформация - это знание, РЅРѕ РЅРµ РІСЃРµ знание, которым располагает человечество, Р° только та часть, которая используется для развития, совершенствования системы, для взаимосвязей, взаимодействий подсистем системы, Р° также системы РІ целом СЃ окружающими условиями, средой. Рнформация развивается вслед Р·Р° развитием системы. Новые формы, принципы, подсистемы, взаимосвязи Рё отношения вызывают изменения РІ информации, ее содержании, формах получения, переработки, передачи Рё использования. Благодаря потокам информации (РѕС‚ системы Рє окружающей среде Рё наоборот) система осуществляет целесообразное взаимодействие СЃ окружающей средой, С‚.Рµ. управляет или управляема. Рнформация стала средством РЅРµ только производства, РЅРѕ Рё управления. Своевременная Рё оперативная информация может позволить стабилизировать систему, приспосабливаться Рё/или адаптироваться, восстанавливаться РїСЂРё нарушениях структуры Рё/или подсистем. РћС‚ степени информированности системы, РѕС‚ богатства опыта взаимодействия системы Рё окружающей среды зависит развитие Рё устойчивость системы. Рнформация обладает также определенной избыточностью: чем больше сообщений Рѕ системе, тем полнее Рё точнее управляется система. Пример. РџСЂРё передаче сообщений часто применяют СЃРїРѕСЃРѕР± двукратной (избыточной) последовательной передачи каждого символа (что позволяет избавляться РѕС‚ помех, “шумов” РїСЂРё передаче Рё осуществлять контроль чётности). Пусть РІ результате СЃР±РѕСЏ РїСЂРё передаче приемником принято было слово РІРёРґР° “прраосснтоо”. Определим, какое осмысленное (имеющее семантический смысл) слово СЂСѓСЃСЃРєРѕРіРѕ языка передавалось передатчиком. Легко заметить, что “претендентами РЅР° слово” являются слова “праспо”, “проспо”, “рроспо”, “ррасто”, “прасто”, “рросто”, “просто” Рё “рраспо”. РР· всех этих слов осмысленным является только слово “просто”. Суть задачи управления системой - отделение ценной информации РѕС‚ “шумов” (бесполезного, РёРЅРѕРіРґР° даже вредного для системы, возмущения информации) Рё выделение информации, которая позволяет этой системе существовать Рё развиваться. Управление любой системой (РІ любой системе) должно подкрепляться необходимыми для этого ресурсами - материальными, энергетическими, информационными, людскими Рё организационными (административного, экономического, правового, гуманитарного, социально - психологического типа). РџСЂРё этом характер Рё степень активизации этих ресурсов может повлиять (РёРЅРѕРіРґР° - лишь косвенно) Рё РЅР° систему, РІ которой информация используется. Более того, сама информация может быть зависима РѕС‚ системы. Пример. Р’ средствах массовой информации правительство чаще ругают, актеров чаще хвалят, спортсменов упоминают чаще РІ СЃРІСЏР·Рё СЃ теми или иными спортивными результатами, РїСЂРѕРіРЅРѕР· РїРѕРіРѕРґС‹ бывает чаще кратким, новости политики - официальными. Управление - непрерывный процесс, который РЅРµ может быть прекращён, РёР±Рѕ движение, поток информации РЅРµ прекращается. Цикл (инвариант) управления любой системой (РІ любой системе): Основные правила организации информации для управления системой:
Пример. РџСЂРё управлении полётом ракеты наземная станция управления генерирует Рё РІ определённой форме, определёнными структурами посылает РІС…РѕРґРЅСѓСЋ информацию РІ бортовую РР’Рњ ракеты; РїСЂРё этом сигналы отсеиваются РѕС‚ возможных “шумов”, осуществляется контроль РІС…РѕРґРЅРѕР№ информации РЅР° достоверность Рё только затем бортовая РР’Рњ принимает решение РѕР± уточнении траектории Рё ее корректировке. Ценность информации для управления определяется мерой раскрываемой РёРј неопределенности РІ системе, содержанием передающих её сообщений. Рнформация используется для управления, РЅРѕ Рё сама подвержена управляющим воздействиям. Основная цель этих воздействий - поддержка информационных потоков, магистралей, способствующих достижению поставленных целей РїСЂРё ограниченных ресурсах (материальных, энергетических, информационных, организационных, пространственных, временных). Рнформационная система - система поддержки Рё автоматизации интеллектуальных работ - РїРѕРёСЃРєР°, администрирования, экспертиз Рё экспертных оценок или суждений, принятия решений, управления, распознавания, накопления знаний, обучения. Рнформационная среда - система взаимодействующих информационных систем, включая Рё информацию, актуализируемую РІ этих системах. Пример. Можно выделить три основных РїРѕРґС…РѕРґР° Рє использованию информационного менеджмента РІ социально-экономических системах.
Рнформационная система управления - система предназначенная для управления как системой, так Рё РІ системе. РџРѕ характеру управления, охвата подсистем Рё подцелей (цели системы) управление может быть:
РРЅРѕРіРґР° отождествляют стратегическое Рё долгосрочное, тактическое Рё краткосрочное управление, РЅРѕ это РЅРµ всегда верно. Пример. Любая серьёзная экономическая система стратегического управления должна включать РІ себя управляющую (информационную) подсистему, обрабатывающую Рё актуализирующую стратегическую информацию РѕР± инновационных мероприятиях, Рѕ состоянии рынков товаров, услуг Рё ценных бумаг, Рѕ ресурсном обеспечении, Рѕ финансовых условиях Рё критериях, Рѕ принципах Рё методах управления Рё РґСЂ. Различают также основные 6 типов информационных систем управления (тип определяется целью, ресурсами, характером использования Рё предметной областью):
Фундаментальная ошибка с неустранимыми последствиями в информационных системах - принятие неправильных стратегических решений и критериев оценки решений. При построении (выборе, адаптации) информационной системы можно использовать две основные концепции, два основных подхода (третья концепция - их комбинации):
Выбор концепции зависит от стратегических (тактических) и\или долгосрочных (краткосрочных) критериев, проблем, ресурсов. Если вначале изучаются возможности имеющейся технологии, а после их выяснения определяются актуальные проблемы, которые можно решить с их помощью, то необходимо опираться на технология-ориентированный подход. Если же вначале определяются актуальные проблемы, а затем внедряется технология(ии) достаточная(ые) для решения этих проблем, то необходимо опираться на проблемно-ориентированный подход. Ошибки в выборе подхода (проблем, технологии) могут привести не только к ошибочным стратегиям и/или тактике, но и к полному краху. При этом обе концепции построения информационной системы зависят друг от друга: внедрение новых технологии изменяют решаемые проблемы, а изменение решаемых проблем - приводит к необходимости внедрения новых технологий; и то и другое влияют на принимаемые решения. Дороговизна, важность, актуальность информации определяют цели и важность (приоритеты) в управлении информационными системами (в информационных системах). Системное проектирование (разработка) информационной системы должно пройти следующий жизненный цикл:
Рти этапы - РѕСЃРЅРѕРІС‹ информационного реинжиниринга систем. РџСЂРё разработке целей, определении ресурсов необходимо тесное взаимодействие управляющего, проектирующего, разрабатывающего Рё пользовательского звена системы. Здесь недопустимы ложные критерии конфиденциальности Рё защиты информации, всегда влияющие негативно РЅР° стратегическое Рё долгосрочное планирование Рё прогнозирование, Р° также непрофессионализм принятия решений РІ каждом звене. Главным лозунгом разработки информационных систем должен быть лозунг: “Разработка информационной системы РЅРµ для внедрения (или использования) информационной системы, Р° для обеспечения эффективного управления, функционирования, планирования Рё прогнозирования, эволюции системы”. Сформулируем основные аксиомы управления информационными системами. РђРєСЃРёРѕРјР° 1 РђРєСЃРёРѕРјР° 2 РђРєСЃРёРѕРјР° 3 РђРєСЃРёРѕРјР° 4 РђРєСЃРёРѕРјР° 5 РђРєСЃРёРѕРјР° 6
Рнформация Рё самоорганизация Любая открытая информационная система эволюционирует так, что начиная СЃ состояния наибольшей энтропии (неопределённости) стремится спиралеобразно Рє актуализации новых связей Рё отношений, Рє организованности Рё РїРѕСЂСЏРґРєСѓ РІ системе РІ процессе взаимоотношений СЃРѕ средой Рё перестройки структуры СЃ целью уменьшения энтропии. Пример. РќР° телевизионной РёРіСЂРµ “Что? Где? РљРѕРіРґР°?” обсуждение РІРѕРїСЂРѕСЃР° часто начинается хаотично, спонтанно, независимо Рё РІ конце обсуждения может организоваться РІ единодушное принятие правильного решения. Самоорганизация может наблюдаться Рё РІ неживых системах. Пример. Рстория развития РР’Рњ - пример самоорганизации: РѕС‚ 1-РіРѕ поколения РР’Рњ (40-50-ые РіРѕРґС‹ 19 века) СЃ электронными лампами Рё быстродействием РїРѕСЂСЏРґРєР° 104 операций РІ сек. РґРѕ 1-РіРѕ поколения оптических Р’Рњ (конец 90-ых РіРѕРґРѕРІ) СЃ голографической памятью, СЃ логикой РЅР° потоках фотонов, нейроподобных архитектурах Рё быстродействием РїРѕСЂСЏРґРєР° 1012 операций РІ сек. Пример. Человеческое общество развивается спиралевидно, циклически: циклически повторяются катастрофы, законы, неурожаи Рё С‚.Рї. Любая деятельность вопреки эволюционным процессам РІ системе, вопреки принципам самоорганизации - вредна Рё противосистемна. Пример. Любые экономические решения противоречащие РѕСЃРЅРѕРІРЅРѕРјСѓ регулятору рынка, РѕСЃРЅРѕРІРЅРѕРјСѓ механизму её организации - соотношению “спрос-предложение” РїСЂРёРІРѕРґСЏС‚ Рє вредным последствиям для системы, её самоорганизации, например, выпуск товаров РІ объёме, превышающем СЃРїСЂРѕСЃ РЅР° рынке может привести Рє снижению СЃРїСЂРѕСЃР°. Сформулируем основные аксиомы теории информационных динамических процессов (информационной синергетики). РђРєСЃРёРѕРјР° 1 РђРєСЃРёРѕРјР° 2 РђРєСЃРёРѕРјР° 3 РђРєСЃРёРѕРјР° 4 Пример. Сформулируем, опираясь РЅР° эти аксиомы основные законы информационных динамических процессов РІ социально-экономических системах. Социально-экономические процессы РїСЂРё этом труднее поддаются математизации, информатизации РёР·-Р·Р° сложности, плохой формализуемости Рё плохой структурируемости этих систем (процессов). Закон 1 Закон 2 Закон 3 Закон 4
Рнформация (informatio) - разъяснение, осведомленность, изложение. Рсторически первым носителем человеческих информации, знаний была речь, представлявшая изначально кодированные Р·РІСѓРєРё для координации действий РІ человеческом сообществе. Затем появилось наскальное РїРёСЃСЊРјРѕ каменного века, далее пиктограммы (“иконы”) Р±СЂРѕРЅР·РѕРІРѕРіРѕ века, иероглифическое РїРёСЃСЊРјРѕ (сохраненное РґРѕ СЃРёС… РїРѕСЂ, например, РІ Китае) Рё РїРёСЃСЊРјРѕ “обычное” - конкатенацией Р±СѓРєРІ алфавита РІ слоги (“слоговое письмо”) Рё С‚.Рґ. Объединение систем, процессов, связанных СЃ понятиями “информация”, “управление” привело Рє появлению РЅРѕРІРѕРіРѕ предмета “кибернетика (или науки РѕР± управлении РІ живых организмах Рё автоматах)” (40-ые РіРѕРґС‹ 20-РіРѕ века), изучающей информационные процессы РІ живых организмах Рё машинах (автоматах). Кибернетика явилась РѕРґРЅРѕР№ РёР· важных предпосылок появления Рё развития информатики. Р’ последнее время, предмет кибернетики понемногу, РІРёРґРёРјРѕ, “поглощается” предметом информатики. РќРѕ РїСЂРё этом информатика РЅРµ зачеркивает кибернетику, которая теперь может развиваться сильнее, используя результаты, методы Рё технологии информатики. Понятие энтропии было введено Р .Клаузиусом РІ 1852 РіРѕРґСѓ РІ качестве СѓРґРѕР±РЅРѕРіРѕ средства описания Рё анализа работы тепловых двигателей. Затем это понятие Р›.Больцманом Рё РґСЂСѓРіРёРјРё учеными использовано РІ качестве универсального средства для описания поведения макроскопических систем. Р›.Больцманом также установлена СЃРІСЏР·СЊ между энтропией H Рё термодинамической вероятностью состояния системы W: W=k lnW. РЎРІСЏР·СЊ информации Рё энтропии замечена Р›. Сциллардом РІ 1929 РіРѕРґСѓ. Рљ. Шеннон РІ 1948 РіРѕРґСѓ дал определение информации, основываясь РЅР° энтропии сообщений, используя ее как меру вероятности информационных процессов. Р. Шредингер расширил понятие энтропии - рассмотрел её как меру дезорганизации системы любой РїСЂРёСЂРѕРґС‹. Понятие ноосферы (РІ эколого-социальной трактовке) впервые ввел Р’.Р. Вернадский. Основные результаты РїРѕ теории информации были получены Р›. Бриллюэном, Рќ. Винером, Р”. РџРёСЂСЃРѕРј, Р . Фано, Рљ. Шенноном, РЈ. Ршби, Рђ. Колмогоровым Рё РґСЂ. Важные результаты РІ области синергетики получили Р“. Хакен, Рљ. Николис, Р. Пригожин, Р. Стенгерс, РЎ.Рџ. РљСѓСЂРґСЋРјРѕРІ, Р“.Р“. Малиновский, Р®.Рњ. Романовский Рё РґСЂ.
Вопросы для самоконтроля
|
|
Последнее изменение этой страницы: 2016-07-22 lectmania.ru. Все права принадлежат авторам данных материалов. В случае нарушения авторского права напишите нам сюда... |