![]() Категории: ДомЗдоровьеЗоологияИнформатикаИскусствоИскусствоКомпьютерыКулинарияМаркетингМатематикаМедицинаМенеджментОбразованиеПедагогикаПитомцыПрограммированиеПроизводствоПромышленностьПсихологияРазноеРелигияСоциологияСпортСтатистикаТранспортФизикаФилософияФинансыХимияХоббиЭкологияЭкономикаЭлектроника |
Количество информации в системеВыше было отмечено, что информация может пониматься и интерпретироваться по разному. Вследствие этого имеются различные подходы к определению измерения информации, меры количества информации. Раздел информатики (теории информации) изучающий методы измерения информации называется информметрией. Количество информации - числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности (упорядоченности), определённости, выбору состояний отображаемой системы. Если рассматривается некоторая система, которая может принимать одно из n возможных состояний, то актуальной задачей является задача оценки такого выбора, исхода. Такой оценкой может стать мера информации (или события). Мера - это некоторая непрерывная действительная неотрицательная функция, определённая на множестве событий и являющаяся аддитивной т.е. мера конечного объединения событий (множеств) равна сумме мер каждого события. Меры могут быть статические и динамические - в зависимости от того, какую информация они позволяют оценивать - статическую (не актуализированную т.е. на самом деле оцениваются представляющие информацию сообщения без учёта ресурсов и формы актуализации) или динамическую (актуализированную т.е. оцениваются также и затраты ресурсов для актуализации информации). Отметим, что ниже мы не всегда будем (в основном, для большей убедительности и большего содержательного понимания) проводить четкие математические границы между понятиями ''количество информации'' и “мера количества информации'', но строгому читателю необходимо всё время задавать достаточно важные вопросы типа: о количестве информации или о мере информации в конкретной последовательности событий идёт речь? о детерминированной или стохастической информации идёт речь? Мера Р. Хартли. Пусть имеется N состояний системы S или N опытов с различными, равновозможными последовательными состояниями системы. Если каждое состояние системы закодировать, например, двоичными кодами определённой длины d, то эту длину необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N. Наименьшее число, при котором это возможно или мера разнообразия множества состояний системы задаётся формулой Р. Хартли: H=k log2N где k - коэффициент пропорциональности (масштабирования, в зависимости от выбранной, рассматриваемой единицы измерения меры), а - основание рассматриваемой системы. Пример. Чтобы узнать положение точки в системе из двух клеток т.е. получить некоторую информацию, необходимо задать 1 вопрос ("Левая или правая клетка?"). Узнав положение точки, мы увеличиваем суммарную информацию о системе на 1 бит (I=log22). Для системы из четырех клеток необходимо задать 2 аналогичных вопроса, а информация равна 2 битам (I=log24). Если система имеет n различных состояний, то максимальное количество информации равно I=log2n. Если измерение ведётся в экспоненциальной (натуральной) системе, то если измерение ведётся в двоичной системе, то если измерение ведётся в десятичной системе, то Справедливо утверждение Хартли: если во множестве X={x1, x2, ..., xn} выделить произвольный элемент xiÎX, то для того, чтобы найти его, необходимо получить не менее logan (единиц) информации. По Хартли, чтобы мера информации имела практическую ценность - она должна быть такова, чтобы информация была пропорциональна числу выборов. Пример. Имеются 192 монеты из которых одна фальшивая. Определим сколько взвешиваний нужно произвести, чтобы определить ее. Если положить на весы равное количество монет, то получим 2 возможности: а) левая чашка ниже; б) правая чашка ниже. Таким образом, каждое взвешивание дает количество информации I=log22=1 и, следовательно, для определения этой фальшивой монеты нужно сделать не менее k взвешиваний, где k удовлетворяет условию log22k³log2192. Отсюда, k³7. Следовательно, необходимо (достаточно) сделать не менее 7 взвешиваний. Эта формула отвлечена от семантических и качественных, индивидуальных свойств рассматриваемой системы (качества информации, содержащейся в системе, в проявлениях системы с помощью рассматриваемых состояний системы). Это положительная сторона этой формулы. Но имеется и отрицательная сторона: формула не учитывает различимость и различность рассматриваемых N состояний системы. Уменьшение (увеличение) Н может свидетельствовать об уменьшении (увеличении) разнообразия состояний N системы. Обратное, как это следует из формулы Хартли (основание логарифма берётся больше 1!), - также верно. Мера К. Шеннона. Формула Шеннона дает оценку информации независимо, отвлеченно от ее смысла: где n - число состояний системы; рi - вероятность (или относительная частота) перехода системы в i-ое состояние, причем Если все состояния равновероятны (т.е. рi=1/n), то I=log2n (как и ожидалось). К. Шенноном доказана теорема о единственности меры количества информации). Для случая равномерного закона распределения плотности вероятности мера Шеннона совпадает с мерой Хартли. Нулевой энтропии соответствует максимальная информация. Основное соотношение между энтропией и информацией: или в дифференциальной форме - Итак, если имеется система S и каждое I-ое состояние S из N возможных состояний определяется некоторым информационным вектором или же сообщением xi, i=1,2,...,N над некоторым заданным алфавитом A, система может перейти в каждое i-ое состояние с вероятностью pi, i=1,2,...,N, то pi можно понимать как вероятность i-го сообщения (сообщения, характеризующего усреднённое i-ое состояние системы). Основными положительными сторонами этой формулы является её отвлечённость от семантических и качественных, индивидуальных свойств системы, а также то, что в отличие от формулы Хартли она учитывает различность состояний, их разновероятность или же формула имеет статистический характер (учитывает структуру сообщений), делающий эту формулу удобной для практических вычислений. Основные отрицательные стороны формулы Шеннона: она не различает состояния (с одинаковой вероятностью достижения, например), не может оценивать состояния сложных и открытых систем и применима лишь для замкнутых систем, отвлекаясь от смысла информации. Увеличение (уменьшение) меры Шеннона свидетельствует об уменьшении (увеличении) энтропии (организованности, порядка) системы. При этом энтропия может являться мерой дезорганизации систем от полного хаоса (S=Smax) и полной информационной неопределённости (I=Imin) до полного порядка (S=Smin) и полной информационной определённости (I=Imax) в системе. Пример. Чем ближе движущийся объект к нам, тем полнее информация обрабатываемая нашими органами чувств, тем чётче и структурирован (упорядочен) объект. Чем больше информации мы имеем о компьютерной технике, тем меньше психологический барьер перед ним (согласно основному соотношению между энтропией и информацией). Термодинамическая мера. Информационно-термодинамический подход связывает величину энтропии системы с недостатком информации о её внутренней структуре (не восполняемым принципиально, а не нерегистрируемым). При этом число состояний определяет, по существу, степень неполноты наших сведений о системе.
Информация - это знание, но не все знание, которым располагает человечество, а только та часть, которая используется для развития, совершенствования системы, для взаимосвязей, взаимодействий подсистем системы, а также системы в целом с окружающими условиями, средой. Информация развивается вслед за развитием системы. Новые формы, принципы, подсистемы, взаимосвязи и отношения вызывают изменения в информации, ее содержании, формах получения, переработки, передачи и использования. Благодаря потокам информации (от системы к окружающей среде и наоборот) система осуществляет целесообразное взаимодействие с окружающей средой, т.е. управляет или управляема. Информация стала средством не только производства, но и управления. Своевременная и оперативная информация может позволить стабилизировать систему, приспосабливаться и/или адаптироваться, восстанавливаться при нарушениях структуры и/или подсистем. От степени информированности системы, от богатства опыта взаимодействия системы и окружающей среды зависит развитие и устойчивость системы. Информация обладает также определенной избыточностью: чем больше сообщений о системе, тем полнее и точнее управляется система. Пример. При передаче сообщений часто применяют способ двукратной (избыточной) последовательной передачи каждого символа (что позволяет избавляться от помех, “шумов” при передаче и осуществлять контроль чётности). Пусть в результате сбоя при передаче приемником принято было слово вида “прраосснтоо”. Определим, какое осмысленное (имеющее семантический смысл) слово русского языка передавалось передатчиком. Легко заметить, что “претендентами на слово” являются слова “праспо”, “проспо”, “рроспо”, “ррасто”, “прасто”, “рросто”, “просто” и “рраспо”. Из всех этих слов осмысленным является только слово “просто”. Суть задачи управления системой - отделение ценной информации от “шумов” (бесполезного, иногда даже вредного для системы, возмущения информации) и выделение информации, которая позволяет этой системе существовать и развиваться. Управление любой системой (в любой системе) должно подкрепляться необходимыми для этого ресурсами - материальными, энергетическими, информационными, людскими и организационными (административного, экономического, правового, гуманитарного, социально - психологического типа). При этом характер и степень активизации этих ресурсов может повлиять (иногда - лишь косвенно) и на систему, в которой информация используется. Более того, сама информация может быть зависима от системы. Пример. В средствах массовой информации правительство чаще ругают, актеров чаще хвалят, спортсменов упоминают чаще в связи с теми или иными спортивными результатами, прогноз погоды бывает чаще кратким, новости политики - официальными. Управление - непрерывный процесс, который не может быть прекращён, ибо движение, поток информации не прекращается. Цикл (инвариант) управления любой системой (в любой системе): Основные правила организации информации для управления системой:
Пример. При управлении полётом ракеты наземная станция управления генерирует и в определённой форме, определёнными структурами посылает входную информацию в бортовую ЭВМ ракеты; при этом сигналы отсеиваются от возможных “шумов”, осуществляется контроль входной информации на достоверность и только затем бортовая ЭВМ принимает решение об уточнении траектории и ее корректировке. Ценность информации для управления определяется мерой раскрываемой им неопределенности в системе, содержанием передающих её сообщений. Информация используется для управления, но и сама подвержена управляющим воздействиям. Основная цель этих воздействий - поддержка информационных потоков, магистралей, способствующих достижению поставленных целей при ограниченных ресурсах (материальных, энергетических, информационных, организационных, пространственных, временных). Информационная система - система поддержки и автоматизации интеллектуальных работ - поиска, администрирования, экспертиз и экспертных оценок или суждений, принятия решений, управления, распознавания, накопления знаний, обучения. Информационная среда - система взаимодействующих информационных систем, включая и информацию, актуализируемую в этих системах. Пример. Можно выделить три основных подхода к использованию информационного менеджмента в социально-экономических системах.
Информационная система управления - система предназначенная для управления как системой, так и в системе. По характеру управления, охвата подсистем и подцелей (цели системы) управление может быть:
Иногда отождествляют стратегическое и долгосрочное, тактическое и краткосрочное управление, но это не всегда верно. Пример. Любая серьёзная экономическая система стратегического управления должна включать в себя управляющую (информационную) подсистему, обрабатывающую и актуализирующую стратегическую информацию об инновационных мероприятиях, о состоянии рынков товаров, услуг и ценных бумаг, о ресурсном обеспечении, о финансовых условиях и критериях, о принципах и методах управления и др. Различают также основные 6 типов информационных систем управления (тип определяется целью, ресурсами, характером использования и предметной областью):
Фундаментальная ошибка с неустранимыми последствиями в информационных системах - принятие неправильных стратегических решений и критериев оценки решений. При построении (выборе, адаптации) информационной системы можно использовать две основные концепции, два основных подхода (третья концепция - их комбинации):
Выбор концепции зависит от стратегических (тактических) и\или долгосрочных (краткосрочных) критериев, проблем, ресурсов. Если вначале изучаются возможности имеющейся технологии, а после их выяснения определяются актуальные проблемы, которые можно решить с их помощью, то необходимо опираться на технология-ориентированный подход. Если же вначале определяются актуальные проблемы, а затем внедряется технология(ии) достаточная(ые) для решения этих проблем, то необходимо опираться на проблемно-ориентированный подход. Ошибки в выборе подхода (проблем, технологии) могут привести не только к ошибочным стратегиям и/или тактике, но и к полному краху. При этом обе концепции построения информационной системы зависят друг от друга: внедрение новых технологии изменяют решаемые проблемы, а изменение решаемых проблем - приводит к необходимости внедрения новых технологий; и то и другое влияют на принимаемые решения. Дороговизна, важность, актуальность информации определяют цели и важность (приоритеты) в управлении информационными системами (в информационных системах). Системное проектирование (разработка) информационной системы должно пройти следующий жизненный цикл:
Эти этапы - основы информационного реинжиниринга систем. При разработке целей, определении ресурсов необходимо тесное взаимодействие управляющего, проектирующего, разрабатывающего и пользовательского звена системы. Здесь недопустимы ложные критерии конфиденциальности и защиты информации, всегда влияющие негативно на стратегическое и долгосрочное планирование и прогнозирование, а также непрофессионализм принятия решений в каждом звене. Главным лозунгом разработки информационных систем должен быть лозунг: “Разработка информационной системы не для внедрения (или использования) информационной системы, а для обеспечения эффективного управления, функционирования, планирования и прогнозирования, эволюции системы”. Сформулируем основные аксиомы управления информационными системами. Аксиома 1 Аксиома 2 Аксиома 3 Аксиома 4 Аксиома 5 Аксиома 6
Информация и самоорганизация Любая открытая информационная система эволюционирует так, что начиная с состояния наибольшей энтропии (неопределённости) стремится спиралеобразно к актуализации новых связей и отношений, к организованности и порядку в системе в процессе взаимоотношений со средой и перестройки структуры с целью уменьшения энтропии. Пример. На телевизионной игре “Что? Где? Когда?” обсуждение вопроса часто начинается хаотично, спонтанно, независимо и в конце обсуждения может организоваться в единодушное принятие правильного решения. Самоорганизация может наблюдаться и в неживых системах. Пример. История развития ЭВМ - пример самоорганизации: от 1-го поколения ЭВМ (40-50-ые годы 19 века) с электронными лампами и быстродействием порядка 104 операций в сек. до 1-го поколения оптических ВМ (конец 90-ых годов) с голографической памятью, с логикой на потоках фотонов, нейроподобных архитектурах и быстродействием порядка 1012 операций в сек. Пример. Человеческое общество развивается спиралевидно, циклически: циклически повторяются катастрофы, законы, неурожаи и т.п. Любая деятельность вопреки эволюционным процессам в системе, вопреки принципам самоорганизации - вредна и противосистемна. Пример. Любые экономические решения противоречащие основному регулятору рынка, основному механизму её организации - соотношению “спрос-предложение” приводят к вредным последствиям для системы, её самоорганизации, например, выпуск товаров в объёме, превышающем спрос на рынке может привести к снижению спроса. Сформулируем основные аксиомы теории информационных динамических процессов (информационной синергетики). Аксиома 1 Аксиома 2 Аксиома 3 Аксиома 4 Пример. Сформулируем, опираясь на эти аксиомы основные законы информационных динамических процессов в социально-экономических системах. Социально-экономические процессы при этом труднее поддаются математизации, информатизации из-за сложности, плохой формализуемости и плохой структурируемости этих систем (процессов). Закон 1 Закон 2 Закон 3 Закон 4
Информация (informatio) - разъяснение, осведомленность, изложение. Исторически первым носителем человеческих информации, знаний была речь, представлявшая изначально кодированные звуки для координации действий в человеческом сообществе. Затем появилось наскальное письмо каменного века, далее пиктограммы (“иконы”) бронзового века, иероглифическое письмо (сохраненное до сих пор, например, в Китае) и письмо “обычное” - конкатенацией букв алфавита в слоги (“слоговое письмо”) и т.д. Объединение систем, процессов, связанных с понятиями “информация”, “управление” привело к появлению нового предмета “кибернетика (или науки об управлении в живых организмах и автоматах)” (40-ые годы 20-го века), изучающей информационные процессы в живых организмах и машинах (автоматах). Кибернетика явилась одной из важных предпосылок появления и развития информатики. В последнее время, предмет кибернетики понемногу, видимо, “поглощается” предметом информатики. Но при этом информатика не зачеркивает кибернетику, которая теперь может развиваться сильнее, используя результаты, методы и технологии информатики. Понятие энтропии было введено Р.Клаузиусом в 1852 году в качестве удобного средства описания и анализа работы тепловых двигателей. Затем это понятие Л.Больцманом и другими учеными использовано в качестве универсального средства для описания поведения макроскопических систем. Л.Больцманом также установлена связь между энтропией H и термодинамической вероятностью состояния системы W: W=k lnW. Связь информации и энтропии замечена Л. Сциллардом в 1929 году. К. Шеннон в 1948 году дал определение информации, основываясь на энтропии сообщений, используя ее как меру вероятности информационных процессов. Э. Шредингер расширил понятие энтропии - рассмотрел её как меру дезорганизации системы любой природы. Понятие ноосферы (в эколого-социальной трактовке) впервые ввел В.И. Вернадский. Основные результаты по теории информации были получены Л. Бриллюэном, Н. Винером, Д. Пирсом, Р. Фано, К. Шенноном, У. Эшби, А. Колмогоровым и др. Важные результаты в области синергетики получили Г. Хакен, К. Николис, И. Пригожин, И. Стенгерс, С.П. Курдюмов, Г.Г. Малиновский, Ю.М. Романовский и др.
Вопросы для самоконтроля
|
|
Последнее изменение этой страницы: 2016-07-22 lectmania.ru. Все права принадлежат авторам данных материалов. В случае нарушения авторского права напишите нам сюда... |