Главная Случайная страница


Категории:

ДомЗдоровьеЗоологияИнформатикаИскусствоИскусствоКомпьютерыКулинарияМаркетингМатематикаМедицинаМенеджментОбразованиеПедагогикаПитомцыПрограммированиеПроизводствоПромышленностьПсихологияРазноеРелигияСоциологияСпортСтатистикаТранспортФизикаФилософияФинансыХимияХоббиЭкологияЭкономикаЭлектроника






Краткий экскурс в информационное измерение событий

ЭВЕНТОЛОГИЧЕСКОЕ РАЗВИТИЕ ТЕОРИИ ИНФОРМАЦИИ

А.Г. Остапенко, М.П. Иванкин

На основе вероятностных схем рассматриваются инновационные события в контексте их ущербности и полезности. Оцениваются информационные шансы и риски

Ключевые слова: оценка, деятельность, риск, шанс


 


Введение

Инновационная деятельность, направленная на создание систем и технологий с качественно новыми характеристиками и параметрами, жизненно связана с возникновением новых рисков, в том числе и в первую очередь, в информационной сфере. Сбои в освоении инновационных проектов, а также повышенный интерес к этим разработкам со стороны конкурентов порождают как преднамеренные, так и не преднамеренные информационные угрозы. Инноватор в этом случае вынужден работать над снижением частоты и величины возникающих ущербов, регулировать риски. Причем, перед ним одновременно стоит задача по увеличению шансов успешного функционирования инновационного продукта на основе кардинального роста возможностей извлечения пользы от расширения функций, повышения производительности, доходности. Это противоречие составляет достаточно актуальную и важную проблему современности.

Широкое использование информационно-коммуникационных технологий (ИКТ) в инновационных проектах обуславливает острую необходимость рассмотрения именно информационных рисков и шансов инноваций.[1]

В условиях борьбы с информационными рисками возникает целый спектр объектов и предметов исследования: сетевые атаки и компьютерные преступления; деструктивные воздействия в социальных сетях, распределенных платежных системах и беспроводных системах связи; учебный процесс и рынок труда в сфере ИКТ-безопасности; организационно-правовая и технологическая защита персональных данных; защита информации от утечки по техническим каналам; защищенный электронный документооборот, информационно-психологическая безопасность и т.п.

Однако, оценка шансов и рисков в принципе невозможна, если мы не в состоянии провести информационные измерения (взвесить объем, ценность, оценить актуальность, полноту и другие параметры информации). Этой проблеме во многом посвящена ныне распространенная версия теории информации, ее более поздние и менее известные версии (динамическая, эвентологическая)[1]. Стержнем всех этих версий являются, как правило, вероятностные схемы, и разночтения вызваны подходами к информационному измерению этих событий.

Ниже рассмотрим эти подходы, осуществив краткий экскурс в историю развития вопроса.

EVENTOLOGICHESKOYE DEVELOPMENT OF THE INFORMATION THEORY

 

A.G. Ostapenko

On the basis of likelihood schemes innovative events in a context of their lameness and utility are considered. Information chances and risks are estimated

Key words: assessment, activity, risk, chance


Остапенко Александр Григорьевич – ВГТУ, д-р техн. наук, профессор, e-mail: mnac@comch.ru

ЭВЕНТОЛОГИЧЕСКОЕ РАЗВИТИЕ ТЕОРИИ ИНФОРМАЦИИ

А.Г. Остапенко, М.П. Иванкин

На основе вероятностных схем рассматриваются инновационные события в контексте их ущербности и полезности. Оцениваются информационные шансы и риски

Ключевые слова: оценка, деятельность, риск, шанс


 


Введение

Инновационная деятельность, направленная на создание систем и технологий с качественно новыми характеристиками и параметрами, жизненно связана с возникновением новых рисков, в том числе и в первую очередь, в информационной сфере. Сбои в освоении инновационных проектов, а также повышенный интерес к этим разработкам со стороны конкурентов порождают как преднамеренные, так и не преднамеренные информационные угрозы. Инноватор в этом случае вынужден работать над снижением частоты и величины возникающих ущербов, регулировать риски. Причем, перед ним одновременно стоит задача по увеличению шансов успешного функционирования инновационного продукта на основе кардинального роста возможностей извлечения пользы от расширения функций, повышения производительности, доходности. Это противоречие составляет достаточно актуальную и важную проблему современности.

Широкое использование информационно-коммуникационных технологий (ИКТ) в инновационных проектах обуславливает острую необходимость рассмотрения именно информационных рисков и шансов инноваций.[1]

В условиях борьбы с информационными рисками возникает целый спектр объектов и предметов исследования: сетевые атаки и компьютерные преступления; деструктивные воздействия в социальных сетях, распределенных платежных системах и беспроводных системах связи; учебный процесс и рынок труда в сфере ИКТ-безопасности; организационно-правовая и технологическая защита персональных данных; защита информации от утечки по техническим каналам; защищенный электронный документооборот, информационно-психологическая безопасность и т.п.

Однако, оценка шансов и рисков в принципе невозможна, если мы не в состоянии провести информационные измерения (взвесить объем, ценность, оценить актуальность, полноту и другие параметры информации). Этой проблеме во многом посвящена ныне распространенная версия теории информации, ее более поздние и менее известные версии (динамическая, эвентологическая)[1]. Стержнем всех этих версий являются, как правило, вероятностные схемы, и разночтения вызваны подходами к информационному измерению этих событий.

Ниже рассмотрим эти подходы, осуществив краткий экскурс в историю развития вопроса.

Краткий экскурс в информационное измерение событий

Теорию информации породила теория связи, где были введены первые меры информации. Так, в 1924 г. Г. Найквист показал, что скорость передачи сигналов v по каналу связана с n числом различных кодовых символов зависимостью равна

где k – константа, определяемая скоростью передачи последовательных символов. Он первым предложил логарифмическую меру информации. Далее Р. Хартли в 1928 г. определил информацию сообщения как

где m – количество символов в сообщении, а n - количество доступных для использования различных символов. Эта мера применима только тогда, когда символы выбираются независимо один от другого, и выбор любого из символов равновероятен.

Развитие теории информации применительно к проблемам ее передачи было осуществлено в 40-е гг. ХХ в. К. Шенноном, который предложил следующую меру количества информации

где pi – вероятность того, что будет выбран i-й символ из полного набора в n символов, которые вырабатывает источник сообщений, I измеряется в битах (от англ binary digit – двоичная система).

Идея К. Шеннона нашла широкое применение на практике – при оптимизации каналов связи, в системах обработки данных, при разработке электронно-вычислительной техники и т.п. А.Н. Колмогоровым и Н. Винером решена задача фильтрации (выделения полезного сигнала из комбинации «сигнал-шум» при заданных статистических характеристиках сигнала) и предсказания значения полезного сигнала, которая находит широкое использование при проектировании непрерывных динамических систем, в системах управления технологическими процессами.

Далее информацию стали связывать не только с источником и приемником сигналов, но и с ее значением для потребителя, наблюдателя. Были попытки применения рассмотренных выше мер и для оценки ценности информации. Способы количественного определения ценности основаны на представлении о цели, достижению которой способствует полученная информация, т.е. чем в большей мере информация помогает достижению цели, тем более ценной она считается.

Когда цель наверняка достижима и притом несколькими путями, то возможно определение ценности (V) по уменьшению материальных или временных затрат, благодаря использованию информации.

Когда же достижение цели носит вероятный характер, возможно использование меры ценности, предложенной М.М. Бонгардом и А.А. Харкевичем:

где P1 – вероятность достижения цели до получения информации, а P2– после. Причем, априорная вероятность P1 зависит от полного количества информации I: если до получения информации все варианты равновероятны, то P1=1/n, где n – число вариантов, а I=log2n.

Апостериорная вероятность P2 может быть как больше, так и меньше P1. Когда ценность отрицательна, такая информация называется дезинформацией.

Другой мерой ценности, предложенной В.И. Корогодиным, является величина

которая изменяется от 0 до 1.

Ценность информации зависит от величины P1 – вероятности достижения цели до получения информации, т.е. от того, какой предварительной (априорной) информацией уже располагает рецептор. Предварительная осведомленность называется тезаурусом. Если таковая отсутствует, то априорная вероятность во всех вариантах одинакова и равна P1 =1/n (где n – число вариантов) В этом случае величина P1 играет роль нормировочного множителя. Если при этом после получения информации цель достигается наверняка (P2=1), то ценность этой информации максимальна и равна V=Vmax= log2 n, т.е. совпадает с максимальным количеством информации в данном множестве (в данной таре).

Попытки создать семантическую теорию информации опирались на концепцию Р. Карнапа и И. Бар-Хиллела, согласно которой наивысшей ценностью обладают гипотезы, подтвержденные достоверным знанием, экспериментов. В этом случае логическая информация приравнивается единице, а семантическая нулю. С уменьшением степени подтверждения гипотезы количество содержащейся в ней семантической информации увеличивается. В развитие Л.Бриллюэн предложил разновидность статистической меры для измерения семантической информации, основанную на измерении и уменьшении неопределенности

L2=K ln(P1/P2) = K ln P1 - K lnP2,

где P1 – число возможных равновероятных исходов (при исходной, априорной информации о задаче I0=0); P2– число равновероятных исходов, уменьшенное после получения информации; I2 – апостериорная информация, получаемая после уменьшения неопределенности; К – постоянная, зависящая от выбора системы единиц, для перевода в биты K=1/ln 2.

Далее А.А. Харкевич связал ценность информации с целью деятельности, предложив рассматривать энтропийную меру Шеннона как меру вероятности непопадания в поражаемую цель, т.е. вероятности недостижения цели. В свою очередь Ю.А. Шрейдер предложил построить теорию семантической информации на основе концепции разнообразия, а не концепции снятия неопределенности, и в частности, на основе учета такого свойства информации как зависимость получаемой информации от априорной информации. Опираясь на идею Н. Винера о том, что для понимания и использования информации получатель должен обладать определенным запасом знаний, т.е. в терминах математической лингвистики и теории языков – тезаурусом, Ю.А. Шрейдер определяет количество семантической информации I(T,Q), содержащейся в тексте Т, как степень изменения тезауруса Q.

По Шрейдеру, чем более сложную структуру имеет тезаурус, тем больше существует возможностей для изменений под воздействием одного и того же сообщения. Это хорошо согласуется с законом «необходимого разнообразия» У.Р. Эшби, согласно которому управляющая (осмысливающая, понимающая, принимающая решения) система должна обладать большим необходимым разнообразием (сложностью) по сравнению с разнообразием поступающей в нее информации от управляемой (понимаемой) системы.

По мере роста наших знаний об изучаемом объекте растет и количество извлекаемой информации об этом объекте.

Для количественной оценки ценности семантической информации М. Волькенштейн предлагает определять ценность следующим образом:

где I – количество поступающей информации; Q - тезаурус; А, В, С - константы.

При очень большом Q и очень малом Q (или I) V неограниченно убывает , При очень большом I V→AQ. Максимальное значение информации соответствует условию Q= I/С, т.е. когда Q пропорционален количеству получаемой информации.

Процесс научного познания представляется как уточнение старых и формирование новых научных понятий, в выявлении и корректировке связей между понятиями, т.е. тезаурус трактуется как определенная структура, которая изменяется под воздействием новой информации в процессе познания и предлагается гипотетический подход, в соответствии с которым информация не одинаково зависит от сложности структуры:

где I – количество информации в сообщении; х- изменение сложности структуры общечеловеческого тезауруса науки; а и b – коэффициенты. Если под воздействием сообщения внутренняя структура общечеловеческого тезауруса Q становится менее сложной, чем до этого сообщения, то в таком сообщении содержится больше информации, чем в сообщении, вызывающем усложнение структуры Q, т.е. количества (ценности) информации I больше при х<0. Крупные научные открытия в целом упрощают структуру знания – благодаря введению новых, более общих понятий, что и является следствием и проявлением свойства кумулятивности информации.

Е.К. Войшвилло предложил различать информацию восприятия (знак) и информацию-значение, смысловое содержание для потребителя информации (означаемое знака). С точки зрения наблюдателя информацию рассматривали в нескольких аспектах: прагматический- для достижения целей наблюдателя; семантический – с точки зрения смыслового содержания и правильности толкования; синтаксический (или материально-энергетический, технологический, алгоритмический) – с точки зрения техники, правил преобразования и передачи информации.

Понятие информации и как философской категории развил А.Д. Урсул, который стал рассматривать информацию как форму существования материи, подобно массе и энергии.

В теории информационного поля А.А. Денисова информация рассматривается как структура материи, как категория, парная по отношению к материи. Он показал, что информацией для потребителя является пересечение информации восприятия или чувственной информации и ее потенциала или логической информации, в результате чего формируется единое понятие – информационный смысл, информационная сложность.

Кроме того, в концепции А.А. Денисова учитывается, что далеко не всегда может быть строго определено вероятностное пространство. В этом случае можно использовать понятие размытой вероятности Заде. Поэтому предложена информационная мера, учитывающая степень влияния ресурсов (в том числе информации как ресурса) на реализацию целей. Эта мера позволяет учесть не только вероятность достижения цели, но и вероятность того, что данная информация будет использована лицом, принимающим решение, при реализации цели:

где мера Шеннона получается при qi = pi как частный случай.

В контексте обеспечения информационной безопасности систем Г.А. Остапенко были предложены соответствующие информационные измерения результатов кибератак.

Объектами применения информационного оружия здесь являются уязвимости (по отношению к оператору атаки Т) данных: ХТ – входных и ZТ – внутренних, и - демилитаризованные (в отношении Т) подмножества данных. Выходные данные системы SY определяет ее оператор F из указанных множеств данных и

как продукт атаки данных Т(Х)= , Т(Z)= . Теоретически возможна и атака оператора (системного и прикладного программного обеспечения), когда T(F)=

.

Она сложнее в реализации, но и опаснее для SY. Довольно часто приходится иметь дело с комплексной атакой, когда

Далее, рассматривая

и ,

обратимся к анализу многообразия информационных атак.

К примеру, атака уничтожения или Dl - атака предусматривает стирание Dl множества ХТ.

.

Одной из относительных характеристик ущерба в данном случае может стать коэффициент полноты

,

где I – оператор определения объема информации в множествах данных. Если наряду со стиранием Dl осуществляется также запись Wz некой сторонней информации XT, то имеет место модификация или Dl / Wz – атака следующего содержания

,

где ущерб относительно можно оценить через коэффициент избыточности

.

При ∅ имеет место прямая подмена данных.

Атака несанкционированного доступа или Rd – атака состоит в чтении Rd множества уязвимых данных. Злоумышленники чаще стараются реализовать это в отношении внутренних данных Z, тогда относительный ущерб характеризует коэффициент конфиденциальности

,

где V – функция оценки ценности данных. Отсюда кражу информации описывает модель

.

Атаку на актуальность информации можно пояснить через параметр задержки τ входных данных

и .

В данном случае ущерб попытаемся оценить относительно коэффициентом

,

учитывающим τА время актуальности задержанной информации (τ < τА).

При экспоненциальных зависимостях ценности информации от времени возможна формула ущерба

.

Эти и подобные измерения могут быть полезны для проведения информационного риск-анализа.

Последнее изменение этой страницы: 2016-08-11

lectmania.ru. Все права принадлежат авторам данных материалов. В случае нарушения авторского права напишите нам сюда...