Главная Случайная страница Категории: ДомЗдоровьеЗоологияРнформатикаРскусствоРскусствоКомпьютерыКулинарияМаркетингМатематикаМедицинаМенеджментОбразованиеПедагогикаПитомцыПрограммированиеПроизводствоПромышленностьПсихологияРазноеРелигияСоциологияСпортСтатистикаТранспортФизикаФилософияФинансыХимияХоббиРкологияРРєРѕРЅРѕРјРёРєР°Рлектроника |
Рнформация Рё СЃРїРѕСЃРѕР±С‹ ее представленияРнформация Рё СЃРїРѕСЃРѕР±С‹ ее представления Рнформатика - наука Рѕ законах Рё методах накопления, обработки Рё передачи информации. Р’ наиболее общем РІРёРґРµ понятие информации можно выразить так: Рнформация - это отражение предметного РјРёСЂР° СЃ помощью знаков Рё сигналов. Принято говорить, что решение задачи РЅР° РР’Рњ, РІ результате чего создается новая информация, получается путем вычислений. Потребность РІ вычислениях связана СЃ решением задач: научных, инженерных, экономических, медицинских Рё прочих. Каким образом отыскивается решение задачи? Задача становится разрешимой, если найдено правило, СЃРїРѕСЃРѕР± получения результата. Р’ информатике такое правило называют алгоритмом. Содержание алгоритма - составляющие его действия Рё объекты, над которыми эти действия выполняются, - определяют средства, которые должны присутствовать РІ машине, предназначенной для исполнения алгоритма. РџСЂРё решении задачи РР’Рњ РІРІРѕРґРёС‚ РІ себя необходимую информацию Рё через какое-то время выводит (печатает, рисует) результаты - информацию, для получения которой Рё была создана. Таким образом, работа РР’Рњ - это своеобразные манипуляции СЃ информацией. Р, следовательно, РР’Рњ - это техническое средство информатики. Что такое информация? Какова ее РїСЂРёСЂРѕРґР°? Р’ обыденной жизни РїРѕРґ информацией понимают РІСЃСЏРєРѕРіРѕ СЂРѕРґР° сообщения, сведения Рѕ чем-либо, которые передают Рё получают люди. Сами РїРѕ себе речь, текст, цифры - РЅРµ информация. РћРЅРё лишь носители информации. Рнформация содержится РІ речи людей, текстах РєРЅРёРі, колонках цифр, РІ показаниях часов, термометров Рё РґСЂСѓРіРёС… РїСЂРёР±РѕСЂРѕРІ. Сообщения, сведения, С‚.Рµ. информация, являются причиной увеличения знаний людей Рѕ реальном РјРёСЂРµ. Значит, информация отражает нечто, присущее реальному РјРёСЂСѓ, который познается РІ процессе получения информации: РґРѕ момента получения информации что-то было неизвестно, или, иначе, РЅРµ определено, Рё благодаря информации неопределенность была снята, уничтожена. Рассмотрим пример. Пусть нам известен РґРѕРј, РІ котором проживает наш знакомый, Р° номер квартиры неизвестен. Р’ этом случае местопребывание знакомого РІ какой-то степени РЅРµ определено. Если РІ РґРѕРјРµ всего РґРІРµ квартиры, степень неопределенности невелика. РќРѕ если РІ РґРѕРјРµ 200 квартир - неопределенность достаточно велика. Ртот пример наталкивает РЅР° мысль, что неопределенность связана СЃ количеством возможностей, С‚.Рµ. СЃ разнообразием ситуаций. Чем больше разнообразие, тем больше неопределенность. Рнформация, снимающая неопределенность, существует постольку, поскольку существует разнообразие. Если нет разнообразия, нет неопределенности, Р°, следовательно, нет Рё информации. Ртак, информация - это отражение разнообразия, присущего объектам Рё явлениям реального РјРёСЂР°. Р, таким образом, РїСЂРёСЂРѕРґР° информации объективно связана СЃ разнообразием РјРёСЂР°, Рё именно разнообразие является источником информации. Каковы формы представления информации? Рнформация - очень емкое понятие, РІ которое вмещается весь РјРёСЂ: РІСЃРµ разнообразие вещей Рё явлений, РІСЃСЏ история, РІСЃРµ тома научных исследований, творения поэтов Рё прозаиков. Р РІСЃРµ это отражается РІ РґРІСѓС… формах - непрерывной Рё дискретной. Обратимся Рє РёС… сущности. Объекты Рё явления характеризуются значениями физических величин. Например, массой тела, его температурой, расстоянием между РґРІСѓРјСЏ точками, длиной пути (пройденного движущимся телом), яркостью света Рё С‚.Рґ. РџСЂРёСЂРѕРґР° некоторых величин такова, что величина может принимать принципиально любые значения РІ каком-то диапазоне. Рти значения РјРѕРіСѓС‚ быть сколь СѓРіРѕРґРЅРѕ близки РґСЂСѓРі Рє РґСЂСѓРіСѓ, исчезающе малоразличимы, РЅРѕ РІСЃРµ-таки, хотя Р±С‹ РІ принципе, различаться, Р° количество значений, которое может принимать такая величина, бесконечно велико. Такие величины называются непрерывными величинами, Р° информация, которую РѕРЅРё несут РІ себе, непрерывной информацией. Слово “непрерывность” отчетливо выделяет РѕСЃРЅРѕРІРЅРѕРµ свойство таких величин - отсутствие разрывов, промежутков между значениями, которые может принимать величина. Масса тела - непрерывная величина, принимающая любые значения РѕС‚ 0 РґРѕ бесконечности. РўРѕ же самое можно сказать Рѕ РјРЅРѕРіРёС… РґСЂСѓРіРёС… физических величинах - расстоянии между точками, площади фигур, напряжении электрического тока. РљСЂРѕРјРµ непрерывных существуют иные величины, например, количество людей РІ комнате, количество электронов РІ атоме Рё С‚.Рґ. Такого СЂРѕРґР° величины РјРѕРіСѓС‚ принимать только целые значения, например, 0, 1, 2, ..., Рё РЅРµ РјРѕРіСѓС‚ иметь дробных значений. Величины, принимающие РЅРµ всевозможные, Р° лишь вполне определенные значения, называют дискретными. Для дискретной величины характерно, что РІСЃРµ ее значения можно пронумеровать целыми числами 0,1,2,... Примеры дискретных величин: геометрические фигуры (треугольник, квадрат, окружность); Р±СѓРєРІС‹ алфавита; цвета радуги; Можно утверждать, что различие между РґРІСѓРјСЏ формами информации обусловлено принципиальным различием РїСЂРёСЂРѕРґС‹ величин. Р’ то же время непрерывная Рё дискретная информация часто используются совместно для представления сведений РѕР± объектах Рё явлениях. Пример. Рассмотрим утверждение “Рто окружность радиуса 8,25”. Здесь: ”окружность“- дискретная информация, выделяющая определенную геометрическую фигуру РёР· всего разнообразия фигур; значение “8,25” - непрерывная информация Рѕ радиусе окружности, который может принимать бесчисленное множество значений. Выводы. 1. Рнформация Рѕ массе тела может представляться, вообще РіРѕРІРѕСЂСЏ, РјРЅРѕРіРёРјРё способами. 2. Р’ качестве носителей непрерывной информации РјРѕРіСѓС‚ использоваться любые физические величины, принимающие непрерывный “набор” значений (правильнее было Р±С‹ сказать принимающие любое значение внутри некоторого интервала). Отметим, что физические процессы (перемещение, электрический ток Рё РґСЂ.) РјРѕРіСѓС‚ существовать сами РїРѕ себе или использоваться, например, для передачи энергии. РќРѕ РІ СЂСЏРґРµ случаев эти же процессы применяются РІ качестве носителей информации. Чтобы отличить РѕРґРЅРё процессы РѕС‚ РґСЂСѓРіРёС…, введено понятие “сигнал”. Если физический процесс, С‚.Рµ. какая-то присущая ему физическая величина, несет РІ себе информацию, то РіРѕРІРѕСЂСЏС‚, что такой процесс является сигналом. Рменно РІ этом смысле пользуются понятиями “электрический сигнал”, “световой сигнал” Рё С‚.Рґ. Таким образом, электрический сигнал - РЅРµ просто электрический ток, Р° ток, величина которого несет РІ себе какую-то информацию. Как измерить информацию? Как уже говорилось РІ примере СЃ номером квартиры, РѕРґРЅРё сведения РјРѕРіСѓС‚ содержать РІ себе мало информации, Р° РґСЂСѓРіРёРµ - РјРЅРѕРіРѕ. Разработаны различные СЃРїРѕСЃРѕР±С‹ оценки количества информации. Р’ технике чаще всего используется СЃРїРѕСЃРѕР± оценки, предложенный РІ 1948 РіРѕРґСѓ основоположником теории информации Клодом Шенноном. Как было отмечено, информация уничтожает неопределенность. Степень неопределенности принято характеризовать СЃ помощью понятия “вероятность”. Вероятность - величина, которая может принимать значения РІ диапазоне РѕС‚ 0 РґРѕ 1. РћРЅР° может рассматриваться как мера возможности наступления какого-либо события, которое может иметь место РІ РѕРґРЅРёС… случаях Рё РЅРµ иметь места РІ РґСЂСѓРіРёС…. Если событие РЅРёРєРѕРіРґР° РЅРµ может произойти, его вероятность считается равной 0. Так, вероятность события “Завтра будет 5 августа 1832 года” равна нулю РІ любой день, РєСЂРѕРјРµ 4 августа 1832 РіРѕРґР°. Если событие РїСЂРѕРёСЃС…РѕРґРёС‚ всегда, его вероятность равна 1. Чем больше вероятность события, тем выше уверенность РІ том, что РѕРЅРѕ произойдет, Рё тем меньше информации содержит сообщение РѕР± этом событии. РљРѕРіРґР° же вероятность события мала, сообщение Рѕ том, что РѕРЅРѕ случилось, очень информативно. Количество информации I, характеризующей состояние, РІ котором пребывает объект, можно определить, используя формулу Шеннона: I = -(p[1]*log(p[1])+p[2]*log(p[2])+...+p[n]*log(p[n])) , здесь n - число возможных состояний; p[1],...p[n] - вероятности отдельных состояний; log( ) - функция логарифма РїСЂРё основании 2. Знак РјРёРЅСѓСЃ перед СЃСѓРјРјРѕР№ позволяет получить положительное значение для I, поскольку значение log(p[i]) всегда РЅРµ положительно. Единица информации называется битом. Термин “бит” предложен как аббревиатура РѕС‚ английского словосочетания “Binary digiT”, которое переводится как “двоичная цифра”. 1 Р±РёС‚ информации - количество информации, посредством которого выделяется РѕРґРЅРѕ РёР· РґРІСѓС… равновероятных состояний объекта. Рассмотрим пример. Пусть имеется РґРІР° объекта. РЎ каждого РёР· РЅРёС… РІ определенные моменты времени диспетчеру передается РѕРґРЅРѕ РёР· РґРІСѓС… сообщений: включен или выключен объект. Диспетчеру известны типы сообщений, РЅРѕ неизвестно, РєРѕРіРґР° Рё какое сообщение поступит. Пусть также, объект Рђ работает почти без перерыва, С‚.Рµ. вероятность того, что РѕРЅ включен, очень велика (например, СЂ_Рђ_РІРєР»=0,99 Рё СЂ_Рђ_выкл=0,01, Р° объект Р‘ работает иначе Рё для него СЂ_Р‘_РІРєР»=СЂ_Р‘_выкл=0,5). РўРѕРіРґР°, если диспетчер получает сообщение том, что Рђ включен, РѕРЅ получает очень мало информации. РЎ объектом Р‘ дела обстоят иначе. Подсчитаем для этого примера среднее количество информации для указанных объектов, которое получает диспетчер: Объект Рђ : I = -(0,99*log(0,99)+0,01*log(0,01))=0,0808. Объект Р‘ : I = -(0,50*log(0,50)+0,50*log(0,50))=1. Ртак, каждое сообщение объекта Р‘ несет 1 Р±РёС‚ информации. Формула Шеннона, РІ принципе, может быть использована Рё для оценки количества информации РІ непрерывных величинах. РџСЂРё оценке количества дискретной информации часто используется также формула Хартли: I = log(n) , РіРґРµ n - число возможных равновероятных состояний; log() - функция логарифма РїСЂРё основании 2. Формула Хартли применяется РІ случае, РєРѕРіРґР° вероятности состояний, РІ которых может находиться объект, одинаковые. Приведем пример. Пусть объект может находиться РІ РѕРґРЅРѕРј РёР· РІРѕСЃСЊРјРё равновероятных состояний. РўРѕРіРґР° количество информации, поступающей РІ сообщении Рѕ том, РІ каком именно РѕРЅ находится, будет равно I = log(8) = 3 [бита]. Оценим количество информации РІ тексте. Точно ответить РЅР° РІРѕРїСЂРѕСЃ, какое количество информации содержит 1 СЃРёРјРІРѕР» РІ слове или тексте, достаточно сложное дело. РћРЅРѕ требует исследования РІРѕРїСЂРѕСЃР° Рѕ частотах использования символов Рё РІСЃСЏРєРѕРіРѕ СЂРѕРґР° сочетаний символов. Рта задача решается криптографами. РњС‹ же упростим задачу. Допустим, что текст строится РЅР° РѕСЃРЅРѕРІРµ 64 символов, Рё частота появления каждого РёР· РЅРёС… одинакова, С‚.Рµ. РІСЃРµ символы равновероятны. РўРѕРіРґР° количество информации РІ РѕРґРЅРѕРј символе будет равно I = log(64) = 6 [Р±РёС‚]. РР· РґРІСѓС… символов данного алфавита может быть образовано n=64*64=4096 различных сочетаний. Следовательно, РґРІР° символа несут РІ себе I=log(4096)=12 Р±РёС‚ информации. Оценим количество информации, содержащейся РІ числах. Если предположить, что цифры 0, 1, ..., 9 используются одинаково часто (равновероятны), то РѕРґРЅР° цифра содержит I = log(10) = 3,32 [Р±РёС‚]; четырехзначное число РёР· диапазона [0..9999], если РІСЃРµ его значения равновероятны, содержит I = log(10000)=13,28 [Р±РёС‚]; Р° восьмиразрядное число - I=log(100000000)=26,56 [бита]. Ртак, количество информации РІ сообщении зависит РѕС‚ числа разнообразий, присущих источнику информации Рё РёС… вероятностей. Повторим основные положения, рассмотренные выше. 1. Рнформация - отражение предметного или воображаемого РјРёСЂР° СЃ помощью знаков Рё сигналов. 2. Рнформация может существовать либо РІ непрерывной, либо РІ дискретной формах. 3. Рнформация Рѕ чем-либо может быть представлена РјРЅРѕРіРёРјРё способами. Р’ качестве носителей информации РјРѕРіСѓС‚ использоваться разнообразные физические величины такой же РїСЂРёСЂРѕРґС‹ (для непрерывной информации - непрерывные физические величины, для дискретной - дискретные). 4. Физический процесс является сигналом, если какая-либо присущая ему физическая величина несет РІ себе информацию. 5. Чтобы представить дискретную информацию, надо перечислить (поименовать) РІСЃРµ разнообразия, присущие объекту или явлению (цвета радуги, РІРёРґС‹ фигур Рё РґСЂ.). Дискретная информация представляется: числами (как цифровая), символами некоторого алфавита (символьная), графическими схемами Рё чертежами (графическая). 6. Дискретная информация может использоваться Рё для представления непрерывной. РЈРґРѕР±РЅРѕР№ формой дискретной информации является символьная. 7. Разные алфавиты обладают одинаковой “изобразительной силой”: СЃ помощью РѕРґРЅРѕРіРѕ алфавита можно представить РІСЃСЋ информацию, которую удавалось представить РЅР° РѕСЃРЅРѕРІРµ РґСЂСѓРіРѕРіРѕ алфавита. Рђ значит, информацию РѕР±Рѕ всем окружающем человека РјРёСЂРµ можно представить РІ дискретной форме СЃ использованием алфавита, состоящего только РёР· РґРІСѓС… символов (С‚.Рµ. СЃ использованием двоичной цифровой формы). 8. Форма представления информации, отличная РѕС‚ естественной, общепринятой, называется РєРѕРґРѕРј. РЁРёСЂРѕРєРѕ известны такие РєРѕРґС‹, как почтовые индексы, нотная запись музыки, телеграфный РєРѕРґ РњРѕСЂР·Рµ, цифровая запись программ для РР’Рњ (программирование РІ кодах), помехозащищенные РєРѕРґС‹ РІ системах передачи данных. 9. Рнформация уничтожает неопределенность знаний РѕР± окружающем РјРёСЂРµ. Степень неопределенности принято характеризовать СЃ помощью понятия “вероятность”. Вероятность - величина, которая может принимать значения РІ диапазоне [0,1] Рё которая может рассматриваться как мера возможности наступления какого-либо события. Если событие РЅРёРєРѕРіРґР° РЅРµ может произойти, его вероятность считается равной 0, Р° если событие РїСЂРѕРёСЃС…РѕРґРёС‚ всегда, его вероятность равна 1. Для оценки количества информации РІ технике чаще всего используется СЃРїРѕСЃРѕР±, предложенный Клодом Шенноном. Для случая, РєРѕРіРґР° РІСЃРµ состояния, РІ которых может находиться объект, равновероятны, применяют формулу Хартли. РћРґРЅР° единица информации называется битом.
Рнформация Рё СЃРїРѕСЃРѕР±С‹ ее представления Рнформатика - наука Рѕ законах Рё методах накопления, обработки Рё передачи информации. Р’ наиболее общем РІРёРґРµ понятие информации можно выразить так: Рнформация - это отражение предметного РјРёСЂР° СЃ помощью знаков Рё сигналов. Принято говорить, что решение задачи РЅР° РР’Рњ, РІ результате чего создается новая информация, получается путем вычислений. Потребность РІ вычислениях связана СЃ решением задач: научных, инженерных, экономических, медицинских Рё прочих. 12 |
|
Последнее изменение этой страницы: 2016-06-09 lectmania.ru. Все права принадлежат авторам данных материалов. В случае нарушения авторского права напишите нам сюда... |