Summary

This document is on the basics of mathematical information processing. It covers topics including information, units of information, encoding, and number systems, and provides examples and different ways to approach the concept of information.

Full Transcript

ОСНОВЫ МАТЕМАТИЧЕСКОЙ ОБРАБОТКИ ИНФОРМАЦИИ Информация вокруг нас С самого начала истории человечества возникла потребность передачи и хранения информации. В настоящее время постоянно нарастает поток информации. Развитие науки, превращение ее в...

ОСНОВЫ МАТЕМАТИЧЕСКОЙ ОБРАБОТКИ ИНФОРМАЦИИ Информация вокруг нас С самого начала истории человечества возникла потребность передачи и хранения информации. В настоящее время постоянно нарастает поток информации. Развитие науки, превращение ее в непосредственную производительную силу, в достояние каждого человека сопровождается увеличением информации. 2 Информация – что это? 3 аспекта раскрытия понятия Информация: Гносеологический аспект Функциональный аспект Деятельностный аспект 3 Информация, Сообщения, данные Информация — сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления Сообщение — форма представления информации в виде речи, текста, изображения, таблиц и т.д. Знания — зафиксированная и проверенная практикой информация, которая может многократно использоваться людьми для решения тех или иных задач. Данные — сведения, представленные в определенной знаковой системе и на материальном носителе для обеспечения хранения, передачи, приема и обработки. 4 Взаимосвязь данных, информации и знаний 5 Формы представления информации текстов, рисунков, чертежей, фотографий; световых или звуковых сигналов; радиоволн; электрических и нервных импульсов; магнитных записей; жестов и мимики; запахов и вкусовых ощущений; хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д. 6 Формы представления информации Аналоговая (непрерывная)) Дискретная Аналоговые технические средства Цифровые технические средства обработки информации обработки информации 7 Вся информация в ПК представляется в виде двоичного кода – последовательности 0 и 1. Тип информации Человек Компьютер Двоичный код Последовательность электрических импульсов Числовая 5 00000101 00000101 Текстовая А 11000000 11000000 Графическая 00000000 00000000 Звуковая Звук 11111111 11111111 максимальной громкости 8 Единицы измерения информации 1 бит это 0 или 1 1 байт = 8 бит 1 Кб (килобайт)= 2 10 байт = 1024 байт 1 Мб (мегабайт)= 2 10 Кб = 220 байт 1 Гб (гигабайт) = 2 10 Мб = 230 байт 1 Тб (терабайт) = 2 10 Гб = 240 байт 1 Пб (петабайт)= 2 10 Тб = 250 байт 1 Эб (эксабайт)= 2 10 Пб = 260 байт Соотношение между единицами измерения количества информации представляют собой степени двойки; 1 байт = 8 бит = 23 бит; 1 Кбайт = 1024 байт = 210 байт = 210 23 бит = 213 бит 9 Кодирование текстовой информации Кодировка - правило сопоставления двоичного кода и символа – буквы алфавита. Для хранения двоичного кода одного символа обычно выделяется 1 байт = 8 бит, иногда 2 байта или 16 бит. Кодирование заключается в том, что каждому символу ставится в соответствие уникальный десятичный код от 0 до 255 или соответствующий ему двоичный код от 00000000 до 11111111. 10 Кодировка ASСII В системе ASCII закреплены две таблицы кодирования — базовая и расширенная. Базовая таблица закрепляет значения кодов от 0 до 127, а расширенная относится к символам с номерами от 128 до 255. Первые 33 кода (с 0 до 32) соответствуют операциям (перевод строки, ввод пробела и т. д.). Коды с 33 по 127 являются интернациональными и соответствуют символам латинского алфавита, цифрам, знакам арифметических операций и знакам препинания. Коды с 128 по 255 служат для национальных алфавитов. Каждый вариант этой второй половины (расширенной таблицы) исходной таблицы получил название «кодовой страницы языка» (code page). 11 Кодовые таблицы Кодовая таблица - таблица соответствий символов и их компьютерных кодов. В РФ распространены следующие кодировки: WIN1251 (Windows) KOI-8 12 Unicode 13 ПРЕДСТАВЛЕНИЕ ИНФОРМАЦИИ НА КОМПЬЮТЕРЕ Система счисления (СС) - способ кодирования числовой информации, т.е. способ записи чисел с помощью некоторого алфавита, символы которого называют цифрами. Непозиционные системы счисления Непозиционная ССЧ — система, в которой значение символа не зависит от его положения в числе. Примером непозицнонной системы счисления служат цифры в римской системе, обозначающиеся знаками: 1 — I, 3 — III, 5 — V, 10 — X, 50 — L, 100 — С, 500 — D, 1000 — М. Пример: десятичное число 27 будет представляться следующим образом: XXVII = 10+10 + 5+1 + 1, т.е. количественное значение числа представляется суммой значений символов. Позиционная система счисления Система счисления называется позиционной, если количественный эквивалент цифры в числе зависит от её положения в записи числа. Основание позиционной системы счисления равно количеству цифр, составляющих её алфавит. Позиционной системе счисления с основанием q любое число может быть представлено в виде: Здесь: А — число; q — основание системы счисления; ai — цифры, принадлежащие алфавиту данной системы счисления; n — количество целых разрядов числа; m — количество дробных разрядов числа; qi — «вес» i-го разряда. Такая запись числа называется развёрнутой формой записи Примеры записи чисел в развёрнутой форме: 2012=2 × 103 +0 × 102 +1 × 101 +2 × 100 0,125=0 × 10+ × 10-1 +2 × 10-2 +5 × 10 –3 Таблица соответствия 10-х, 2-х, 8-х и 16-х чисел от 1 до 16 Десятичная система Двоичная система Восьмеричная система Шестнадцатеричная система 1 1 1 1 2 10 2 2 3 11 3 3 4 100 4 4 5 101 5 5 6 110 6 6 7 111 7 7 8 1000 10 8 9 1001 11 9 10 1010 12 A 11 1011 13 B 12 1100 14 C 13 1101 15 D 14 1110 16 E 15 1111 17 F Двоичная система счисления Двоичной системой счисления называется позиционная система счисления с основанием 2. Двоичный алфавит: 0 и 1. Для целых двоичных чисел можно записать: an–1an–2…a1a0 = an–1×2n–1 + an–2×2n–2 +…+ a0×20 Например: 100112 =1×24+0×23+0×22+1×21+1×20 = 24 +21 + 20 =1910 Правило перевода из любой системы счисления в десятичную Для перевода числа из системы счисления с основанием q в десятичную систему счисления следует использовать форму записи числа в виде: Пример: Переведем число 2А16 в десятеричную систему счисления 2А16=2*161 + А *160 = 32 + 10 = 4210 Восьмеричная и шестнадцатеричная системы счисления Представление чисел в восьмеричной системе счисления an–1an–2…a1a0 = an–1×8n–1 + an–2×8n–2 +…+ a0×80 Например: 118 =1×81+1×80 = 8 +1= 910 Представление чисел в шестнадцатеричной системе счисления an–1an–2…a1a0 = an–1×16n–1 + an–2×16n–2 +…+ a0×160 Например: 1F16 =1×161+F×160 = 16 +15= 3110 Правило перевода из десятичной системы счисления в любую другую 1) последовательно выполнять деление данного числа и получаемых целых частных на основание новой системы счисления до тех пор, пока не получим частное, равное нулю; 2) полученные остатки, являющиеся цифрами числа в новой системе счисления, привести в соответствие с алфавитом новой системы счисления; 3) составить число в новой системе счисления, записывая его, начиная с последнего полученного остатка. Переведём десятичное число 5410 в двоичную систему счисления 54 2 54 27 2 5410=1101102 26 13 2 0 1 12 6 2 6 3 2 1 0 2 1 1 Переведём число 22510 в шестнадцатеричную систему счисления 225 16 224 14 1 22510=Е116 Переведем число 0,4510 в двоичную ССЧ с точностью до пяти знаков 0, 45 х2 0 90 х2 0,4510=0,011102 1 80 х 2 1 60 х2 1 20 х2 0 40 Перевод восьмеричных и шестнадцатеричных чисел в двоичную систему счисления. Для перевода восьмеричного (шестнадцатеричного) числа в двоичную форму достаточно каждую цифру этого числа заменить соответствующей триадой (тройкой цифр) или тетрадой (четверкой цифр), при этом отбрасывают ненужные нули в старших разрядах. Пример: Переведем 5F,9416 в двоичную ССЧ. 5 F 9 4 0101 1111 1001 0100 5F,9416=0101 1111,1001 01002 =101111,1001012 ИЗМЕРЕНИЕ ИНФОРМАЦИИ Измерение информации Количество информации=информационная энтропия – это численная мера непредсказуемости информации. Количество информации в некотором объекте определяется непредсказуемостью состояния, в котором находится объект. А возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является следующий вывод: В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных. 29 Подходы к определению количества информации Алфавитный или количественный Вероятностный (Р. Хартли, американский инженер, 1928 г. , К. Шеннон, американский исследователь, 1948 г.) Алгоритмический (А.Н. Колмогоров, академик, 1965 г.) 30 Алфавитный подход Рассмотрим систему, которая может находиться в одном из N состояний. Какое минимальное количество бит нужно для описания всех N состояний системы? Для этого нужно найти такое минимальное I, которое будет удовлетворять уравнению N = 2i. Логарифмируя по основанию 2, получаем I= log2N. Если в этой формуле I не будет целым, то его нужно округлить (вверх!) до целого. I = log2N, где N – количество возможных состояний, а I – минимальное количество информации в битах, необходимое для описания состояний системы называется формулой Хартли. Например, буквы русского языка (без различия по регистру) можно описать 5-ю битами, если не различать Е и Ё, а если различать, то 6-ю битами с избытком: log232= 5; log233 = 5,044. 31 Алфавитный подход Алфавит — упорядоченный набор символов, используемый для кодирования сообщений на некотором языке. Мощность алфавита - общее количество символов в алфавите (N). Объем информации в сообщении зависит от количества символов в нем. Количество бит, которым кодируется один символ рассчитывается по формуле: N= 2 i , где i – количество бит для кодирования одного символа, N - мощность алфавита, 2 – количество разных символов, которое может быть представлено в ПК. Информационный объем (I) всего сообщения рассчитывается так: I = i * k, где k - количество символов в сообщении. 32 Формулы: I = log х ( N ) N= 2 i Пример 1. Дано: В корзине лежат 8 шаров. Все шары разного цвета. Сколько информации содержит сообщение о том, что из корзины достали красный шар? Решение: 2х = 8 Ответ: х = 3 Пример 2. Дано : Чему равно количество информации (бит) в слове «информатика» при условии, что для кодирования используется 32-значный алфавит. Решение: I= log232 = 5 бит – количество информации 1 символа информации I = M log2N = 11*5=55бит Ответ: количество информации (бит) в слове «информатика» = 55бит 33 Вероятностный подход Важным допущением формулы Хартли является предположение о том, что все состояния наблюдаемой системы являются равновероятными. Но как тогда посчитать количество информации в системе, в которой это условие не выполняется? Эту задачу решил Клод Шеннон, предложив измерять количество информации по формуле: N −1 N −1 1 − ∑ pi log 2 ( pi ) = I= ∑ pi log 2 ( p ) =i 0=i 0 i где N – число состояний системы, pi – вероятность того, что система находиться в состоянии i (сумма всех pi равна 1) 34 Формула: N −1 1 N −1 − ∑ pi log 2 ( pi ) = I= ∑ i 2 p) p log ( =i 0=i 0 i Пример 1. Дано: В беспроигрышной лотерее разыгрывается 4 диска, 5 книг, 6 ручек. Какова вероятность выигрыша диска? Решение: Общее число исходов 4 + 5 + 6=15; число благоприятствующих исходу событий 4. Следовательно, вероятность выигрыша 𝟒𝟒 𝒑𝒑 = = 𝟎𝟎, 𝟐𝟐𝟐𝟐 𝟏𝟏𝟏𝟏 Ответ: р=0,26 Пример 2. Дано : Если бросить несимметричную четырехгранную пирамидку, то вероятности падения на каждую из граней составляют: р1 = 1/2, р2= 1/4, р3 = 1/8, р4 =1/8. Определим количество информации, которое будет получено после реализации одного из случаев. Решение: I= 1/2*log21/2+1/4*log21/4+1/8*log21/8+1/8*log21/8 = 14/8 бит Ответ: I= 1,75 бит 35

Use Quizgecko on...
Browser
Browser