![]()
Главная Обратная связь Дисциплины:
Архитектура (936) ![]()
|
Понятие информатики, информации, кодирования информации
Информатика-это наука о сборе, накоплении, хранении, обработки, использовании информации. Она занимается формализованным представлением информации и ее обработкой, включает в себя вопросы анализа и моделирования взаимосвязей и структур в самых различных областях науки, техники и производства. Формирование моделей определенных структур объектов, взаимодействий и процессов в какой-либо предметной области осуществляется с помощью таких формальных средств, как структуры данных, языки программирования, логические формулы. Понятие информации является основополагающим, фундаментальным, но следует различать: 1) Формальное представление, изображение информации – ее внешнюю форму 2) Абстрактное значение, содержание, семантику изображения 3) Связь абстрактной информации с реальным миром
Информация-это фундаментальное понятие, как вещество или энергия, строгого определения дать невозможно, но существует несколько подходов к определению информации и определению количества информации: -Содержательный - субъективный, у разных людей степень неопределенности об одном и том же предмете различная. -Вероятностный определяется формулой Шеннона p=m/N -Алфавитный определяется формулой Хартли N=2^i Информацией обычно называют содержательное значение, семантику некоторого высказывания, описания, сообщения. Для ее машинного представления существуют различные формы: • условные знаки, сигналы; • акустическое, речевое представление; • графическое представление – рисунки, пиктограммы; • текстовое представление с помощью последовательности символов. Интерпретируя представление информации, получаем ее абстрактное значение, семантику. Для обмена информацией должны существовать согласованные, единые системы ее представления и интерпретации. ….. В информатике интерпретацию представления информации отождествляют с подходящими математическими структурами и для ее обработки используют математические методы В приложениях информатики может быть рассмотрено точно описанное множество представлений информации R с интерпретацией I в множестве элементов информации – А. Интерпретация I данному представлению сообщения r ставит в соответствие некоторое абстрактное информационное содержание I(r). Таким образом, интерпретации соответствует отображение I : R A Информационную систему можно обозначить тройкой (A, R, I) Система представлений R должна быть конечной. Пример. Пусть N – система натуральных чисел, включая число ноль –это есть последовательность штрихов: ε, /, //, ///, ////, ///// и т.д Здесь ε - пустая последовательность. Общепринятым представлением целых чисел есть последовательность из символов множества {0,1,2,3,4,5,6,7,8,9} Интерпретацией I будет отображение десятичного представления чисел в последовательности штрихов. I : {0,1,2,3,4,5,6,7,8,9}+ à N, где {0,1,2,3,4,5,6,7,8,9}+ - множество непустых конечных последовательностей десятичных цифр. Например, I{0} = ε, I{1} = /, I{2} = //, I{3} = ///, и т.д. Информация в ее абстрактном смысле может быть только представлена. Понятие числа в математике никак не зависит от способа его представления. Но способы представления существенно различны с точки зрения удобства реализации процессов обработки. В одной системе представления возможны различные изображения одной и той же информации. В информационной системе (A,R,I) два изображения r1 и r2 называются семантически эквивалентными, если они несут одинаковую абстрактную информацию I(r1) = I(r2) Простейший пример информационной системы , которая является фундаментальной как в математике, так и в информатике, является логика высказываний. Высказывание, по определению Аристотеля, это языковое образование, в отношении которого имеет смысл говорить о его истинности или ложности. Не всякое языковое образование можно назвать высказыванием. Например, «Высказывание этого предложения является ложным» - парадокс, так как высказывание ссылается само на себя. Логика высказываний – это ограниченная система (формальный язык), в котором в качестве высказываний допускаются только определенные языковые формы – формулы. Константные высказывания: истина – TRUE и ложь – FALSE. Логические операции “не”, “и”, “или” – NOT, AND, OR …
Кодирование информации - для определения количества инф. был найден способ представить ее тип в едином виде, что позволило все типы информации преобразовать к единому стандартному виду. Таким видом стала двоичная формапредставления информации. Она заключается в записи любой информации в виде последовательности только 2х символов каждая такая последовательность назыв. двоичным кодом. Недостаток- длинные коды.
Информация….может быть представлена функцией y = f (x,t), t – время, х – точка, в которой измеряется некоторое поле, y – значение величины этого поля. Различают непрерывную, информацию и дискретную. Скалярные величины x,t,y, могут принимать непрерывный ряд значений, описываемых вещественными числами. Непрерывный в том смысле, что значения можно получить в сколь угодно близких точках. Такую информацию называют непрерывной или аналоговой. Установив какой-то шаг изменения скалярных величин x и t при определении поля y, получают так называемое дискретное представление информации. Дискретную информацию называют универсальной, т.к. любую непрерывную можно аппроксимировать дискретной с заданной степенью точности. Дискретную информацию отождествляют с цифровой …. Цифровая информация – это частный случай алфавитного представления. Алфавит, абстрактный алфавит – это конечный набор символов любой природы. Например, десятичные цифры вместе с запятой представляют собой алфавит из 11 символов для представления целых и вещественных чисел. 26 букв латинского алфавита, алфавит русского языка… В информатике часто приходится представлять символы одного алфавита с помощью символов другого алфавита. Такое преобразование информации называют кодированием. Проблема кодирования решается просто, если символов кодирующего алфавита больше, чем символов кодируемого, например: 1) 0 – а, 1 – б, 2 – в, 3 – г и т.д. 2) 0 – ноль, 1 – один, 2 – два, 3 – три, и т.д Если кодируемый алфавит состоит из большего количества символов, чем кодирующий, то условием правильного, однозначного кодирования является использование последовательностей символов кодирующего для представления одного символа кодируемого алфавита, например, а – 01, б – 02, в – 03, г – 04 и т.д. Простейший абстрактный алфавит – это алфавит из двух символов, двух букв, называемый двоичным. В качестве символов алфавита часто используются цифры 0 и 1. Величина, способная принимать только два значения 0 и 1, является минимальной единицей информации и называется битом. Как самый простой, двоичный алфавит используется в вычислительных машинах, а для кодирования алфавитов, которыми привык пользоваться человек, используются последовательности символов двоичного алфавита. Последовательностями из n двоичных цифр можно закодировать 2n символов. При n=3 это 23 - 8 символов, при n = 8 это 28 – 256 символов. Международная организация по стандартизации ISO разработала 32-разрядный код, позволяющий представлять более 17 миллионов различных символов Для черно-белого изображения каждая точка представляется одним битом со значением 0 или 1 в зависимости от цвета черная она или белая, а все изображение , состоящее из 1280*1024 точки, представляется т. называемой битовой картой размером 1280*1024 бита. Цветное изображение требует для представления каждой точки 3n бит, где n – количество бит, отводимых для представления интенсивности каждого из 3-х основных цветов : красного, синего и зеленого. Факсимильные аппараты, цифровые фотоаппараты, видеокамеры, сканеры преобразуют изображения в графические файлы с растровым форматом. Недостаток растрового изображения – сложность его масштабирования. При увеличении размеров появляется зернистость, ступенчатость. Векторный способ описывает изображение как совокупность прямых и кривых линий. Их форма и расположение в пространстве и на экране описываются соответствующими уравнениями, на основе которых и создается, генерируется изображение. Этот способ используется для описания шрифтов, поддерживаемых принтерами и мониторами. Математик А.Н. Колмогоров предложил определять количество информации, содержащейся в последовательности символов, минимально возможным количеством двоичных знаков, необходимых для кодирования этой последовательности независимо от содержания, представленного этим сообщением. • Это объективный алфавитный подход. Используя для кодирования 2-ый алфавит, и принимая за единицу информации 1 бит, приходим к тому, что содержательный и алфавитный подходы хорошо согласуются, дают одинаковый результат. Более крупные единицы информации: 1 байт, • 1 Килобайт – 1024 байт (210) • 1 Мегабайт – 1024 Килобайта • 1 Гигабайт – 1024 Мегабайта • 1 Терабайт – 1024 Гигабайта • 1 Петабайт – 1024 Терабайта • Чтобы измерить количество информации в сообщении, надо закодировать сообщение с помощью двоичных цифр 0 и 1 наиболее рациональным способом, позволяющим получить самую короткую последовательность. Длина полученной последовательности нулей и единиц является мерой количества информации в битах
Такой подход приводит к формуле Р. Хартли для измерения количества информации I = log2N • Это утверждение можно сформулировать по другому: количество информации, при выборе одного предмета из N равнозначных предметов, равно log2N. То есть, именно такое количество информации необходимо для устранения неопределенности при выборе из N равнозначных вариантов. • Вероятностный подход в определении количества информации выражается формулой Шеннона. Пусть некоторое множество состоит из N предметов. При этом интересующий нас предмет является одним из m<N одинаковых предметов. То есть вероятность его появления равна p = m/N.
![]() |