Главная Обратная связь

Дисциплины:






Технические средства информатики



2.1. ЭВМ — основное техническое средство обработки информации.

Компьютеры могут быть классифицированы по ряду признаков, в частности: по принципу действия, назначению, способам организации вычислительного процесса, размерам и вычислительной мощности, функциональным возможностям, способности к параллельному выполнению программ и др.

По назначению ЭВМ можно разделить на три группы:

· универсальные (общего назначения) — предназначены для решения самых разных инженерно-технических задач: экономических, математических, информационных и других задач, отличающихся сложностью алгоритмов и большим объемом обрабатываемых данных. Характерными чертами этих ЭВМ являются высокая производительность, разнообразие форм обрабатываемых данных (двоичных, десятичных, символьных), разнообразие выполняемых операций (арифметических, логических, специальных), большая емкость оперативной памяти, развитая организация ввода-вывода информации;

· проблемно-ориентированные — предназначены для решение более узкого круга задач, связанных обычно с технологическими объектами, регистрацией, накоплением и обработкой небольших объемов данных (управляющие вычислительные комплексы);

· специализированные — для решения узкого круга задач, чтобы снизить сложность и стоимость этих ЭВМ, сохраняя высокую производительность и надежность работы (программируемые микропроцессоры специального назначения, контроллеры, выполняющие функции управления техническими устройствами).

 

2.2. Классификация ЭВМ по принципу действия.

По принципу действия (критерием деления вычислительных машин является форма представления информации, с которой они работают):

· аналоговые вычислительные машины (АВМ) — вычислительные машины непрерывного действия, работают с информацией, представленной в непрерывной форме, т.е. виде непрерывного ряда значений какой-либо физической величины (чаще всего электрического напряжения); в этом случае величина напряжения является аналогом значения некоторой измеряемой переменной. Например, ввод числа 19.42 при масштабе 0.1 эквивалентен подаче на вход напряжения в 1.942 В;

· цифровые вычислительные машины (ЦВМ) — вычислительные машины дискретного действия, работают с информацией, представленной в дискретной, а точнее в цифровой, форме — в виде нескольких различных напряжений, эквивалентных числу единиц в представляемом значении переменной;

· гибридные вычислительные машины (ГВМ) — вычислительные машины комбинированного действия, работают с информацией, представленной и в цифровой, и в аналоговой форме.

АВМ просты и удобны в эксплуатации; программирование задач для решения на них нетрудоемкое, скорость решения изменяется по желанию оператора (больше, чем у ЦВМ), но точность решения очень низкая (относительная погрешность 2-5 %). На АВМ решают математические задачи, содержащие дифференциальные уравнения, не содержащие сложной логики.



ЦВМ получили наиболее широкое распространение, именно их подразумевают, когда говорят про ЭВМ.

ГВМ целесообразно использовать для управления сложными быстродействующими техническими комплексами.

2.3. Классификация ЭВМ по поколениям.

В 1946г. была опубликована идея использования двоичной арифметики (Джон фон Нейман, А.Бернс) и принципа хранимой программы, активно использующиеся в ЭВМ 1 поколения.

ЭВМ отличались большими габаритами, большим потреблением энергии, малым быстродействием, низкой надежностью, программированием в кодах.

Дополнительные черты:

· устройства ввода-вывода: бумажная перфолента, перфокарты, магнитная лента, и печатающие устройства;

· внешняя память: магнитный барабан, перфоленты, перфокарты;

· пультовая работа программиста;

· программирование в машинных кодах.

ENIAC(Electronic Numerical Integrator and calculator)

Эта первая универсальная машина разработана в 1940г. в Пенсильванском университете, закончена к 1946г. Назначение: для военных баллистических расчетов, однако после завершения активно использовалась в научных целях.

Руководители проекта: Джон Моучли, инженер Дж.Эккерт

Занимала комнату 10*15 кв.м, 18000 эл. ламп, 1500 реле, мощность 150Квт. За секунду выполняла 5000 сложений или 300 умножений.

МЭСМ (Малая Электронно - Счетная Машина )

МЭСМ- 1947-51гг., Киев, руководитель проекта - академик Сергей Алексеевич Лебедев. Работала с 20-ти разрядными числами, со скоростью 50 операций в секунду. Объем памяти - 100 ячеек. Превосходила по своим характеристикам многие зарубежные образцы.

Задачи решались в основном вычислительного характера, содержащие сложные расчеты, необходимые для прогноза погоды, решения задач атомной энергетики, управления летательной техникой и других стратегических задач.

2 поколение.

1 июля 1948г. Bell Telefon Laboratory объявила о создании первого транзистора (первая демонстрация была еще раньше — в 1947г). Его разработали американские физики У. Браттейн, Бардин, У.Шокли.

По сравнению с ЭВМ предыдущего поколения улучшились все технические характеристики. Для программирования используются алгоритмические языки, предприняты первые попытки автоматического программирования.

Дополнительные черты:

· Внешняя память: магнитный барабан, перфоленты, перфокарты

· Пультовая или пакетная работа программиста

· Появление мониторов и первых операционных систем

· Программирование в машинных кодах и на первых языках программирования(FORTRAN, ALGOL).

3-е поколение.

Особенностью ЭВМ 3 поколения считается применение в их конструкции интегральных схем, а в управлении работой компьютера — операционных систем. Появились возможности мультипрограммирования, управления памятью, устройствами ввода-вывода. Восстановление после сбоев взяла на себя операционная система.

Дополнительные черты:

· мощные операционные системы

· развитые системы программного обеспечения для числовых и текстовых приложений

· возможность ограниченного диалога с программистом

· возможность удаленного, коллективного доступа

IBM SYSTEM 360(IBM CORP) — знаменитое семейство машин, программно совместимых снизу вверх. Машины примерно одинаковой архитектуры, но самых разных рабочих и стоимостных характеристик. До конца 70-х годов этот этап связывается с распространением ЭВМ серии IBM/360. Проблема этого этапа — отставание программного обеспечения от уровня развития аппаратных средств.

ЭВМ ЕС (Единой серии), выпускаемые бывшими странами СЭВ, семейство малых машин СМ ЭВМ.

С середины 60-х до середины 70-х годов важным видом информационных услуг стали базы данных, содержащие разные виды информации по всевозможным отраслям знаний.

Впервые возникает информационная технология поддержки принятия решений. Это совсем новый способ взаимодействия человека и компьютера.

4-е поколение

Основные черты этого поколения ЭВМ — наличие запоминающих устройств, запуск ЭВМ с помощью системы самозагрузки из ПЗУ, разнообразие архитектур, мощные ОС, объединение ЭВМ в сети.

Начиная с середины 70-х годов с созданием национальных и глобальных сетей передачи данных ведущим видом информационных услуг стал диалоговый поиск информации в удаленных от пользователя базах данных.

5 поколение

ЭВМ со многими десятками параллельно работающих процессоров, позволяющих строить эффективные системы обработки знаний; ЭВМ на сверхсложных микропроцессорах с параллельной векторной структурой, одновременно выполняющих десятки последовательных команд программы.

6 поколение

Оптоэлектронные ЭВМ с массовым параллелизмом и нейронной структурой — с сетью из большого числа (десятки тысяч) несложных микропроцессоров, моделирующих структуру нейронных биологических систем.

 

2.4. Классификация ЭВМ по размерам и функциональным возможностям.

Большие ЭВМ

Исторически первыми появились большие ЭВМ, элементная база которых прошла путь от электронных ламп до ИС со сверх высокой степенью интеграции. Однако их производительность оказалась недостаточной для моделирования экологических систем, задач генной инженерии, управления сложными оборонными комплексами и др.

Большие ЭВМ часто называют за рубежом MAINFRAME и слухи об их смерти сильно преувеличены.

Как правило они имеют:

· производительность не менее 10 MIPS (миллионов операций с плавающей точкой в секунду)

· основную память от 64 до 10000 МВ

· внешнюю память не менее 50 ГВ

· многопользовательский режим работы

Основные направления использования — это решение научно-технических задач, работа с большими БД, управление вычислительными сетями и их ресурсами в качестве серверов.

Примеры:

Семейство mainframe: IBM ES/9000 ( Enterprise System), включает более 18 моделей, реализованных на основе архитектуры IBM390.

Малые ЭВМ

Малые (мини) ЭВМ — надежные, недорогие и удобные в эксплуатации, обладают несколько более низкими, по сравнению с большими ЭВМ возможностями.

Супер-мини ЭВМ имеют:

· емкость основной памяти — 4-512 МВ

· емкость дисковой памяти — 2 - 100 ГВ

· число поддерживаемых пользователей - 16-512.

Мини-ЭВМ ориентированы на использование в качестве управляющих вычислительных комплексов, в системах несложного моделирования, в АСУП, для управления технологическими процессами.

Родоначальник современных мини-ЭВМ — PDP-11,(programm driven processor -программно-управляемый процессор) фирмы DEC (США).

Супер ЭВМ

Это мощные многопроцессорные ЭВМ с быстродействием сотни миллионов - десятки миллиардов операций в секунду.

Достичь такую производительность на одном микропроцессоре по современным технологиям невозможно, в виду конечного значения скорости распространения электромагнитных волн (300000 км/сек), ибо время распространения сигнала на расстояние в несколько миллиметров (размер стороны МП) становится соизмеримым с временем выполнения одной операции. Поэтому суперЭВМ создают в виде высокопараллельных многопроцессорных вычислительных систем.

В настоящее время в мире насчитывается несколько тысяч суперЭВМ, начиная от простеньких офисных Cray EL до мощных Cray 3, SX-X фирмы NEC, VP2000 фирмы Fujitsu (Япония), VPP 500 фирмы Siemens (Германия).

Микро ЭВМ или персональный компьютер

ПК должен иметь характеристики, удовлетворяющие требованиям общедоступности и универсальности:

· малую стоимость

· автономность эксплуатации

· гибкость архитектуры, дающую возможность адаптироваться в сфере образования, науки, управления, в быту;

· дружественность операционной системы;

· высокую надежность (более 5000 часов наработки на отказ);

По конструктивным особенностям можно классифицировать ПК так:

1. Стационарные (настольные)

2. Переносимые:

o портативные

o блокноты

o карманные

o электронные секретари

o электронные записные книжки

Большинство из них имеют автономное питание от аккумуляторов, но могут подключаться к сети.

Более подробно ПК рассматривается в п. 2.5.

Специальные ЭВМ

Специальные ЭВМориентированы на решение специальных вычислительных задач или задач управления. В качестве специальной ЭВМ можно рассматривать также электронные микрокалькуляторы. Программа, которую выполняет процессор находится в ПЗУ или в ОП. Т.к. машина решает, как правило, одну задачу, то меняются только данные. Это удобно (программу хранить в ПЗУ), в этом случае повышается надежность и быстродействие ЭВМ. Такой подход часто используется в бортовых ЭВМ; управлении режимом работы фотоаппарата, кинокамеры, в спортивных тренажерах.

3. Рассматриваются основные понятия информатики – алфавит, слово, информация, сообщение, измерение сообщений и информации, виды и свойства информации, меры количества информации (по Хартли и Шеннону), их свойства и значение, вопросы связанные с информационными системами и управлением в системе.

Понятие информации является наиболее сложным для понимания и обычно во вводных курсах информатики не определяется, принимается как исходное базовое понятие, понимается интуитивно. Часто это понятие отождествляется неправильным образом с понятием "сообщение".

Понятие "информация" имеет различные трактовки в разных предметных областях. Например, информация может пониматься как:

· абстракция, абстрактная модель рассматриваемой системы (в математике);

· сигналы для управления, приспособления рассматриваемой системы (в кибернетике);

· мера хаоса в рассматриваемой системе (в термодинамике);

· вероятность выбора в рассматриваемой системе (в теории вероятностей);

· мера разнообразия в рассматриваемой системе (в биологии) и др.

Рассмотрим это фундаментальное понятие информатики на основе понятия "алфавит" ("алфавитный", формальный подход). Дадим формальное определение алфавита.

Алфавит – конечное множество различных знаков, символов, для которых определена операция конкатенации(приписывания, присоединения символа к символу или цепочке символов); с ее помощью по определенным правилам соединения символов и слов можно получать слова (цепочки знаков) и словосочетания (цепочки слов) в этом алфавите (над этим алфавитом ).

Буквой или знаком называется любой элемент x алфавита X, где . Понятие знака неразрывно связано с тем, что им обозначается ("со смыслом"), они вместе могут рассматриваться как пара элементов (x, y), где x – сам знак, а y – обозначаемое этим знаком.

Пример. Примеры алфавитов: множество из десяти цифр, множество из знаков русского языка, точка и тире в азбуке Морзе и др. В алфавите цифр знак 5 связан с понятием "быть в количестве пяти элементов".

Конечная последовательность букв алфавита называется словом в алфавите (или над алфавитом ).

Длиной |p| некоторого слова p над алфавитом Х называется число составляющих его букв.

Слово (обозначаемое символом ) имеющее нулевую длину, называется пустым словом: | | = 0.

Множество различных слов над алфавитом X обозначим через S(X) и назовем словарным запасом (словарем) алфавита (над алфавитом ) X.

В отличие от конечного алфавита, словарный запас может быть и бесконечным.

Слова над некоторым заданным алфавитом и определяют так называемые сообщения.

Пример. Слова над алфавитом кириллицы – "Информатика", "инто", "ииии", "и". Слова над алфавитом десятичных цифр и знаков арифметических операций – "1256", "23+78", "35–6+89", "4". Слова над алфавитом азбуки Морзе – ".", ". . –", "– – –".

В алфавите должен быть определен порядок следования букв (порядок типа "предыдущий элемент – последующий элемент"), то есть любой алфавитимеет упорядоченный вид X = {x1, x2, …, xn} .

Таким образом, алфавит должен позволять решать задачу лексикографического (алфавитного) упорядочивания, или задачу расположения слов над этим алфавитом, в соответствии с порядком, определенным в алфавите (то есть по символам алфавита ).

Информация – это некоторая упорядоченная последовательность сообщений, отражающих, передающих и увеличивающих наши знания.

Информация актуализируется с помощью различной формы сообщений – определенного вида сигналов, символов.

Информация по отношению к источнику или приемнику бывает трех типов: входная, выходная и внутренняя.

Информация по отношению к конечному результату бывает исходная, промежуточная и результирующая.

Информация по ее изменчивости бывает постоянная, переменная и смешанная.

Информация по стадии ее использования бывает первичная и вторичная.

Информация по ее полноте бывает избыточная, достаточная и недостаточная.

Информация по доступу к ней бывает открытая и закрытая.

Есть и другие типы классификации информации.

Пример. В философском аспекте информация делится на мировоззренческую, эстетическую, религиозную, научную, бытовую, техническую, экономическую, технологическую.

Основные свойства информации:

· полнота;

· актуальность;

· адекватность;

· понятность;

· достоверность;

· массовость;

· устойчивость;

· ценность и др.

Информация – содержание сообщения, сообщение – форма информации.

Любые сообщения измеряются в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах, петабайтах иэксабайтах, а кодируются, например, в компьютере, с помощью алфавита из нуля и единицы, записываются и реализуются в ЭВМ в битах.

Приведем основные соотношения между единицами измерения сообщений:

1 бит ( bi nary digi t – двоичное число) = 0 или 1,

1 байт 8 бит,

1 килобайт (1Кб) = 213 бит,

1 мегабайт (1Мб) = 223 бит,

1 гигабайт (1Гб) = 233 бит,

1 терабайт (1Тб) = 243 бит,

1 петабайт (1Пб) = 253 бит,

1 эксабайт (1Эб) = 263 бит.

Пример. Найти неизвестные х и у, если верны соотношения:

128y (К) = 32x ( бит );

2x (М) = 2y ( байт ).

Выравниваем единицы измерения информации:

27y (K) = 27y+13 ( бит );

2x (M) = 2x+20 ( байт ).

Подставляя в уравнения и отбрасывая размерности информации, получаем:

27y+13 = 25x

2x+20=2y

Отсюда получаем систему двух алгебраических уравнений:

или, решая эту систему, окончательно получаем, x = –76,5, у = –56,5.

Для измерения информации используются различные подходы и методы, например, с использованием меры информации по Р. Хартли и К. Шеннону.

Количество информации – число, адекватно характеризующее разнообразие (структурированность, определенность, выбор состояний и т.д.) в оцениваемой системе. Количество информации часто оценивается в битах, причем такая оценка может выражаться и в долях бит (так как речь идет не об измерении или кодировании сообщений ).

Мера информации – критерий оценки количества информации. Обычно она задана некоторой неотрицательной функцией, определенной на множестве событий и являющейся аддитивной, то есть мера конечного объединения событий (множеств) равна сумме мер каждого события.

Рассмотрим различные меры информации.

Возьмем меру Р. Хартли. Пусть известны N состояний системы S ( N опытов с различными, равновозможными, последовательными состояниями системы). Если каждое состояние системы закодировать двоичными кодами, то длину кода d необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N:

Логарифмируя это неравенство, можно записать:

Наименьшее решение этого неравенства или мера разнообразия множества состояний системы задается формулой Р. Хартли:

H = log2N ( бит ).

Пример. Чтобы определить состояние системы из четырех возможных состояний, то есть получить некоторую информацию о системе, необходимо задать 2 вопроса. Первый вопрос, например: "Номер состояния больше 2?". Узнав ответ ("да", "нет"), мы увеличиваем суммарную информацию о системе на 1 бит ( I = log22 ). Далее необходим еще один уточняющий вопрос, например, при ответе "да": "Состояние – номер 3?". Итак, количествоинформации равно 2 битам ( I = log24 ). Если система имеет n различных состояний, то максимальное количество информации равно I = log2n .

Если во множестве X = {x1, x2, ..., xn} искать произвольный элемент, то для его нахождения (по Хартли) необходимо иметь не менее logan(единиц) информации.

Уменьшение Н говорит об уменьшении разнообразия состояний N системы.

Увеличение Н говорит об увеличении разнообразия состояний N системы.

Мера Хартли подходит лишь для идеальных, абстрактных систем, так как в реальных системах состояния системы неодинаково осуществимы (неравновероятны).

Для таких систем используют более подходящую меру К. Шеннона. Мера Шеннона оценивает информацию отвлеченно от ее смысла:

где n – число состояний системы; рi – вероятность (относительная частота) перехода системы в i-е состояние, а сумма всех pi должна равняться 1.

Если все состояния рассматриваемой системы равновозможны, равновероятны, то есть рi = 1/n , то из формулы Шеннона можно получить (как частный случай) формулу Хартли:

I = log2n .

Пример. Если положение точки в системе из 10 клеток известно, например если точка находится во второй клетке, то есть

рi = 0, i = 1, 3, 4, …, 10, р2 = 1 ,

то тогда получаем количество информации, равное нулю:

I = log21 = 0 .

Обозначим величину:

fi = –nlog2pi.

Тогда из формулы К. Шеннона следует, что количество информации I можно понимать как среднеарифметическое величин fi , то есть величину fiможно интерпретировать как информационное содержание символа алфавита с индексом i и величиной pi вероятности появления этого символа в любом сообщении ( слове ), передающем информацию.

В термодинамике известен так называемый коэффициент Больцмана

k = 1.38 * 10–16 (эрг/град)

и выражение ( формула Больцмана ) для энтропии или меры хаоса в термодинамической системе:

Сравнивая выражения для I и S, можно заключить, что величину I можно понимать как энтропию из-за нехваткиинформации в системе (о системе).

Основное функциональное соотношение между энтропией и информацией имеет вид:

I+S(log2e)/k=const.

Из этой формулы следуют важные выводы:

1. увеличение меры Шеннона свидетельствует об уменьшении энтропии (увеличении порядка) системы;

2. уменьшение меры Шеннона свидетельствует об увеличении энтропии (увеличении беспорядка) системы.

Положительная сторона формулы Шеннона – ее отвлеченность от смысла информации. Кроме того, в отличие отформулы Хартли, она учитывает различность состояний, что делает ее пригодной для практических вычислений. Основная отрицательная сторона формулы Шеннона – она не распознает различные состояния системы с одинаковой вероятностью.

Методы получения информации можно разбить на три большие группы.

1. Эмпирические методы или методы получения эмпирических данных.

2. Теоретические методы или методы построения различных теорий.

3. Эмпирико-теоретические методы (смешанные) или методы построения теорий на основе полученных эмпирических данных об объекте, процессе, явлении.

Охарактеризуем кратко эмпирические методы.

1. Наблюдение – сбор первичной информации об объекте, процессе, явлении.

2. Сравнение – обнаружение и соотнесение общего и различного.

3. Измерение – поиск с помощью измерительных приборов эмпирических фактов.

4. Эксперимент – преобразование, рассмотрение объекта, процесса, явления с целью выявления каких-то новых свойств.

Кроме классических форм их реализации, в последнее время используются опрос, интервью, тестирование и другие.

Охарактеризуем кратко эмпирико-теоретические методы.

1. Абстрагирование – выделение наиболее важных для исследования свойств, сторон исследуемого объекта, процесса, явления и игнорирование несущественных и второстепенных.

2. Анализ – разъединение целого на части с целью выявления их связей.

3. Декомпозиция – разъединение целого на части с сохранением их связей с окружением.

4. Синтез – соединение частей в целое с целью выявления их взаимосвязей.

5. Композиция — соединение частей целого с сохранением их взаимосвязей с окружением.

6. Индукция – получение знания о целом по знаниям о частях.

7. Дедукция – получение знания о частях по знаниям о целом.

8. Эвристики, использование эвристических процедур – получение знания о целом по знаниям о частях и по наблюдениям, опыту, интуиции, предвидению.

9. Моделирование (простое моделирование), использование приборов – получение знания о целом или о его частях с помощью модели или приборов.

10. Исторический метод – поиск знаний с использованием предыстории, реально существовавшей или же мыслимой.

11. Логический метод – поиск знаний путем воспроизведения частей, связей или элементов в мышлении.

12. Макетирование – получение информации по макету, представлению частей в упрощенном, но целостном виде.

13. Актуализация – получение информации с помощью перевода целого или его частей (а следовательно, и целого) из статического состояния в динамическое состояние.

14. Визуализация – получение информации с помощью наглядного или визуального представления состояний объекта, процесса, явления.

Кроме указанных классических форм реализации теоретико-эмпирических методов часто используются и мониторинг (система наблюдений и анализа состояний), деловые игры и ситуации, экспертные оценки (экспертное оценивание), имитация (подражание) и другие формы.

Охарактеризуем кратко теоретические методы.

1. Восхождение от абстрактного к конкретному – получение знаний о целом или о его частях на основе знаний об абстрактных проявлениях в сознании, в мышлении.

2. Идеализация – получение знаний о целом или его частях путем представления в мышлении целого или частей, не существующих в действительности.

3. Формализация – получение знаний о целом или его частях с помощью языков искусственного происхождения (формальное описание, представление).

4. Аксиоматизация – получение знаний о целом или его частях с помощью некоторых аксиом (не доказываемых в данной теории утверждений) и правил получения из них (и из ранее полученных утверждений) новых верных утверждений.

5. Виртуализация – получение знаний о целом или его частях с помощью искусственной среды, ситуации.

Пример. Для построения модели планирования и управления производством в рамках страны, региона или крупной отрасли нужно решить следующие проблемы:

1. определить структурные связи, уровни управления и принятия решений, ресурсы; при этом чаще используются методы наблюдения, сравнения, измерения, эксперимента, анализа и синтеза, дедукции и индукции, эвристический, исторический и логический методы, макетирование и др.;

2. определить гипотезы, цели, возможные проблемы планирования; наиболее используемые методы – наблюдение, сравнение, эксперимент, абстрагирование, анализ, синтез, дедукция, индукция, эвристический, исторический, логический и др.;

3. конструирование эмпирических моделей; наиболее используемые методы – абстрагирование, анализ, синтез, индукция, дедукция, формализация,идеализация и др.;

4. поиск решения проблемы планирования и просчет различных вариантов, директив планирования, поиск оптимального решения; используемые чаще методы – измерение, сравнение, эксперимент, анализ, синтез, индукция, дедукция, актуализация, макетирование, визуализация, виртуализация и др.

Суть задачи управления системой – отделение ценной информации от "шумов" (бесполезного, иногда даже вредного для системы возмущенияинформации ) и выделение информации, которая позволяет этой системе существовать и развиваться.

Информационная система – это система, в которой элементы, структура, цель, ресурсы рассматриваются на информационном уровне (хотя, естественно, имеются и другие уровни рассмотрения).

Информационная среда – это среда (система и ее окружение) из взаимодействующих информационных систем, включая и информацию, актуализируемую в этих системах.

Установление отношений и связей, описание их формальными средствами, языками, разработка соответствующих описаниям моделей, методов, алгоритмов, создание и актуализация технологий, поддерживающих эти модели и методы, и составляет основную задачу информатики как науки, образовательной области, сферы человеческой деятельности.

Информатику можно определить как науку, изучающую неизменные сущности (инварианты) информационных процессов, которые протекают в различных предметных областях, в обществе, в познании, в природе. Информация и данные

17.05.2012

Иногда между информацией и данными можно смело ставить знак равенства. Тем не менее, в некоторых случаях – это два совершенно разных термина. Давайте же, попытаемся разграничить их для правильного понимания.

Информация представляет собой определенным образом организованные и имеющие значение, смысл и ценность, данные для конкретных потребителей и необходимые им для принятия решений, а также для реализации действий и функций. Также информацией можно считать совокупность знаний о фактических данных и их взаимозависимостях, являющихся одной из разновидностей ресурсов, которые используются человеком в быту и трудовой деятельности.

Также информация – это сведения о предметах, лицах, фактах, событиях, процессах и явлениях независимо от формы представления, это сведения, неизвестные до их непосредственного получения, это значение, которое приписано данным. В целом, информация – это обобщающий термин, который относится к различным звукам, сигналам и знакам, которые могут приниматься, передаваться, храниться и записываться.

Данные это цифры, факты и прочие сведения об абстрактных и реальных лицах, объектах, предметах, явлениях и событиях, которые соответствуют определенной предметной области, представлены в символьном, цифровом, звуковом, графическом и другом форматах. Прикладная или предметная область данных – это сегмент информационного пространства, который отражает определенную часть мира и представляет собой совокупность сведений об абстрактных и реальных объектах и понятиях, признаках и их связях.

Кроме того данные представляют собой информацию, которая представлена в пригодном для обработки и передачи виде, при возможном участии и взаимодействии автоматизированных средств и человека. Также под данными можно понимать фактический материал, который представлен в виде информации, символов, чисел или букв, используемый для описания личностей, ситуаций, объектов и других понятий.





sdamzavas.net - 2020 год. Все права принадлежат их авторам! В случае нарушение авторского права, обращайтесь по форме обратной связи...