Первичными, базовыми понятиями науки информатики являются понятия: «информация», «информационная модель», «алгоритм» и «электронно-вычислительная машина» (компьютер).
Понятие информации
Слово информация (лат. informatio) означает разъяснение, осведомление, изложение.
Информация – это фундаментальное понятие науки, очень емкое и глубокое, которое невозможно определить однозначно.
Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискуссионных в науке. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:
· в обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. "Информировать" в этом смысле означает "сообщить нечто, неизвестное раньше";
|
|
· в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;
· в кибернетике под информацией понимает ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы (Н. Винер).
С позиции материалистической философии, информация есть отражение реального мира — это сведения, которые один реальный объект содержит о другом реальном объекте.
Можно предложить более лаконичное определение информации.
Информация — это сведения, изменяющие наши знания об окружающем мире и понимание его.
Автором многих основополагающих работ по теории информации (в частности, статьи «Математическая теория связи», опубликованной в 1948 году в сборнике «Работы по теории информации и кибернетике [1]», является американский ученый Клод Шеннон.