Interested Article - Информация

Информа́ция (от лат. «разъяснение, представление, понятие о чём-либо» ← «придавать вид, форму, обучать; мыслить, воображать» ) — све­де­ния (со­об­ще­ния, данные ) не­за­ви­си­мо от фор­мы их пред­став­ле­ния .

В международных и российских стандартах даются следующие определения:

  • обработанные, организованные и связанные данные, которые порождают смысл (значение) (ISO 5127:2017) ;
  • знания о предметах, фактах , идеях и т. д., которыми могут обмениваться люди в рамках конкретного контекста (ISO/IEC 10746-2:1996) ;
  • знания относительно фактов, событий, вещей, идей и понятий, которые в определённом контексте имеют конкретный смысл (ISO/IEC 2382:2015) ;
  • сведения, воспринимаемые человеком и (или) специальными устройствами как отражение фактов материального или духовного мира в процессе коммуникации (ГОСТ 7.0-99) .
Старинная библиотека монастыря св. Флориана , Австрия

Хотя информация должна обрести некоторую форму представления (то есть превратиться в данные ), чтобы ею можно было обмениваться, информация есть в первую очередь интерпретация (смысл) такого представления (ISO/IEC/IEEE 24765:2010) . Сравните свéдение от свéдать , этимологически предполагающее общность вéдения, совместное понимание у отправителя и получателя информации (состоявшуюся доставку смысла через форму представления). Поэтому в строгом смысле информация отличается от данных , хотя в неформальном контексте эти два термина очень часто используют как синонимы . Глагол сообщать как синоним информировать также подразумевает достижение общности в вéдении означаемого , т.е. в осмыслении означающего .

Первоначально «информация» — сведения, передаваемые людьми устным , письменным или каким-либо другим способом (с помощью условных сигналов , технических средств и т. д.); с середины XX века термин «информация» превратился в общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом , автоматом и автоматом; обмен сигналами в животном и растительном мире ; передачу признаков от клетки к клетке, от организма к организму (например, генетическая информация ); одно из основных понятий кибернетики .

Несмотря на широкую распространённость, понятие информации остаётся одним из самых дискуссионных в науке , а термин может иметь различные значения в разных отраслях человеческой деятельности , так, академик Н. Н. Моисеев даже полагал, что в силу широты этого понятия нет и не может быть строгого и достаточно универсального определения информации .

Измерение информации

Пионером в области информационной теории был Ральф Хартли . Он ввёл понятие «информации» (энтропии) как случайной переменной и был первым, кто попытался определить « меру информации ».

Простейшей единицей измерения информации является бит единица измерения количества информации , принимающая 2 логических значения: да или нет, истина или ложь, включено или выключено; 1 или 0 в двоичной системе счисления.

В современных вычислительных системах одномоментно обрабатываются 8 бит информации, называемые байтом . Байт может принимать одно из 256 (2 8 ) различных значений (состояний, кодов ). Производные от байта десятичные единицы измерения, соответственно, именуются килобайт (10 3 = 1000 байт), мегабайт (10 6 = 1 000 000 байт), гигабайт (10 9 = 1 000 000 000 байт) и т. д.

Производные от байта двоичные (бинарные) единицы измерения именуются кибибайт (2 10 = 1024 байт), мебибайт (2 20 = 1 048 576 байт ), гибибайт (2 30 = 1 073 741 824 байт) и так далее .

Также, информацию измеряют такими единицами как трит , Хартдит (децит) и Нат .

Суть и границы явления

Согласно современным представлениям, информация считается нематериальной, а то, что содержится в структуре объектов, принято называть данными ( representation form — ISO/IEC/IEEE 24765:2010).

Для исследований самоорганизации динамических систем Генри Кастлер предложил следующее определение: « Информация есть запомненный выбор одного варианта из нескольких возможных и равноправных » . Доктор философских наук И. В. Мелик-Гайказян дополняет его: « Запомнить — значит каким-либо образом фиксировать результат выбора, что обычно выражается в изменении упорядоченности системы » .

Н. М. Амосов считал, что «информация — это сведения о системе, о её структуре и функции, выраженные моделью», а «переработка информации заключается в превращении одних моделей в другие» .

История понятия

Слово «информация» происходит от лат. informatio , что в переводе обозначает сведение, разъяснение, ознакомление . Понятие информации рассматривалось ещё античными философами .

Латинские слова «de saxis informibus» из Вульгаты Иеронима (342—419) переводятся как «из камней цельных» ( Втор. ), а слова «informem adhuc me», которые переводятся как «Зародыш мой» ( Пс. ), можно перевести и как «бесформенного ещё меня», потому что именно как «ещё бесформенная» переводятся слова «adhuc informem» из Исповеди Августина (354—430).

Итальянским словом «informa» в Комедии Данте (1265—1321) обозначается уже не просто бесформенное, а процесс формирования, образования, творения (Ч. XVII 16-18, Ч. XXV 40-42, Р. VII 133—138).

В современном мире информация представляет собой один из важнейших ресурсов и, в то же время, одну из движущих сил развития человеческого общества. Информационные процессы, происходящие в материальном мире, живой природе и человеческом обществе, изучаются (или, по крайней мере, учитываются) всеми научными дисциплинами от философии до маркетинга .

Исторически сложилось так, что исследованием непосредственно информации занимаются две комплексные отрасли науки — кибернетика и информатика .

Информатика, сформировавшаяся как наука в середине XX века, отделилась от кибернетики и занимается исследованиями в области способов получения, хранения, передачи и обработки семантической информации.

Исследования смыслового содержания информации основываются на комплексе научных теорий под общим названием семиотика [ источник не указан 3215 дней ] .

В России философская проблематика понятия «информация» разрабатывалась, начиная с 1960-х годов , когда вышла статья А. Д. Урсула «Природа информации». С тех пор, явно или неявно, рассматриваются в основном две концепции информации: атрибутивная , по которой информация свойственна всем физическим системам и процессам (А. Д. Урсул, И. Б. Новик, Л. Б. Баженов, Л. А. Петрушенко и другие), и функциональная — информация присуща лишь самоорганизующимся системам ( П. В. Копнин , А. М. Коршунов, В. С. Тюхтин , Б. С. Украинцев и другие) .

Но если, например, провести даже неглубокий анализ содержания наиболее распространенных сегодня атрибутивной и функциональной концепций в отношении информации, то станет ясным, что обе эти концепции, в конечном счете, опираются на объективное свойство материи, установленное ещё в XIX веке и обозначаемое философской категорией «отражение». Однако в обеих концепциях не уделяется достаточного внимания изучению очевидной реальности, проявляющейся в том, что информация в тех формах, в которых она существует сегодня, есть продукт человеческого сознания , которое само есть продукт высшей формы (из известных нам форм) материи.

Другими словами, сторонники обеих концепций, игнорируя человека, игнорируя природу человеческого сознания, сразу относят информацию (продукт сознания) к свойству материи и тут же называют её «атрибутом материи». Вследствие этой ошибки обе концепции не могут представить нам строгое определение информации как понятия, поскольку человеческие понятия наполняются содержанием в результате общения человека с объективной реальностью, а не в результате оперирования, пусть и изощренного, внешне убедительного, правдоподобного в умозаключениях, другими понятиями. Попытки представить информацию в качестве категории также обречены на неудачу. Достаточно принять во внимание, что человеческая практика за последние десятилетия столь быстро изменяла формы и содержание понятий, а также свои представления и отношения к тому, что сегодня принято называть «информацией», что природа, сущность информации и, естественно, содержание этого понятия (если по-прежнему считать его понятием) существенно изменялись со временем .

Классификация информации

Информацию можно разделить на виды по различным критериям:

  • По способу восприятия :
  • По форме представления :
    • Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.
    • Числовая — в виде цифр и знаков (символов), обозначающих математические действия.
    • Графическая — в виде наскальных рисунков, а позднее - в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах.
    • Звуковая — устная или в виде записи и передачи лексем языка аудиальным путём.
    • Видеоинформация — передаваемая в виде видеозаписи .
  • По назначению :
    • Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума .
    • Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
    • Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым и адаптивным) каналам.
    • Личная (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.
  • По значению:
    • Актуальная — информация, ценная в данный момент времени.
    • Достоверная — информация, полученная без искажений с надежных источников.
    • Понятная — информация, выраженная на языке, понятном тому, кому она предназначена.
    • Полная — информация, достаточная для принятия правильного решения или понимания.
    • Ценная — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

В основу классификации положено пять общих признаков:

  • Место возникновения.
  • Стадия обработки.
  • Способ отображения.
  • Стабильность .
  • Функция управления.

Информация в различных областях деятельности

В математике

В математике информация — общее наименование фундаментальных понятий в информатике, теории информации, кибернетике, а также в математической статистике, в которых обобщённое интуитивное представление об информации относительно каких-либо величин или явлений конкретизируется и формализуется .

В информатике

Предметом изучения информатики являются именно данные : методы их создания, хранения, обработки и передачи . Данные представляют собой информацию в формализованном виде (в цифровой форме), позволяющем автоматизировать её сбор, хранение и дальнейшую обработку в ЭВМ. С этой точки зрения информация является абстрактным понятием, рассматриваемым безотносительно к её семантическому аспекту, а под количеством информации обычно понимается соответствующий объём данных . Однако одни и те же данные могут быть закодированы различным образом и иметь при этом различный объём, поэтому иногда рассматривается также понятие «ценность информации», которое связано с понятием информационной энтропии и является предметом изучения теории информации .

В теории информации

Теория информации ( математическая теория связи ) — изучает процессы хранения, преобразования и передачи информации. Она основана на научных методах измерения количества информации . Теория информации развилась из потребностей теории связи. Основополагающими считаются «Передача информации » Ральфа Хартли опубликованные в 1928 году и «Работы по теории информации и кибернетике » Клода Шеннона , опубликованные в 1948 году. Теория информации изучает пределы возможностей систем передачи данных , а также основные принципы их проектирования и технической реализации .

С теорией информации связаны радиотехника (теория обработки сигналов ) и информатика , относящиеся к измерению количества передаваемой информации, её свойства и устанавливающие предельные соотношения для систем. Основные разделы теории информации — кодирование источника ( сжимающее кодирование ) и канальное (помехоустойчивое) кодирование. Информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах — собственная информация и взаимная информация , относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами — случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире — как свойство материальных объектов [ источник не указан 3233 дня ] .

Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации Клод Шеннон. Сам он подразумевает под термином «информация» нечто фундаментальное ( нередуцируемое ). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую неопределённость и информационную энтропию . Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки [ источник не указан 3233 дня ] .

В теории управления (кибернетике)

Основоположник кибернетики Норберт Винер дал следующее определение информации: «Информация — это обозначение содержания, полученное нами из внешнего мира в процессе приспосабливания к нему нас и наших чувств» .

Кибернетика рассматривает машины и живые организмы как системы , воспринимающие, накапливающие и передающие информацию, а также перерабатывающие её в сигналы, определяющие их собственную деятельность .

Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы. В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный код или код источника . Таким образом, каждая материальная система является источником информации.

Субъективную (семантическую) информацию кибернетика определяет как смысл или содержание сообщения. Информация — это характеристика объекта.

Алгоритмическая теория информации

Как область математики — алгоритмическая теория информации была создана А. Н. Колмогоровым . Две основополагающие статьи по ней были опубликованы в журнале «Проблемы передачи информации» в 1965 и 1969 годах . Центральным в этой теории является понятие алгоритмической (также называемой колмогоровской) сложности информационного объекта, то есть алгоритмического способа его описания (формирования); эта сложность определяется как минимальная длина алгоритма, формирующего такой объект. Теорема Колмогорова устанавливает, что среди алгоритмов, формирующий информационный объект существуют оптимальные, хотя такие алгоритмы не единственные и отличаются для разных способов представления алгоритмов, тем не менее для заданных двух оптимальных способов их длина (сложность) отличается не более чем на аддитивную константу. Задача вычисления алгоритмической сложности объекта является алгоритмически неразрешимой .

В семиотике

Семиотика — комплекс научных теорий, изучающих свойства знаковых систем. Наиболее существенные результаты достигнуты в разделе семиотики — семантике . Предметом исследований семантики является значение единиц языка, то есть информация, передаваемая посредством языка.

Знаковой системой считается система конкретных или абстрактных объектов (знаков, слов), с каждым из которых определённым образом сопоставлено некоторое значение. В теории доказано, что таких сопоставлений может быть два. Первый вид соответствия определяет непосредственно материальный объект, который обозначает это слово и называется денотат (или, в некоторых работах, — номинат). Второй вид соответствия определяет смысл знака (слова) и называется концепт. При этом исследуются такие свойства сопоставлений как «смысл», «истинность», «определимость», «следование», «интерпретация» и др. Для исследований используется аппарат математической логики и математической лингвистики.

Идеи семантики, намеченные ещё Г. В. Лейбницем и Ф. де Соссюром в XIX веке, сформулировали и развили Ч. Пирс (1839—1914), Ч. Моррис (1901—1979), Р. Карнап (1891—1970) и др.

Основным достижением теории является создание аппарата семантического анализа, позволяющего представить смысл текста на естественном языке в виде записи на некотором формализованном семантическом (смысловом) языке.

Семантический анализ является основой для создания устройств (программ) машинного перевода с одного естественного языка на другой.

В юриспруденции

Любые сведения, сообщения, данные, независимо от их оформления, являются информацией — материальным или нематериальным объектом, участвующим в любых отношениях. Развитие технологических возможностей переработки и передачи информации выделило её в самостоятельный предмет производственных, управленческих, идеологических и личных отношений. Информация стала товаром, продукцией, предметом труда и объектом услуг. В системе правовых отношений её рассматривает информационное право . Некоторые международные правовые акты и законодательства ряда стран (в том числе России) провозглашают право человека на свободный поиск, получение, передачу, производство и распространение информации любым способом, не нарушающим законы .

В квантовой физике

Квантовая теория информации рассматривает общие закономерности передачи, хранения и преобразования информации в системах, изменяющихся по законам квантовой механики .


Символ информации

Обычно [ где? ] информацию обозначают маленькой буквой i в кружочке

Символ Юникод Название
U+2139 information source
U+24D8 circled latin small letter i

Хотя также она может обозначаться знаком вопроса в кружочке( )

Дезинформация

Дезинформацией (также дезинформированием) называется один из способов манипулирования информацией, как то введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не нужной информации, или полной, но не в нужной области, искажения контекста, искажения части информации.

Цель такого воздействия всегда одна — оппонент должен поступить так, как это необходимо манипулятору. Поступок объекта, против которого направлена дезинформация, может заключаться в принятии нужного манипулятору решения или в отказе от принятия невыгодного для манипулятора решения. Но в любом случае конечная цель — это действие, которое будет предпринято.

См. также

Категория информации по отраслям знаний
В информатике
В общественных науках
В физиологии и медицине
В других областях

Примечания

  1. Большая Советская Энциклопедия
  2. Когаловский М. Р. и др. от 31 марта 2020 на Wayback Machine / Под общ. ред. Ю. Е. Хохлова. — М.: Институт развития информационного общества, 2009. — 160 с.
  3. / И. Л. Бачило // Излучение плазмы — Исламский фронт спасения. — М. : Большая российская энциклопедия, 2008. — С. 495. — ( Большая российская энциклопедия : [в 35 т.] / гл. ред. Ю. С. Осипов ; 2004—2017, т. 11). — ISBN 978-5-85270-342-2 .
  4. Винер Н. Кибернетика, или управление и связь в животном и машине; или Кибернетика и общество/ 2-е издание. — М.: Наука; Главная редакция изданий для зарубежных стран, 1983. — 344 с.
  5. ISO 5127:2017(en) Information and documentation — Foundation and vocabulary: data that are processed, organized and correlated to produce meaning
  6. ISO/IEC 10746-2:1996, Information technology — Open Distributed Processing — Reference Model: Foundations.3.2.5: knowledge that is exchangeable amongst users about things, facts, concepts, and so on, in a universe of discourse
  7. от 17 июня 2016 на Wayback Machine : knowledge concerning objects, such as facts, events, things, processes, or ideas, including concepts, that within a certain context has a particular meaning
  8. от 2 апреля 2015 на Wayback Machine Информационно-библиотечная деятельность, библиография. Термины и определения
  9. от 17 июня 2016 на Wayback Machine : Although information will necessarily have a representation form to make it communicable, it is the interpretation of this representation (the meaning) that is relevant in the first place
  10. Информация // Большой Энциклопедический словарь . — 2000. // Большой энциклопедический словарь / 2-е изд., перераб. и доп. — М.: Большая Российская энциклопедия , 2000. — 1434 с.
  11. // Казахстан. Национальная энциклопедия . — Алматы: Қазақ энциклопедиясы , 2005. — Т. II. — ISBN 9965-9746-3-2 . (CC BY-SA 3.0)
  12. .
  13. International Standard Quantities and Units — Part 13: Information science and technology, International Electrotechnical Commission (2008).
  14. Кастлер Г. Возникновение биологической организации = The Emergence of Biological Organization. — М. : Мир, 1967.
  15. Информационный подход в междисциплинарной перспективе // «Вопросы философии». от 9 октября 2015 на Wayback Machine
  16. Амосов Н. М. Моделирование сложных систем. — Киев: Наукова думка, 1968. — 88 с. — 20 000 экз.
  17. Материалы «круглого стола» от 9 октября 2015 на Wayback Machine //ред. В. В. Пирожков, Вопросы философии, 2010.
  18. Петриченко Е. А. // Современные проблемы науки и образования. – 2014. – № 1 : журнал. — 2014. — № 1 . 9 сентября 2017 года.
  19. / Ю. В. Прохоров // Излучение плазмы — Исламский фронт спасения. — М. : Большая российская энциклопедия, 2008. — ( Большая российская энциклопедия : [в 35 т.] / гл. ред. Ю. С. Осипов ; 2004—2017, т. 11). — ISBN 978-5-85270-342-2 .
  20. Захаров В. П. Информационные системы (документальный поиск): Учебное пособие / В. П. Захаров. — СПб.: СПб.гос университет, 2002. — 188 с.
  21. / Ю. В. Прохоров // Излучение плазмы — Исламский фронт спасения. — М. : Большая российская энциклопедия, 2008. — ( Большая российская энциклопедия : [в 35 т.] / гл. ред. Ю. С. Осипов ; 2004—2017, т. 11). — ISBN 978-5-85270-342-2 .
  22. Hartley, R.V.L., от 1 августа 2020 на Wayback Machine , Bell System Technical Journal , July 1928, pp. 535—563
  23. . Дата обращения: 24 марта 2015. 13 мая 2015 года.
  24. Теория информации // « Энциклопедия Кругосвет ». от 23 марта 2009 на Wayback Machine
  25. Боголюбов Н. Н. , Гнеденко Б. В. , Соболев С. Л. Андрей Николаевич Колмогоров (К восьмидесятилетию со дня рождения) /Пред. к книге: Колмогоров А. Н. Теория информации и теория алгоритмов. — М.: Наука, 1987. — Стр. 16. — 304 с.
  26. Колмогоров А. Н. Три подхода к определению понятия «Количество информации». — Проблемы передачи информации, 1965, т. 1, с. 3-11.
  27. Колмогоров А. Н. К логическим основам теории информации и теории вероятности. — Проблемы передачи информации, 1969, т. 5, с. 3-7.
  28. Колмогоров А. Н. Теория информации и теория алгоритмов. — М.: Наука, 1987. — Стр. 213—223, 232—237. — 304 с.
  29. / А. С. Холево // Канцелярия конфискации — Киргизы. — М. : Большая российская энциклопедия, 2009. — ( Большая российская энциклопедия : [в 35 т.] / гл. ред. Ю. С. Осипов ; 2004—2017, т. 13). — ISBN 978-5-85270-344-6 .

Литература

  • Pieter Adriaans. . // Стэнфордская философская энциклопедия , 2012. (англ.)
  • Adriaans, Pieter, van Benthem, Johan. . // Dov M. Gabbay, Pieter Adriaans, Paul Thagard, Johan van Benthem, John Woods (ред.): Philosophy of Information. Amsterdam. С. 4. (англ.)
  • Глик Д. Информация. История. Теория. Поток. — М. — 576 с. — ISBN 978-5-17-080465-8 .
  • Стратонович Р. Л. М.: Сов. радио, 1975. — 424 с.
  • Урсул А. Д. Природа информации. — М. : Политиздат , 1968. — 288 с.
  • Урсул А. Д. Проблема информации в современной науке. — М. : Наука, 1975.
  • Чернавский Д. С. Синергетика и информация (динамическая теория информации). — Едиториал УРСС, 2004. — ISBN 5-354-00241-9 .
  • Мелик-Гайказян И. В. Информационные процессы и реальность. — М. : Наука, Физматлит, 1997. — 192 с. — ISBN 5-02-015086-X .
  • Хургин В. // Информационные Ресурсы России. — 2007. — № 3 .
  • Информатика: Учебник / Под ред. проф. Н. В. Макаровой. — М.: Финансы и статистика. — 2006. — 768 с.

Ссылки

  • .
Источник —

Same as Информация