Глава 5. Грани общей теории информации.

До сих пор мы употребляли понятие "информация" не задумываясь о глубине его содержания. Нас устраивало смысловое тождество понятий знание, сведения, факты, информация. Теперь же настало время поговорить о содержании этого понятия более подробно, так как "обиходное" употребление термина "информация" совершенно неуместно, когда речь идет о теории или теориях информации. Причина в том, что нередко в этих теоретических построениях термин “информация” наполнен разным смыслом, а следовательно, сама теория высвечивает лишь одну из граней некоторой системы знаний, которую можно предположительно назвать общей теорией информации или "информологией" — наукой о процессах и задачах передачи, распределения, обработки и преобразования информации [19].

Начало строительства здания "информологии" (которое, кстати говоря, еще не завершено) можно отнести к концу 50–х годов, когда в трудах американского инженера Р. Хартли была сделана попытка ввести количественную меру информации, передаваемой по каналам связи от отправителя к получателю.

Рассмотрим простую игровую ситуацию. Пусть ваш партнер подбрасывает монету и сообщает вам результат каждого броска. Вы стоите или сидите к нему спиной и не можете сами видеть результат. До получения сообщения о результате вы находитесь в состоянии неопределенности относительно исхода очередного броска. Сообщение партнера дает вам информацию, снимающее эту неопределенность. Заметим, что число возможных исходов в описанной ситуации равно 2, они равноправны (равновероятны) и каждый раз передаваемая информация полностью снимала возникавшую неопределенность. Хартли принял "количество информации", передаваемое по каналу связи относительно двух равноправных исходов и снимающее неопределенность путем указания на один из них, за единицу информации, получившую название "бит". В тех случаях, когда число возможных и равноправных исходов — N, количество информации I(N), передаваемое сигналом, указывающим на один из них, определяется по формуле Хартли [23]:

I(N)=log2N

Нетрудно видеть, что передача по каналу связи одной из тридцати двух букв русского алфавита, при сохранении равноправия, эквивалентна передаче 5 единиц информации (25 =32). Создатель статистической теории информации К. Шеннон [24] обобщил результат Хартли и его предшественников. Его труды явились ответом на бурное развитие в середине нашего века средств связи: радио, телефона, телеграфа, телевидения. Теория информации Шеннона позволяла ставить и решать задачи об оптимальном кодировании передаваемых сигналов с целью повышения пропускной способности каналов связи, подсказывала пути борьбы с помехами на линиях и т.д.

В работах Хартли и Шеннона информация возникает перед нами лишь в своей внешней оболочке, которая представлена отношениями сигналов, знаков, сообщений друг к другу, или, как говорят, синтаксическими отношениями. Количественная мера Хартли–Шеннона не претендует на оценку содержательной (семантической) или ценностной, полезной (прагматической) сторон передаваемого сообщения. Но ведь едва ли применима такая мера в оценке информативности двух телеграмм с одинаковым числом знаков, но содержащих, например, сообщения: "Поздравляю с днем рождения" и "Встречай завтра рейс СУ172".

Новый этап теоретического расширения понятия информации связан с кибернетикой — наукой об управлении и связи в живых организмах, обществе и машинах. Оставаясь на позициях шенноновского подхода, кибернетика формулирует принцип единства информации и управления, который особенно важен для анализа сути процессов, протекающих в самоуправляющихся, самоорганизующихся биологических и социальных системах. Развитая в работах Н. Винера [3] концепция предполагает, что процесс управления в упомянутых системах является процессом переработки (преобразования) некоторым центральным устройством информации, получаемой от источников первичной информации (сенсорных рецепторов) и передачи ее в те участки системы, где она воспринимается ее элементами как приказ для выполнения того или иного действия. По совершении самого действия сенсорные рецепторы готовы к передаче информации об изменившейся ситуации для выполнения нового цикла управления. Так организуется циклический алгоритм (последовательность действий) управления и циркуляции информации в системе. При этом важно, что главную роль играет здесь содержание информации, передаваемой рецепторами центральному устройству. Информация, по Винеру, — это "обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств" [3]. Таким образом, кибернетическая концепция подводит нас к необходимости оценить информацию как некоторое знание, имеющее одну ценностную меру по отношению к внешнему миру (семантический аспект) и другую по отношению к получателю, накопленному им знанию, познавательным целям и задачам (прагматический аспект) [6].

Попытки построить модели понятия информации, охватывающие семантический аспект знания, содержащегося в некотором высказывании относительно обозначаемого объекта, привели к созданию ряда т.н. логико–семантических теорий (Р. Карнап, И. Бар–Хиллел, Дж.Г. Кемени, Е.К. Войшвилло и др.). В них информация рассматривается как уменьшение или устранение неопределенности. Естественно предположить, что средствами какого–либо языка с помощью создаваемых в нем высказываний можно описать некоторую совокупность возможных ситуаций, состояний, альтернатив. Семантическая информация, содержащаяся в каком–либо высказывании, исключает некоторые альтернативы. Чем больше альтернатив исключает высказывание, тем большую семантическую информацию оно несет. Так, например, одна из возможных совокупностей ситуаций может быть описана следующим образом: "все тела при нагревании расширяются". Высказывание "металлы при нагревании расширяются" исключает все альтернативы, в которых речь может идти о неметаллах. Семантическая сила высказывания может быть оценена отношением все тела/все металлы. Еще более информативным будет высказывание "железо при нагревании расширяется", так как оно исключает все альтернативы, кроме одной.

При всем многообразии логико–семантических теорий им присущи общие черты: они указывают путь решения трех связанных друг с другом проблем: определения совокупности возможных альтернатив средствами выбранного языка, количественной оценки альтернатив, их относительного сопоставления (взвешивания), введения меры семантической информации.

В рассмотренных теоретических конструкциях — статистической и семантической информации — речь шла о потенциальной возможности извлечь из передаваемого сообщения какие–либо сведения. Вместе с тем в процессах информационного обмена очень часто складываются ситуации, в которых мощность или качество информации, воспринимаемое приемником, зависит от того, насколько он подготовлен к ее восприятию. Мы уже использовали понятие тезауруса, обсуждая во втором параграфе тему об "абсолютной относительности" информации. Оно является фундаментальным в теоретической модели семантической теории информации, предложенной Ю.А. Шрейдером [25] и учитывающей в явной форме роль приемника. Согласно этой модели, тезаурус — это знания приемника информации о внешнем мире, его способность воспринимать те или иные сообщения. Тезаурус может изменяться, пополняться, в зависимости от содержания принимаемых сообщений. Так, например, при получении приемником некоторого сообщения (текста) T и в результате его осмысления происходит преобразование тезауруса Q в тезаурус Q(T). Это преобразование можно понимать как изменение представлений о внешнем мире под влиянием текста T. Количеством семантической информации, содержащейся в тексте T относительно тезауруса Q, называется величина I(T,Q) = (Q(T) — Q)/Q — степень изменения тезауруса Q под воздействием текста T.

Представим себе, что до получения телеграммы "Встречай завтра рейс СУ172" мы из вчерашнего разговора по междугороднему телефону уже знали о предстоящем приезде своего родственника или друга, а наведя справки, узнали и номер авиарейса, с которым он может прибыть в город. Наш тезаурус уже содержал информацию, заключенную в телеграмме. Следовательно, он не изменился с ее получением, и семантическая ценность этой информации оказалась нулевой.

Мы видим, что к подобной оценке семантического содержания информации примешивается семантический аспект, скрытый в изначальной "установке" тезауруса на осмысление принимаемого сообщения. В прагматических концепциях информации этот аспект является центральным. Он приводит нас к необходимости учитывать ценность, полезность, эффективность, экономичность и т.д. информации, т.е. те ее качества, которые определяющим образом влияют на поведение самоорганизующихся, самоуправляющихся, целенаправленных кибернетических систем (биологических, социальных, человеко–машинных). Одним из ярких представителей прагматических теорий информации является поведенческая модель коммуникации — бихевиористская модель Акоффа–Майлса [6]. Исходным в этой модели является целевая устремленность получателя информации на решение конкретной проблемы.

Индивидуум (получатель) находится в "целеустремленном состоянии", если он стремится к чему–нибудь и имеет альтернативные пути неодинаковой эффективности для достижения цели. Сообщение, переданное получателю информативно, если оно изменяет его "целеустремленное состояние". Так как "целеустремленное состояние" характеризуется тремя компонентами — последовательностью возможных действий (альтернатив), эффективностью действия и значимостью результата, — передаваемое получателю сообщение может оказывать воздействие на все три компонента в различной степени. В соответствии с этим передаваемая информация различается по типам на "информирующую", "инструктирующую" и "мотивирующую". Таким образом, для получателя прагматическая ценность сообщения состоит в том, что оно позволяет ему наметить стратегию поведения при достижении цели построением ответов на вопросы: что, как и почему делать на каждом очередном шаге? Для каждого типа информации бихевиористская модель предлагает свою меру, а общая прагматическая ценность информации определяется как функция разности этих количеств в "целеустремленном состоянии" до и после его изменения на новое "целеустремленное состояние".

Следующим этапом в развитии прагматических теорий информации явились работы американского логика Д. Харраха, построившего логико–прагматическую модель коммуникации. Одной из слабостей бихевиористской модели является ее неподготовленность к оценке ложных сообщений. Модель Харраха предполагает учет общественного характера человеческой коммуникации. В соответствии с ней получаемые сообщения должны быть сначала подвергнуты обработке, после которой выделяются сообщения "годные к употреблению". Именно к совокупности годных к употреблению сообщений должны быть применены критерии прагматической ценности. Говорить более подробно об упомянутых теоретических моделях информации нецелесообразно. Желание ознакомиться с ними более подробно приведет читателя к специальной литературе, а их общий сопоставительный анализ на высоком профессиональном уровне дан в [6]. Скажем только, что теория информации "в смысле Шеннона" возникла как средство решения конкретных прикладных задач в области передачи сигналов по каналам связи. Поэтому, по-сушеству, она являлась и является прикладной информационной наукой. Семейство таких наук, специально изучающих информационные процессы в том или ином их специфическом содержании и форме, во второй половине нашего века растет довольно быстро. Это — кибернетика, теория систем, документалистика, лингвистика, символическая логика и др. Стержнем, объединяющим все эти исследования, служит общая теория информации —"информология" [19], в основу которой и положены строительные блоки синтаксических, семантических и прагматических концепций информации.

В нашем разговоре нельзя не уделить внимания такой научной дисциплине, как информатика, определенной и изложенной в [15]. В соответствии с данным в этой работе определением, информатика — это научная дисциплина, изучающая структуру и общие свойства научной информации, а также закономерности всех процессов научной коммуникации". В центре ее внимания феномен научной информации — самостоятельное, сложное и интересное социальное явление. Объектами изучения являются способы представления информации; использование кодов для ее преобразования, передачи и хранения; методы и технические устройства обработки информации. Информатика использует достижения математики, логики, лингвистики, психологии, вычислительной техники, теории графов, библиотековедения, полиграфии, документалистики, социологии и ряда других наук. В рамках информатики–науки исследуется структура, закономерности и свойства системы научной коммуникации в обществе, анализируются особенности формальных и неформальных каналов информационного обмена. Самостоятельный интерес, как объекты исследования, представляют:

  • научная информация, ее виды, свойства, ценностные и количественные характеристики, экономические параметры, общественная роль;
  • наука и техника как сферы потребления информации;
  • система научной литературы, закономерности роста, старения, рассеяния научных публикаций, типы научных документов и изданий;
  • структура и свойства научных изданий и документов; — роль, содержание и задачи научно–информационной деятельности, виды информационного обслуживания;
  • анализ и синтез научной информации.

Одновременно следует отметить, что информатика не изучает конкретного содержания научной информации, не занимается проблемами оценки истинности или ложности информации, ее новизны или полезности. "Важно лишь то, что имеется какая–то научная информация, которая должна быть наиболее эффективным образом, в надлежащее время, а также в необходимом объеме и форме доведена непосредственно до ее потенциального потребителя" [15]. Из этого следует, что информатика, как наука, не исследует задач, связанных с получением выводного знания, т.е. знания, получаемого в результате логического вывода, отправляющегося от некоторой исходной системы знаний (системы аксиом, множества фактов и отношений между ними, сформулированных в явном виде).

Груз подобных проблем берет на себя логика — "формальная наука об общезначимых формах и средствах мысли, необходимых для рационального познания в любой области знания" [22]. Такими формами являются понятия, суждения, заключения. К средствам мысли можно отнести определения, правила образования понятий, суждений, умозаключений, правила рассуждений и т.п. Задача логики исторически сводилась к созданию таких способов рассуждений, которые позволяли бы из истинных суждений–посылок получать всегда истинные суждения–заключения. Основы логики заложены еще в IV в. д.н.э. Аристотелем, создавшим ядро традиционной логики — силлогистику, теорию дедуктивного вывода. Развиваясь как наука, логика приобрела развитую внутреннюю структуру. В ней выделились индуктивная, модальная, многозначная логики, логики высказываний и предикатов, математическая логика и др. Современная логика — это инструмент точной мысли, играющий важную роль в организации и осуществлении процессов Неслучайно в упомянутых нами теоретических моделях информации логический компонент является весомым.

Приведенное выше определение информатики применимо лишь к достаточно ограниченному кругу процессов и объектов общественной практики, что обнаружилось довольно быстро. Поэтому на одном из международных форумов, посвященных вопросам информатики (Международный конгресс в Японии в 1978 году) понятию информатики было дано чрезвычайно широкое толкование. Признавалось, в частности, что информатика охватывает области, связанные с разработкой, созданием, использованием и материально–техническим обслуживанием систем обработки информации, включая машины, оборудование, математическое обеспечение, организационные аспекты, а также комплекс промышленного, коммерческого, административного, социального и политического воздействия. Такая полярность точек зрения специалистов естественна в период формирования основ науки. В настоящее время в литературе можно встретить десятки определений информатики "укладывающиеся" между сформулированными "крайностями". На наш взгляд удачное определение информатики–науки дал Ю.И. Шемакин в своей работе "Введение в информатику" (1985г.): информатика — наука "о наиболее общих закономерностях построения и преобразования информационной модели мира, определяющей роль человека и технических средств в процессах обработки информации в технических, биологических и социальных системах".

Даже столь краткий обзор самостоятельных, но тесно связанных фрагментов информологии, который мы привели выше, показывает, что понятия "информация", "информатика" складываются и быстро эволюционируют во второй половине XX века, наполняясь все большим содержанием.

В этом мы видим еще одно из многих подтверждений роли информационно–обменных процессов как мощного фактора социального прогресса, проявившегося во всем своем значении на исходе двадцатого столетия. Становясь самостоятельным объектом исследований, информационно–обменные процессы привлекают все большее внимание ученых и специалистов. Быстрыми темпами формируется новое направление в информологии — социальная информатика, претендующая на роль научной базы постиндустриальной цивилизации и представляющая собой комплексную научную дисциплину, изучающую закономерности информационного обмена в обществе, происходящие под его влиянием социальные преобразования и испльзующую для этой цели методы информатики, социологии, психологии, философии и других наук.

Введение
Глава 1.
Глава 2.
Глава 3.
Глава 4.
Глава 5.
ЛИТЕРАТУРА
Дубровский Е.Н.
Информационно-обменные процессы - факторы социального развития
Последняя редакция 1999 г.
©Дубровский Е.Н.
назад следующая
Hosted by uCoz