КОЛМОГОРОВ Андрей Николаевич (1903-1987) - советский математик, кибернетик, философ; профессор Московского Государственного Университета (МГУ) (1931), редактор математического отдела 1-го издания Большой Советской Энциклопедии, член Главной редакции 2-го издания Большой Советской Энциклопедии и 3-го издания Малой Советской Энциклопедии, академик АН СССР (1939), редактор журнала “Успехи Математических Наук” (1946-54 и 1983-87), почетный член Московского Математического Общества (1953, его президент в 1964-66 и 1974-85), почетный доктор Парижского Университета (1955), иностранный член Польской АН (1956), почетный член Королевского Статистического Общества Великобритании (1956), член Международного Статистического Института (1957), почетный член Американской Академии искусств и наук в Бостоне (1959), член Германской Академии Естествоиспытателей “Леопольдина” (1959), почетный доктор Стокгольмского Университета (1960), иностранный член Американского Философского Общества в Филадельфии (1961), почетный доктор Индийского Статистического Института в Калькутте (1962), почетный член Американского Метеорологического Общества (1962), почетный член Индийского Математического Общества (1962), почетный член Лондонского Математического Общества (1962), иностранный член Нидерландской Королевской АН (1963), Герой Социалистического Труда СССР (1963), иностранный член Лондонского Королевского Общества (1964), почетный член Румынской Академии (1965, член-корр. с 1957), почетный член АН ВНР (1965), академик Академии педагогических наук СССР (1966), иностранный член Национальной АН США (1967), иностранный член Парижской АН (1968), иностранный член АН ГДР (1977), почетный член Международной Академии Истории Науки (1977), Сталинская (Государственная) Премия СССР (1941), Премия имени П.Л.Чебышева АН СССР (1951), Международная Премия Фонда Э.Бальзана (1963), Ленинская Премия СССР (1965), Золотая Медаль Американского Метеорологического Общества (1976), Медаль имени Гельмгольца АН ГДР (1976), Международная Премия Вольфа (1981), Международная Премия имени Н.И.Лобачевского АН СССР (1986). К. награжден орденом Трудового Красного Знамени (1940), 7 орденами Ленина (1944, 1945, 1953, 1961, 1963, 1973, 1975), орденом Знамени ВНР (1975), орденом Октябрьской Революции (1983). Основные труды: “Основные понятия теории вероятностей” (1936, 2-е изд. - 1974), “Введение в теорию функций действительного переменного” (1938, в соавт. с П.С.Александровым), “Предельные распределения для сумм независимых случайных величин” (1940, в соавт. с Б.В.Гнеденко), “О профессии математика” (1960), “Введение в анализ” (1966), “Элементы теории функций и функционального анализа” (1981, в соавт. с С.В.Фоминым), “Введение в математическую логику” (1982, в соавт. с А.Г.Драгалиным), “Математическая логика (дополнительные главы)” (1984, в соавт. с А.Г.Драгалиным), “Математика и механика” (1985), “Теория вероятностей и математическая статистика” (1986), “Теория информации и теория алгоритмов” (1987), “Математика - наука и профессия” (1988). После окончания МГУ (1925) К. начал работать в области теории функций, в которой он написал основополагающие труды по теории меры, теории интеграла, теории множеств. На этом основании К. - основатель советской школы теории вероятностей - выстроил известную “систему К. аксиоматического обоснования теории вероятностей” (1933), теории марковских случайных процессов с непрерывным временем, стационарных случайных процессов, процессов со стационарными приращениями и ветвящихся процессов. В более поздних работах К. разрабатывал теории функционального анализа, дифференциальных уравнений, топологии и математической логики. Дальнейшие работы К. внесли определяющий вклад в развитие кибернетики, теории алгоритмов и теории информации. В 1959 К. в предисловии к книге У.Р.Эшби “Введение в кибернетику” писал: “... Кибернетика занимается изучением систем любой природы, способных воспринимать, хранить и перерабатывать информацию и использовать ее для управления и регулирования. При этом кибернетика широко пользуется математическим методом и стремится к получению конкретных специальных результатов, позволяющих как анализировать такого рода системы (восстанавливать их устройство на основании опыта обращения с ними), так и синтезировать их (рассчитывать схемы систем, способных осуществлять заданные действия). Благодаря этому своему конкретному характеру, кибернетика ни в какой мере не сводится к философскому обсуждению природы “целесообразности” в машинах и философскому анализу изучаемого ею круга явлений ...”. К. писал: “... с точки зрения кибернетики, конкретная материальная природа хранящих, передающих или перерабатывающих информацию элементов кибернетической системы, как и количество затрачиваемой на их работу энергии, являются подчиненными обстоятельствами. В процессе эволюции живых организмов возникли тончайшие механизмы хранения огромного количества информации в ничтожных объемах памяти (например, механизм наследственности, сохраняющий в одной клетке весь запас видовых признаков взрослой организма), а также механизмы, способные воспринимать и перерабатывать огромное количество новой информации с ничтожной затратой энергии (например, механизмы памяти и мышления в коре головного мозга) ... Регулирующие механизмы второго порядка, которые накапливают информацию о результатах деятельности того или иного управляющего или регулирующего механизма первого порядка, способны использовать эту информацию для целесообразного изменения устройства и способа действий этого механизма первого порядка. Классическим образцом такого регулирования второго порядка является механизм выработки условных рефлексов. Над системой уже установившихся, выработанных рефлексов, т.е. связей между внешними раздражителями и реакциями организма, здесь господствует механизм выработки новых рефлексов. Входными сигналами для этого механизма являются “подкрепления”, получаемого в случае соответствия реакции нуждам организма, и “торможения” - в случае несоответствия ...”. В работах над фундаментальными проблемами кибернетики К. не усматривал “... никаких принципиальных ограничений в кибернетическом подходе к проблеме жизни ...” и полагал, что возможно “... анализировать жизнь во всей ее полноте, в том числе и человеческое сознание со всей его сложностью, методами кибернетики ... Отрицание и неприятие этих идей /т.е. принципиальной возможности создания полноценных живых существ, построенных полностью на дискретно-цифровых механизмах переработки информации и управления – С.С./ проистекают из нежелания признать, что человек является действительно сложной материальной системой, но системой конечной сложности и весьма ограниченного совершенства и поэтому доступной имитации. Это обстоятельство многим кажется унизительным и страшным. Даже воспринимая эту идею, люди не хотят мириться с ней, такая картина всеобъемлющего проникновения в тайны человека, вплоть до возможности, так сказать, “закодировать его” и “передать по телеграфу” в другое место, кажется им отталкивающей и пугающей ... Мне представляется важным понимание того, что ничего унизительного и страшного нет в стремлении постичь себя до конца. Такие настроения могут возникать лишь из полузнания ...”. В своем докладе “Автоматы и жизнь” К. говорил также и о том, что данное Ф.Энгельсом определение жизни как особой формы существования белковых тел оказалось правильным только в случае развития конкретных форм жизни на Земле. В свете возможности встречи с “формами движения материи”, обладающими свойствами “мыслящих существ”, возникает необходимость “... более общего определения жизни ...”. Пределы возможной замены части функций человеческого мышления работой компьютера (в направлении работ по созданию кибернетического разума (искусственного интеллекта)) К. ограничивал тем, что “... любая строго ограниченная и формально описанная область мыслительной деятельности может быть передана машинам. Принципиальное отличие работы машины от челоовеческого мышления состоит не в существовании каких-либо особенно тонких и сложных отдельных операций, выполняемых человеческим мозгом и не могущих быть автоматизированными и переданными машинами, а в том, что машины выполняют лишь вспомогательные операции в соответствии с целями, поставленными человеком ...”. Созданные К. в 1960-е такие новые направления в математике, как алгоритмическая теория вероятностей и алгоритмическая теория информации имеют в своих основаниях комбинаторику, теорию вероятностей, теорию алгоритмов и теорию информации, опирающиеся на категории “сложность”, “случайность”, “закономерность”. К. выделял комбинаторный, вероятностный и алгоритмический подходы к введению основных категорий теории информации. При чисто комбинаторном подходе, например, “... количество информации, сообщаемой при указании определенного элемента в множестве из N объектов, принимается равным двоичному логарифму N. ...”. Развитый К. еще в 1950-е вероятностный подход позволил дать общее определение энтропии динамической системы, что позволило в эргодической теории, например, решить фундаментальную проблему метрической классификации динамических систем, “... т.е. проблемы отыскания полного набора инвариантов, влекущих метрический изоморфизм динамических систем ...”. (При этом энтропия динамической системы по К. оказалась “... принципиально новым инвариантом, позволившим “расщепить” динамические системы (со счетно-кратным лебеговским спектром) на континуум инвариантных подклассов с различными значениями энтропии, и, следовательно, метрически неизоморфных между собой ...”). В докладе “Теория передачи информации” (1956, на сессии АН СССР) К. изложил базисные идеи вероятностной теории информации и очертил границы ее применения. В рамках алгоритмического подхода в основание алгоритмической теории информации (также называемой колмогоровской или алгоритмической сложностью) К. заложил меру “сложности” рассматриваемых объектов. К. показал, что “... для двоичной последовательности, состоящей из нулей и единиц можно многими различными способами вводить меру “сложности” ..., хотя, по-видимому, трудно при этом избежать и некоторого произвола ...”. При помощи теории алгоритмов возможно “... ограничить этот произвол, определив сложность почти инвариантно (замена одного способа описания на другой приводит лишь к добавлению ограниченного слагаемого) ...”. К. писал, что “... 1) основные понятия теории информации должны и могут быть основаны без обращения к теории вероятностей, и так, что понятия “энтропия” и “количество информации” оказываются применимыми к индивидуальным объектам; 2) введенные таким образом понятия теории информации могут лечь в основу новой концепции случайного, соответствующей естественной мысли о том, что случайное есть отсутствие закономерного ... Реальное истолкование вероятностных результатов всегда статистическое, и оценки ошибок, получающихся при применении вероятностных результатов к конечным объектам, значительно грубее, чем в развиваемом нами изложении теории информации ...”. “... Вполне традиционно представление, что “случайность” состоит в отсутствии “закономерности”. Но, по-видимому, только сейчас возникла возможность основать точные формулировки условий применимости к реальным явлениям результатов математической теории вероятностей непосредственно на этой простой идее. Любые результаты наблюдений могут быть запротоколированы в виде конечной, хотя иногда и весьма длинной записи. Поэтому, когда говорят об отсутствии в результатах наблюдений закономерности, имеют в виду лишь отсутствие достаточно простой закономерности. ... Если ... мы пришли к выводу, что последовательность результатов ... испытаний нее допускает полного описания в приемлемой для нас в отношении сложности форме, то мы скажем, что эта последовательность разве что лишь частично закономерна, отчасти же “случайна”. Но это еще не та “случайность”, которая нужна для применения выводов теории вероятностей. Применяя теорию вероятностей, мы не ограничиваемся отрицанием закономерности, а делаем из гипотез о случайности наблюдаемых явлений определенные положительные выводы. ...”. Наряду с “простой колмогоровской энтропией индивидуального объекта A” (т.е. его “сложностью”) К. вводил “условную энтропию объекта B при известном объекте A” и “информацию об объекте B, содержащуюся в объекте A”. К. пришел к следующим выводам: “... 1) Теория информации должна предшествовать теории вероятностей, а не опираться на нее. Основы теории информации имеют по самому существу этой дисциплины финитный комбинаторный характер. 2) Применения теории вероятностей могут получить единообразное обоснование. Дело идет всегда о следствиях гипотез о возможности теми или иными указанными средствами сократить сложность описания изучаемых объектов. Естественно, что такой подход к делу не мешает тому, чтобы теория вероятностей как часть математики развивалась как специализация общей теории меры. 3) Понятия теории информации в применении к бесконечным последовательностям дают повод к весьма интересным исследованиям, которые не будучи необходимыми в качестве основ теории вероятностей, могут получить некоторое значение в исследовании алгоритмической стороны математики в целом. ...”. К. также принадлежат работы по теории стрельбы, статистическим методам контроля качества продукции, математическим моделям в области биологии и лингвистики. См. также: Кибернетика, Информация.

С.В.Силков

Hosted by uCoz