-
Владимир Аристов
На какие вопросы отвечает теория Больцмана и какова была её судьба? Легко ли утверждались кинетические представления о веществе в физике? Какую роль в науке сыграло статистическое понятие энтропии? Наконец, что может предложить теория Больцмана сегодня? Об уравнении Больцмана, полемике Больцмана с Махом и современных приложениях кинетической теории рассказывает доктор физико-математических наук, сотрудник Вычислительного центра РАН Владимир Аристов.
-
Анатолий Вершик
В 1958 году в Докладах Академии Наук вышла заметка А. Н. Колмогорова об энтропии как новом инварианте преобразований, сохраняющих меру. Вместе с двумя более ранними заметками, в которых заложены основы того, что потом было названо КАМ-теорией, эти работы полностью изменили облик и место в математике теории динамических систем. Это открытие привело серьезному прогрессу в нескольких областях математики, однако, как ни странно, некоторые идеи, близко лежащие к колмогоровским, не были развиты и даже замечены. Энтропия является одним из целой серии инвариантов, которые возникают при рассмотрении динамики метрических пространств с мерой. Изучение динамики метрик полезно и в других вопросах комбинаторики и теории случайных процессов.
-

Энтропия. Пожалуй, это одно из самых сложных для понимания понятий, с которым вы можете встретиться в курсе физики, по крайней мере если говорить о физике классической. Мало кто из выпускников физических факультетов может объяснить, что это такое. Большинство проблем с пониманием энтропии, однако, можно снять, если понять одну вещь. Энтропия качественно отличается от других термодинамических величин: таких как давление, объём или внутренняя энергия, потому что является свойством не системы, а того, как мы эту систему рассматриваем. К сожалению в курсе термодинамики её обычно рассматривают наравне с другими термодинамическими функциями, что усугубляет непонимание.
-
Владимир Тихомиров
Энтропия — мера неопределённости, мера хаоса. В естественных науках это мера беспорядка системы, состоящей из многих элементов; в теории информации — мера неопределённости какого-либо опыта, процесса или испытания, которые могут иметь разные исходы (а значит, мера количества информации); в математике — мера сложности объекта или процесса. Понятие энтропии было впервые введено в 1865 году Р. Клаузиусом в термодинамике, К. Шенноном в теории информации в 1949 г., в теории стохастичпеских процессов Колмогоровым, Гельфандом и Яглом в 1956 г., в функциональном анализе и теории динамических систем Колмогоровым в 1956–1958 гг. Между мирами полной детерминированности, изучаемой классическим анализом и миром хаоса, изучаемым теорией вероятностей, ныне перекидывается мост, который связан с понятием энтропии.
-
Гордей Лесовик
Некоторое время назад мы с группой соавторов начали выводить второй закон термодинамики с точки зрения квантовой механики. Например, в одной из его формулировок, гласящей, что энтропия замкнутой системы не убывает, типично растет, а иногда остается постоянной, если система энергетически изолирована. Используя известные результаты квантовой теории информации, мы вывели некоторые условия, при которых это утверждение справедливо. Неожиданно выяснилось, что эти условия не совпадают с условием энергетической изолированности систем.
-
Владимир Буданов, Александр Панов, Карима Нигматулина-Мащицкая
На грани безумия
В обыденном окружении чаще всего призывают к целесообразности мыслей, поступков, решений. И, кстати, синонимы целесообразности звучат как «уместность, полезность и рациональность…» Вот только на интуитивном уровне кажется — чего-то не хватает. Энтропии? Беспорядка? Так его полно в физическом мире — утверждает ведущая программы, доктор физико-математических наук, Карима Нигматулина-Мащицкая. А гости программы пытались воссоединить в единое целое два понятия — энтропию и целесообразность. Участники программы: доктор философских наук, кандидат физико-математических наук, Владимир Буданов, и доктор физико-математических наук, Александр Панов.
-
Сергей Рубин, Владимир Буданов, Алексей Семихатов
На грани безумия

Энтропия — термин, которые слышали многие, а вот дать точное объяснение не каждому удастся. И в этом нет ничего удивительного, ведь наши познания о том, что нас окружает, как правило, очень поверхностны. Кто-то утверждает, что это разница между идеальным и реальным процессом. Но все же больше сходятся во мнении, что это мера хаоса. Ведь с самого детства нас приучают к порядку, отсюда и наполненность нашего мира флуктуациями и бифуркациями. Так к чему может привести война с энтропией? И нужна ли она вообще? Ведь если бы не хаос, сам мир бы не произошел…
-

Возникновение сложного из простого — это, казалось бы, злостное нарушение второго закона термодинамики. Второй закон требует постепенного выравнивания градиентов, разупорядочивания элементов и увеличения энтропии в системе. Тем не менее жизнь так специально устроена, чтобы поддерживать градиенты, упорядочивать элементы и уменьшать энтропию. Эти принципы справедливы как для одного организма, так и для целых экосистем, биот, эволюционных последовательностей. Значит ли это, что жизнь действительно противоречит законам физики?
-
Николай Чурсин
Для того чтобы применить математические средства для изучения информации, потребовалось отвлечься от смысла, содержания информации. Этот подход был общим для упомянутых нами исследователей, так как чистая математика оперирует с количественными соотношениями, не вдаваясь в физическую природу тех объектов, за которыми стоят соотношения.
-
Валерий Опойцев

Исходные понятия. Полиномиальные и экспоненциальные алгоритмы. Задачи распознавания и оптимизации. Определение классов P и NP. Совпадает ли P с NP или не совпадает — вопрос на миллион долларов. Машина Тьюринга как универсальный вычислительный прибор. Опорные комбинаторные задачи: коммивояжера, клика, изоморфизм графов, паросочетание, рюкзак, целочисленное линейное программирование (ЦЛП), транспортная задача. В двух словах о непрерывной задаче линейного программирования. Теорема Кука.