Все слышали слово «синергетика», гораздо меньше народу знает, что это относится к закономерностям развития сложных неравновесных систем, и уж совсем немногие точно представляют себе, что это такое. Из первых рук нам об этом расскажет один из адептов синергетики в России, автор физической концепции «белок — машина», биолог и физик Дмитрий Чернавский.
Цель синергетики — объединить науки точные, естественные и гуманитарные. Предмет синергетики — развивающиеся системы: физические, биологические, социальные и т.д. Развитие — это рождение новой ценной информации, в связи с чем синергетика неразрывно связана с динамической теорией информации. Метод синергетики — математическое моделирование.
В докладе обсуждаются:
* основы динамической теории информации;
* основы математического моделирования, включая бифуркации и неустойчивые процессы;
* примеры моделей и их приложения:
— Модель борьбы условных информаций. Приложения: возникновение единого генетического кода, возникновение биологической асимметрии, возникновение видов, а также возникновение больших государств и малых княжеств;
— Модели автоколебательных процессов. Приложения: модели клеточного цикла, «биологические часы» и др.;
— Модели нервного импульса;
— Модели возникновения диссипативных структур. Приложения: развитие организма (онтогенез), структуры в физике, химии и экономике.
Перечисленные модели находят применение в разных дисциплинах: физике, химии, биологии, экономике, социологии. Общность моделей для разных процессов — это и есть синергетика.
Дмитрий Сергеевич Чернавский — профессор, доктор физико-математических наук, главный научный сотрудник Физического института им П.Н. Лебедева.
Институт биоорганической химии им. академиков М.М. Шемякина и Ю.А. Овчинникова РАН.
Энтропия — мера неопределённости, мера хаоса. В естественных науках это мера беспорядка системы, состоящей из многих элементов; в теории информации — мера неопределённости какого-либо опыта, процесса или испытания, которые могут иметь разные исходы (а значит, мера количества информации); в математике — мера сложности объекта или процесса. Понятие энтропии было впервые введено в 1865 году Р. Клаузиусом в термодинамике, К. Шенноном в теории информации в 1949 г., в теории стохастичпеских процессов Колмогоровым, Гельфандом и Яглом в 1956 г., в функциональном анализе и теории динамических систем Колмогоровым в 1956–1958 гг. Между мирами полной детерминированности, изучаемой классическим анализом и миром хаоса, изучаемым теорией вероятностей, ныне перекидывается мост, который связан с понятием энтропии.
Для того чтобы применить математические средства для изучения информации, потребовалось отвлечься от смысла, содержания информации. Этот подход был общим для упомянутых нами исследователей, так как чистая математика оперирует с количественными соотношениями, не вдаваясь в физическую природу тех объектов, за которыми стоят соотношения.
При передаче и хранении информация портится (шум в телефонной трубке, ошибки жесткого диска и так далее). Чтобы восстановить исходное сообщение в систему передачи следует ввести избыточность, иными словами, передавать вместо него более длинное закодированное сообщение. Так возникает понятие корректирующего кода (кода, исправляющего ошибки). Математически это приводит к задаче упаковки шаров в конечномерном векторном пространстве над конечным полем. Эта задача, в свою очередь, оказывается в значительной части эквивалентна проблеме расположения точек в проективном пространстве “в наиболее общем положении”. Здесь уже недалеко и до алгебраической геометрии. Конструкцию кодов по алгебраической кривой нетрудно рассказать, когда эта кривая — прямая.
Профессор Джим Аль-Халили совершая экскурс в историю пытается разобраться в том, что такое энергия и информация, а так же о той значимости, которую они играют не только для человечества, но и для всей Вселенной в целом.
«Грядущим поколениям ХХ век будет памятен лишь благодаря созданию теорий относительности, квантовой механики и хаоса... теория относительности разделалась с иллюзиями Ньютона об абсолютном пространстве-времени, квантовая механика развеяла мечту о детерминизме физических событий, и, наконец, хаос развенчал Лапласову фантазию о полной предопределенности развития систем». Эти слова известного американского историка и популяризатора науки Джеймса Глейка отражают огромную важность вопроса, который лишь вкратце освещается в статье, предлагаемой вниманию читателя. Наш мир возник из хаоса. Однако если бы хаос не подчинялся своим собственным законам, если бы в нем не было особой логики, он ничего не смог бы породить.
«Кибернетика» — известная книга выдающегося американского математика Норберта Винера (1894—1964), сыгравшая большую роль в развитии современной науки и давшая имя одному из важнейших ее направлений. Настоящее русское издание является полным переводом второго американского издания, вышедшего в 1961 г. и содержащего важные дополнения к первому изданию 1948 г. Читатель также найдет в приложениях переводы некоторых статей и интервью Винера, включая последнее, данное им незадолго до смерти для журнала «Юнайтед Стэйтс Ньюс энд Уорлд Рипорт». Книга, написанная своеобразным свободным стилем, затрагивает широкий круг проблем современной науки, от сферы наук технических до сферы наук социальных и гуманитарных. В центре — проблематика поведения и воспроизведения (естественного и искусственного) сложных управляющих и информационных систем в технике, живой природе и обществе. Автор глубоко озабочен судьбой науки и ученых в современном мире и резко осуждает использование научного могущества для эксплуатации и войны.
Теория хаоса вызывает в воображении картины непредсказуемой погоды, экономических крахов и бессилия науки. Но у хаоса есть захватывающая и скрытая сторона, та, которую ученые только сейчас начинают понимать. Оказывается, что теория хаоса отвечает на вопрос, на который человечество искало ответ в течение многих тысячелетий — как мы оказались здесь? В этом документальном фильме Профессор Джим Аль-Хэлили намеревается раскрыть одну из величайших тайн науки — что движет вселенную, которая начинается как пыль и в итоге заканчивается как разумная жизнь? Как действительно создается порядок из беспорядка?
Системы искусственного интеллекта, которые могут играть в абстрактные, стратегические и настольные игры, прошли огромный путь, однако как на самом деле устроены их «мозги»?