Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет ivanov_petrov ([info]ivanov_petrov)
@ 2011-01-07 14:49:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Две информации
Чернавский Д.С. Синергетика и информация
http://www.i-u.ru/biblio/archive/chernavskiy_sin/
<<<1.3 Макро и микроинформация, ошибочность термодинамической трактовки информации.

Начиная с работ по классической теории информации, установилась традиция связывать информацию с термодинамической величиной - энтропией. Начало этой традиции было положено Н. Винером, увидевшем действительно бросающееся в глаза сходство формул Шеннона для количества информации I и формулы Больцмана для энтропии S. Различие в размерности устранялось выбором единиц измерения I, которое можно измерять и в энтропийных единицах.

В дальнейшем появилось слово "негоэнтропия" и утверждение: "информация есть негоэнтропия" Эти слова многократно повторялись в научных статьях, книгах и даже в учебниках. У людей, занимающихся конкретными проблемами информатики эти слова вызывали (и продолжают вызывать) недоумение и раздражение (внутренний дискомфорт), потому, что "что-то в здесь не так".
В этом разделе мы обсудим что именно "не так" и почему.

Согласно определению (Q) информация есть запомненный выбор (т.е. макроинформация).
На физическом языке "запомнить", то есть зафиксировать информацию, означает привести систему в определенное устойчивое состояние. Ясно, что таких состояний должно быть не меньше двух. Каждое из них должно быть достаточно устойчивым, в противном случае система может самопроизвольно выйти из того или иного состояния, что равносильно исчезновению информации.

Простейшая запоминающая система содержит всего два устойчивых состояния и называется триггер (переключатель). Этот элемент играет важную роль во всех информационных системах.
В электронике в качестве запоминающего триггера используют магнитные домены (размеры порядка микрон), а также электрические и светочувствительные ячейки (тоже микронных размеров).
Свойством запоминания могут обладать только макроскопические системы, состоящие из многих атомов. Запомнить что-либо, располагая одним атомом, невозможно, поскольку атом может находиться лишь в одном устойчивом (основном) состоянии. То же относится и к простейшим молекулам. Наименьшая по своим размерам самая простая система, которая может запомнить один вариант из двух возможных, это молекула, способная находиться в двух различных изомерных состояниях при условии, что спонтанный переход из одной формы в другую может происходить так редко, что его вероятностью практически можно пренебречь. Примером таких молекул могут служить оптические изомеры, обладающие "левой" или "правой" киральностью, различающейся по способности содержащих их растворов вращать вправо или влево плоскость поляризации света, пропускаемого через растворы. К таким оптическим изомерам относятся сахара и аминокислоты, содержащие десять-двадцать атомов.

Молекулярными триггерами могут служить макромолекулы (в частности, белковые молекулы), способные существовать в нескольких (по крайней мере двух) конформационных состояниях.
Системы более высокого иерархического уровня, такие как клетка, популяция, организм, мозг, разумеется, тоже могут быть запоминающими. Механизм запоминания при этом не всегда сводится к генетическому (то есть макромолекулярному). Например, клетка (в частности, нервная), способная функционировать в двух и более устойчивых состояниях, уже является запоминающим устройством. Тоже можно сказать о популяции и организме. Механизм запоминания в нервных сетях (в частности, в мозге) имеет свои особенности, которые мы обсудим позже.

Важную роль играет время запоминания. В устойчивых динамических системах оно формально бесконечно. Переключить триггер из одного состояния в другое можно лишь за счет стороннего сигнала, что равносильно рецепции (см. выше). В реальности возможно спонтанное переключение (т.е. забывание исходного состояния) за счет случайных флюктуаций. Вероятность спонтанного переключения в единицу времени зависит от величины флюктуаций и высоты барьера F# между состояниями. В термодинамически равновесных (по микроскопическим степеням свободы) условиях эта вероятность равна:



Где: 10 13 сек-1 - частота тепловых флюктуаций. Время запоминания Т= 1/W. При F# порядка 1.5 эВ время Т= 3•10 5 лет, что практически можно считать бесконечным.
Мы остановились на этом столь подробно, чтобы продемонстрировать:
Во-первых, макроинформация может содержаться только в макрообъектах.
Во-вторых, граница между макро и микро объектами проходит на уровне макомолекул, размеры которых порядка нанометров (10-9 метра или 10-7 сантиметра). Современная наноэлектроника подбирается к этой границе.

Наряду с макроинформацией выше упоминалось о микроинформации, которой соответствует выбор принципиально не запоминаемой. Примером последнего может служить выбор одного микросостояния идеального газа в состоянии термодинамического равновесия. Выбор микросостояния означает, что нам удалось в определенный момент времени t изменить координаты и скорости всех молекул с определенной точностью. Разумеется, это возможно лишь умозрительно, но и в этом случае выбранное состояние тут же (за время t~10-13 сек) , будет забыто, то есть сменится другим микросостоянием, выбранным по закону случая. Это свойство - забывать предыдущее микросостояние - является фундаментальным для эргодических систем. в которых средние по времени совпадают со средними по ансамблю. Именно оно понимается под словами "молекулярный хаос" и именно оно лежит в основе термодинамики.

Количество микроинформации в данном примере велико, согласно (1.3) оно равно:
Imicro=log2n=-log2W, (1.5)

где, nmicro число микросостояний , W=1/nmicro - вероятность случайно выбрать какое-либо одно из них. Количество макроинформации в том же примере, напротив мало; именно Imаcro= log2 nmаcro = 0, поскольку макросостояние равновесного газа единственно, то есть nmаcro = 1.
Разумеется, макроинформация не может быть ни ценной ни смысловой и вообще не может использоваться, как информация в реальной жизни. Тем не менее она широко обсуждается и является источником многих недоразумений.
Причину тому следующий:

Во-первых, формула (1.5) следующая из формулы Шеннона, очень похожа на формулу Больцмана для энтропии
S= л ln W (1.6)
Где k=1,38 10-23 Дж/град. - постоянная Больцмана.
Поэтому микроинформация и энтропия пропорциональны друг другу:

(1.7)

В действительности формула (1.7) представляет собой связь между энтропией и микроинформационной емкостью (или "тарой"), поскольку сравниваются энтропия до измерения (S(t)) и количество микроинформации после измерения I(t+t).
Можно , (только умозрительно) оценить энтропию сразу после измерения, то есть до того как наблюденное состояние разрушится (т.е. в течение t @ 10-13 сек). С точки зрения термодинамики нахождение макросистемы в одном микросостоянии - колоссальная флюктуация. Энтропия ее много меньше равновесной энтропии S (до измерения). Именно:
S(t+t)=k ln W(t1t+t) (1.8)

где W(t1t+t) - условная вероятность того, что в момент t+t будет наблюдено то же макросостояние, которое реализовалась в момент t. Ясно, что W(t1t+t)=1 и S(t+t)=0.
Отсюда следует, что в результате измерения энергия уменьшалась на величину
DS=S(t+t)-S(t)=-S(t)
Количество информации до измерения, когда выбор еще не сделан Imicro(t)=0 , поэтому прирост количества макроинформации D Imicro=+ Imicro
Отсюда делается вывод:


(1.9)

Интерпретация выражения (1.9) такова: при увеличении информации о системе ее энтропия уменьшается. Отсюда же происходит крылатое выражение "информация есть негоэнтропия".
Во-вторых микроинформацию и энтропию связывает еще "демон" Максвелла.

Демон впервые появился более ста лет тому назад (в 1871 г.) в книге К. Максвелла "Теория теплоты", как парадокс, демонстрирующий возможность нарушения второго начала термодинамики.
Напомним суть дела. Имеются два сосуда с газом при исходно одинаковой абсолютной температуре Т. Они разделены перегородкой, в которой имеется отверстие с заслонкой. Заслонкой управляет "демон", он фиксирует скорости и в одну сторону пропускает только быстрые молекулы, а в другую - только медленные. В результате через некоторое время в одном сосуде температура повышается, а в другом - понижается. Таким образом, тепло переходит от холодного тела к более теплому без совершения работы (на первый взгляд) - второе начало нарушается и энтропия уменьшается.
Разрешение парадокса было предложено известным физиком, много сделавшем дл развития теории конденсированных сред, Леоном Бриллюеном . Он показал, что даже демон бесплатно ничего не делает (так уж устроен наш мир). Для фиксации скорости молекулы, т.е. получению информации, демону нужно заплатить энергией, не меньшей, чем энергия теплового кванта kT (при комнатной температуре Т=300оК, kT= 0,025 эВ). Энергия kT/1,44 - минимальная цена одного бита микроинформации (1,44 - коэффициент перехода от натуральных логарифмов к двоичным). После этого стало ясно, что демон совершает работу и как раз такую, которая необходима для охлаждения одого тела и нагревания другого. По существу любой домашний холодильник работает как демон и за это тоже нужно платить.

При этом демон получает информацию равную уменьшению энтропии. Так возникло утверждение: "информация есть негоэнтропия". Приставку "микро" при этом по недосмотру опустили, а зря, поскольку именно это привело к серьезным недоразумениям.

Разрешение парадокса всегда вдохновляет. Поэтому среди физиков - последователей Бриллюена - демон и слово "негоэнтропия", как синоним информации, стали часто употребляться - возник миф о негоэнтропии.

Справедливости ради, следует заметить, что Бриллюэн различал свободную информацию (не давая ей, к сожалению, четкого определения) и связанную информацию, возникающую, когда возможные случаи "могут быть представлены как микросостояния физической системы". И далее: "Только связанная информация будет представляться связанной с энтропией". Отсюда ясно, что, во-первых, на деле Бриллюэн не приписывал любой информации свойства негэнтропии, а во-вторых, ограничивал свое рассмотрение только той частью информации, которая связана с микросостояниями. Так что к недоразумению привели не сам Бриллюен, а его эпигоны.

После этих разъяснений формализм Бриллюэна выглядит очень просто и результаты расчетов соответствуют (1,9).

Реально ни физического, ни информационного содержания термин "негэнтропия" не имеет (он от "демона"). Что же касается той информации, которой занимался Бриллюэн, то сам он называл ее "связанной"; в отечественной литературе принят термин "микроинформация".
Микроинформация существенно отличается от макроинформации, поскольку она не имеет важного для информации свойства фиксируемости, ибо незапоминаема.

Макроинформация существенно отличается от микроинформации не только качественно, но и количественно. Это ясно, если вернуться от энтропийных к обычным единицам измерения информации - битам.
Iмикро = - (DS/k)log2e = - 1,44 DS/k (1.12)
Iмикро - огромное число, ибо k = 1,38 Ч10-23 Дж/К (DS < 0) ,
Iмaкро << - (DS/k)log2e
Причина этого неравенства в том, что запоминание - процесс макроскопический и диссипативный, он сопровождается большим изменением энтропии.

Количественное различие ясно из следующих соображений.

Формула (1.3) справедлива как для микро-, так и для макроинформации, но существенно различны числа возможных вариантов n . В случае макроинформации n - число устойчивых состояний системы, оно, как правило, невелико. В случае микроинформации n - полное число микросостояний, (неустойчивых, то есть микроскопических) - оно огромно.

Яркий пример тому приведен в книге Блюменфельда "проблемы Биофизики" [25]. Показано, что вся информация, заключенная в человеке (включая ДНК, белки, а также мысли, как тайные, так и явные), будучи выраженной в энтропийных единицах, соответствует энтропии испарения одного пол-литра кипяченой воды (на самом деле, не так уж важно, чего именно)
Всякий раз, когда в акте творчества создается новая ценная информация, мы имеем дело с макроинформацией. Из книг, лекций, природы мы рецептируем макроинформацию. Вообще в реальной жизни, в частности, в биологии всегда используется макроинформация, которую мы в предыдущих и в последующих разделах называем просто информацией.

Любое изменение макроинформации, увеличение или уменьшение, сопровождается ростом энтропии, что естественно, поскольку эти процессы необратимы. Количественной связи между изменениями макроинформации и физической энтропии не существует. Энергетическая цена макроинформации, конечно, существует, она определяется энергией, диссипирующей в процессе запоминания и зависит от конкретных условий, в частности от времени на которое информацию нужно запомнить, то есть от свойств ячейки памяти. Эта энергия, приходящаяся на один бит информации, заведомо (и много) больше кТ/1,44 - энергии одного бита микроинформации.

Таким образом, слово негоэнтропия - появилось в результате непониманя роли условия запоминания информации. Слово негоэнтропия - пример условной информации, которая в действительности не ускорила, а, напротив, затруднило исследование информационных процессов, то есть оказалась на деле дезинформацией. Именно от этого предостерегал Шеннон, слова которого мы уже приводили выше.

В заключение раздела обсудим ещё одно недоразумение, связанное с понятием "порядок". Часто можно встретить утверждение о том. что информация - мера упорядоченности, оно фигурирует даже в коллекции определений.

Это утверждение воспринимается как объективное (безусловное). На самом деле требуется уточнить. какая именно информация (ценная или нет, условная или безусловная) имеется в виду. Надо уточнить также, что понимается под словом "порядок". Без этих уточнений утверждение теряет смысл.

В действительности в приведенном утверждении неявно предполагается, что информация ценная, но в этом случае она наверняка условная, ибо зависит от цели.

Понятие "порядок" тоже целесообразно. Так, если цель - прогноз, то упорядоченными следует считать системы, развивающиеся устойчиво и допускающие предсказание результатов. Именно в этом смысле в физике хаотические системы считаются беспорядочными и энтропия здесь выступает как мера беспорядка.

В более общем случае, когда преследуются иные цели, меняется и смысл слова "порядок".
Для иллюстрации приведем пример из жизни.

Пусть некто (писатель или ученый) пишет книгу. Для этой цели он расположил материалы в определенном порядке: рукопись - на столе, черновики - под столом, статьи и книги - на стуле и диване. В кабинет входит жена и приходит в ужас, поскольку у неё другие цели и другое представление о порядке. Представьте, что ученый отлучился на время, а когда вернулся жена встретила его радостными словами: "я, наконец-то навела порядок в твоем кабинете". Представить состояние ученого в этот момент уже не трудно.

Из этого примера следует, что порядок - понятие условное в той же мере, как и ценная информация.
Утверждение: "Ценная информация есть мера условного порядка" имеет четкий смысл, оно правильно и. более того, банально. Отсюда ясно, что искать объективную меру объективного порядка бессмысленно, ни того, ни другого просто не существует.
В действительности проблема порядка и хаоса имеет много аспектов и к ней мы ещё вернемся в гл. 7.
В заключение главы отметим, что:
Все (или почти все) определения, приведенные в "коллекции" имеют смысл и относятся к разным сторонам информационного процесса.
Объединить эти определения, увидеть общую картину информационного процесса и понять суть феномена информации позволяет теория динамических систем, или, что то же, синергетика.
Это не случайно, развивающиеся сложные системы имеют много аспектов. В гуманитарных науках это свойство предстоит как многоликий образ - термин яркий эмоциональный, метафорический, но не четкий. В синергетике то же предстоит вполне конкретно, как мультистационарность [27] или, что то же, многовариантность [34], многомодальность [35], В синергетике эти понятия формулируются четко и конструктивно, так, что с ними можно работать>>>

<<< в фундаментальных законах классической и квантовой физики время входит обратимо, так, что замена скоростей частиц на обратные эквивалентна повороту стрелы времени (т.е. замене t ® - t). Иными словами, в гамильтоновых системах явление необратимости не может иметь места.
В науке этот вопрос возник в очень острой форме на рубеже XIX и XX столетий. История вопроса поучительна и трагична. Людвиг Больцман был первым, кто попытался решить эту проблему. Он поставил цель: "вывести" законы термодинамики из уравнений Ньютона. Для этого рассмотрел систему из многих шаров, движущихся по ограниченной плоскости (биллиард Больцмана) и упруго соударяющихся друг с другом. Проведя, казалось бы, естественное усреднение, Больцман получил результаты, носящие его имя:

(1) закон возрастания энтропии (так называемая Н-теорема Больцмана),
(2) соотношение между энтропией и вероятностью:
S = k ln W, (2.17)
где k = 1.38*10-16 эрг/град. - постоянная Больцмана и W - вероятность застать систему в определенном состоянии, где скорости и координаты шаров имеют определенное значение,
Эти результаты вошли в "золотой фонд" современной физики. Вместе с тем корректность расчетов Больцмана вызвала сомнение. Друг и постоянный оппонент Больцмана - математик Цермелло - возразил: изначальные уравнения симметричны во времени, а результат (возрастание энтропии) явно не симметричен. Такого не может быть, если все промежуточные вычисления математически корректны; следовательно, где-то допущена ошибка.

Больцман не смог ответить и застрелился.
Следующим был замечательный физик Эренфест. Он сформулировал проблему максимально четко, но ответа дать не смог и застрелился. Идея ответа была найдена молодым физиком Н.С. Крыловым в 1948 г [15]; он вскоре умер.

В нашем изложении эта история выглядит трагикомически. В действительности решение покончить с жизнью человек принимает в состоянии эмоциональной неуравновешенности и неустойчивости. Искать непосредственную причину такого выбора бессмысленно. Важен другой вопрос: какие обстоятельства привели человека в неустойчивое состояние?

Что касается Людвига Больцмана ответ ясен. В научной среде его результаты встретили серьезное сопротивление. Попросту. он был подвергнут травле. В этом принимали участие не только друг Больцмана Цермелло (со стороны друзей это, как раз, часто случается), но и крупные, казалось бы объективные, ученые. Так, Пуанкаре "открыто рекомендовал не изучать труды Больцмана. поскольку они противоречили его, Пуанкаре, выводам" (цитируется по [9]). Удивительно и поучительно почему Пуанкаре, один из основоположников теории устойчивости, не смог понять результатов Больцмана и связать их с неустойчивостью (что впоследствии сделал Н.С. Крылов). Дело в том. что для Пуанкаре (как и для многих представителей французской школы математиков) принцип детерминизма был святыней. Он не мог даже допустить мысли о возможной ревизии понятий "причина" и "следствие". Этот эпизод - пример тому, как даже великий ум, будучи в плену сложившихся представлений, не может оценить значение своих же собственных результатов.
Что касается Эренфеста, то здесь дело в другом. Главной причиной самоубийства, повидимому, послужили трагические обстоятельства семейного плана. Хотя. и в этом случае сознание неспособности решить поставленную задачу, возможно, играло важную роль.

Что касается Н.С. Крылова, то его ранняя кончина казалась естественной: слабое здоровье, усугубленное тяготами военных лет. Однако. и его научный путь не был усеян розами. Коллеги Н.С. Крылова отнеслись к его идее с настороженностью и поставили вопрос: Откуда берутся малые случайные возмущения? По отношению к неустойчивым процессам такой вопрос, как мы теперь знаем, не корректен и лишен смысла, однако, тогда он казался естественным. Ими же (коллегами) был подсказан ответ: случайные возмущения следуют из соотношения неопределенности (т.е. из квантовой механики). Крылов, под давление общественности. согласился с этим ответом (хотя. внутренне, повидимому, был не удовлетворен им). Вскоре выяснилось. что такой ответ не верен. поскольку в квантовой механике проблема необратимости времени стоит не менее остро. чем в классической (подробнее мы обсудим её позже). В результате в памяти физиков Н.С. Крылов остался, как человек, который пытался проблему необратимости в классике решить за счет квантовой механики, в чем был не прав. Повлияли-ли научные дискуссии на судьбу Н.С. Крылова - судить не будем, важно. что его идеи не были забыты.

Далее события развивались менее драматично. В работах Колмогорова [16], Синая и Амосова [17,18,19] идеи Крылова были оформлены математически корректно. Сейчас результаты известны как теорема Синая . Изложим суть дела.

В механике обратимость во времени означает следующее.
Пусть тело (например, шар в биллиарде Больцмана) в начальный момент (t=0) имеет координаты x0 и скорость v0 и далее движется в соответствии с законами механики. Если в момент времени t1 изменить знак скорости, то по прошествии того же времени t1 тело вернется в точку x0 и будет иметь скорость, равную - v0. (далее такой процесс будем называть обратимым). Этот результат связан с инвариантностью уравнений по отношению к инверсии времени (о чем уже шла речь выше). Это же свойство обеспечивает сохранение энергии в классической механике.
Если такую процедуру провести со всеми шарами биллиарда Больцмана, то все они вернутся на исходные места (хотя и будут иметь противоположные скорости).

В частности, если вначале (t=0) все шары были сконцентрированы в малой части доступного пространства, то после описанной процедуры они должны собраться там же.
Этот результат означает, что энтропии начального и конечного состояний должны быть одинаковы и, следовательно, энтропия в динамических процессах не может возрастать (что и составляло суть возражений Цермелло).

Ясно, с другой стороны, что молекулы газа ведут себя иначе и никогда не собираются обратно. При расширении газа энтропия возрастает и не может затем уменьшиться, даже если изменить знаки скоростей.

В чем здесь дело? Утверждать, что уравнения движения механики не применимы к шарам нельзя; траектории шаров должны им подчиняться (и реально подчиняются).

Для решения парадокса было привлечено понятие устойчивости; в этом и заключалась идея Крылова.
… Рассмотрим ансамбль аналогичных систем, в которых начальные условия отличаются, но слабо. В фазовом пространстве он представляется группой изображающих точек, которые в начале находятся в малой области e ( e - мера различия начальных условий). Окружим область всюду выпуклой поверхностью (как это показано на рис 2.7а). С течением времени в силу глобальной неустойчивости точки будут разбегаться друг от друга и в конце концов равномерно и случайно заполнят все доступное пространство. Выберем промежуточный момент времени и снова окружим все точки всюду выпуклой поверхностью. Объм окруженной области Г(t) будет больше начального Г(0) и с течением времени будет возрастать, пока не охватит все пространство. Величина S , равная:

(2.22)
называется энтропией Синая. (Здесь: Г0 - элементарная ячейка фазового пространства, в классической физике эта величина условна, в квантовой механике она ограничена соотношением неопределенности и равна Г0 = h3n , где h - постоянная Планка и n - число частиц) Рост энтропии связан просто с увеличением фазового объема Г(t), обусловленного глобальной неустойчивостью.
Системы с такими свойствами называются эргодическими. Свойство эргодичности лежит в основе современной термодинамики. Ранее оно вводилось постулативно и называлось эргодической гипотезой (или гипотезой о микрохаосе ), которую теперь можно считать не гипотезой, а следствием теоремы Синая.

В случае, когда выпуклая поверхность заменена плоской (т.е. R®Ґ), число Ляпунова согласно (6) равно нулю, то есть система устойчива. Абсолютная величина импульса px сохраняется при любом соударении. Изображающая точка движется только в двух плоскостях: px = +px(0) и px =-px(0), и перескакивает с одной на другую при отражениях от стенок "а" и"b". Плоскость (x,y) заполняется траекторией равномерно, но не хаотично.

Ансамбль изображающих точек не расплывается, так что энтропия Синая со временем не возрастает. Такая система не является эргодической.

В связи с этим уместно упомянуть еще об одном парадоксе классической механики.
Согласно теореме Лиувилля объем области, занятой ансамблем в динамических гамильтоновых системах не может изменяться со временем. Это утверждение справедливо по отношению к устойчивым системам, где изображающие точки не разбегаются.

При глобальной неустойчивости возникает вопрос , что понимать под "объемом области". Например, можно окружить ансамбль точек не всюду выпуклой поверхностью так, что объем внутренней области будет сохраняться даже в случае разбегания точек, так, как это показано на рис. 2.7б При этом теорема Лиувилля формально соблюдается, однако вычислить вероятность нахождения системы в данной точке фазового пространства невозможно. При построении лиувиллевского объема фазовое пространство оказывается сильно расслоенным, так, что толщина слоёв меньше. чем обратный гугол Введение всюду выпуклой поверхности равносильно сглаживанию, то есть замене изрезанной функции её средним значением. При этом вероятности нахождения системы в любой точке, окруженной выпуклой оболочкой, одинаковы. Это позволяет перейти от динамического описания эргодических систем к статистическому.

Таким образом, подход Синая можно рассматривать как пример конструктивного использования понятия "обратный гугол".

Можно показать, что в случае термодинамически равновесного идеального газа (содержащего много частиц (т.е. "шаров")) энтропия Синая совпадает с энтропией Больцмана, то есть с физической энтропией. Действительно, термодинамически равновесное состояние представляет собой совокупность микросостояний, каждое из которых неустойчиво и через короткое время заменяется другим. При этом величина Г(t) в (2.22) равна Гmax т.е. максимально доступному фазовому объему. Вероятность обнаружить систему в каком либо одном микросостоянии (т.е. величина W в (2.17)) равна отношению: Гmax / Г0 . Откуда следует, что выражения (2.17) и (2.22) в этом случае совпадают.

С механической точки зрения равновесное макросостояние вообще не является состоянием, и описывать его в терминах механики бессмысленно. Однако, средние характеристики его со временем не изменяются, то есть стационарны и устойчивы. К таковым относятся: средняя кинетическая энергия частиц (температура), средний импульс, передаваемый в единицу времени единице поверхности при соударениях со стенкой (давление) и усредненное по ансамблю распределение частиц по энергиям. Это распределение было получено Больцманом. Вывод его можно найти во многих руководствах (см. например, [20]).

Энтропия в свете изложенного представляет собой не более чем удобную, хотя и условную, меру вероятности. В принципе можно было бы вообще обойтись без этого понятия и оперировать вероятностями. Однако это неудобно, поскольку вероятности, как правило, очень малы (меньше чем обратный "гугол" , а энтропия (в силу логарифмической зависимости ) выражается разумным числом). Утверждение о том, что энтропия может только увеличиваться, означает, что в глобально неустойчивых процессах изображающие точки разбегаются друг от друга независимо от того, рассматриваем ли мы процесс в прямом или обратном направлении времени.
В заключение уместно сделать ряд замечаний.

i) Эргодичность является следствием глобальной неустойчивости, возникающей при взаимодействии частиц, но не связана с числом частиц.

Действительно, в биллиарде Синая имеется только одна частица, и ее траектория с течением времени равномерно заполняет все доступное фазовое пространство (т.е. система эргодична). В биллиарде Больцмана достаточно нескольких шаров для того, чтобы (в силу неустойчивости их соударений) заполнить все доступное фазовое пространство. При этом распределение их по энергиям подчиняется закону Больцмана.

С другой стороны, в системах, содержащих много частиц, но движущихся устойчиво, эргодичность не имеет места. Примером может служить солнечная система, в которой имеются десятки тел (планет, спутников и т.д.), поведение которых отнюдь не хаотично.
Мы остановились на этом, поскольку во многих руководствах утверждается, что большое число частиц является необходимым и достаточным условием эргодичности, что в свете изложенного, неверно.

ii) В задачах Больцмана и Синая рассмотрены взаимодействия с так называемым "жестким кором". Принято, что взаимодействие отсутствует, если расстояние между шарами больше двух радиусов шаров. Сближение шаров на расстояние, меньшее удвоенного радиуса, исключается. Такому взаимодействию соответствует потенциал в виде бесконечной стенки на расстоянии двух радиусов. При этом параметр - радиус взаимодействия - имеет четкий смысл. При взаимодействии реальных частиц (атомов и/или молекул) ситуация иная. На малых расстояниях преобладают силы отталкивания, на больших - притяжения. Если потенциал отталкивающих сил U(r) зависит от расстояния r достаточно резко (например, U(r)"1/rn , n >2), то можно ввести "эффективный радиус", и в этом случае результаты Синая сохраняются.

Если же имеет место дальнодействие (то есть потенциал U(r)"1/r), то эффективный радиус становится бесконечным (R®Ґ). Тогда, согласно (6), число l стремится к нулю , то есть движение частиц устойчиво по Ляпунову .

Гравитационные силы являются дальнодействующими, что и объясняет отсутствие хаоса в планетарной системе. Электрические силы также являются дальнодействующими. Поэтому электронно-ионная плазма, строго говоря, не является эргодической системой. Она не является и динамической, поскольку при взаимодействии ионов присутствуют помимо электростатических другие, короткодействующие силы. Поэтому электронно-ионная плазма, практически, не бывает термодинамически равновесной.

Столь подробное рассмотрение сделано с целью подчеркнуть, что термодинамическое равновесие реализуется отнюдь не всегда, а только в глобально неустойчивых системах (или подсистемах).
iii) Устойчивость макроскопических состояний и неустойчивость микроскопических связаны друг с другом. Действительно, условием устойчивости макросостояний является затухание флуктуаций. С другой стороны, любое микросостояние - это флуктуация на фоне макросостояния. Затухание флуктуации означает разрушение микросостояния, что происходит за счет его неустойчивости.
Таким образом, глобальная неустойчивость микросостояний (микроскопический хаос) оказывается необходимым условием макропорядка.

iv) В эргодических системах неустойчивы движения как в прямом, так и в обратном направлении. Это значит, что при обращении знака времени изображающая точка не вернется в исходное положение, а будет "дрейфовать" в фазовом пространстве так, как, если бы знак времени не был изменен. Иными словами, повернуть процесс вспять (или, что то же, изменить знак времени) в глобально неустойчивых системах невозможно.

Это замечание связано с проблемой "стрелы времени". Суть проблемы в следующем. В физике, благодаря успехам теории относительности, принято думать, что пространственные координаты и время в значительной мере равноправны .

С другой стороны, обратимость в пространстве возможна (всегда можно вернуться в исходную точку пространства), но обратимость во времени невозможна (помолодеть нельзя).
Отличие связано со свойством неустойчивости, которое характеризует нарастание отклонений со временем.

v) В рассмотренных системах (задача Больцмана, биллиард Синая) все числа Ляпунова одинаковы (точнее одного порядка). В реальных (в частности, открытых ) системах это не так.
Число показателей Ляпунова равно числу динамических переменных и очень велико. Среди них имеются как положительные, так и отрицательные. Можно преобразовать динамические переменные (ввести так называемое конфигурационное фазовое пространство) так, что в определенной части нового фазового пространства движения будут устойчивы, а в другой части - глобально неустойчивы. Точнее: изображающая точка в многомерном фазовом пространстве всегда движется по одной траектории. Речь идет о том, что проекция этой траектории на первое подпространство устойчива, а проекция на второе - неустойчива. Тогда в первом подпространстве можно (и нужно) использовать законы механики, а во втором - термодинамики.

В макроскопических машинах (например, паровых) разделение фазового пространства на динамическую и статистическую части очевидно: в котле - термодинамика, в механической части (поршень, рычаги и т.п.) - механика. Поэтому вопрос о критериях разделения был не актуален и долгое время вообще не обсуждался. В молекулярных конструкциях (т.е. в биологических "машинах") такое разделение не тривиально и вопрос о критериях актуален [12]. Из изложенного следует, что таким критерием должно служить наличие (или отсутствие) глобальной неустойчивости. >>>
__________________________________________

Книга Чернавского очень славится – многие с нее воду пьют и поклоняются в минуты роковые. Многие другие даже не слышали – едва фамилию вспомнят, а так – не читали. Не было нужды. Третьи читали и остались в неприязни. Поскольку редко бывает, чтобы о книге такого стиля были столь разные мнения, мне было бы интересно узнать, в чем тут фокус. То есть с виду это популярная книга и человек разъясняет для неграмотных понятные профессионалам очень общие понятия. Разумеется, упрощая и огрубляя. Но я слышал, вроде бы, что иные профессионалы очень против и даже кушать не хотят. По этим вопросам есть серьезные разногласия среди профессионалов? Или что-то со стилем изложения? Короче – как следует непрофессионалу относиться к этой блестяще написанной и очень популярной книге Чернавского – верить, не верить, цитировать, бояться, ненавидеть, скрываться, не читать, держать под рукой, не открывая?


(Добавить комментарий)


[info]turchin@lj
2011-01-07 10:18 (ссылка)
возможная причина самоубийства больцмана - осознание идеи о так называемых больцмановских мозгах - то есть что каждывй человек не существует на самом деле, а лишь на миг возникает в термодинамическом хаосе.
http://ru.wikipedia.org/wiki/Больцмановский_мозг

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2011-01-07 11:04 (ссылка)
надо же. что людей расстраивает.

(Ответить) (Уровень выше)


[info]zweipatronen@lj
2011-01-07 12:01 (ссылка)
Зачем романтизировать и фантазировать? Всё гораздо прозаичнее и в то же время сложнее…

(Ответить) (Уровень выше)


[info]levyi_botinok@lj
2011-01-07 10:39 (ссылка)
Скопированный Вами текст нечитабелен. Формулы либо искажены до неузнаваемости, либо исходно были написаны от фонаря.
Аналогия информации и энтропии (имхо) - курьезное, но притянутое за уши наблюден Шеннона.
Приведенный текст Чернавского любопытен с точки зрения истории науки, но представляется опасным для неспециалистов, поскольку некоторые вовсе неочевидные (или неверные) положения даются безаппеляционно.
Например, неравновесность ионно-электронной плазмы (различие ионной и электронной температур)связана с "химией" (ионизацией-рекомбинацией), а не с дальнодействием кулоновских сил.
Вопрос о "неустойчивости" в биллиардных моделях решается (имхо) именно через квантовую неопределенность. Сознаюсь, отстаю безнадежно от современных трактовок с декогеренциями, но в копенгагенской классике время обращалось при описании состояния системы, но не при том, что принято было называть "коллапсом" или "измерением".

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2011-01-07 11:04 (ссылка)
там наверху ссылка на электронный текст - чтобы не с моим копированием. Можно посмотреть подробнее

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]levyi_botinok@lj
2011-01-07 11:20 (ссылка)
Глянул. Вы не виноваты. :) Такая же ерунда в первоисточнике.
Читать желания нет. Повторюсь, считаю связь физической теории энтропии и теории информации по Шеннону поверхностной и надуманной.
Теория информации создается преимущественно для задач уплотнения и архивации с минимальными потерями. Максимально уплотненная информация неотличима от хаоса. Для того, чтобы этот хаос рассматривался, как информация, к нему должны прилагаться две существенные компоненты: "словарик", и "ключ архивации".
Некоторые "программисты" увлекаясь начинают создавать параллельную физику, называя информацией нечто отличное от общепринятого, существующее независимо от субъекта, определяемое через энтропию.
Всвязи со сменой тренда "героических профессий" от физиков к программистам, идеи Шеннона и Чернавского получают широкое хождение. Следует в обязательном порядке давать программистам статфизику и термодинамику. :)

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]immortaz@lj
2011-01-09 09:28 (ссылка)
проще говоря информация существует ТОЛЬКО в изофункциональной кибернетической системе. имея только носитель нельзя сказать что там есть информация или ее нет.

А всякие макро- и микро- ... как на счет спинтроники например ? Или атомновесовое кодирование ...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]levyi_botinok@lj
2011-01-09 17:40 (ссылка)
Как у Вас просто. Две строчки - а мы думай полчаса: есть ли понимание оппонента?
:)
С "изофункциональной кибернетической системой" Гугл оказался таким же профаном, как и я... Насчет "только носителя" - почти согласен (сам говорил про необходимость словарика и ключа архивации). Только существуют варианты без архивации и с "лобовым и несокрушимым" словариком. Например - визуальным изображением объектов. Такие и засылают во все концы космоса забитыми в двумерную матрицу (количество битов - произведение двух простых, чтобы растр рисунка однозначно задать).
То есть, не возражая против "изофункциональности", поскольку не понимаю, о чем речь, повторю довольно очевидное - информация без воспринимающего ее субъекта не имеет смысла. Субъект выделяет понятия и отношения между ними, выражает их символами (языком). Для связи символа и понятия нужен "словарик". Без него любой вариант набора символов информацией не обладает.
Можно назвать информацией нечто, определяемое через энтропию. Но ничего кроме затруднения понимания вполне развитых представлений об энтропии это не внесет (имхо).
Про спинтронику и квантовые компьютеры будем говорить, когда (если) они будут реализованы.
Неопределенность и необратимость в природе, вроде как, существуют. С какой стороны к ним подходить, называть ли их "микро" - вопрос дефиниций.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]immortaz@lj
2011-01-11 06:08 (ссылка)
помимо "словарика и ключа архивации" необходимы еще и медиа-конвертер (глаз), система многоуровнегвого кодирования, целый "стек протоколов" (семиотика, прагматика, семантика... итд для образов для текстов еще и орфография, пуктуация),
несколько системы кодирования внутри процессингового устройства (коды нервных импульсов, нейронные коды, коды ансамблей и функциональных систем (если речь о мозге) и всякие протоколы общения с контроллерами, микрословари и микрокоды (в машине Тьюринга). Говоря только о словаре и ключе вы исключаете из процесса обработки информации человека (или устройство которое ее обрабатывает) а точнее исключаете часть "информации" как киб. системы, без которой ее не существует в физическом мире.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]levyi_botinok@lj
2011-01-11 06:56 (ссылка)
Я думаю, Вы излишне загромождаете определение. Практически все, что Вы перечислили, можно разложить на две кучки относящиеся к "словарику" и к "правилам преобразования-архивации-шифровки".
Словарик - то, что обеспечивает соответствие объективных понятий "существующих худо бедно вне и независимо" символам, воспринимаемым субъектом посредством чего-либо (глаза, уха, тактильно, через посредство тунельного микроскопа - как угодно). Он же "для простоты" включает правила языка ибо разделяется это с трудом. Говоря о словаре, я по определению не могу исключать субъекта, воспринимающего информацию, поскольку словарик есть оператор соответствия между реальным миром и отображением его мозгами субъекта. :)
Про киб. систему намекните на определение, коли настойчиво используете этот термин.

(Ответить) (Уровень выше)


[info]gouriev@lj
2011-01-09 18:23 (ссылка)
> Повторюсь, считаю связь физической теории энтропии и теории информации по Шеннону поверхностной и надуманной.

Мне кажется, Чернавский именно об этом и пишет ?

> Теория информации создается преимущественно для задач уплотнения и архивации с минимальными потерями.

Во времена Шеннона никакой архивации не было. Он рассматривал проблемы передачи данных.
Вы пишете "создается" - имеете в виду современные работы ?

Мммм... не знаю, можно ли это отнести к "теории информации",
возможно, правильнее - к "теории кодирования", но значительная
часть работ посвящена не сжатию информации, а, наоборот,
избыточному кодированию в целях большей надежности, помехоустойчивости.

> Для того, чтобы этот хаос рассматривался, как информация, к нему должны прилагаться две существенные компоненты: "словарик", и "ключ архивации".

Давайте уж сразу правду матку:
информация является информацией только при наличии способа ее интерпретации, и - далее - воспринимающего субъекта.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]levyi_botinok@lj
2011-01-09 19:50 (ссылка)
Архивация, видимо, не очень удачный термин. Давайте заменим на "преобразование".
Допускаю, что Вам виднее, что именно относить к "теории информации" - я в этой области не работаю.
А по сути Вашего замечания... Мне показалось, что Чернавский не отказывается от энтропийной трактовки информации, а "идет дальше" - пытается обосновать ее на некоем "более глубоком" уже не математическом, а скорее философском уровне. Он разбирает, как мне показалось старый парадокс несовместимости вполне детерминированной механики и термодинамики с ее неравновесными процессами. Я не берусь судить, кто круче Чернавский или Больцман. (На мой вкус, философски проблема решается через квантовый индетерминизм). Я таки сторонник "домашнего" определения информации, над которым Вы подтруниваете. А энтропия - пусть будет энтропией, вероятности состояний - вероятностями состояний.
http://ivanov-petrov.livejournal.com/1595781.html?thread=79776133#t79776133

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]immortaz@lj
2011-01-11 06:14 (ссылка)
"Давайте уж сразу правду матку: информация является информацией только при наличии способа ее интерпретации, и - далее - воспринимающего субъекта."

Правильно, кибернетической системы. Воспринимающий субъект (если вы о человеке) - необязательная часть такой системы. Любая компьютерная подойдет. Восприятие - это по сути сравнение со "словарем", который тоже м.б. нескольких, втч нечетких, типов.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]levyi_botinok@lj
2011-01-11 07:08 (ссылка)
Вы правы про необязательность человека. Но не нужно забывать, что компьютерные сети забиты человеческими словарями и понятиями. Сами "кибернетические системы" взаимодействуют с окружающим миром весьма примитивно, и собственный словарь - "набор понятий и команд" у них весьма примитивен.

(Ответить) (Уровень выше)


[info]cosmonaut_ok@lj
2011-01-07 11:55 (ссылка)
На самом деле, вы во многом не правы.

>Аналогия информации и энтропии (имхо) - курьезное, но притянутое за уши наблюден Шеннона.
А, на самом деле, энтропия - это более широкое понятие, чем термодинамическая энтропия. Хотя, вообще, стояло бы говорить об ентропии Колмогорова-Синая, которая к термодинамике отношения уже не имеет, а характеризует любые динамические системы.

>неравновесность ионно-электронной плазмы (различие ионной и электронной температур)связана с "химией" (ионизацией-рекомбинацией), а не с дальнодействием кулоновских сил.
Вот эта самая неравновесность, связанная с кулоновскими силами, грубо говоря, и не позволяет построить адекватные термоядерные реакторы. Видимо, имелась в виду высокотемпературная плазма, где уже ничего нигде не рекобинирует.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]levyi_botinok@lj
2011-01-07 13:13 (ссылка)
Согласен с тем, что понятие энтропии математиками понимается гораздо шире, нежели исходно введенное Клаузиусом. Однако, успешность расширения на "любые динамические системы" вовсе не означает успешность применения в теории информации. Больше того, определенная успешность аналогии (в информатике) порождает (имхо) неоправданные надежды философского характера. :)

Неравновесность плазмы с кулоновским дальнодействием мало связана.
Про термоядерные реакторы - это Вы как-то однозначно. Неустойчивости и неравновесность высокотемпературной плазмы создают определенные проблемы. Но они связаны с самой задачей создания бешенного градиента температуры (равновесности не может быть по определению). Для низкотемпературной же плазмы вполне применимо понятия равновесия и температуры (локальных, как минимум). И с эргодичностью там все в порядке, не смотря на Кулона. Не в порядке, когда существенны коллективные процессы. Так это не очень с кулоновским дальнодействием связано...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]cosmonaut_ok@lj
2011-01-08 20:34 (ссылка)
>успешность расширения на "любые динамические системы" вовсе не означает успешность применения в теории информации.
Информационные системы уже перестали быть динамическими? ;)

>Неустойчивости и неравновесность высокотемпературной плазмы создают определенные проблемы. Но они связаны с самой задачей создания бешенного градиента температуры
Так, чтобы было все всем понятно, давайте сначала. Коротко о ТОКАМАКах: плазма разогревается какими-то методами, в ней образовывается продольное магнитное поле, которое, собственно, и "вмораживается" в плазму, и при устойчивом состоянии, не дает вываливаться из него электронам и ионам. Короче, пучек плазмы превращается в подобие длинной тонкой нитки. Собсно, эта вся конструкция удерживается котушкой "токамака" (нитку закручивают в кольцо). Там идут ядерные реации, но в общем, конструкция - стабильна. Вот, проблема в том, что поведение электронов и ионов непресказуемо, и конструкция быстро разрушается. Собсно, основная проблемма в том, чтобы вот эту конструкцию сохранить определенное время (несколько секунд). Так что там проблеммы весьма серьезные.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]levyi_botinok@lj
2011-01-09 04:52 (ссылка)
Информационные системы - это немного из другой области. К динамическим они не имеют никакого отношения. Вы можете озвучить информационный подход к изучению динамических систем. Но это и будет то, что мне кажется излишеством.
Про термояд - очень интересно пишете. Не пробовали себя в качестве популяризатора физики плазмы? Арцимович и Райзер дружно курят в сторонке. :)

(Ответить) (Уровень выше)


[info]termometr@lj
2011-01-07 10:53 (ссылка)
То есть с виду это популярная книга и человек разъясняет для неграмотных понятные профессионалам очень общие понятия. Разумеется, упрощая и огрубляя.
***
это тоже. но не только. Познание строится на грубых моделях.
Отношение к данной (ИМХО замечательной) книге зависит от понимания слова "Грубых": робастных, устойчивых, простых, слишком_примитивных_для_меня, слишком_сложных_для меня, и т.д.

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2011-01-07 11:02 (ссылка)
http://ivanov-petrov.livejournal.com/1595781.html?thread=79727237#t79727237

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]termometr@lj
2011-01-07 11:21 (ссылка)
???

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2011-01-07 11:30 (ссылка)
ну, вроде бы у человека иное мнение

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]termometr@lj
2011-01-07 11:46 (ссылка)
без комментариеф.

(Ответить) (Уровень выше)


[info]termometr@lj
2011-01-09 17:09 (ссылка)
такое впечатление, что говоря о ДС Чернавском, каждый говорит о себе...

Замечательные он написал книги. Не только эту. (не)Понимает их каждый в меру своей испорченности.

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]yarikas@lj
2011-01-09 17:33 (ссылка)
И это опять же к вопросу об информации и контекстном поле...

Упомянутая в сабже книга обзорная (по идее, как я её понимаю). Более задачеспецифична - "Распознавание. Аутодиагностика. Мышление" с людьми из группы Гельфанда (думаю, знаете, что была такая попытка алгоритмизации врачебной практики).

А касательно информации... Корогодин, к примеру, значительно менее доступно пишет...

Ну, и в копилку размышлений (http://n-t.ru/tp/ns/pt.htm)...

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]termometr@lj
2011-01-09 18:08 (ссылка)
статью про творчество я уже раньше видел.
щаз критеги набегут.

а вы вот такую статейку видели?
http://www.pereplet.ru/nauka/Soros/pdf/9607_088.pdf

Насколько я понимаю совпадение позиций не случайно. Одна школа?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]yarikas@lj
2011-01-09 18:52 (ссылка)
Да. Школа одна. Блюм ещё успел у меня попреподавать. На каф. биофизики ФФ МГУ, одним из "отцов-основателей" коей он почитается, каждый год где-то в октябре устраивают довольно познавательные местами конференции его памяти.

Всё это одна большая тусовка физиков (школы Л.И. Мандельштама), пришедших в биологию, где тоже были свои имена (Чижевский, Кольцов, Тимофеев-Ресовский) и традиции (Четвериков)... У меня на полке стоит "Теория информации в биологии" под ред. Блюменфельда... 1960 года издания. Есть немало увлекательных документальных аудио/видеозаписей конференций 60-70-х годов - поры становления новой дисциплины (что-то видел на univertv.ru).

Также популярны "в узком круге" мероприятия (http://www.mce.su/biophys/), проводимые коллегами биофизиками биофака МГУ. Обмен информацией не прекращается несмотря на... пока...

Считается, что волну поднял Шредингер в Дублинских лекциях, изданных под названием "What is Life" в 1946-м, если не ошибаюсь, году (примечательно, что после реализации одного проекта). Но, у меня есть все основания полагать (см. фамилии выше), что традиции местной школы корнями уходят в конец века XIX. Об этом любит рассказывать С.Э. Шноль. Его книгу "Герои, злодеи и конформисты..." очень рекомендую как крайне поучительное чтиво. (Замечание Чернавского, что "наука, как и жизнь, движется силами не только и не столько героев и/или злодеев" было, судя по всему, учтено автором при переиздании :))

PS: Не упоминаю химиков, математиков и т.д., хотя все они достойны упоминания. БОльшей частью - всё ядерный и водородный проекты... Единая задача объединяет :/

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]termometr@lj
2011-01-09 19:37 (ссылка)
интересно, спасибо...

(Ответить) (Уровень выше)


[info]jfeldman77@lj
2011-01-07 11:07 (ссылка)
это книга для полупрофессионалов (профессионалов в соседних областях)
но не для любителей

(Ответить) (Ветвь дискуссии)


[info]ivanov_petrov@lj
2011-01-07 11:31 (ссылка)
То есть понимающие понимают, а непонимающим лучше держаться подальше. Понятно.

(Ответить) (Уровень выше)


[info]zweipatronen@lj
2011-01-07 12:47 (ссылка)
Порою это не так важно на фоне общего полёта мысли, и всё же, кажется, характерно — небрежности какие-то постоянно: с чего вдруг Бриллюэн разрешил демона Максвелла? Винер почему-то… фон Нейман же? запоминание только макроскопическое, это ещё почему вдруг? ну и прочие мелочи, так, сопутствующие (Больцман повесился, а не застрелился, например; вроде бы не первое издание уже, хм).
Ну ладно, придирки. Если поверх них читать, за мыслью, пожалуй, можно и последить. Но без бэкграунда можно изрядно подзасориться. Насчёт «не для любителей» — это верно, в том числе и с т.з. «истории науки».

(Ответить) (Ветвь дискуссии)


[info]109@lj
2011-01-07 17:43 (ссылка)
+1, неряшливо очень. местами неправильно, местами вроде правильно, но уверенно сказать нельзя, потому что неряшливо.

(Ответить) (Уровень выше)


[info]fe_b@lj
2011-01-07 15:01 (ссылка)
Слово 'информация' было ведено в человеческий обиход учеными совсем недавно.
В разных науках оно определялось по-разному и не является единым и определенным научным понятием.
В тоже самое время в естественном (обывательском) языке это всем очевидное и необходимое слово
и используется в гораздо более широком контексте, чем в науке.

Т.е. налицо парадокс : ученые, которые придумали информацию, не знают толком, что это такое,
а обыватели знают очень хорошо.
Все это приводит к многочисленным недоразумениям и спорам.

Подобная история происходили несколько раньше с веществом и энергией.

Информация это очень общее и универсальное понятие, есть искушение думать, что весь мир,
все сущее - это и есть информация.
Подобное искушение было раньше относительно вещества и энергии, но со временем, по мере того, как ученые больше узнавали, что такое вещество и энергия, становилось понятно,
что эти понятия недостаточны для объяснения самых важных явлений нашего мира.
Что они не могут претендовать на роль Бога в 'редукционисткой религии'.

Теперь многие думают, что информация - это Бог. Или, что весь мир сделан из информации.
Это, конечно, неверно.

Но эта тема вызывает эмоциональный отклик в людях, независимо от того,
насколько научно мы понимаем, что такое информация.
Речь идет о борьбе веры и неверия в людских душах.
Это очень эмоционально заряженая тема.

(Ответить)

Можно прощать неряшество, нельзя прощать конъюнктуру
[info]ext_248727@lj
2011-01-08 12:19 (ссылка)
"В электронике в качестве запоминающего триггера используют магнитные домены (размеры порядка микрон)"- обман конечно, домены 10 нм

"Свойством запоминания могут обладать только макроскопические системы, состоящие из многих атомов"- опять обман, см. квантовые компьютеры использующие атомы в оптических ловушках.

Спрашивается зачем же такое нужно , а вот чтобы в нанонауки вписаться:

"Мы остановились на этом столь подробно, чтобы продемонстрировать:
Во-первых, макроинформация может содержаться только в макрообъектах.
Во-вторых, граница между макро и микро объектами проходит на уровне макомолекул, размеры которых порядка нанометров"

Книга, полагаю, может быть полезна лишь как собрание ссылок, больно уж интересна тема.

(Ответить) (Ветвь дискуссии)

Re: Можно прощать неряшество, нельзя прощать конъюнктур
[info]termometr@lj
2011-01-08 19:24 (ссылка)
"В электронике в качестве запоминающего триггера используют магнитные домены (размеры порядка микрон)"- обман конечно, домены 10 нм
***
нет обмана - устаревший пример. отмотайте по закону Мура на время написания (не издания) текста.

"Свойством запоминания могут обладать только макроскопические системы, состоящие из многих атомов"- опять обман, см. квантовые компьютеры использующие атомы в оптических ловушках.
***
Если бы некоторые умники понимали, написанное Чернавским, они бы не строили иллюзий на эту тему. Неустойчивость, вот о чем пишет Чернавский. эта неустойчивость подобных микросостояний принципиально не позволит построить тот квантовый комп., о котором мечтают большивики.

Эрго: из ложных посылок следует все, что угодно. в т.ч. ваши неуместные намеки на цели Д.С. Чернавского.

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: Можно прощать неряшество, нельзя прощать конъюнктур
[info]ext_248727@lj
2011-01-08 21:52 (ссылка)
Честно говоря, прежде чем намеки делать, я от биографии ужаснулся. Фиановский главный научный сотрудник и вдруг РАЕН. Ну, знаете, где торсионщики, петрики, фомеки, кадыровы, грабовые.

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: Можно прощать неряшество, нельзя прощать конъюнктур
[info]termometr@lj
2011-01-09 10:21 (ссылка)
прихватите паспорт и идите рубить правду-матку прямо в глаза -
http://yarikas.livejournal.com/tag/semsyn


(Ответить) (Уровень выше)

Re: Можно прощать неряшество, нельзя прощать конъюнктур
[info]yarikas@lj
2011-01-09 10:48 (ссылка)
Ваше заявление лишь говорит о том, как мало Вы знаете о науке... РАЕН изначально (при формировании) декларировало себя как альтернативу РАН, к которому довольно таки немало претензий у многих научных сотрудников; а в свои ряды, емнип, они записывают, согласия особого не спрашивая :/

Так что продолжайте дальше по надписям на заборе судить о том, что за забором - вполне в духе обывателя.

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: Можно прощать неряшество, нельзя прощать конъюнктур
[info]ext_248727@lj
2011-01-09 12:19 (ссылка)
Нынешний бизнес РАЕН - это обеспечение платного доступа к телам высшего менеджмента Газпрома и, кажется, Транснефти. Ну и вообше, торговля крутостью, типа, как Жириновский своему охраннику член-корра купил. Кстати у Малышкина хватило ума это не афишировать, когда он президентом избирался.

(Ответить) (Уровень выше) (Ветвь дискуссии)

Re: Можно прощать неряшество, нельзя прощать конъюнктур
[info]termometr@lj
2011-01-09 17:10 (ссылка)
Вы б смогли раздать 100 кг золота сотне малознакомых людей?

(Ответить) (Уровень выше)

Re: Можно прощать неряшество, нельзя прощать конъюнктур
[info]termometr@lj
2011-01-09 17:10 (ссылка)
http://ivanov-petrov.livejournal.com/1595781.html?thread=79773061#t79773061

(Ответить) (Уровень выше)

(Комментарий удалён)

[info]ivanov_petrov@lj
2011-01-09 06:27 (ссылка)
Спасибо, и Вас рад поздравить

(Ответить) (Уровень выше)


[info]vitaria@lj
2011-01-09 06:22 (ссылка)
Крутой пост! Писали бы вот только почаще вы.

(Ответить)


[info]ov4arka@lj
2011-01-10 11:35 (ссылка)
Я вообще не в курсе был всего этого. Спасибо.

(Ответить)