leblon: (Default)
[personal profile] leblon
Решил почитать про resource theory, одно потянулось за другим, и так я дошел до демона Максвелла и машины Сциларда. С ними вроде все понятно, но вот позднейшая интерпретация Чарли Беннеттом в терминах информации меня смутила.

Напомню, что за демон Максвелла такой (не путать с демоном Лапласа). У нас коробка с перегородкой, в ней дверца, которая делит коробку на левую и правую половины. Справа и слева молекулы газа. Когда молекула подлетает справа, демон открывает дверцу и пропускает молекулу налево, а потом закрывает дверцу. Когда молекулы подлетают слева, дверца остается закрытой. Через некоторое время все молекулы будут слева. Энтропия газа при этом уменьшилась, что противоречит второму началу термодинамики. Как же так, спрашивает Максвелл?

Лео Сцилард, который вместе с Ферми запатентовал ядерный реактор, опубликовал в 1929 году статью,  где сделал следующий шаг . Допустим у нас всего одна молекула, но мы не знаем, слева или справа. Если бы мы знали, то заменив перегородку движущимся пистоном мы могли бы позволить молекуле давить на пистон и двигать его в нужную нам сторону. Т.е. извлекать работу из энергии окружающей среды (вечный двигатель второго рода). Если мы не знаем, где молекула, то так не сделаешь: если ошибешься, то работа получится отрицательной, так, что в среднем получится нулевая работа. Но давайте спросим демона Максвелла. С его подсказки мы сможем заставить молекулу сделать полезную работу. Потом вставим перегородку-пистон обратно и опять спросим демона. И так далее.  Мы получили вечный двигатель второго рода. Т.е. информация превращается в полезную работу. Второе начало надо поправлять. Но как? Может, для измерения положения молекулы надо совершать работу, так что второе начало на самом деле работает как надо?

В 1961 Рольф Ландауэр предложил, что стирание одного бита информации увеличивает энтропию на kT log 2. Т.е. дело не в том, что измерение требует работы, а в том, что после каждого цикла мы должны стирать информацию о том, где была молекула в этот раз. Если это учесть, то машина Сциларда не нарушает второго начала. 

Чарли Беннетт в 1982 году в обзоре "Thermodynamics of computation" сделал, казалось бы, логичный вывод. Информация - это ресурс, который позволяет нам извлекать полезную работу из окружающей среды, Например, если некто дал мне случайную последовательность битов, то это не позволяет мне извлечь полезную работу. А если некто дал мне последовательность битов, кодирующую поэму Омара Хайяма "The Moving Finger Writes; and having Writ...", то я смогу извлечь из нее полезную работу. Как? Ну, если мы используем машину Сциларда для кодирования одного бита (молекула слева это 0, молекула справа это 1), то можно считать, что некто дал мне несколько машин Сциларда, причем в первом случае я не знаю, где там молекулы, а во втором - знаю. 

Но тут я уже чувствую, что меня обманывают. Если мне дали два закрытых конверта и сказали, что в первом из них бумага с последовательностью 10 нулей, а во втором - бумага с последовательностью 10 случайных битов, то почему первый конверт ценнее чем второй?

(no subject)

Date: 2019-06-09 02:47 am (UTC)
chaource: (Default)
From: [personal profile] chaource
Я всегда считалъ, что утвержденiя о якобы "физическомъ смыслѣ информацiи" - это обманъ. Информацiя - это эпифеноменъ, это наше описанiе знанiй о ситуацiи, это не можетъ быть эквивалентно какому-либо термодинамическому потенцiалу. Нельзя сдѣлать "сосудъ съ информацiей", нельзя сдѣлать машину, которая вырабатываетъ или наоборотъ поглощаетъ чистую информацiю и на выходѣ даетъ энергiю. То, что энтропiя связана съ информацiей, это артефактъ нашаго описанiя термодинамической системы. Наше описанiе системы можетъ быть очень грубымъ или очень детальнымъ, но сама система ничего не знаетъ о нашемъ описанiи и не содержитъ информацiи (а энтропiю содержитъ).

Если намъ даютъ 10 машинъ Сциларда и 10 битовъ информацiи, то да, мы можемъ извлечь работу изъ этихъ машинъ. Но это эквивалентно тому, что намъ дали 10 машинъ, про которыя уже извѣстно, что они будутъ давать на выходѣ работу (т.е. намъ дали 10 правильно налаженныхъ тепловыхъ машинъ). Биты информацiи - это часть инструкцiй о томъ, какъ правильно работать съ машиной. Фактически, это часть механизма самой машины, эти биты можно встроить въ саму машину какъ часть ея механизма. Выдѣлять эти биты какъ нѣкую отдѣльную физическую сущность невѣрно, для этой величины (10 битъ) нѣтъ физическихъ уравненiй, а это значитъ, что информацiя лишена физическаго смысла.

Такъ же безсмысленно было бы выдѣлять "информацiонную часть" изъ любой тепловой машины. Разсмотримъ любую тепловую машину, - ее можно запускать въ разныхъ режимахъ и въ разныхъ направленiяхъ цикла. Тепловая машина будетъ правильно работать, только если ее будутъ запускать въ правильныхъ режимахъ. Мы можемъ формально объявить, что направленiе цикла - это "одинъ битъ информацiи", и что другiе параметры тепловой машины тоже содержатъ какiе-то дополнительные "биты информацiи". Безъ всѣхъ этихъ "битовъ информацiи" машина не работаетъ, а съ ними работаетъ. Но для этой "информацiонной части" нѣтъ отдѣльныхъ физическихъ уравненiй. Выдѣлять эту часть не помогаетъ въ разсмотрѣнiи работы машины. Эти "биты информацiи" являются частью механизма машины, безъ которой машина не работаетъ. Нельзя утверждать, что эти "биты информацiи" являются отдѣльнымъ "ресурсомъ", самимъ по себѣ цѣннымъ и содержащимъ эквивалентъ работы. Работа получается изъ машины, а не изъ битовъ информацiи.
Edited Date: 2019-06-09 02:54 am (UTC)

(no subject)

Date: 2019-06-09 08:14 am (UTC)
chaource: (Default)
From: [personal profile] chaource
Откуда следует, что физика это нечто большее, чем наше описание ситуации?
Слѣдуетъ изъ того, что въ данномъ случаѣ есть много разныхъ описанiй ситуацiи, но одна физика (термодинамика). Напримѣръ, энтропiя это мѣра того, насколько далека система отъ теплового равновѣсiя. Формула S = -k log N, насколько я помню, говоритъ о количествѣ состоянiй, въ которыхъ система можетъ находиться, не мѣняя макросостоянiя. N опредѣляется динамикой системы и не зависитъ отъ нашихъ знанiй о конкретномъ состоянiи системы. Постоянная k тоже не зависитъ отъ нашихъ знанiй о системѣ, она измѣряется объективно. dS = dQ/T тоже. Нигдѣ не видно "информацiи" какъ какой-либо субстанцiи.

Эти законы вѣрны, конечно, лишь статистически и иногда (рѣдко) нарушаются, энтропiя флуктуируетъ и уменьшается, но потомъ возвращается обратно.

Ты упускаешь из виду, что все машины и их описания работают только "в среднем".
Не думаю, что это важно. Если намъ дана микроскопическая информацiя о машинѣ, и мы можемъ ей воспользоваться, это значитъ, что машина не является больше статистической, т.е. у насъ есть болѣе точный рычагъ для работы съ машиной, чѣмъ обычно. Ну и что? Гдѣ тутъ особая "субстанцiя информацiи"? Не вижу разницы съ моимъ примѣромъ, когда чисто тепловая машина (безъ демоновъ) тоже несетъ якобы "биты информацiи", безъ которыхъ она не выдаетъ работу. А если запускать тепловую машину со случайными параметрами, т.е. безъ "битовъ", то въ среднемъ никакой работы не извлечешь.

Странно говорить о субъективномъ характерѣ температуры, энергiи, работы. Мы на этомъ субъективномъ характерѣ дома, корабли и самолеты строимъ...

Ну, можно постулировать, что стиранiе одного бита требуетъ якобы kT log 2 энтропiи. Это значитъ, и какое-то ненулевое количество энергiи. Но это опять-таки побочный эффектъ ограниченности нашихъ знанiй о микросостоянiи. Когда микросостоянiе становится ближе къ равновѣроятно выбранному, чѣмъ было раньше, то мы видимъ, что "потеряли" информацiю о микросостоянiи. Но тамъ нѣтъ никакого особаго физическаго процесса "стиранiя информацiи", который бы отличался отъ другихъ процессовъ и для котораго мы бы писали отдѣльное какое-то уравненiе. Это просто была флуктуацiя, которая вернулась обратно въ равновѣсiе. При этомъ можетъ выдѣляться энергiя, и можно вычислить, сколько именно. Ну и что, гдѣ здѣсь "физика информацiи", не вижу.

Предположимъ, что у насъ есть газъ въ какомъ-то очень необычномъ микросостоянiи, и мы объ этомъ знаемъ. Зная это, можно извлечь изъ газа дополнительную работу. Не зная этого, - нельзя. Ну и что? Чѣмъ это отличается отъ ситуацiи, когда у меня есть кредитная карточка, но я забылъ кодъ, и поэтому не могу извлечь деньги? Не вижу необходимости вводить новую и невидимую особую сущность подъ названiемъ "физическая информацiя".
Edited Date: 2019-06-09 08:15 am (UTC)

(no subject)

Date: 2019-06-09 05:59 pm (UTC)
chaource: (Default)
From: [personal profile] chaource
Тогда я бы сказалъ, что "физика информацiи" - это просто такiя завлекательныя слова для саморекламы, типа "синергетики". Сама по себѣ информацiя "какъ таковая", "просто 100 битъ информацiи" намъ не нужны, нужна информацiя о конкретныхъ физическихъ системахъ или тепловыхъ машинахъ, и эта информацiя неотдѣлима отъ механизма и инструкцiй по работѣ съ этими системами.

"Информацiя физична" - получается, это просто философская игра словъ. Мы можемъ формулировать законы физики въ терминахъ величинъ и распредѣленiй вѣроятности для исходовъ при заданныхъ распредѣленiяхъ начальныхъ данныхъ, а можно въ терминахъ "knowledge of persons", но это игра словъ. Лучше обходиться безъ лишнихъ понятiй.

Еще, я думаю, было-бы полезно разсмотрѣть случай "мезосистемы", напримѣръ, когда газъ состоитъ из 10 частицъ, а тепловой резервуаръ вокругъ газа - изъ 20 слабо связанныхъ линейныхъ осцилляторовъ. Тогда можно въ принципѣ построить тепловую машину, но одновременно можно и смотрѣть на индивидуальныя частицы. Думаю, сразу можно будетъ убѣдиться въ объективности энтропiи, а также въ ея вѣроятностномъ характерѣ. Также, можно попробовать въ явномъ видѣ написать гамильтонiанъ для демона Максвелла или убѣдиться, что это невозможно. (Я думаю, это будетъ невозможно.)
Edited Date: 2019-06-10 03:00 am (UTC)

(no subject)

Date: 2019-06-09 08:27 am (UTC)
chaource: (Default)
From: [personal profile] chaource
Простой вопросъ. Субъективна-ли энтропiя? Предположимъ, ты знаешь, что система имѣетъ N равновѣроятныхъ микросостоянiй, тогда ея энтропiя S = - k log N. Теперь предположимъ, что я уже забылъ физику и больше не знаю числа N. Мое субъективное мнѣнiе сегодня - у системы лишь одно состоянiе. Означаетъ-ли это, что "для меня" энтропiя этой системы равна нулю, а "для тебя" не нулю? Означаетъ-ли это, что я не смогу извлечь изъ системы работу, сколько ни буду пыхтѣть, а ты легко сможешь?

(no subject)

Date: 2019-06-09 06:11 pm (UTC)
chaource: (Default)
From: [personal profile] chaource
Для любой (пусть классической) физической величины X, можно всегда сформулировать вопросъ о томъ, знаетъ-ли наблюдатель точно значенiе Х или только распредѣленiе вѣроятности p(Х). Можно задавать вопросы, - какiя измѣренiя даютъ значенiе Х и съ какой точностью, сколько нужно энергiи для такихъ измѣренiй и т.д. Можно спросить, какая вѣроятность, что случайно выбранная изъ p(X) траекторiя машины будетъ выдавать энергiю на выходѣ. Никакой особой "физической субъективности" здѣсь не возникаетъ, - или если она возникаетъ, то тогда сразу и одинаковымъ образомъ для всѣй физики, что безполезно въ смыслѣ полученiя нѣкой "физической сущности информацiи".

Напримѣръ, очевидно, изъ закона сохраненiя энергiи, что если есть нѣкая машина, изъ которой можно извлечь энергiю только если запустить машину съ правильными параметрами, и если нѣкiй физическiй процессъ начинаетъ съ одинаковаго состоянiя и случайно порождаетъ 100 машинъ, то нахожденiе подходящихъ параметровъ для этихъ 100 машинъ должно тоже стоить намъ нѣкоей минимальной энергiи, - иначе мы могли бы запустить процессъ по кругу и систематически нарушать законъ сохраненiя энергiи. Для того, чтобы это установить, не нужна концепцiя "физической информацiи" и не нужно постулировать новую "информацiонную физику", гдѣ каждый битъ информацiи волшебнымъ образомъ требуетъ минимумъ столько-то энергiи для своего полученiя или уничтоженiя. Это лишнiя сущности, теорiя уже все объяснила безъ нихъ.
Edited Date: 2019-06-09 06:13 pm (UTC)

(no subject)

Date: 2019-06-09 03:03 am (UTC)
juan_gandhi: (Default)
From: [personal profile] juan_gandhi
О блин. Задача на размышление.

(no subject)

Date: 2019-06-18 07:04 pm (UTC)
From: [personal profile] nighteagleowl
Время - это направление протекания большинства статистически необратимых процессов (два состояния - вот целая чашка, а вот разбитая; осколки сами не собираются - поэтому разбитая чашка по-определению это "позже", а "целая" - раньше). Поэтому как только энтропия замкнутой системы стала со временем уменьшаться - это значит время сменило направление на противоположное, а закон остается верен.

Иначе нужно сначала дать такое определение времени, что независит от термодинамики и статистики и энтропии.

Profile

leblon: (Default)
leblon

January 2026

S M T W T F S
    123
45678910
11 121314151617
18 192021222324
25262728293031

Style Credit

Expand Cut Tags

No cut tags
Page generated Feb. 12th, 2026 09:30 pm
Powered by Dreamwidth Studios