Решил почитать про resource theory, одно потянулось за другим, и так я дошел до демона Максвелла и машины Сциларда. С ними вроде все понятно, но вот позднейшая интерпретация Чарли Беннеттом в терминах информации меня смутила.
Напомню, что за демон Максвелла такой (не путать с демоном Лапласа). У нас коробка с перегородкой, в ней дверца, которая делит коробку на левую и правую половины. Справа и слева молекулы газа. Когда молекула подлетает справа, демон открывает дверцу и пропускает молекулу налево, а потом закрывает дверцу. Когда молекулы подлетают слева, дверца остается закрытой. Через некоторое время все молекулы будут слева. Энтропия газа при этом уменьшилась, что противоречит второму началу термодинамики. Как же так, спрашивает Максвелл?
Лео Сцилард, который вместе с Ферми запатентовал ядерный реактор, опубликовал в 1929 году статью, где сделал следующий шаг . Допустим у нас всего одна молекула, но мы не знаем, слева или справа. Если бы мы знали, то заменив перегородку движущимся пистоном мы могли бы позволить молекуле давить на пистон и двигать его в нужную нам сторону. Т.е. извлекать работу из энергии окружающей среды (вечный двигатель второго рода). Если мы не знаем, где молекула, то так не сделаешь: если ошибешься, то работа получится отрицательной, так, что в среднем получится нулевая работа. Но давайте спросим демона Максвелла. С его подсказки мы сможем заставить молекулу сделать полезную работу. Потом вставим перегородку-пистон обратно и опять спросим демона. И так далее. Мы получили вечный двигатель второго рода. Т.е. информация превращается в полезную работу. Второе начало надо поправлять. Но как? Может, для измерения положения молекулы надо совершать работу, так что второе начало на самом деле работает как надо?
В 1961 Рольф Ландауэр предложил, что стирание одного бита информации увеличивает энтропию на kT log 2. Т.е. дело не в том, что измерение требует работы, а в том, что после каждого цикла мы должны стирать информацию о том, где была молекула в этот раз. Если это учесть, то машина Сциларда не нарушает второго начала.
Чарли Беннетт в 1982 году в обзоре "Thermodynamics of computation" сделал, казалось бы, логичный вывод. Информация - это ресурс, который позволяет нам извлекать полезную работу из окружающей среды, Например, если некто дал мне случайную последовательность битов, то это не позволяет мне извлечь полезную работу. А если некто дал мне последовательность битов, кодирующую поэму Омара Хайяма "The Moving Finger Writes; and having Writ...", то я смогу извлечь из нее полезную работу. Как? Ну, если мы используем машину Сциларда для кодирования одного бита (молекула слева это 0, молекула справа это 1), то можно считать, что некто дал мне несколько машин Сциларда, причем в первом случае я не знаю, где там молекулы, а во втором - знаю.
Но тут я уже чувствую, что меня обманывают. Если мне дали два закрытых конверта и сказали, что в первом из них бумага с последовательностью 10 нулей, а во втором - бумага с последовательностью 10 случайных битов, то почему первый конверт ценнее чем второй?
Напомню, что за демон Максвелла такой (не путать с демоном Лапласа). У нас коробка с перегородкой, в ней дверца, которая делит коробку на левую и правую половины. Справа и слева молекулы газа. Когда молекула подлетает справа, демон открывает дверцу и пропускает молекулу налево, а потом закрывает дверцу. Когда молекулы подлетают слева, дверца остается закрытой. Через некоторое время все молекулы будут слева. Энтропия газа при этом уменьшилась, что противоречит второму началу термодинамики. Как же так, спрашивает Максвелл?
Лео Сцилард, который вместе с Ферми запатентовал ядерный реактор, опубликовал в 1929 году статью, где сделал следующий шаг . Допустим у нас всего одна молекула, но мы не знаем, слева или справа. Если бы мы знали, то заменив перегородку движущимся пистоном мы могли бы позволить молекуле давить на пистон и двигать его в нужную нам сторону. Т.е. извлекать работу из энергии окружающей среды (вечный двигатель второго рода). Если мы не знаем, где молекула, то так не сделаешь: если ошибешься, то работа получится отрицательной, так, что в среднем получится нулевая работа. Но давайте спросим демона Максвелла. С его подсказки мы сможем заставить молекулу сделать полезную работу. Потом вставим перегородку-пистон обратно и опять спросим демона. И так далее. Мы получили вечный двигатель второго рода. Т.е. информация превращается в полезную работу. Второе начало надо поправлять. Но как? Может, для измерения положения молекулы надо совершать работу, так что второе начало на самом деле работает как надо?
В 1961 Рольф Ландауэр предложил, что стирание одного бита информации увеличивает энтропию на kT log 2. Т.е. дело не в том, что измерение требует работы, а в том, что после каждого цикла мы должны стирать информацию о том, где была молекула в этот раз. Если это учесть, то машина Сциларда не нарушает второго начала.
Чарли Беннетт в 1982 году в обзоре "Thermodynamics of computation" сделал, казалось бы, логичный вывод. Информация - это ресурс, который позволяет нам извлекать полезную работу из окружающей среды, Например, если некто дал мне случайную последовательность битов, то это не позволяет мне извлечь полезную работу. А если некто дал мне последовательность битов, кодирующую поэму Омара Хайяма "The Moving Finger Writes; and having Writ...", то я смогу извлечь из нее полезную работу. Как? Ну, если мы используем машину Сциларда для кодирования одного бита (молекула слева это 0, молекула справа это 1), то можно считать, что некто дал мне несколько машин Сциларда, причем в первом случае я не знаю, где там молекулы, а во втором - знаю.
Но тут я уже чувствую, что меня обманывают. Если мне дали два закрытых конверта и сказали, что в первом из них бумага с последовательностью 10 нулей, а во втором - бумага с последовательностью 10 случайных битов, то почему первый конверт ценнее чем второй?
(no subject)
Date: 2019-06-09 02:47 am (UTC)Если намъ даютъ 10 машинъ Сциларда и 10 битовъ информацiи, то да, мы можемъ извлечь работу изъ этихъ машинъ. Но это эквивалентно тому, что намъ дали 10 машинъ, про которыя уже извѣстно, что они будутъ давать на выходѣ работу (т.е. намъ дали 10 правильно налаженныхъ тепловыхъ машинъ). Биты информацiи - это часть инструкцiй о томъ, какъ правильно работать съ машиной. Фактически, это часть механизма самой машины, эти биты можно встроить въ саму машину какъ часть ея механизма. Выдѣлять эти биты какъ нѣкую отдѣльную физическую сущность невѣрно, для этой величины (10 битъ) нѣтъ физическихъ уравненiй, а это значитъ, что информацiя лишена физическаго смысла.
Такъ же безсмысленно было бы выдѣлять "информацiонную часть" изъ любой тепловой машины. Разсмотримъ любую тепловую машину, - ее можно запускать въ разныхъ режимахъ и въ разныхъ направленiяхъ цикла. Тепловая машина будетъ правильно работать, только если ее будутъ запускать въ правильныхъ режимахъ. Мы можемъ формально объявить, что направленiе цикла - это "одинъ битъ информацiи", и что другiе параметры тепловой машины тоже содержатъ какiе-то дополнительные "биты информацiи". Безъ всѣхъ этихъ "битовъ информацiи" машина не работаетъ, а съ ними работаетъ. Но для этой "информацiонной части" нѣтъ отдѣльныхъ физическихъ уравненiй. Выдѣлять эту часть не помогаетъ въ разсмотрѣнiи работы машины. Эти "биты информацiи" являются частью механизма машины, безъ которой машина не работаетъ. Нельзя утверждать, что эти "биты информацiи" являются отдѣльнымъ "ресурсомъ", самимъ по себѣ цѣннымъ и содержащимъ эквивалентъ работы. Работа получается изъ машины, а не изъ битовъ информацiи.
(no subject)
Date: 2019-06-09 04:20 am (UTC)1. Откуда следует, что физика это нечто большее, чем наше описание ситуации? Еще с тех пор, как Больцман написал свою формулу S=-k log N было ясно, что энтропия это мера нашего незнания, а значит существует прямая связь между информцией и термодинамикой. Вопрос только в том, насколько далеко эта связь идет.
2. Ты упускаешь из виду, что все машины и их описания работают только "в среднем". Т.е. статистически. Макроскопическое описание это статистическое описание. Дополнительная информация о микроскопическом состоянии машины имеет другой характер. Если я знаю только макроскопичекие характеристики машины, я могу оценить снизу среднюю работу, которую я могу извлечь из нее. Если же я вдобавок знаю кое что о ее микроскопическом состоянии, я могу придумать более эффективный способ ее использовать, который "в среднем" был бы ничуть не лучше, а лучше только в конкретной ситуации.
Все упирается в субъективный характер энтропии, а значит (вполне возможно) субъективный характер и других термодинамических величин. И вообще, там, где есть вероятности, появляется и субъективность.
(no subject)
Date: 2019-06-09 08:14 am (UTC)Слѣдуетъ изъ того, что въ данномъ случаѣ есть много разныхъ описанiй ситуацiи, но одна физика (термодинамика). Напримѣръ, энтропiя это мѣра того, насколько далека система отъ теплового равновѣсiя. Формула S = -k log N, насколько я помню, говоритъ о количествѣ состоянiй, въ которыхъ система можетъ находиться, не мѣняя макросостоянiя. N опредѣляется динамикой системы и не зависитъ отъ нашихъ знанiй о конкретномъ состоянiи системы. Постоянная k тоже не зависитъ отъ нашихъ знанiй о системѣ, она измѣряется объективно. dS = dQ/T тоже. Нигдѣ не видно "информацiи" какъ какой-либо субстанцiи.
Эти законы вѣрны, конечно, лишь статистически и иногда (рѣдко) нарушаются, энтропiя флуктуируетъ и уменьшается, но потомъ возвращается обратно.
Ты упускаешь из виду, что все машины и их описания работают только "в среднем".
Не думаю, что это важно. Если намъ дана микроскопическая информацiя о машинѣ, и мы можемъ ей воспользоваться, это значитъ, что машина не является больше статистической, т.е. у насъ есть болѣе точный рычагъ для работы съ машиной, чѣмъ обычно. Ну и что? Гдѣ тутъ особая "субстанцiя информацiи"? Не вижу разницы съ моимъ примѣромъ, когда чисто тепловая машина (безъ демоновъ) тоже несетъ якобы "биты информацiи", безъ которыхъ она не выдаетъ работу. А если запускать тепловую машину со случайными параметрами, т.е. безъ "битовъ", то въ среднемъ никакой работы не извлечешь.
Странно говорить о субъективномъ характерѣ температуры, энергiи, работы. Мы на этомъ субъективномъ характерѣ дома, корабли и самолеты строимъ...
Ну, можно постулировать, что стиранiе одного бита требуетъ якобы kT log 2 энтропiи. Это значитъ, и какое-то ненулевое количество энергiи. Но это опять-таки побочный эффектъ ограниченности нашихъ знанiй о микросостоянiи. Когда микросостоянiе становится ближе къ равновѣроятно выбранному, чѣмъ было раньше, то мы видимъ, что "потеряли" информацiю о микросостоянiи. Но тамъ нѣтъ никакого особаго физическаго процесса "стиранiя информацiи", который бы отличался отъ другихъ процессовъ и для котораго мы бы писали отдѣльное какое-то уравненiе. Это просто была флуктуацiя, которая вернулась обратно въ равновѣсiе. При этомъ можетъ выдѣляться энергiя, и можно вычислить, сколько именно. Ну и что, гдѣ здѣсь "физика информацiи", не вижу.
Предположимъ, что у насъ есть газъ въ какомъ-то очень необычномъ микросостоянiи, и мы объ этомъ знаемъ. Зная это, можно извлечь изъ газа дополнительную работу. Не зная этого, - нельзя. Ну и что? Чѣмъ это отличается отъ ситуацiи, когда у меня есть кредитная карточка, но я забылъ кодъ, и поэтому не могу извлечь деньги? Не вижу необходимости вводить новую и невидимую особую сущность подъ названiемъ "физическая информацiя".
(no subject)
Date: 2019-06-09 04:23 pm (UTC)"The entropy of a thermodynamic system is a measure of the degree of ignorance of a person whose sole knowledge about its microstate
consists of the values of the macroscopic quantities Xi which define its thermodynamic state. This is a completely ‘objective’
quantity, in the sense that it is a function only of the Xi, and does not depend on anybody’s personality. There is then no reason why it cannot be measured in a laboratory." (взято тут: https://arxiv.org/abs/quant-ph/0203017 ).
Если рассматривать уравнение (на самом деле, неравенство) Клаузиуса как определение энтропии, то, конечно, понятие информации тут не фигурирует. Если же вспомнить Больцмана, то ситуация изменяется. Различие между макросостоянием и микросостоянием - это различие между тем, что мы обычно знаем о системе и тем, что в принципе могли бы узнать. Неравенство Клаузиуса перестает быть определением, а становится нетривиальным фактом: оно дает ограничение на количество полезной работы, которую можно извлечь из системы, макроскопическое состояние которой мы знаем. С этой точки зрения естественно, что дополнительная информация о микросостоянии позволяет нам нарушать это неравенство.
Пример с кредитной карточкой хороший. Мне он говорит вот что. В человеческом обществе безусловно верно, что информация - это ресурс. Ее ценность, конечно, зависит от законов человеческого общества. Например, если insider trading сурово карается, то ценность инсайдерской информации падает. Второй закон термодинамики тоже говорит нам, что информация о физическом состоянии это тоже ресурс, но в данном случае ценность ресурса никакими изменениями в законодательстве не поменять. Можно, конечно, поспорить о том, что такое физическая информация и как она отличается от просто информации. Тут, возможно, обман и происходит: все эти термодинамические соображения применимы только к информации о физических системах, а не к информации в смысле, принятом в computer science.
(no subject)
Date: 2019-06-09 05:59 pm (UTC)"Информацiя физична" - получается, это просто философская игра словъ. Мы можемъ формулировать законы физики въ терминахъ величинъ и распредѣленiй вѣроятности для исходовъ при заданныхъ распредѣленiяхъ начальныхъ данныхъ, а можно въ терминахъ "knowledge of persons", но это игра словъ. Лучше обходиться безъ лишнихъ понятiй.
Еще, я думаю, было-бы полезно разсмотрѣть случай "мезосистемы", напримѣръ, когда газъ состоитъ из 10 частицъ, а тепловой резервуаръ вокругъ газа - изъ 20 слабо связанныхъ линейныхъ осцилляторовъ. Тогда можно въ принципѣ построить тепловую машину, но одновременно можно и смотрѣть на индивидуальныя частицы. Думаю, сразу можно будетъ убѣдиться въ объективности энтропiи, а также въ ея вѣроятностномъ характерѣ. Также, можно попробовать въ явномъ видѣ написать гамильтонiанъ для демона Максвелла или убѣдиться, что это невозможно. (Я думаю, это будетъ невозможно.)
(no subject)
Date: 2019-06-09 08:27 am (UTC)(no subject)
Date: 2019-06-09 04:26 pm (UTC)(no subject)
Date: 2019-06-09 06:11 pm (UTC)Напримѣръ, очевидно, изъ закона сохраненiя энергiи, что если есть нѣкая машина, изъ которой можно извлечь энергiю только если запустить машину съ правильными параметрами, и если нѣкiй физическiй процессъ начинаетъ съ одинаковаго состоянiя и случайно порождаетъ 100 машинъ, то нахожденiе подходящихъ параметровъ для этихъ 100 машинъ должно тоже стоить намъ нѣкоей минимальной энергiи, - иначе мы могли бы запустить процессъ по кругу и систематически нарушать законъ сохраненiя энергiи. Для того, чтобы это установить, не нужна концепцiя "физической информацiи" и не нужно постулировать новую "информацiонную физику", гдѣ каждый битъ информацiи волшебнымъ образомъ требуетъ минимумъ столько-то энергiи для своего полученiя или уничтоженiя. Это лишнiя сущности, теорiя уже все объяснила безъ нихъ.
(no subject)
Date: 2019-06-09 03:03 am (UTC)(no subject)
Date: 2019-06-18 07:04 pm (UTC)Иначе нужно сначала дать такое определение времени, что независит от термодинамики и статистики и энтропии.