Если продолжить сравнение с обычным компьютером, то наше представление о привычном материальном мире — все равно что знакомство с одной программой, запущенной на Компьютере, и некоторая способность ориентироваться в ее пределах. При этом мы могли видеть лишь один результат его работы — в виде классической реальности, и изучали законы, которые справедливы в рамках лишь одной этой программы. Но теперь мы начинаем понимать Законы, по которым работают любые программы, принцип действия самого Компьютера и его операционной системы. Это законы, по которым Матрица транслирует нам то или иное восприятие. Мы выходим за рамки привычной локальной программы и замечаем множество других программ (уровней реальности), которые загружены в оперативную память вместе с нашей. Мы начинаем понимать взаимосвязь всех этих различных программ-уровней и можем более надежно прогнозировать результат перехода с одного на другой — например, то, в какую реальность попадем после смерти физического тела.
Имея дело с классической информацией, мы разделяем саму информацию и физический носитель. В результате чего можем лишь приспособить какой-либо материальный объект для хранения (передачи) определенного количества «классической» информации. Получается, что без материального носителя информация не может существовать. Поэтому и возникают иногда вопросы, где содержится квантовая информация, и что является ее носителем? В квантовой теории с этим как раз все просто и ясно: поскольку информация здесь — это физическая величина, характеризующая систему, то сама система и является носителем квантовой информации. Это все равно что спросить: а где содержится масса физического тела? Да в нем самом эта масса и содержится, поскольку является одной из количественных характеристик данного тела.
Не стоит забывать, что квантовое описание на сегодняшний день — это самое полное теоретическое описание из всех известных. И в случае чистого состояния, когда мы описываем замкнутую систему, то на вопрос, где содержится информация об этой системе, следует очевидный ответ: информация содержится в самой системе, это одна из ее количественных характеристик.
Информации в квантовой теории отводится особая роль. Как мы знаем, системы при квантовом подходе могут находиться в нелокальном состоянии, когда сам объект является попросту нематериальным, в нем нет вещества, нет никаких физических полей, его невозможно описать с помощью количественных величин, используемых классической физикой. А вот в терминах количества информации, содержащейся в такой нелокальной системе, описать можно!
Мера информации в квантовой теории определяется на основе понятия матрицы плотности. Узнать во всех подробностях, как это делается, можно из статьи Фано[89], опубликованной в журнале Reviews of Modern Physics в 1957 году.
Эта статья довольно известна. Например, А. Мессиа в своем двухтомнике по квантовой механике, когда пишет о матрице плотности[90], указывает в качестве основного источника именно эту статью Фано, правда, речь у него идет не об информации, а лишь о матрицах плотности.
Не уверен, что мера информации была введена именно в этой работе Фано, но ссылок на более ранние статьи я там не увидел. Раздел 8 данной статьи так и называется — «Мера информации», и изначально эта мера вводится очень просто: количество информации I в системе численно равна следу квадрата матрицы плотности, то есть
I = Tr(ρ2). (3.7)
Это определение легко объясняется с физической точки зрения. Согласно обычным правилам квантовой механики, любой физической величине, которую мы хотим использовать в качестве количественной характеристики системы, ставится в соответствие линейный самосопряженный оператор Q. И численное значение этой физической величины получается из выражения:
<Q> = Tr(ρ Q). (3.8)
Сравнивая с предыдущим выражением, мы видим, что меру информации можно рассматривать как количественную характеристику системы, когда физической величиной является сама система, точнее, матрица плотности, выступающая в данном случае в качестве оператора физической величины, то есть
I = <ρ> = Tr(ρ ρ).
Из этого следует, что квантовая информация является самой фундаментальной количественной характеристикой системы, поскольку для ее определения нет необходимости вводить дополнительные соображения о том, какие еще физические величины (операторы) характерны для данной системы. Квантовая информация как мера существует всегда, если есть система, независимо от того, в каком состоянии она находится. Информация сама по себе является физической сущностью и существует даже тогда, когда система находится в нелокальном состоянии, поэтому ее можно считать «первичной субстанцией», из которой в процессе декогеренции могут «проявляться» локальные объекты. «Информация физична» в прямом смысле — она является источником всех других физических процессов и материальных проявлений, которые могут иметь место в системе.
Отсюда и более высокий статус квантовой информации относительно других физических величин, которые мы могли бы дополнительно привлечь для описания системы. А поэтому выше и значимость закона сохранения квантовой информации по сравнению с другими законами сохранения (массы, энергии, импульса и т. д.), о чем уже говорилось в первой главе (заключительная часть раздела 1.2).
Мы рассмотрели, каким образом вводится мера информации, исходя из основополагающих принципов квантовой теории. При таком определении для любого чистого состояния (замкнутой системы) мера информации равна 1 (следствие нормировки амплитуд вектора состояния). Это максимальное значение — то есть для любой изолированной системы информация максимальна и равна единице. Для смешанных состояний (открытых систем) информация меньше единицы, и минимальное ее значение достигается для максимально смешанных состояний и равно 1/d, где d = 2N — размерность гильбертова пространства (N — число двухуровневых подсистем). Таким образом, количество информации, содержащейся в системе, изменяется от 1/2N для максимально смешанных состояний до 1 для чистых состояний (изолированных систем). С физической точки зрения это легко объяснить. В замкнутой системе вся информация содержится в ней самой, и нормированная ее величина равна 1. Для смешанных состояний, то есть для систем, взаимодействующих со своим окружением, часть информации о системе теряется в ее окружении. И минимум информации, который может остаться в самой системе (случай максимально смешанного состояния), определяется числом локализованных структур в системе в процессе декогеренции (напомню, что взаимодействие с окружением сопровождается декогеренцией, то есть локализацией системы и ее составных частей из изначально нелокального информационного состояния).
Однако определение (3.7) не совсем удобно в практическом плане. Для нас привычнее иметь дело с аддитивными величинами, когда информация составной системы равняется сумме частичных информаций. А согласно определению (3.7), информация не суммируется, а перемножается. Так, для двусоставной системы (в случае некоррелированного, то есть сепарабельного состояния):
IAB = Tr(ρАВ)2 = Tr(ρА)2 Tr(ρВ)2 = IA IB.
Поэтому удобнее оказалось перейти к логарифму от этой величины. Поскольку логарифм произведения равен сумме логарифмов сомножителей, получалась аддитивность. При этом ln[Tr(ρ2)] изменяется в пределах от —lnd до 0.
Из статистической механики известно, что на больших временах энтропия системы соответствует среднему значению — k lnρ, где k — постоянная Больцмана, так что согласно (3.8) имеем:
<—k lnρ> = —k Tr(ρ lnρ)