Причинность в квантовой телепортации - page 6

Причинная связь между
A
и
B
соответствует неравенству
i
A
|
B
6
=
6
=
i
B
|
A
. С использованием теоремы Шеннона о максимальной скорости
передачи информации между
A
и
B
можно получить минимальные
времена для передачи информации от
A
к
B
и от
B
к
A
. Оказывается,
что в течение любого периода времени следствие получает от причины
больше информации, чем причина получает от следствия. В итоге
вводим скорость необратимого потока информации
c
2
(обозначение
соответствует обозначению, принятому в работе [7], где изначально,
но в менее строгих терминах, вводился псевдоскаляр хода времени с
похожим смыслом):
C
2
(
A, B
) =
k
1
i
A
|
B
1
i
B
|
A
i
A
|
B
i
B
|
A
, k
= 1
.
(1)
Вводим формальное определение причинной связи:
A
— причина,
а
B
— следствие, если
c
2
(
A, B
)
>
0
. Отсутствие причинной связи
соответствует
i
A
|
B
=
i
B
|
A
и
|
c
2
(
A, B
)
| → ∞
, таким образом, чем
меньше
|
c
2
(
A, B
)
|
, тем асимметричнее система.
Основная особенность причинного анализа заключается в том, что
в нем не используется запаздывание для определения причинности.
Для классических переменных оно может быть введено как аксиома:
c
2
(
A, B
)
>
0
)
τ
A
B
>
0;
c
2
(
A, B
)
<
0
)
τ
A
B
<
0;
c
2
(
A, B
)
→ ∞ )
τ
A
B
0
,
(2)
где
τ
A
B
— запаздывание между реализациями
A
и
B
.
Дж. Крэмер впервые разделил принципы сильной и слабой причин-
ности [8]. Сильная (локальная) причинность соответствует обычному
условию запаздывания следствия по отношению к причине, описы-
ваемому выражением (2). Без этой аксиомы имеем дело со слабой
причинностью, которая соответствует лишь нелокальным корреляци-
ям и подразумевает возможность передачи информации в обратном
времени. Будем использовать нарушение выражения (2) в квантовой
телепортации для обнаружения подобных сигналов и увидим, что они
могут переносить лишь случайную информацию (таким образом, су-
ществование “телеграфа в прошлое” по-прежнему под запретом).
Величина
c
2
обладает интересным свойством, наглядно демонстри-
рующим свой смысл. Рассмотрим множество систем
A, B, C, D, E
(рис. 2), которые каким-то образом взаимодействуют друг с другом.
Для любой пары систем
X
и
Y
можно ввести величину взаимной
информации
I
(
X, Y
) =
S
(
X
) +
S
(
Y
)
S
(
XY
)
как меру общей кор-
реляции между ними. Величина взаимной информации симметрична
ISSN 1812-3368. Вестник МГТУ им. Н.Э. Баумана. Сер. “Естественные науки”. 2014. № 6
29
1,2,3,4,5 7,8,9,10,11,12,13
Powered by FlippingBook