Квантовое превосходство — это веха, которая относится к экспериментальной демонстрации, где программируемый квантовый процессор выполняет четко определенную вычислительную задачу за время, которое невыполнимо для любого известного классического компьютера. Эксперимент, о котором сообщила Google в 2019 году, проведенный на 53-кубитном сверхпроводящем процессоре под названием «Sycamore», является первой принятой демонстрацией этой вехи. Задача, которую выполнил Sycamore, часто перефразируется как «выборка из выходного распределения случайной квантовой схемы». Точная вычислительная задача, ее формальная постановка и причины, по которым она, как считается, находится вне практической досягаемости для классических машин, рассматриваются ниже пошагово.
1. Теоретическое обоснование случайной выборки цепей (RCS)
1.1 Формальное определение
Случайная квантовая схема C, действующая на n кубитов, взята из общедоступного распределения схем D. Каждая схема имеет фиксированную глубину d (число циклов вентилей) и предписанный набор вентилей; для демонстрации Sycamore d = 20 циклов, а набор вентилей состоял из произвольных однокубитных вращений и двухкубитных вентилей fSIM, расположенных на двумерной сетке. Вычислительная задача следующая:
Вход: описание схемы C ∼ D на n кубитах.
Задача: создать m независимых битовых строк s₁, …, s_m ∈ {0,1}ⁿ, совместное распределение которых ε-близко (по расстоянию полной вариации) к распределению квантового выхода P_C(z) = |⟨z|C|0ⁿ⟩|².
Требование «ε-close» запрещает тривиальные или очевидно неправильные решения, такие как вывод равномерной случайной строки. Оно явное: выходное распределение должно иметь статистическое расстояние до P_C, которое проходит указанные тесты на точность (линейный кросс-энтропийный бенчмаркинг в эксперименте Google).
1.2 Классификация сложности
Задачи выборки обычно анализируются в рамках классов сложности распределения. RCS можно сформулировать как задачу обещания в классе BQP над распределениями (BQPSamp). Важной гипотезой является то, что аппроксимация P_C к мультипликативной ошибке до 1/ poly(n) в среднем является #P-трудной. Согласно теореме Стокмейера о подсчете, эффективный классический сэмплер, который дает даже скромные мультипликативные приближения, схлопнет полиномиальную иерархию (PH) до ее третьего уровня. Постоянное предположение, что PH не схлопывается, приводит сообщество к тому, что RCS считается классически неразрешимой при больших n и d.
2. Экспериментальная реализация на сикоморе
2.1. аппаратные средства
Sycamore использует планарные сверхпроводящие трансмоновые кубиты. Каждый кубит емкостно связан с четырьмя ближайшими соседями, расположенными на полупрямоугольной решетке. Напряжение и микроволновые импульсы обеспечивают вращения одного кубита вокруг произвольных осей, в то время как настраиваемые соединители реализуют двухкубитовый запутывающий вентиль fSIM (обобщенный √iSWAP, за которым следуют члены с контролируемой фазой).
2.2.Построение схемы
Было проведено двадцать циклов, каждый из которых включал:
• Для каждого кубита однокубитное вращение параметризовано как Rz(θ₁)Rx(θ₂)Rz(θ₃). Углы были нарисованы псевдослучайно с высокоточными рациональными значениями, известными как экспериментаторам, так и проверяющим.
• В альтернативных циклах применялся шаблон вентилей fSIM между непересекающимися наборами соседних кубитов таким образом, что каждое ребро решетки активировалось дважды за 20 циклов.
Результатом является схема «высокой глубины и низкой локальности», демонстрирующая распределение Портера-Томаса выходных вероятностей.
2.3 Процедура отбора проб
После выполнения 20-цикловой схемы все 53 кубита были измерены в вычислительном базисе. Каждый запуск выдавал 53-битную двоичную строку. Последовательность экспериментальных битовых строк — это выборка из P_C.
3. Проверка правильности отбора проб
3.1. Кросс-энтропийный бенчмаркинг (XEB)
Для схем до 14 кубитов классическое моделирование все еще возможно. Google измерил линейную кросс-энтропийную точность F_XEB = (2ⁿ)〈P_C(s)〉_m − 1, где 〈·〉_m обозначает эмпирическое среднее по m выборкам. Идеальное квантовое устройство, идеально выбирающее из P_C, даст F_XEB = 1. Равномерно случайный сэмплер даст F_XEB ≈ 0. Устройство Sycamore достигло F_XEB ≈ 0.002 для полных схем из 53 кубитов, что соответствует точности затвора за цикл выше 99.9 %.
3.2 Проверка цикла среза
Усекая последние несколько циклов, команда создала более мелкие версии схем, которые по-прежнему можно было моделировать классически, и подтвердила, что XEB плавно экстраполируется с глубиной, что придает уверенность в оценках точности для эксперимента на полной глубине.
4. Классическое моделирование
4.1 Гибридный алгоритм Шредингера-Фейнмана
Собственные симуляторы Google использовали 4-петабайтные отпечатки памяти, распределенные по 512 ядрам TPU и 4096 узлам суперкомпьютера Summit, чтобы вычислить идеальные амплитуды для схем до 42 кубитов, 20 циклов. Экстраполяция использования ресурсов показала, что симуляция 53 кубитов на полной глубине потребует от нескольких дней до нескольких месяцев на существующих экзафлопсных системах и сотни петабайт оперативной памяти.
4.2. Конкурирующие симуляции (IBM, Alibaba и т. д.)
Исследователи IBM использовали стратегию сжатия тензорной сети и заявили, что то же распределение может быть отобрано примерно за 2.5 дня на Summit. Эта оценка не учитывала стоимость ввода-вывода записи терабайт амплитудных данных и опиралась на трюки с разбиением, которые не работают для схем немного большей глубины или нерегулярных схем кубитов. Последующие тесты подтвердили оценку Google о том, что прямое классическое моделирование с сопоставимой точностью заняло бы столетия на современных суперкомпьютерах, если бы проводилось наивно. Даже если настроенные алгоритмы уменьшат 10¹¹ с на два порядка, разрыв во времени выполнения остается в несколько миллионов раз по сравнению с 200-секундными часами Sycamore.
5. Почему случайная выборка цепи считается сложной
5.1. Разреженность Портера-Томаса
Выходные амплитуды хаотических квантовых цепей подчиняются экспоненциальному распределению; таким образом, незначительные изменения амплитуд существенно изменяют вероятности, делая приблизительную выборку чрезвычайно чувствительной к вычислительному шуму.
5.2. Средняя твердость корпуса
Йожа и Ван ден Нест показали, что классическое моделирование случайно нарисованной схемы из универсальных наборов вентилей в среднем так же сложно, как и моделирование самых сложных схем, предполагая свойство антиконцентрации. Ааронсон и Чен далее доказали, что мультипликативные аппроксимации амплитуд остаются #P-сложными в среднем случае для схем, демонстрирующих антиконцентрацию, чему удовлетворяет RCS.
5.3. Мелкозернистая сложность
Предполагая, что не существует 2^{αn}-временного классического алгоритма для приближенных выходных распределений на постоянной глубине за пределами 40–50 циклов, гипотеза, которая параллельна гипотезе экспоненциального времени, объясняет экспоненциальное масштабирование, наблюдаемое как в классических подходах с тензорной сетью, так и в подходах с траекторией Фейнмана.
6. Дидактический миниатюрный пример
6.1.Трехкубитовая случайная схема
Выберите глубину контура d = 2 цикла:
Цикл 1: случайные вращения одного кубита на каждом кубите с последующим вентилем CZ между q₀-q₁.
Цикл 2: новые вращения одного кубита с последующим CZ между q₁-q₂.
Классическое вычисление всех восьми амплитуд требует 2³ = 8 комплексных чисел, что тривиально для современных компьютеров. Выборка 1000 битовых строк выполняется немедленно. Для 53 кубитов нужно 2⁵³ ≈ 9×10¹⁵ амплитуд; кэширование только не пренебрежимо малых невозможно, поскольку распределение Портера-Томаса гарантирует, что большинство амплитуд лежат выше 2^{−53}. Таким образом, трехкубитная игрушка подчеркивает экспоненциальный взрыв, сохраняя при этом структуру схемы аналогичной.
6.2 Иллюстрация масштабирования тензорной сети
Сжатие решетки 3×3 поверх примера с тремя кубитами распадается на девять тензоров ранга 2; фильм до 53 кубитов на неквадратной сетке раздувает индексы и связи, с масштабированием стоимости сжатия ~χ^w, где χ — размерность связи (~2), а w — ширина дерева (≈n). Это переводится в 2^{53} после исключения оптимизаций с постоянным множителем.
7. Связь с TensorFlow Quantum (TFQ) и машинным обучением
Достижение Sycamore не использовало методы машинного обучения в основной задаче выборки, однако его методология сильно повлияла на гибридные классические-квантовые рабочие процессы, представленные в таких фреймворках, как TFQ. Случайная выборка цепей стала стандартным эталонным слоем в TFQ, полезным для:
• Стресс-тестирование стохастических градиентных оптимизаторов, работающих на вариационных квантовых схемах в условиях аппаратного шума.
• Создание синтетических наборов данных для калибровки квантовых генеративных состязательных сетей с использованием распределения Портера-Томаса в качестве цели.
• Создание карт признаков, значения ядер которых приближаются к ядрам полиномов высокой степени, классически недоступным, благоприятным для определенных конструкций машины опорных векторов.
Таким образом, исследователи могут изучить, как показатели обучения ухудшаются с увеличением глубины, отражая снижение точности, наблюдаемое в эксперименте по превосходству.
8. Распространенные заблуждения, разъяснения и ограничения
8.1 Полезность решенной задачи
RCS не имеет прямого промышленного применения. Его значение фундаментально: он определяет точку пересечения, где квантовые устройства превосходят классические аналоги по крайней мере для одной явной вычислительной задачи.
8.2 «Решить» против «примерить»
Sycamore не вычислял ответ на алгебраическую или оптимизационную задачу; он генерировал образцы. Проверка основывалась на статистических свойствах, а не на детерминированном равенстве.
8.3. «53-кубитный квантовый компьютер превосходит суперкомпьютер»
Рассказ часто преувеличен. Претензия на превосходство справедлива при условии отсутствия неизвестного, радикально лучшего классического алгоритма для приблизительного RCS и при пороговых значениях ошибок, установленных экспериментом. Практические квантовые компьютеры с исправлением ошибок для широкого применения по-прежнему требуют на порядки больше логических кубитов.
9. Развитие событий после превосходства
9.1 Кроссплатформенные репликации
Фотонные ансамбли (например, серия Jiuzhang USTC) выполнили выборку гауссовых бозонов с более чем 100 фотонами, продемонстрировав, что эталон превосходства может быть достигнут в нескольких физических модальностях путем адаптации задачи выборки к собственным сильным сторонам оборудования.
9.2 Постепенные улучшения в классических симуляторах
Конденсация тензорной сети, разложения стабилизатора низкого ранга и методы встраивания амплитуды расширили возможные размеры моделирования, отодвинув классическую границу примерно с 43 до 48 кубитов на схожих глубинах. Каждое продвижение сужает, но не закрывает разрыв.
9.3 На пути к квантовому преимуществу для полезных алгоритмов
Ведутся работы по переносу рабочих процессов химии и комбинаторной оптимизации на аппаратное обеспечение Noisy Intermediate-Scale Quantum (NISQ). Supremacy мотивировал усовершенствованные методы смягчения ошибок, например, вероятностное устранение ошибок и проверку симметрии, которые сначала были протестированы в стрессовых условиях на случайных схемах.
10. Основные выводы для практиков
• Вычислительной проблемой в квантовом превосходстве является случайная выборка схемы: создание битовых строк из точного выходного распределения публично указанной псевдослучайной квантовой схемы.
• Формальная сложность вытекает из средней сложности #P и предполагаемой стабильности полиномиальной иерархии.
• 53-кубитный процессор Sycamore выполнил 20-тактные схемы примерно за 200 с, в то время как самые известные классические алгоритмы требуют астрономического времени и памяти при сопоставимой точности.
• Проверка включает в себя кросс-энтропийный сравнительный анализ, а не попарное сравнение битовых строк.
• Задача представляет ценность как эталон и методологическая ступенька, даже несмотря на то, что она не выполняет классически полезных вычислений.
Другие недавние вопросы и ответы, касающиеся EITC/AI/TFQML Квантовое машинное обучение TensorFlow:
- Каковы основные различия между классическими и квантовыми нейронными сетями?
- Каковы последствия достижения квантового превосходства?
- Каковы преимущества использования алгоритма Rotosolve перед другими методами оптимизации, такими как SPSA, в контексте VQE, особенно в отношении плавности и эффективности сходимости?
- Как алгоритм Rotosolve оптимизирует параметры ( θ ) в VQE и каковы ключевые этапы этого процесса оптимизации?
- Каково значение параметризованных вентилей вращения ( U(θ) ) в VQE и как они обычно выражаются через тригонометрические функции и генераторы?
- Как рассчитывается математическое ожидание оператора (A) в квантовом состоянии, описываемом (ρ), и почему эта формулировка важна для VQE?
- Какова роль матрицы плотности ( ρ ) в контексте квантовых состояний и чем она отличается для чистых и смешанных состояний?
- Каковы ключевые шаги при построении квантовой схемы для двухкубитного гамильтониана в TensorFlow Quantum и как эти шаги обеспечивают точное моделирование квантовой системы?
- Как измерения преобразуются в базис Z для различных членов Паули и почему это преобразование необходимо в контексте VQE?
- Какую роль играет классический оптимизатор в алгоритме VQE и какой конкретно оптимизатор используется в описанной реализации TensorFlow Quantum?

