Что думаете о Willow? ©
Спросили в приканальном чате. Да еще и в комментарии к заметке про шмелей. И я-nope-nope-nope-завис :) Но потому читатель уточнил вопрос и до меня дошло. Хотя не знаю что здесь комментировать и стоит ли. Но рискну
***
Да, конечно я видел заявление, которое компания Google опубликовала несколько дней назад в своем блоге. Речь там шла про то, что подразделение Google Quantum AI нашей любимой "корпорация добра":
Оыоыао!
WTF?! К чему такая странная презентация обычного Random Cirquit Sampling? Обычный квантовый бенчмарк наиболее сложный для эмуляции на классических ПК и принципиально не имеющий вообще никакого практического применения. Просто применили к набору кубитов случайный набор операций, приводящих часть из них в запутанное состояние с измерением этих состояний кубитов. Здесь необходимо по максимуму избавится от ошибок вызываемых шумами и декогеренцией состояний кубитов. Ну ОК, десятилетия так было. Прорыв? Да ни разу. Это во-первых
Во-вторых. Вообще ни разу не ясно, как именно 105 кубитов, имеющих всего 2¹⁰⁵ = 4,0565×10³¹ потенциально возможных состояний, породили задачу на 10,000,000,000,000,000,000,000,000 = 10²⁶ лет вычислений суперкомпьютера. Выходит что этот "гугло-суперкомпьютер" выполняет 10000 операций/год. WTF?! Хотя формально количество состояний одного-единственного кубита бесконечно много. То есть привычная математика дискретных двоичных состояний здесь вообще не работает. Думая про это и разумом подвинуться не долго, хотя на самом деле ответ тут прост: "все цифры взяты маркетологами абсолютно с потолка и ничего не значат". Бритва Хенлона + обычный brain rot
Хотя возмущение немного уменьшается, если посмотреть связанную с презентацией статью, которую Google с пылу с жару опубликовала в Nature. В ней конкретики побольше. Про то, что впервые в истории были созданы логические кубиты (кубиты, объединённые в группы), которые имеют уровень ошибок ниже предела, необходимого для работы квантовой коррекции ошибок (Quantum Error Correction, QEC). Обычно кубиты имеют слишком высокий уровень ошибок, требуя QEC для исправления. Здесь удалось достичь уровня ошибок ниже этого порога (прям снизить их количество экспоненциально), что открывает путь к более стабильным квантовым вычислениям, да и сам срок жизни кубитов увеличился в 5 раз относительно предшественников. Чем больше задействовано кубитов, тем меньше ошибок. Неожиданно, да? 😀 В общем, попытка хорошая, но никак не тянет ни на "открытие года", ни на "квантовое превосходство" (о котором Google Quantum AI давно и влажно мечтает), ни даже на "создание квантового компьютера". Просто, черт побери, "сделан важный шаг в этом направлении"
Знаю что многие криптовалютчики затаили дыхание увидев эту новость. Но нет. Можете выдыхать, 105 кубитов это мизерные цифры, хотя и больше по сравнению с предыдущими квантовыми компьютерами. На всякий случай: чтобы "разобрать" bitcoin нужно 300-400 млн. кубитов. Сами Google говорят, что могли бы сделать и больше кубит (110?), но, пнимаэш, работают на качество, а не на количество 😀 В теории, поделия вроде гугловского Willow планируется использовать для симуляции молекул ( = задача, решённая квантовым чипом, сверхспецифичная и на 99.99% задач прорыв в производительности НЕ МАСШТАБИРУЕТСЯ). Как бы намекая, что такие "квантовые компьютеры" останутся нишевой игрушкой max для какой-нибудь ассиметричной криптографии. Помните раньше были аналоговые гидравлические компьютеры. В 2024 встречайте - аналоговые квантовые вычисления на микроуровне
Всю Google-новость можно сократить до лаконичного "для использования на практике не пригодно, это просто реклама". А то, что новость растянули многие СМИ говорит о нулевом уровне их научных журналистов
Расходимся...
На картинке: те самые 105 кубитов 🌚
P.S. на английском здесь
Спросили в приканальном чате. Да еще и в комментарии к заметке про шмелей. И я-nope-nope-nope-завис :) Но потому читатель уточнил вопрос и до меня дошло. Хотя не знаю что здесь комментировать и стоит ли. Но рискну
***
Да, конечно я видел заявление, которое компания Google опубликовала несколько дней назад в своем блоге. Речь там шла про то, что подразделение Google Quantum AI нашей любимой "корпорация добра":
...наконец-то выпускает свой новый лучший квантовый чип Willow на 105 кубитов. Этот чип в септилион раз быстрее самого быстрого из существующих сегодня суперкомпьютера. Он всего за 300 секунд выполнил вычислительную задачу, на которую у обычного ПК ушло бы 10,000,000,000,000,000,000,000,000 лет...
Оыоыао!
WTF?! К чему такая странная презентация обычного Random Cirquit Sampling? Обычный квантовый бенчмарк наиболее сложный для эмуляции на классических ПК и принципиально не имеющий вообще никакого практического применения. Просто применили к набору кубитов случайный набор операций, приводящих часть из них в запутанное состояние с измерением этих состояний кубитов. Здесь необходимо по максимуму избавится от ошибок вызываемых шумами и декогеренцией состояний кубитов. Ну ОК, десятилетия так было. Прорыв? Да ни разу. Это во-первых
Во-вторых. Вообще ни разу не ясно, как именно 105 кубитов, имеющих всего 2¹⁰⁵ = 4,0565×10³¹ потенциально возможных состояний, породили задачу на 10,000,000,000,000,000,000,000,000 = 10²⁶ лет вычислений суперкомпьютера. Выходит что этот "гугло-суперкомпьютер" выполняет 10000 операций/год. WTF?! Хотя формально количество состояний одного-единственного кубита бесконечно много. То есть привычная математика дискретных двоичных состояний здесь вообще не работает. Думая про это и разумом подвинуться не долго, хотя на самом деле ответ тут прост: "все цифры взяты маркетологами абсолютно с потолка и ничего не значат". Бритва Хенлона + обычный brain rot
Хотя возмущение немного уменьшается, если посмотреть связанную с презентацией статью, которую Google с пылу с жару опубликовала в Nature. В ней конкретики побольше. Про то, что впервые в истории были созданы логические кубиты (кубиты, объединённые в группы), которые имеют уровень ошибок ниже предела, необходимого для работы квантовой коррекции ошибок (Quantum Error Correction, QEC). Обычно кубиты имеют слишком высокий уровень ошибок, требуя QEC для исправления. Здесь удалось достичь уровня ошибок ниже этого порога (прям снизить их количество экспоненциально), что открывает путь к более стабильным квантовым вычислениям, да и сам срок жизни кубитов увеличился в 5 раз относительно предшественников. Чем больше задействовано кубитов, тем меньше ошибок. Неожиданно, да? 😀 В общем, попытка хорошая, но никак не тянет ни на "открытие года", ни на "квантовое превосходство" (о котором Google Quantum AI давно и влажно мечтает), ни даже на "создание квантового компьютера". Просто, черт побери, "сделан важный шаг в этом направлении"
Знаю что многие криптовалютчики затаили дыхание увидев эту новость. Но нет. Можете выдыхать, 105 кубитов это мизерные цифры, хотя и больше по сравнению с предыдущими квантовыми компьютерами. На всякий случай: чтобы "разобрать" bitcoin нужно 300-400 млн. кубитов. Сами Google говорят, что могли бы сделать и больше кубит (110?), но, пнимаэш, работают на качество, а не на количество 😀 В теории, поделия вроде гугловского Willow планируется использовать для симуляции молекул ( = задача, решённая квантовым чипом, сверхспецифичная и на 99.99% задач прорыв в производительности НЕ МАСШТАБИРУЕТСЯ). Как бы намекая, что такие "квантовые компьютеры" останутся нишевой игрушкой max для какой-нибудь ассиметричной криптографии. Помните раньше были аналоговые гидравлические компьютеры. В 2024 встречайте - аналоговые квантовые вычисления на микроуровне
Всю Google-новость можно сократить до лаконичного "для использования на практике не пригодно, это просто реклама". А то, что новость растянули многие СМИ говорит о нулевом уровне их научных журналистов
Расходимся...
На картинке: те самые 105 кубитов 🌚
P.S. на английском здесь