Stojíme na křižovatce nové technologické války
Seznam kapitol
Ač technologický vývoj obvykle bereme příjemně a užíváme si nových produktů, panuje v něm skrytá válka. Ta nás spolu se souběhem politického a technologického dění přivádí na komplikovanou křižovatku.
Vývoj v technologiích bývá dost nelineární v tom smyslu, že se někdy objeví divoká karta jako u čínského modelu DeepSeek a jindy se naopak neobjeví technologie, kterou očekáváme celá desetiletí. Pamatujete na desetiletí oznamovaný Holographic Storage Device od Microsoftu, koncept ukládání dat, který trochu připomíná datakrystaly ze sci-fi? No, tak kolem něj panuje celkem ticho, přerušované jenom občasnými články o tom, že se nyní s touto technologií počítá pro cloudové služby Microsoft Azure: Pravděpodobně je to moc drahé.
Další technologií, nebo přesněji řečeno, celou skupinou technologií, které mají přinést revoluci, jsou kvantové počítače. Na nich se pracuje také velice dlouho, velké firmy do nich cpou spoustu peněz a zatím přicházejí spíše oznámení o přelomových vylepšeních, jako je „dosažení kvantové superiority“, kterou oznámil Google a také od nich přišla zpráva o tom, že se jim podařil průlom v oblasti korekce qubitů. Ta první zpráva byla spíš takový divný marketing, protože dokázala pouze to, že kvantové systémy jsou lepší v oblasti simulace kvantových systémů než klasické počítače, ale ve skutečnosti neoznamovala žádný zásadní pokrok v ničem praktickém.
Pokud jde o průlom ve kvantové korekci, tak to může být opravdu zásadní věc: U kvantových počítačů je zásadním problémem dekoherence, kdy se kontrolovaný stav qubitů rozpadá a stává se z něj jenom šum. Qubity jsou ve většině implementací extrémně citlivé na okolí, musí mít obvykle teplotu jen nízko nad absolutní nulou a dekoherenci můžou způsobit i vibrace, což je problém.
Větší problém je v tom, že vy nevíte, které qubity jsou dekoherentní, protože je nemůžete číst, aniž byste nezpůsobili kolaps jejich vlnové funkce, což vše dost komplikuje. Nevíte, v jakém stavu je kvantový systém, protože jeho kontrola pozorováním doslova koherentní stav ukončí. Proto se používají takzvané virtuální qubity, které se skládají z většího počtu fyzických qubitů (desítky až tisíce) – a počítá se s tím, že půjde o dost robustní systém, který je navíc schopen zjistit, že se něco neočekávaně změnilo a dovoluje opravu dekoherentního stavu.
Potíž je v tom, že virtuální qubity si žádají velký nárůst fyzických qubitů, a to až takovým způsobem, že někteří výzkumníci tvrdí, že nelze vůbec postavit dost velký a dost spolehlivý kvantový počítač, protože pravděpodobnost dekoherence roste s jeho velikostí. Google tvrdí, že jejich průlom u kvantového čipu Willow jim dovoluje detekovat a opravovat dekoherenci s účinností, kdy s rostoucím počtem qubitů potřebují „exponenciálně menší“ počet fyzických qubitů na virtuální qubit, což by celý ten problém postavilo na hlavu a dovolilo stavbu velkých kvantových systémů.
Tvrdí to, dobře, ale je to jejich tvrzení, a protože se týká stejného čipu, kterého se týká i bombastické tvrzení, že „provedl za pět minut RCS (Random Circuit Sampling) benchmark, který by jednomu z nejrychlejších superpočítačů trval 10^25 let“, je klidně možné, že i tady si PR oddělení Google poněkud zapřehánělo. Opravdu nejsem schopen posoudit, jak blízko je jejich tvrzení pravdě, ale zpráva říká, že nás tato technologie „přibližuje“ algoritmům, které nelze provozovat na konvenčních počítačích, ne že tam už jsme. To nezní jako zpráva, která říká, že si budete moci objednat a koupit podobný systém do dvou let.