Bitcoin face à l’ordinateur quantique : évaluation raisonnée d’un risque souvent exagéré (1/2)
- Bitcoin face à l’ordinateur quantique : évaluation raisonnée d’un risque souvent exagéré
- Introduction : une inquiétude médiatique plus que technologique
- Comprendre l’informatique quantique et ses algorithmes clés
- La dynamique de la recherche quantique : pas de progrès linéaire ni prédictible
- Trois types d’algorithmes à compromettre : une tâche titanesque
- Vulnérabilités résiduelles : les cas particuliers des adresses non hachées
- Les solutions post-quantiques existent déjà
- Le système bancaire : une vulnérabilité structurelle bien plus critique
- Les blockchains
- Positions académiques et des institutions à l’origine de cet article un peu à contre courant
- Les failles des attaques et des moyens post-quantiques
- Il est toujours probable que le risque quantique n’existe pas
- Modèle de bruit considéré

Bitcoin face à l’ordinateur quantique : évaluation raisonnée d’un risque souvent exagéré
Introduction : une inquiétude médiatique plus que technologique
L’émergence des ordinateurs quantiques alimente périodiquement des inquiétudes quant à la sécurité des systèmes cryptographiques contemporains, notamment Bitcoin. Ces craintes s’appuient principalement sur la possibilité qu’un ordinateur quantique suffisamment puissant puisse briser les algorithmes cryptographiques utilisés pour sécuriser les transactions, compromettant ainsi l’intégrité du réseau. Cette perspective est toutefois largement prématurée. Non seulement les progrès en informatique quantique ne sont pas linéaires ni exponentiels mais conditionnés par des ruptures de paradigme rares, mais encore les systèmes comme Bitcoin sont structurellement résilients et adaptables. Ce texte propose une évaluation détaillée du risque réel, en examinant les capacités technologiques, les failles théoriques, les vulnérabilités effectives, les moyens de mitigation déjà existants, et la situation comparative avec d’autres secteurs critiques.
Comprendre l’informatique quantique et ses algorithmes clés
L’informatique quantique repose sur les principes de la mécanique quantique, où l’information n’est pas stockée dans des bits classiques (0 ou 1), mais dans des qubits pouvant exister dans une superposition d’états. Cela permet à un ordinateur quantique d’explorer plusieurs chemins de calcul simultanément. De plus, l’intrication et l’interférence sont utilisées pour orienter les calculs vers les bons résultats.
L’intrication quantique est un phénomène par lequel deux qubits (ou plus) deviennent liés de manière indissociable : l’état de l’un dépend immédiatement de l’état de l’autre, même s’ils sont spatialement séparés. Cela signifie que la mesure de l’un influence instantanément l’autre, sans échange d’information au sens classique.
Dans un ordinateur quantique, l’intrication permet de créer des corrélations complexes entre les qubits, ce qui est essentiel pour représenter et manipuler des espaces de solutions extrêmement vastes. C’est notamment cette propriété qui donne aux algorithmes quantiques leur puissance combinatoire, impossible à reproduire avec des bits classiques indépendants.
L’interférence quantique correspond à la capacité des amplitudes de probabilité associées aux états quantiques à s’ajouter ou se soustraire, comme des ondes. Lorsqu’un algorithme quantique est bien conçu, il exploite cette interférence pour renforcer les probabilités des “bonnes” réponses (constructive interference) et annuler celles des “mauvaises” (destructive interference).
Autrement dit, contrairement à un calcul classique qui explore chaque possibilité de manière brute, un algorithme quantique manipule l’espace de toutes les possibilités en parallèle, puis “efface” les mauvaises réponses par interférence.
Un programme quantique n’explore pas simplement au hasard toutes les solutions. Il prépare d’abord une superposition d’états, représentant toutes les possibilités. Puis, au fil des opérations (gates), il applique une séquence logique qui modifie les phases de chaque possibilité. Grâce à l’intrication et à l’interférence, les états qui correspondent aux bonnes solutions voient leur probabilité augmenter, tandis que les autres sont annulés ou réduits.
À la fin, lors de la mesure, l’ordinateur quantique “s’effondre” vers un seul résultat. L’astuce des algorithmes efficaces (comme Grover ou Shor) est qu’ils maximisent la probabilité d’obtenir une solution correcte dès cette mesure finale.
Deux algorithmes quantiques sont fréquemment cités lorsqu’on évoque les menaces pour la cryptographie :
- L’algorithme de Shor (1994) permet de factoriser efficacement de grands entiers et de calculer des logarithmes discrets. Il menace les systèmes de cryptographie à clé publique comme RSA et la cryptographie sur courbes elliptiques (notamment l’ECDSA utilisé par Bitcoin). Cependant, il nécessite un très grand nombre de qubits corrigés d’erreurs pour être applicable en pratique.
- L’algorithme de Grover (1996) accélère la recherche exhaustive (brute force), en réduisant la complexité temporelle des attaques contre les fonctions de hachage ou les clés symétriques. Dans le cas du SHA-256, il réduit l’espace de recherche de 22562^{256}2256 à 21282^{128}2128, ce qui reste totalement impraticable avec les machines actuelles ou à moyen terme.
Il est important de souligner que l’avantage quantique dans ces cas ne signifie en rien une capacité immédiate à “casser des codes”. Ces algorithmes exigent des machines quantiques tolérantes aux fautes, bien au-delà des dispositifs bruyants de type NISQ (Noisy Intermediate-Scale Quantum) actuels.
La dynamique de la recherche quantique : pas de progrès linéaire ni prédictible
Contrairement à une croyance répandue, les avancées en informatique quantique ne suivent pas une progression incrémentale régulière. Elles dépendent de percées fondamentales, souvent imprévisibles. À ce jour, malgré des décennies d’efforts, aucun changement de paradigme permettant une mise à l’échelle fiable des ordinateurs quantiques universels n’a été identifié. Même en supposant une accélération fulgurante – par exemple une multiplication par vingt du rythme actuel de la recherche – aucune architecture quantique fonctionnelle capable de casser les algorithmes utilisés dans Bitcoin n’est envisageable à l’horizon prévisible (Mosca, 2018 ; Arute et al., 2019 ; IBM, 2024).
La complexité technique à surmonter concerne notamment la correction d’erreurs quantiques, qui requiert plusieurs millions de qubits logiques pour stabiliser des opérations critiques, là où les prototypes actuels ne maîtrisent que quelques centaines de qubits physiques, avec des taux d’erreurs encore rédhibitoires (Google AI, 2023).
Trois types d’algorithmes à compromettre : une tâche titanesque
Bitcoin ne repose pas sur un seul algorithme, mais sur une combinaison de protocoles cryptographiques distincts :
- SHA-256 (Secure Hash Algorithm), utilisé pour le minage et l’ancrage des blocs.
- RIPEMD-160, utilisé en complément de SHA-256 pour générer les adresses.
- ECDSA (Elliptic Curve Digital Signature Algorithm), utilisé pour signer les transactions.
Or, chaque type d’algorithme nécessite un circuit quantique spécifique pour être attaqué efficacement. Les progrès en matière de cassage d’ECDSA par algorithmes quantiques (via Shor) sont encore loin d’être fonctionnels : on estime à plusieurs milliers, voire millions, de qubits corrigés les ressources nécessaires à la compromission d’une seule clé privée (Proos & Zalka, 2003 ; Roetteler et al., 2017). Quant à SHA-256, même Grover ne permettrait que de réduire sa complexité de 22562^{256}2256 à 21282^{128}2128, ce qui reste impraticable.
Enfin, l’algorithme RSA – souvent cité à tort – n’est pas utilisé dans Bitcoin.
Vulnérabilités résiduelles : les cas particuliers des adresses non hachées
Les seules adresses théoriquement vulnérables à un adversaire disposant d’un ordinateur quantique seraient celles dont la clé publique est connue sans avoir été hachée, ce qui n’est pas le cas général. Cela inclut essentiellement :
- Les premières adresses générées avant l’adoption systématique du hachage (certaines adresses associées à Satoshi Nakamoto en particulier).
- Les adresses dont les UTXO sont visibles mais non encore dépensés.
Il est important de noter que même ces adresses restent sécurisées tant qu’aucune transaction n’est signée depuis celles-ci. De plus, Satoshi avait anticipé ce vecteur de vulnérabilité et avait dissuadé son exploitation en soulignant qu’il était alors plus rentable de miner que de tenter de craquer une adresse, ce qui reste vrai aujourd’hui (Nakamoto, 2009).
Les solutions post-quantiques existent déjà
La communauté Bitcoin est parfaitement consciente du risque hypothétique et a déjà anticipé plusieurs stratégies de migration :
- Des propositions de BIP (Bitcoin Improvement Proposals) post-quantiques existent, notamment autour de signatures basées sur des schémas comme Lattice-based, Hash-based ou Multivariate Polynomial Equations.
- La majorité des experts estiment qu’une transition est possible si une menace effective devait émerger, et que le consensus social nécessaire pourrait être atteint sans blocage.
Il convient de rappeler qu’aucune de ces propositions n’a été jugée urgente à ce jour, y compris par leurs auteurs, bien que certains soient financés par des acteurs comme BlackRock ou Google (par exemple dans le cadre des expérimentations NIST sur les standards post-quantiques, cf. Chen et al., 2022).
Le système bancaire : une vulnérabilité structurelle bien plus critique
Là où Bitcoin présente une résilience structurelle forte et une capacité d’adaptation communautaire rapide, le secteur bancaire constitue une zone de risque majeur. En effet :
- Des milliers de systèmes interconnectés devront être mis à jour simultanément, souvent sur des infrastructures patrimoniales rigides, fragmentées et peu documentées.
- Les infrastructures bancaires utilisent massivement RSA et ECDSA dans des contextes où la confidentialité est immédiate et continue, ce qui rend les clés exposées.
- Le volume des transactions bancaires et des systèmes de réconciliation est tel qu’un passage à des algorithmes post-quantiques exigerait un effort de coordination planétaire.
En ce sens, une attaque quantique fonctionnelle affecterait d’abord les banques, les systèmes de paiement internationaux, les infrastructures d’État, et non Bitcoin, qui pourrait observer, analyser et réagir a posteriori.
À cela s’ajoute un facteur souvent sous-estimé : la diversité des systèmes, des protocoles, des cycles de vie des données, et des contraintes d’interopérabilité au sein du secteur bancaire. La vulnérabilité dépend du contexte : certaines informations bancaires n’ont de valeur que temporairement (ex. : numéro de carte bancaire expirant rapidement), tandis que d’autres, comme les données de transaction en transit ou les authentifications système, doivent rester confidentielles à la milliseconde près. C’est ce second cas qui est véritablement critique. La sécurisation post-quantique impliquerait non seulement une mise à jour de tous les terminaux (anciens , hétérogènes, aux capacités hardware limitées -coût matériel colossal en cas de transition-), mais aussi une coordination de bout en bout entre tous les niveaux du système : du terminal de paiement au système d’authentification bancaire en passant par les réseaux interbancaires.
La difficulté pour les banque n’est pas simplement technique et économique mais structurelle : il faudrait que toutes les couches soient mises à jour en même temps, que la performance soit maintenue, que les interfaces restent compatibles, et que les bibliothèques cryptographiques post-quantiques soient intégrées dans des environnements informatiques souvent obsolètes, notamment les mainframes, dont la résilience repose encore sur des systèmes conçus dans les années 1970-80.
Ce contexte rend l’hypothèse d’une transition coordonnée réaliste pour la majorité des établissements bancaires très incertaine, en particulier dans un délai court imposé par une menace quantique avérée.
Les blockchains
L’ensemble des autres blockchains connaissent déjà un risque technologique majeur imposé par l’IA, leur réaction actuelle est la politique de l’autruche. Le rapprochement des fondations de blockchains de VC (quasiment toutes) et des institutions peuvent faire craindre une acceptation des backdoors sous prétexte de migration alors précipitées vers les algorithmes post quantiques. Cela pourrait aussi s’inscrire dans leurs politiques marketing de différenciation sur des aspects marginaux. Quoi qu’il en soit, il n’y a pas de blockchain plus ou moins explosée qu’une autre aujourd’hui car les problèmes de demain impliqueront probablement d’autres solutions que celle disponibles aujourd’hui pour le risque qualifié.
Risque IA et blockchains : https://www.linkedin.com/pulse/lia-d%C3%A9truit-les-blockchains-de-pos-kycaml-zkwhat-you-want-nicolas
Positions académiques et des institutions à l’origine de cet article un peu à contre courant
La recherche suggère que les ordinateurs quantiques pourraient menacer la sécurité de Bitcoin à long terme, mais le risque semble faible à court terme. Les estimations varient, certains experts prévoient une menace possible d’ici 2027-2030 sur ECDSA, tandis que d’autres estiment qu’elle est encore loin. Des solutions post-quantiques existent, et la communauté Bitcoin semble prête à s’adapter.
Les dernière recherches estiment qu’il faudrait environ 2 000 qubits logiques pour briser ECDSA de Bitcoin, mais en 2025, les ordinateurs quantiques n’ont aucun qubit logique, avec des projections optimistes de 10 à 100 d’ici 2030. Cela confirme que le risque est encore distant.
Des recherches récentes, comme une étude de 2023 sur les qubits de type “cat”, montrent des progrès pour réduire les ressources nécessaires, mais 126 133 qubits physiques seraient encore nécessaires pour calculer un logarithme sur une courbe elliptique de 256 bits en 9 heures, ce qui est hors de portée aujourd’hui et trop lent.
Le NIST a finalisé en 2024 des standards de cryptographie post-quantique (FIPS 203, 204, 205), basés sur des algorithmes comme CRYSTALS-Kyber et Dilithium, prêts à être adoptés. La communauté Bitcoin a des propositions (BIP) pour migrer vers ces solutions si nécessaire, et des experts estiment qu’une transition est faisable avec un consensus.
Mais des voix comme BlackRock, dans une mise à jour de son prospectus iShares Bitcoin Trust (IBIT) en mai 2025 sur ECDSA. De plus, BlackRock et des scientifiques de Google ont récemment averti du risque, ajoutant une urgence perçue. BlackRock a également financer les travaux sur les BIP de Bitcoin pour l’intégration algorithmes post quantiques; les tentatives d’introduction étatique de backdoors ne sont pas exclues de la part de la communauté Bitcoin. Ce qui pourrait expliquer les motivations à pousser des évolutions injustifiées. L’insistance récente des états à pousser des propositions de lois imposant les backdoors vient renforcer la vigilance nécessaire sur un réseau universel.
A noter aussi que l’incitation économique à développer des ordinateurs quantiques pour voler des bitcoins augmente avec la valeur des bitcoins, reflétant une perception croissante du risque. Mais la réalité technique ne suite pas l’incitation.
Les failles des attaques et des moyens post-quantiques
La sécurité des algorithmes post-quantiques (PQC) et des systèmes de calcul quantique, tant matériels que logiciels, soulève des défis techniques et théoriques majeurs. Ces défis concernent à la fois la robustesse cryptographique face aux attaques classiques et quantiques, ainsi que la fiabilité des architectures matérielles et logicielles nécessaires à l’échelle industrielle.
La question en conclusion des chapitre précédent étant : est plus risqué d’implémenter des algorithmes post quantique pour un risque existant aujourd’hui face à une menace encore largement à définir, que de conserver les algorithmes reconnus et éprouvé d’aujourd’hui ?
Faiblesses des moyens actuels de protection
Vulnérabilités aux attaques par canaux auxiliaires
Bien que les algorithmes PQC soient conçus pour résister aux attaques quantiques, leurs implémentations concrètes restent vulnérables aux attaques par canaux auxiliaires (side-channel attacks) telles que l’analyse temporelle, la consommation d’énergie ou les fautes induites. Des contre-mesures comme le masquage, le shuffling, l’insertion de délais aléatoires ou l’encodage à poids constant sont proposées, mais elles augmentent significativement la consommation de ressources et la complexité des systèmes.
Robustesse théorique des primitives cryptographiques
Les algorithmes PQC reposent sur des problèmes mathématiques supposés difficiles pour les ordinateurs quantiques, tels que les réseaux euclidiens (lattice-based), les codes correcteurs (code-based), les fonctions de hachage (hash-based) ou les systèmes multivariés. Cependant, des recherches récentes ont mis en évidence des vulnérabilités potentielles, notamment dans les algorithmes basés sur les réseaux, face à des attaques combinant intelligence artificielle et techniques de cryptanalyse avancées.
Défis d’implémentation dans les systèmes embarqués
L’intégration des algorithmes PQC dans des systèmes embarqués ou à ressources limitées pose des problèmes de performance et de compatibilité. Les exigences en termes de mémoire, de puissance de calcul et de latence peuvent compromettre la sécurité ou la fonctionnalité des dispositifs.
Les ordinateurs quantiques auteurs des attaques seraient eux même très explosés mettant en jeu des milliards investis :
Sensibilité aux perturbations environnementales
Les qubits, éléments fondamentaux des ordinateurs quantiques, sont extrêmement sensibles aux perturbations environnementales, ce qui entraîne des phénomènes de décohérence et des erreurs de calcul. La correction d’erreurs quantiques est un domaine de recherche actif, mais les solutions actuelles nécessitent un grand nombre de qubits physiques pour représenter un seul qubit logique fiable.
Vulnérabilités des systèmes en nuage quantique
Les plateformes de calcul quantique en nuage, partagées entre plusieurs utilisateurs, introduisent des risques spécifiques tels que les attaques par diaphonie (crosstalk) ou les menaces internes. Des techniques d’isolation et de surveillance en temps réel sont nécessaires pour garantir la confidentialité et l’intégrité des calculs.
Dépendance à des infrastructures complexes
Les ordinateurs quantiques nécessitent des infrastructures sophistiquées, notamment des systèmes de refroidissement cryogénique, des équipements à micro-ondes et des environnements ultra-propres. Cette complexité augmente les risques de défaillances matérielles et rend la maintenance et la scalabilité des systèmes particulièrement difficiles.
Scalabilité des architectures quantiques
La mise à l’échelle des ordinateurs quantiques pour atteindre des performances supérieures à celles des supercalculateurs classiques nécessite de surmonter des obstacles majeurs en termes de fidélité des qubits, de correction d’erreurs et de connectivité entre les qubits. Des avancées récentes, comme la téléportation quantique entre processeurs, offrent des perspectives prometteuses, mais la route vers des systèmes pleinement opérationnels reste longue.
Standardisation et interopérabilité des algorithmes PQC
La transition vers des systèmes cryptographiques post-quantiques nécessite une standardisation rigoureuse des algorithmes et une compatibilité avec les infrastructures existantes. Le National Institute of Standards and Technology (NIST) a lancé un processus de standardisation, mais l’adoption généralisée dépendra de la maturité des implémentations et de la confiance des acteurs industriels.
Formation et disponibilité des compétences
Le développement et la maintenance des systèmes quantiques exigent des compétences hautement spécialisées en physique quantique, en ingénierie et en informatique. La pénurie de professionnels qualifiés constitue un frein majeur à l’adoption et à l’innovation dans le domaine.
Attaques de supply chain
Le développement et le déploiement de technologies quantiques s’appuient sur des chaînes d’approvisionnement complexes, souvent internationales, impliquant des composants de haute précision et une expertise de pointe. Dans ce contexte, la dépendance à des composants spécifiques (ex. cryostats, qubits supraconducteurs, lasers de précision) ou à des fournisseurs uniques (ex. IBM, D-Wave, Rigetti, Google, Thales Cryogenics) crée des points de fragilité critiques, susceptibles d’être exploités dans le cadre d’une attaque ciblée ou d’une guerre technologique. Ces vulnérabilités échappent souvent aux dispositifs classiques de cybersécurité et relèvent du domaine plus large de la sécurité des chaînes d’approvisionnement (Supply Chain Security).
Cryogénie et environnement ultra-basse température
Le refroidissement des qubits nécessite des équipements cryogéniques (dilution refrigerators) opérant à des températures proches du zéro absolu (~10–15 mK). Les fournisseurs de ces systèmes sont rares (ex. Bluefors, Oxford Instruments), ce qui limite la redondance. Une attaque sur les chaînes logistiques (ex. sabotage, falsification de certification, introduction de défauts latents) peut compromettre la stabilité de l’environnement de calcul.
Matériaux supraconducteurs ou photoniques
Les matériaux nécessaires à la fabrication des qubits (niobium, aluminium ultra-pur, semi-conducteurs III-V) ou à l’acheminement optique (fibre à faible perte, cristaux non-linéaires) proviennent de quelques producteurs spécialisés. Des manipulations en amont (dopage impur, défauts structurels volontaires) pourraient générer des erreurs silencieuses dans les calculs quantiques.
Composants d’asservissement classique
Les calculateurs quantiques s’appuient sur des composants classiques (FPGA, convertisseurs numériques-analogiques, oscillateurs micro-ondes, logiciels de calibration) pour piloter les circuits quantiques. Ces éléments sont vulnérables aux portes dérobées matérielles (hardware trojans), aux micrologiciels malveillants ou à des dérives intentionnelles de performance.
En résumé des attaque de supply chain (qui peuvent faire plus de préjudice que l’attaque cible par la quantique) : un acteur malveillant peut introduire une faiblesse dans un composant en amont (matériel ou logiciel) visant à provoquer des erreurs systématiques difficilement détectables au stade d’exploitation (ex. variation aléatoire dans les temps de gate, atténuation asymétrique dans les lignes de transmission). Aussi l’introduction d’un composant « conforme » en apparence mais falsifié (ex. oscillateur légèrement décalé, câble RF avec impédance marginalement altérée) peut suffire à introduire des biais ou réduire la durée de cohérence des qubits, sans générer d’alerte immédiate. Enfin, en situation de tension géopolitique, le blocage des exportations de composants critiques ou l’interdiction d’accès aux mises à jour logicielles des plateformes de calcul quantique (quantum-as-a-service) peut constituer une forme de coercition stratégique (cf. embargo des composants avancés vers la Chine ou la Russie).
Cela peut amener à une compromission de l’intégrité des calculs avec des erreurs induites à bas niveau peuvent compromettre la fiabilité des algorithmes quantiques utilisés pour la simulation de molécules, la résolution d’équations différentielles, ou le traitement cryptographique. Ces biais peuvent rester invisibles en l’absence de mécanismes de validation quantique redondante. Mais aussi à un affaiblissement de la souveraineté numérique avec une dépendance à des infrastructures de calcul hors sol national (IBM Quantum Cloud, Amazon Braket, Google Sycamore) expose les utilisateurs à des risques de surveillance, d’interruption ou de manipulation des calculs. Cela remet en question la confiance dans les résultats scientifiques ou industriels obtenus via des plateformes non maîtrisées. Il s’agit de savoir avant l’usage se prémunir d’un sabotage industriel à long terme. Les attaques sur la chaîne d’approvisionnement peuvent viser non pas à provoquer une défaillance immédiate, mais à altérer la fiabilité à long terme des systèmes de calcul. Ce type de sabotage furtif est particulièrement difficile à détecter, notamment dans les architectures cryogéniques ou optiques, où le diagnostic des dégradations est techniquement complexe.
Dans ce cas les contremesures, non mises en oeuvre aujourd’hui sont très couteuses avec une politique de « supply chain forensics » incluant la traçabilité de chaque composant critique, des tests d’intégrité physique/métrologique et une chaîne de certification vérifiable (ex. DLT ou réseau PKI décentralisé) peut renforcer la confiance, de la redondance matérielle et diversification des fournisseurs avec la mise en place de systèmes de test croisés entre composants de sources différentes, ainsi qu’une diversification géographique des fournisseurs, réduit les risques de compromission coordonnée. Des partenariats public-privé peuvent aider à structurer des filières nationales ou européennes de composants quantiques critiques. Mais surtout il faut concevoir et développer des sssystèmes de validation croisée des calculs où l’exécution du même calcul quantique sur plusieurs plateformes (redondance inter-cloud) permet de détecter des biais persistants introduits par un composant malveillant. Des méthodes de vote majoritaire ou de validation classique/quantique hybride peuvent renforcer la fiabilité des résultats.
Absence d’étude de cas documentée sur des attaques avérées dans le quantique
À ce jour, il n’existe pas de cas documenté d’attaque réussie ciblant spécifiquement les chaînes d’approvisionnement des systèmes de calcul quantique. Cependant, des études ont démontré la faisabilité de certaines attaques sur des systèmes de distribution de clés quantiques (QKD), telles que :
- Attaques par décalage temporel (time-shift attacks) : Exploitation des différences d’efficacité de détection en fonction du moment d’arrivée des photons .
- Attaques après la porte (after-gate attacks) : Utilisation de signaux lumineux intenses pour forcer les détecteurs à enregistrer des événements fictifs .arxiv.org
Ces études soulignent la nécessité de rester vigilant quant aux vulnérabilités potentielles, même en l’absence d’attaques réelles documentées.
Limites des capacités de détection ex-post
Et même si on avait ces étaudes, ma détection a posteriori des compromissions dans les chaînes d’approvisionnement quantiques présente plusieurs défis :
- Complexité des systèmes : Les systèmes quantiques sont intrinsèquement complexes, rendant difficile l’identification des anomalies résultant d’une compromission.
- Manque d’outils de diagnostic spécialisés : Il existe peu d’outils conçus spécifiquement pour détecter les altérations dans les composants quantiques.
- Temps de réaction : Le délai entre la compromission et sa détection peut être long, augmentant les risques associés.
Ces limitations soulignent l’importance de mettre en place des mesures préventives robustes plutôt que de se fier uniquement à la détection ex-post. Il faut anticiper des coûts disproportionnés des contre-mesures pour les laboratoires. Les laboratoires de recherche et les petites entités peuvent trouver les coûts associés aux contre-mesures de sécurité prohibitifs :
- Investissements initiaux élevés : L’acquisition de matériel sécurisé et la mise en place de protocoles de sécurité avancés nécessitent des investissements importants.
- Maintenance continue : La maintenance des systèmes de sécurité et la formation continue du personnel engendrent des coûts
- Ressources humaines limitées : Le manque de personnel spécialisé peut entraver la mise en œuvre efficace des mesures de sécurité.
Ces facteurs peuvent limiter la capacité des laboratoires à adopter des mesures de sécurité adéquates, les exposant à des risques accrus.
Il est toujours probable que le risque quantique n’existe pas
L’article de Jin-Yi Cai, intitulé Shor’s Algorithm Does Not Factor Large Integers in the Presence of Noise (arXiv:2306.10072), examine l’impact du bruit quantique sur l’efficacité de l’algorithme de Shor pour la factorisation d’entiers. L’étude démontre que même un niveau de bruit extrêmement faible dans les portes de rotation contrôlées peut compromettre la capacité de l’algorithme à factoriser des entiers de la forme $N = pq$, où $p$ et $q$ sont des nombres premiers. Cet article démontre l’incapacité mathématique des ordinateurs quantiques à casser des clés cryptographiques à partir d’une certaine taille avec les algorithmes existant, donc sans rien changer aux systèmes existant.
Modèle de bruit considéré
L’analyse se concentre sur les erreurs affectant les portes de rotation contrôlées, essentielles dans la transformation de Fourier quantique (QFT) utilisée par l’algorithme de Shor. Chaque application d’une porte est modélisée avec une erreur angulaire aléatoire;
Résultats principaux :
- Seuil critique de bruit : Il existe des constantes positives telles que si le nombre de bits de l’entier à factoriser) à trop grand, alors l’algorithme de Shor échoue à factoriser des entiers d’une certaines forme qui appartien à un ensemble de nombres premiers de densité positive.
- Probabilité d’échec élevée : Avec une probabilité tendant vers 1 avec le nombre de bits, l’algorithme échoue à factoriser des entiers sous l’effet du même niveau de bruit.
Ces résultats mettent en évidence la fragilité de l’algorithme de Shor face au bruit, même minime, dans les opérations quantiques. Ils soulignent la nécessité impérative de développer des techniques de correction d’erreurs quantiques efficaces pour que l’algorithme soit viable en pratique.
Conclusion : aucun risque à court ou moyen terme pour Bitcoin
L’informatique quantique ne représente à ce stade aucun risque significatif pour Bitcoin. Non seulement les ressources nécessaires à une attaque réussie restent hors de portée, mais les vulnérabilités spécifiques sont bien identifiées, marginales et déjà anticipées. Si un changement devenait nécessaire, il pourrait être implémenté par simple adoption d’un BIP, comme cela a été le cas historiquement pour de nombreuses évolutions du protocole; malgré des timelines controversées (2027-2030 vs. après 2030 uniquement pour ECDSA), la communauté Bitcoin est bien préparée, avec des solutions standardisées disponibles.
La vigilance doit néanmoins demeurer. Les travaux de normalisation post-quantique menés par le NIST et d’autres institutions offrent une base de réflexion utile, mais aucune urgence ne justifie une intégration précipitée de ces algorithmes dans Bitcoin.
A ce stade, la recommandation de sécurité serait plutôt de ne pas s’exposer aux risques des protection actuelles contre un risque non avéré.
Malgré les arguments rationnels, il persistera toujours des blocages de principe, voici les 3 principaux :
- Incertitude technologique : Une percée imprévisible dans la correction d’erreurs quantiques ou l’optimisation des algorithmes (ex. : une version réduite de Shor optimisée pour ECDSA) pourrait modifier radicalement les projections actuelles, rendant les estimations de sécurité obsolètes. => A l’heure actuelle la probabilité du risque est extrêmement faible, bien inférieur à un risque minimal à adresser; malgré la criticité.
- Risque de paralysie de gouvernance : Si la communauté Bitcoin tardait à atteindre un consensus sur la mise en œuvre de nouvelles primitives cryptographiques post-quantiques, une fenêtre de vulnérabilité critique pourrait s’ouvrir, même en présence de solutions techniques viables. => A l’heure actuelle ces travaux ont déjà été formulés (BIP et travaux associés).
- Vulnérabilités ciblées non négligeables : Des attaques opportunistes sur des portefeuilles anciens (non hachés, ou à clés publiques déjà exposées) pourraient suffire à déclencher une crise de confiance, indépendamment du fonctionnement global du protocole. => Ce serait sûrement exploité par les opposant à Bitcoin, comme tous les autres faux procès : centralisation, pollution, criminalité… L’absence de soutien académique crédible et la montée en connaissance des utilisateurs constitue déjà un frein à l’efficacité de ces attaques dans le temps et sur le cours. D’autant que personne n’a d’intérêt suffisamment fort pour vendre massivement des bitcoins suffisamment longtemps afin d’accentuer l’impression d’un mouvement de fuite.
Si cette analyse montre que Bitcoin ne court aucun risque quantique à court ou moyen terme, elle met aussi en lumière une asymétrie préoccupante : la réalité technique est largement dépassée par le discours qui l’entoure. Et cette déconnexion n’est pas sans conséquences.
En effet, pour avoir assisté à plusieurs restitutions scientifiques et techniques sur le sujet, on peut légitimement s’inquiéter de l’optimisme peu fondé exprimé par certains chercheurs ou groupes de travail. L’enthousiasme scientifique est naturel et souvent fécond, mais le ton actuel frôle parfois le discours commercial spéculatif.
Il va de soi que la recherche doit continuer, et il est important d’anticiper les ruptures à long terme. Mais il faut également rester critique face aux dynamiques financières à l’œuvre : la course à la captation de milliards d’euros de financements, sur la base de promesses vagues et de marketing fondé sur la peur (FUD), est discutable. Elle alimente des récits amplifiés par la hype, bien plus que par une rigueur scientifique.
Dans ce contexte, Bitcoin se distingue non seulement par sa résilience technique, mais aussi par la prudence de sa communauté, qui refuse les migrations précipitées ou les primitives cryptographiques non éprouvées. Ce scepticisme constitue peut-être sa meilleure défense, non seulement face aux attaques quantiques, mais aussi face aux pressions sociotechniques qui déforment déjà la réalité de la sécurité numérique.
Notons quelques points annexes :
Il y a un risque présent et avéré de tentative de récupérations des fonds perdus ou immobiles et des intérêts étatiques à faire bouger les ces fonds pour mieux les connaître. Le FUD sur le quantique pourrait peut y contribuer.
Il y a un risque présent et avéré des Etats à justifier les fonds illimités investis dans le quantique, par tous les moyens y compris avec un FUD sur les détenteurs de bitcoins.
Il y a un risque présent et avéré des Etats et de la finance à utiliser les normes crypographique pour contraindre les implémentations de Bitcoin et le rendre intégrable à leurs systèmes techniques, normatifs et politiques.
Références :
- Arute, F. et al. (2019). Quantum supremacy using a programmable superconducting processor. Nature, 574, 505–510. https://www.nature.com/articles/s41586-019-1666-5
- Chen, M. S. et al. (2022). Status Report on the Third Round of the NIST Post-Quantum Cryptography Standardization Process. NIST PQC. https://csrc.nist.gov/
- Google Quantum AI (2023). Progress update on fault-tolerant quantum computing.
- Mosca, M. (2018). Cybersecurity in an era with quantum computers: will we be ready? IEEE Security & Privacy, 16(5), 38–41.
- Roetteler, M., Naehrig, M., Svore, K., & Lauter, K. (2017). Quantum resource estimates for computing elliptic curve discrete logarithms. IACR Cryptology ePrint Archive, 2017: 279.
- Nakamoto, S. (2009). Bitcoin White Paper. https://bitcoin.org/bitcoin.pdf
- Proos, J., & Zalka, C. (2003). Shor’s discrete logarithm quantum algorithm for elliptic curves. Quantum Information & Computation, 3(4), 317–344.
- Converso, L. (2023). Cybersecurity in the quantum era: Will businesses be ready in time? LinkedIn Pulse.
- El Kaafarani, A. (2024). What I learnt about the security threat from quantum computing. The Times.
- Roetteler, M., Naehrig, M., Svore, K., & Lauter, K. (2017). Quantum resource estimates for computing elliptic curve discrete logarithms. IACR Cryptology ePrint Archive, 2017: 279.
- Wired (2025). The Quantum Apocalypse Is Coming. Be Very Afraid.
- The Guardian (2025). UK cybersecurity agency warns over risk of quantum hackers.
- BlackRock iShares Bitcoin Trust Prospectus 2025
- Quantum Threat to Bitcoin Q-Day May Arrive Early
- Performance Analysis Cat Qubits Elliptic Curve Logarithm
- NIST Releases First Three Post-Quantum Encryption Standards
- NIST Selects HQC Fifth Algorithm Post-Quantum Encryption
- BlackRock Flags Quantum Computing Risk Bitcoin ETFs
- Horizon Europe. (2024). Security of implementations of Post-Quantum Cryptography algorithms.
- McKinsey & Company. (2023). Potential and challenges of quantum computing hardware technologies.
- SIAM News. (2024). Challenges and Opportunities of Scaling Up Quantum Computation and Circuits.
- World Economic Forum. (2024). How tech firms are tackling the risks of quantum computing.
- The Quantum Insider. (2023). What Are The Remaining Challenges of Quantum Computing?
- IBM Research. (2024). Post-Quantum Cryptography: Implementation Attacks and Countermeasures.
- Quantum Zeitgeist. (2025). Exploring Cloud Quantum Computing Risks: Challenges And Solutions For Secure Environments.
- Wired. (2025). A ‘Teleportation’ Breakthrough for Quantum Computing Is Here. Lienwired.com
- Business Insider. (2025). Big Tech is starry-eyed over quantum computers, but scientists say major breakthroughs are years away.
- Wikipedia. (2025). Post-quantum cryptography.
- DoD (2021). Cybersecurity and Resilience of the Defense Industrial Base. Lien
- NIST (2022). Supply Chain Risk Management Practices for Systems and Organizations. NIST SP 800-161r1
- EU Quantum Flagship (2023). Quantum technologies and European strategic autonomy. Lien
- NSA (2022). Quantum Computing and Supply Chain Risk. Lien NSA
- World Economic Forum (2024). Building quantum resilience in global supply chains.
- Makarov, V., et al. (2015). Creation of backdoors in quantum communications via laser damage. arXiv:1510.03148.arxiv.org
- Zhao, Y., et al. (2007). Quantum Hacking: Experimental demonstration of time-shift attack against practical quantum key distribution systems. arXiv:0704.3253.arxiv.org
- Wiechers, C., et al. (2010). After-gate attack on a quantum cryptosystem. arXiv:1009.2683.arxiv.org
- Cai, J.-Y. (2023). Shor’s Algorithm Does Not Factor Large Integers in the Presence of Noise. arXiv:2306.10072.