Jeremy Bradley de Zama explique pourquoi la montée en puissance de l'IA oblige les entreprises à prendre la vie privée plus au sérieux et comment les nouvelles technologies y réagissent.
Publié le mois dernier, le rapport international 2026 sur la sécurité de l'IA a clairement indiqué deux choses : alors que les déploiements d'IA étaient encore des projets pilotes ou des outils à portée limitée il y a à peine un ou deux ans, les capacités de l'IA ont progressé à la vitesse de l'éclair et leur adoption – encore plus rapide. En fait, plus de 700 millions de personnes utilisent désormais chaque semaine les principaux systèmes d’IA, ce qui représente un taux d’adoption qui dépasse de loin les technologies antérieures comme l’ordinateur personnel.
Pour les entreprises qui assistent à ce changement – tant en termes de capacités technologiques que de demande – l’attrait pour capitaliser sur l’IA est fort. Fournie en grande partie via le traitement des données basé sur le cloud, l'IA ouvre la porte à tout, depuis l'automatisation des décisions et l'extraction de valeur des données à grande échelle jusqu'à une évolution beaucoup plus rapide que les concurrents si elle est adoptée tôt. Ces professionnels ont vu beaucoup d’entre eux l’intégrer déjà dans leurs flux de travail de base, notamment la tarification, la prise de décision, la R&D, les aspects juridiques, les soins de santé et la finance.
Le paradoxe de la transparence
Cependant, dès que l’IA touche la propriété intellectuelle de base et les données réglementées, les entreprises se heurtent à un obstacle. Gérant des systèmes ouverts par conception, ils ont du mal à prendre en charge des cas d'utilisation réels impliquant tout type de données confidentielles (paie, identité, finance d'entreprise, etc.).
Cela n’a pas nécessairement ralenti l’adoption de l’IA, mais cela l’a rendue inégale. Plus précisément, nous avons assisté à des expérimentations rapides à la périphérie, où l'IA présente un faible risque, mais à la prudence lorsqu'il s'agit de former des systèmes d'IA sur des données sensibles, réglementées ou propriétaires ou d'interagir avec elles. Cela a conduit de nombreuses personnes à limiter l'utilisation de la production à des tâches de portée étroite ; s'appuyer sur des ensembles de données plus fins, aseptisés ou synthétiques ; ou gardez les charges de travail de grande valeur hors des environnements cloud partagés.
Tout cela découle bien sûr du risque d'exposition des données, que ce soit via une infrastructure tierce, des données réutilisées de manière difficile à auditer ou des informations incorporées dans des modèles difficiles à inspecter ou à dérouler. Les récents échecs très médiatisés (fuites de données, attaques par inversion de modèle, application de la réglementation, scandales d'utilisation abusive de l'IA, etc.) n'ont fait que renforcer les inquiétudes quant à ce qu'il advient des données sensibles une fois qu'elles entrent dans un système d'IA.
Parallèlement à cela, la gouvernance de l’IA passe d’une politique abstraite à une responsabilité fiduciaire. La position de l'Information Commissioner's Office (ICO) du Royaume-Uni sur la conformité de l'IA, par exemple, est que toute organisation utilisant l'IA pour traiter des données personnelles doit se conformer à la loi sur la protection des données, quelle que soit la complexité ou l'opacité du système. Le Comité européen de la protection des données (EDPB) a également une position sensiblement la même.
Comment l’IA confidentielle deviendra la norme
En pratique, ce qui précède soulève d’énormes questions – en particulier pour les secteurs réglementés – en matière de responsabilité, de résidence des données et de respect de la loi sur la protection de la vie privée. Mais cela oblige également les entreprises à équilibrer la pression pour adopter rapidement l’IA avec le risque d’exposer des données qu’elles ne peuvent pas se permettre de perdre ou d’utiliser à mauvais escient. Et c’est cette lacune que les technologies de préservation de la vie privée – en particulier le chiffrement entièrement homomorphique (FHE) – commencent à combler.
FHE existe depuis longtemps en tant que théorie mathématique, promettant la possibilité de calculer des données cryptées sans jamais les déchiffrer. Cependant, jusqu’à récemment, son utilisation était limitée ; les implémentations étaient lentes, gourmandes en ressources et difficiles à intégrer pour les développeurs dans les systèmes du monde réel.
Plusieurs avancées récentes ont toutefois rapproché FHE d’un déploiement à grande échelle et d’une technologie prête à être développée. Ceux-ci incluent de nouveaux schémas cryptographiques tels que les optimisations CKKS, qui prennent en charge l'arithmétique approximative et sont plus efficaces pour les tâches d'IA ; des algorithmes améliorés qui ont amélioré les processus d'amorçage, réduisant considérablement le temps nécessaire pour actualiser les textes chiffrés ; et des bibliothèques telles que TenSEAL et Concrete sont encore optimisées, ce qui permet aux développeurs de déployer plus facilement FHE à grande échelle. De plus, l'accélération matérielle via les GPU et les FPGA a réduit les demandes de calcul, tandis que des API plus conviviales pour les développeurs ont rendu l'intégration dans les flux de travail existants plus transparente.
Tout cela signifie que désormais – pour la première fois – les développeurs peuvent réellement concevoir des pipelines d’IA où la confidentialité est garantie par l’architecture elle-même, plutôt que appliquée en externe. Cela permet d’étendre l’IA à des domaines tels que la paie, les soins de santé, la finance et d’autres domaines réglementés, le tout sans compromettre la confidentialité – une évolution qui verra l’IA confidentielle devenir la norme.
Qui en bénéficiera le plus ?
Les entreprises qui réussiront dans cette prochaine phase de transformation numérique ne seront pas celles qui estiment en faire déjà assez. Ce ne seront pas non plus ceux qui supposeront que la vie privée peut être améliorée ultérieurement, et certainement pas ceux qui interpréteront à tort le calme relatif actuel autour de la vie privée comme un manque de demande (dès que des solutions viables existent, les attentes se réinitialisent très rapidement).
Ce seront plutôt ceux qui traiteront les données confidentielles comme un actif stratégique dès le premier jour et qui intégreront la confidentialité dès la conception.
Pour ceux de ce dernier camp, ils seront les premiers à débloquer :
- Accédez à des données plus riches, plus sensibles et à signal plus élevé, simplement parce que les clients leur font confiance.
- Rapidité de déploiement dans des environnements sensibles, grâce à moins de contrôles juridiques, moins de contrôles sur mesure, moins de veto internes. C’est à ce moment-là que le time-to-value devient un véritable différenciateur.
- Profondeur d'intégration et de collaboration. Les systèmes préservant la confidentialité facilitent la collaboration au-delà des frontières organisationnelles (partenaires, fournisseurs, juridictions) qui était auparavant impossible. Cela élargit les marchés adressables, et n’améliore pas seulement les marges.
Qu’adviendra-t-il de la vie privée d’ici la fin de l’année ?
À l'heure actuelle, la technologie est prête et les avantages sont clairs, mais cela ne suffit pas à lui seul pour faire passer la confidentialité d'un « agréable à avoir » à une exigence au niveau du conseil d'administration pour de nombreuses entreprises. Pour que cela se produise, une série de pressions convergeront.
Premièrement, nous commencerons à voir quelques grandes entreprises et acteurs du secteur public définir des architectures préservant la confidentialité comme exigences par défaut. Cela verra le marché basculer, et le reste suivra rapidement à travers les chaînes d’approvisionnement et les plateformes.
Dans le même temps, la demande en IA continuera de croître, parallèlement à la nécessité de fonctionner sur des données sensibles. En retour, cela verra la réglementation de l’IA continuer à mûrir, et les conseils d’administration ne se demanderont plus « est-ce que la confidentialité est une bonne chose ? mais « pouvons-nous prouver que les données n’ont jamais été divulguées ?
Finalement, la pression concurrentielle fera le reste. Les entreprises qui tardent à adopter des approches de protection de la vie privée dès la conception commenceront à voir leurs concurrents agir plus rapidement, débloquer des données à plus forte valeur ajoutée et conclure des accords qui restent hors de portée.
Tout cela, je pense, se produira d’ici la fin de 2026. D’ici 2027, les attentes auront rattrapé les capacités, et le coût de la non-intégration de la confidentialité dès la conception sera visible, mesurable et stratégique.
Par Jeremy Bradley
Jeremy Bradley est le directeur des opérations chez Zama. Il est un leader interfonctionnel et hautement tactique qui a travaillé avec de nombreuses organisations pour façonner la stratégie, piloter les communications et les partenariats, et diriger les politiques et les processus.
