Bluelake Post est édité par Bluelake, la cartographie temps réel de l'écosystème Data & IA en France. BLP#18 · 5 mai 2026
En 30 secondes
Consolidation souveraine : Cohere acquiert Aleph Alpha pour 20 Mds$ avec le soutien de Schwarz (Lidl), créant un champion européen face à OpenAI/Google, tandis que Microsoft perd son exclusivité sur les modèles OpenAI qui s'ouvrent à AWS et Google Cloud.
L'infrastructure agentique devient production-ready : Databricks lance Lakebase comme base transactionnelle temps réel pour agents IA, Stripe Projects permet le provisionnement autonome d'infra par les agents, Mistral structure Workflows autour de Temporal pour orchestrer des flux déterministes avec human-in-the-loop.
Le passage à l'échelle reste bloqué : 95% des projets IA échouent selon le MIT, 31% des DSI citent le manque de clarté stratégique comme obstacle majeur, révélant que la dette technique sur les données et l'absence de responsabilité claire freinent plus que les capacités techniques.
L'interopérabilité s'accélère : Databricks et Google Cloud fédèrent Unity Catalog et BigQuery via formats ouverts (Delta Lake, Iceberg), Snowflake lance Kafka Connector V4 avec architecture Snowpipe Streaming (10 GB/s), réduisant le lock-in entre plateformes.
Nouvelle génération de menaces IA : l'attaque PromptFlux exploite le Machine Unlearning pour détourner Claude/Gemini/ChatGPT sur 30 jours minimum, ClickFix s'impose comme technique d'ingénierie sociale prépondérante, tandis que CrowdStrike lance QuiltWorks avec OpenAI/Anthropic pour identifier les vulnérabilités révélées par les LLMs de frontière.
Stories
DEAL

Consolidation souveraine : l'Europe de l'IA se recompose sous pression américaine

L'acquisition d'Aleph Alpha par Cohere pour 20 milliards de dollars avec le soutien du groupe Schwarz (maison mère de Lidl) redessine la carte géopolitique de l'IA. Cette fusion intervient alors qu'OpenAI négocie sa sortie d'exclusivité Microsoft pour s'ouvrir à AWS et Google Cloud, et que le procès Musk contre Altman révèle les tensions autour de la gouvernance d'une organisation valorisée 850 milliards $. Ces mouvements simultanés illustrent la recomposition des alliances stratégiques entre souveraineté technologique européenne et domination des hyperscalers américains.

Cohere acquiert l'allemand Aleph Alpha dans une fusion valorisée 20 milliards de dollars, financée par une série E incluant un investissement de 500 millions d'euros du groupe Schwarz, avec comme objectif de créer une alternative souveraine aux géants américains de l'IA sur le marché européen. LeMagIT
Microsoft renonce à son accès exclusif aux modèles OpenAI, permettant à cette dernière de commercialiser ses technologies sur AWS et Google Cloud, suite aux tensions concernant un accord cloud de 50 milliards $ avec Amazon (Silicon, Financial Times).
Elon Musk attaque OpenAI et Sam Altman en justice, réclamant 150 milliards $ pour violation de trust caritatif, accusant l'organisation d'avoir détourné des fonds non-profit vers une entité commerciale valorisée 850 milliards $ avant son introduction en Bourse. Silicon
OpenAI annonce un amendement à son partenariat avec Microsoft permettant d'héberger ses produits sur d'autres clouds comme AWS et Google Cloud via Amazon Bedrock, tout en gardant Microsoft comme partenaire principal, concrétisant l'accord avec Amazon qui a investi 50 milliards de dollars. LeMagIT
L'opération Cohere-Aleph Alpha bénéficie du soutien de STACKIT, le cloud du groupe Schwarz, mais risque de créer une concurrence directe avec Mistral AI sur le marché européen de l'IA souveraine. LeMagIT
Impact CDO

Ces mouvements révèlent une double dynamique : la concentration des capacités de calcul entre les mains des hyperscalers américains et les tentatives européennes de créer des alternatives crédibles. Pour les organisations françaises et européennes, la question se pose désormais de manière stratégique : continuer à s'appuyer exclusivement sur les modèles américains (OpenAI, Anthropic, Google) ou investir dans les alternatives souveraines comme Mistral AI ou le nouveau champion Cohere-Aleph Alpha. Les cas CMA-CGM, France Travail et La Banque Postale qui ont adopté Mistral Workflows montrent qu'une approche hybride devient possible. La fin de l'exclusivité Microsoft-OpenAI réduit le risque de lock-in pour les clients Azure, mais intensifie la fragmentation des écosystèmes cloud. Les CDO qui anticipent construisent déjà des architectures multicloud et multi-modèles, réduisant leur dépendance à un seul fournisseur. Le procès Musk-Altman, au-delà du spectacle juridique, pose une question de gouvernance critique : qui contrôle réellement les modèles de fondation dont dépendent de plus en plus les infrastructures d'entreprise ? L'incertitude autour de l'IPO d'OpenAI pourrait accélérer la diversification des stratégies d'approvisionnement en IA.

🇫🇷 L'acquisition Cohere-Aleph Alpha positionne un concurrent direct à Mistral AI, qui avait jusqu'ici le quasi-monopole de l'IA souveraine européenne avec des clients comme CMA-CGM, France Travail et La Banque Postale. La présence de STACKIT (groupe Schwarz/Lidl) comme partenaire cloud renforce la dimension européenne de l'opération, avec une infrastructure déjà implantée en Europe. OVHcloud, acteur français du cloud souverain, pourrait voir son positionnement renforcé ou menacé selon sa capacité à s'allier avec l'un de ces champions européens. La compétition se déplace du modèle seul vers l'intégration verticale modèle-cloud-souveraineté.
STACK

L'architecture agentique arrive en production : de l'infra aux workflows orchestrés

L'industrie passe du chatbot expérimental aux systèmes agentiques autonomes en production avec une nouvelle génération d'infrastructures natives pour agents IA. Databricks lance Lakebase comme base transactionnelle temps réel pour éliminer la latence entre données opérationnelles et analytiques, Stripe Projects permet aux agents de provisionner automatiquement des ressources d'infrastructure, et Mistral AI structure Workflows autour de Temporal pour orchestrer des flux déterministes. Les hyperscalers positionnent la gouvernance comme couche critique avec des agents de sécurité (Google Cloud) et des frameworks d'observabilité (AWS OpenSearch).

Databricks Lakebase élimine la "taxe du builder" en unifiant données opérationnelles et analytiques sur une seule plateforme, permettant aux systèmes d'IA d'opérer en temps réel sans latence de synchronisation, avec LangGuard comme premier déploiement production de son moteur de gouvernance d'agents GRAIL. Databricks Blog
Stripe Projects lance un outil CLI permettant aux agents IA de provisionner automatiquement des bases Neon Postgres sans intervention humaine, signalant une évolution vers l'infrastructure agent-first avec l'architecture Lakebase. Databricks Blog
Mistral AI lance Workflows, une brique d'orchestration agentique basée sur le moteur open source Temporal, utilisée par CMA-CGM, France Travail et La Banque Postale, avec une architecture séparant l'exécution (Kubernetes) de l'orchestration (cluster Temporal) et incluant streaming, multilocataire et observabilité OpenTelemetry. Silicon
Google Cloud présente lors de Cloud Next 2026 des agents de sécurité basés sur l'IA pour automatiser la détection et la réponse aux menaces, incluant une protection multicloud optimisée par Wiz, avec trois agents intégrés à Security Operations réduisant le temps d'analyse de 30 minutes à 60 secondes minimum (LeMagIT, Silicon).
SAS présente Viya Copilot, un assistant IA conversationnel construit sur Microsoft Foundry avec le protocole Model Context Protocol, développant des frameworks agentiques pour aider les organisations à déployer l'IA autonome tout en maintenant contrôle et confiance. Silicon
Nvidia lance Nemotron 3 Nano Omni, un modèle multimodal de 30 milliards de paramètres capable de traiter texte, vidéo et audio, utilisé par Aible, Foxconn, Palantir et H Company pour accélérer le déploiement d'agents IA multimodaux en entreprise. Silicon
Palantir présente son architecture Ontology pour connecter les agents IA aux processus décisionnels en temps réel, intégrant quatre composants clés (données, logique, action, sécurité) pour créer une représentation sémantique complète de l'entreprise via leur plateforme AIP. Palantir Blog
Impact CDO

L'écart se creuse entre les organisations qui expérimentent des chatbots et celles qui déploient des systèmes agentiques en production. Les architectures traditionnelles basées sur des pipelines batch et des data warehouses ne supportent pas les besoins de latence et d'orchestration des agents autonomes. Les cas LangGuard (gouvernance temps réel avec Lakebase), CMA-CGM et France Travail (workflows déterministes avec Mistral-Temporal), et Palantir Ontology (décisions homme-agent à l'échelle) montrent que l'infrastructure devient le différenciateur. Pour ceux qui anticipent, trois investissements apparaissent prioritaires : une base de données unifiée opérationnelle-analytique (type Lakebase ou Neon Postgres), un moteur d'orchestration déterministe (type Temporal ou équivalent), et une couche de gouvernance capable de tracer et contrôler les actions des agents en temps réel. La séparation exécution-orchestration de Mistral Workflows révèle une architecture émergente : les agents s'exécutent en edge (Kubernetes), l'orchestration reste centralisée (Temporal), et l'observabilité devient critique (OpenTelemetry). Les hyperscalers positionnent la sécurité agentique comme couche différenciante : Google Cloud réduit le temps d'investigation de 30 minutes à 60 secondes avec des agents SOC, tandis qu'AWS unifie traces IA et métriques Prometheus dans OpenSearch. La question stratégique : construire ou acheter ces capacités ? SAS a choisi Microsoft Foundry, Mistral a intégré Temporal, Databricks a développé Lakebase en interne. Le risque pour ceux qui attendent : leurs architectures actuelles deviennent un frein structurel quand les métiers demanderont des agents autonomes.

🇫🇷 Mistral AI se positionne comme le premier fournisseur européen à structurer une offre agentique production-ready avec Workflows, déjà adoptée par CMA-CGM (transport maritime), France Travail (service public) et La Banque Postale (finance). L'architecture basée sur Temporal, moteur open source utilisé par Netflix et Salesforce, permet aux organisations françaises de déployer des agents IA sans dépendre des clouds propriétaires américains. Le choix de Temporal plutôt que des solutions propriétaires (AWS Step Functions, Azure Durable Functions) signale une stratégie de portabilité et d'indépendance cloud. France Travail illustre l'adoption par le secteur public d'architectures agentiques souveraines pour traiter des données sensibles (demandeurs d'emploi) avec des workflows déterministes et audités.
DEPLOY

Du POC à l'opérationnel : les entreprises françaises face au mur de la production IA

Malgré l'accumulation de POCs, le passage à l'échelle reste le principal obstacle des initiatives IA en entreprise. 95% des projets IA échouent selon le MIT, et 31% des DSI citent le manque de clarté stratégique comme frein majeur. Pourtant, des organisations comme Air Liquide, Qonto et Siemens Healthineers franchissent le mur en construisant des infrastructures dédiées : Hub LLM pour l'ERP SAP, agents bancaires spécialisés (Opérateur et Analyste), plateforme agentique Cerebra pour le CRM. Le signal dominant : la dette technique sur les données et l'absence de responsabilité claire bloquent plus que les capacités des modèles.

Air Liquide développe un Hub LLM pour accélérer l'adoption de l'IA générative dans ses processus financiers et son ERP SAP, visant à automatiser les activités de contrôle financier de son GBS multilingue pour 2 millions de clients. LeMagIT
Qonto lance deux agents IA spécialisés, L'Opérateur et L'Analyste, intégrés dans son application pour automatiser les opérations bancaires et faciliter l'analyse de données en langage naturel, marquant le passage d'un simple chatbot FAQ vers des agents capables d'exécuter des tâches financières complexes. ZDNET
Siemens Healthineers a développé la plateforme d'agents IA Cerebra avec KI Reply et Data Reply pour transformer les données CRM en informations exploitables, incluant une "agent factory" permettant aux services de créer de nouveaux agents IA. CIO Online
95% des projets IA échouent selon une étude du MIT, et 31% des DSI citent le manque de clarté de la stratégie IA comme obstacle majeur, tandis que 24% ne savent pas quel service est responsable des objectifs IA. CIO Online
La dette technique sur les données constitue un obstacle majeur, avec 50% d'échecs supplémentaires d'ici 2027 prévus par IDC pour les DSI qui retardent la remédiation, l'IA révélant et amplifiant les problèmes de qualité des données existants. CIO Online
Trinity Industries a atteint 15% d'amélioration dans la livraison de matériaux à temps et construit des modèles IA 50% plus précis que les benchmarks sectoriels en consolidant leur infrastructure fragmentée dans une architecture lakehouse unifiée sur Databricks. Databricks Blog
Dans la santé, le projet AXIA illustre la collaboration entre CHU d'Angers, Codoc et Biogen pour utiliser l'IA dans le diagnostic de maladies rares comme l'ataxie de Friedreich, analysant des données cliniques non structurées. LeMagIT
Impact CDO

Le paradoxe est clair : les modèles IA deviennent plus puissants, mais les taux de réussite en entreprise stagnent ou déclinent. Les cas Air Liquide, Qonto et Siemens Healthineers montrent que ceux qui réussissent le passage à l'échelle ont investi dans trois dimensions souvent négligées : l'infrastructure de données (Hub LLM unifié, lakehouse consolidé), la spécialisation des agents (Opérateur vs Analyste chez Qonto, agent factory chez Siemens), et la clarté des responsabilités organisationnelles. La dette technique sur les données n'est plus une métrique abstraite mais un risque opérationnel quantifiable : IDC prévoit 50% d'échecs supplémentaires d'ici 2027 pour ceux qui la négligent. Trinity Industries illustre l'approche inverse : consolider d'abord les données fragmentées, puis déployer l'IA, obtenant 15% d'amélioration opérationnelle et des modèles 50% plus précis. Pour les organisations qui accumulent des POCs sans passage en production, trois questions émergent : qui est responsable du succès de l'IA (31% des DSI ne le savent pas), quelle est la qualité réelle des données sous-jacentes (la dette technique s'amplifie avec l'IA), et quelle infrastructure unifie les données opérationnelles et analytiques (le modèle lakehouse de Trinity vs les silos traditionnels) ? Les métiers finance et santé montrent des approches différentes : Air Liquide et Qonto automatisent des processus structurés (contrôle financier, opérations bancaires), tandis que le projet AXIA analyse des données cliniques non structurées pour diagnostiquer des maladies rares. Dans les deux cas, la clarté du cas d'usage et la qualité des données déterminent le succès plus que la sophistication des modèles. La transformation du rôle DAF vers un "chef d'orchestre stratégique" plutôt qu'exécutant, observée par Sage et des experts finance, illustre que l'IA redéfinit les métiers en parallèle de la technologie.

🇫🇷 Air Liquide (2 millions de clients, présence mondiale) construit un Hub LLM pour son ERP SAP et son GBS multilingue, illustrant une approche d'industrialisation de l'IA générative dans les processus financiers plutôt qu'une multiplication de POCs. Qonto, scale-up française devenue licorne de la fintech, démontre que les néobanques européennes peuvent déployer des agents IA spécialisés en production (Opérateur pour l'automatisation, Analyste pour l'interprétation des données), concurrençant directement les initiatives similaires de BNP Paribas (Hello bank! avec HelloȉZ V2 et Moshi). Le projet AXIA associant le CHU d'Angers, Codoc et Biogen montre une collaboration public-privé-pharma pour l'IA médicale appliquée aux maladies rares, secteur où la France dispose d'expertises reconnues. Ces trois cas illustrent des trajectoires différentes : grand groupe industriel (Air Liquide), scale-up tech (Qonto), consortium santé (AXIA), mais tous partagent une approche infrastructure-first plutôt que modèle-first.
STACK

Interopérabilité et data platforms ouvertes : Databricks, Snowflake et BigQuery convergent

L'industrie des data platforms converge vers des architectures ouvertes et interopérables, réduisant le lock-in historique entre écosystèmes cloud. Databricks et Google Cloud annoncent la fédération bidirectionnelle Unity Catalog ↔ BigQuery via formats ouverts (Delta Lake, Iceberg), Snowflake dévoile Kafka Connector V4 avec architecture Snowpipe Streaming (10 GB/s), Data Clean Rooms multipartites avec IA, et Datometry pour migration Teradata sans réécriture. AWS lance l'observabilité unifiée dans OpenSearch pour traces IA et métriques Prometheus. Le signal stratégique : les lakehouses ouverts deviennent la nouvelle norme, et les fournisseurs historiques de data warehouses s'adaptent ou risquent l'obsolescence.

Databricks et Google Cloud annoncent l'interopérabilité bidirectionnelle entre Unity Catalog et BigQuery via la fédération de catalogues, permettant aux clients d'accéder aux mêmes données sans duplication en utilisant des formats de tables ouvertes comme Delta Lake et Apache Iceberg. Databricks Blog
Snowflake lance Kafka Connector V4, une réécriture complète basée sur l'architecture Snowpipe Streaming High-Performance qui déplace la logique d'ingestion côté serveur, offrant jusqu'à 10 GB/s de débit par table avec une latence de 5 secondes et un nouveau modèle de tarification à 0,0037 crédits par GB. Snowflake Blog
Snowflake lance de nouvelles fonctionnalités pour ses Data Clean Rooms, incluant la collaboration multipartite, l'intégration Cortex Code et Snowflake Intelligence pour simplifier la collaboration data tout en préservant la confidentialité, avec des témoignages de Hightouch, Kargo, OneTrust et PubMatic. Snowflake Blog
Snowflake lance la prévisualisation publique de Datometry for Snowflake, une solution permettant aux entreprises de migrer rapidement de Teradata vers Snowflake sans réécriture de code SQL, avec un transfert lift-and-shift en quelques semaines au lieu d'années. Snowflake Blog
Amazon OpenSearch Service lance une interface d'observabilité unifiée intégrant métriques, traces et débogage d'agents IA, avec support natif de Prometheus et OpenTelemetry, incluant le traçage sémantique des chaînes de raisonnement IA et l'analyse unifiée des métriques RED traditionnelles. AWS Big Data Blog
Stripe Data Pipeline devient disponible sur Databricks Marketplace via Delta Sharing, permettant le streaming direct des données de paiement Stripe dans Unity Catalog, éliminant le besoin d'ETL personnalisés et d'appels API. Databricks Blog
SAP Business Data Cloud annonce la synchronisation automatique des métadonnées sémantiques avec Databricks Unity Catalog, rendant les données SAP plus facilement compréhensibles pour l'IA en synchronisant automatiquement descriptions, relations clés et tags de gouvernance via Delta Sharing. Databricks Blog
Impact CDO

La fragmentation historique entre data warehouses propriétaires (BigQuery, Snowflake, Teradata) et lakehouses ouverts (Databricks) est en train de se résorber, mais pas de manière symétrique. Les formats ouverts (Delta Lake, Iceberg) deviennent le langage commun, forçant les acteurs historiques à s'adapter. La fédération Unity Catalog ↔ BigQuery via Iceberg REST catalog signale que Google Cloud accepte l'interopérabilité plutôt que de défendre un écosystème fermé. Snowflake, de son côté, multiplie les ponts : Kafka Connector V4 avec 10 GB/s de débit pour l'ingestion temps réel, Data Clean Rooms multipartites avec IA pour la collaboration data sensible, et surtout Datometry pour faciliter les migrations Teradata sans réécriture de code. Cette dernière annonce est stratégique : Teradata, historiquement dominant dans les data warehouses on-premise, voit son lock-in technique (SQL propriétaire, dépendances applicatives) contourné par une couche de virtualisation. Pour les organisations encore sur Teradata ou d'autres plateformes legacy, le coût de migration vient de chuter drastiquement. Les cas Hightouch, Kargo, OneTrust et PubMatic sur les Data Clean Rooms montrent une démocratisation des capacités de collaboration data sensible, historiquement réservées aux grandes entreprises avec des équipes techniques avancées. L'intégration Cortex Code et Snowflake Intelligence transforme les clean rooms en interfaces accessibles aux métiers, pas seulement aux data engineers. AWS joue une carte différente avec OpenSearch : plutôt que de concurrencer Databricks ou Snowflake directement, il unifie observabilité IA et infrastructure traditionnelle (métriques Prometheus, traces OpenTelemetry), positionnant OpenSearch comme couche transverse pour surveiller les systèmes agentiques. Les intégrations Stripe → Databricks Marketplace et SAP Business Data Cloud → Unity Catalog révèlent une autre tendance : les fournisseurs SaaS (paiements, ERP) exposent leurs données directement dans les lakehouses via Delta Sharing, éliminant les ETL personnalisés. Pour ceux qui construisent leurs data platforms aujourd'hui, la question n'est plus "quel fournisseur choisir" mais "quelle architecture permet le plus d'interopérabilité et réduit le lock-in". Les formats ouverts (Delta Lake, Iceberg), les protocoles de partage (Delta Sharing), et les APIs standardisées (Iceberg REST catalog, OpenTelemetry) deviennent les critères de choix prioritaires. Le risque : investir dans une plateforme propriétaire juste avant que l'interopérabilité ne la rende obsolète.

🇫🇷 Snowflake a renforcé sa stratégie de souveraineté des données en France avec plus de 500 clients et un partenariat avec SAP, s'appuyant sur Apache Iceberg et Polaris pour offrir des solutions hybrides répondant aux exigences de localisation. Arnaud Schiffert, country manager France, a présenté cette approche ouverte lors du Data Cloud World Tour à Paris. L'intégration SAP Business Data Cloud → Databricks Unity Catalog est particulièrement stratégique pour les grands groupes français utilisateurs de SAP (majoritaires dans le CAC40 et SBF120), leur permettant d'exploiter leurs données ERP pour l'IA sans migration technique lourde. La disponibilité de Datometry for Snowflake pourrait accélérer les migrations des infrastructures Teradata encore présentes chez certains grands groupes français (banques, télécoms, industrie).
RISK

Nouvelle génération de menaces : IA weaponisée et vulnérabilités systémiques

L'IA amplifie simultanément attaques et défenses, créant une course aux armements asymétrique. L'attaque PromptFlux exploite le Machine Unlearning pour détourner Claude/Gemini/ChatGPT sur 30 jours minimum, contournant les garde-fous des SOC. ClickFix s'impose comme technique d'ingénierie sociale prépondérante, utilisée par Lazarus, TA427 et d'autres groupes APT pour transformer les utilisateurs en vecteurs d'infection. CVE-2026-31431 expose une faille critique noyau Linux depuis 2017, permettant l'élévation de privilèges avec un simple script Python. En réponse, CrowdStrike lance QuiltWorks avec OpenAI/Anthropic pour identifier les vulnérabilités révélées par les LLMs de frontière.

L'attaque PromptFlux mutagène peut détourner les LLM comme Claude, Gemini et ChatGPT en exploitant le Machine Unlearning pour contourner les garde-fous des IA génératives, ciblant la mémoire du modèle sur 30 jours minimum pour générer des contenus malveillants, révélant une vulnérabilité critique des systèmes d'IA dans les SOC. LeMagIT
ClickFix s'est imposée en 2025 comme une technique d'attaque prépondérante exploitant la confiance des utilisateurs via de faux CAPTCHA et interfaces familières, utilisée par des groupes comme Lazarus, Interlock, TA427 et TA450 pour déployer des malwares variés (LummaStealer, AsyncRAT, GolangGhost) en transformant l'utilisateur en vecteur d'infection. Silicon
La vulnérabilité CVE-2026-31431 ("Copy Fail") permet une élévation de privilèges critique dans le noyau Linux affectant les distributions depuis 2017, exploitant une faille dans le modèle cryptographique "authencesn" via l'interface AF_ALG, permettant à un utilisateur local d'obtenir les droits root avec un simple script Python. LeMagIT
CrowdStrike lance le projet QuiltWorks, une coalition avec Accenture, EY, IBM Cybersecurity Services, Kroll et OpenAI pour identifier les vulnérabilités exploitables révélées par les modèles d'IA de frontière, utilisant les technologies d'OpenAI et Anthropic sur la plateforme CrowdStrike Falcon. Silicon
Les cleptogiciels (infostealers) constituent un risque systémique avec 3,9 millions de machines infectées générant 347,5 millions d'identifiants compromis en 2025 selon KELA, révélant une industrialisation croissante des menaces avec expansion sur macOS et techniques comme ClickFix via un modèle Malware-as-a-Service. LeMagIT
Databricks propose Lakewatch et Databricks Genie comme solution d'un SIEM agentique ouvert qui unifie toutes les données de télémétrie sur une architecture lakehouse et utilise des agents IA pour la détection et réponse aux menaces à vitesse machine, transformant le rôle des analystes sécurité d'un modèle "human-in-the-loop" vers "human-at-the-helm". Databricks Blog
Le malware VECT 2.0 se présente comme un ransomware mais fonctionne en réalité comme un wiper à cause d'une faille dans son moteur cryptographique, détruisant de manière irréversible les données de plus de 128 Ko selon l'analyse de Check Point. LeMagIT
Impact CDO

La surface d'attaque explose dans deux directions simultan

Radar

Entreprises FR

Mistral AI : Lance Workflows, une brique d'orchestration agentique basée sur Temporal, déjà adoptée par CMA-CGM, France Travail et La Banque Postale. Signal de maturité industrielle avec architecture déterministe et human-in-the-loop.
OVHcloud : Intègre Belenos, le deuxième ordinateur quantique de Quandela, portant à huit machines sa Quantum Platform. Positionnement souverain renforcé avec facturation à la seconde, alors que le gouvernement français triple le budget quantique défense.
Air Liquide : Construit un Hub LLM pour accélérer l'adoption de l'IA générative dans ses processus financiers servant 2 millions de clients. Fabien Mangeant (chief Data & AI officer) orchestre l'intégration avec l'ERP SAP pour automatiser le GBS multilingue.
SAP : Disponibilité annoncée de Private Cloud Edition sur S3NS (Thales/Google) d'ici S2 2026, complétant l'offre Bleu sur Azure. Stratégie multicloud souveraine avec S/4HANA et BTP dans le programme RISE, face à la concurrence de Mistral AI sur le marché européen.
Qonto : Lance deux agents IA spécialisés (L'Opérateur et L'Analyste) intégrés dans son application bancaire, marquant le passage du chatbot FAQ vers l'exécution autonome de tâches financières complexes. Signal d'industrialisation de l'IA agentique dans la fintech française.
Doctrine : Entre en négociations exclusives pour être rachetée par RELX (LexisNexis) pour environ 300 millions d'euros. Transformation d'un ancien adversaire juridique en acquéreur, signal de consolidation du marché européen de l'IA juridique face aux géants anglo-saxons.

Personnes clés

Fabien Mangeant (Chief Data & AI Officer, Air Liquide) : Pilote le Hub LLM pour l'adoption de l'IA générative dans les processus financiers du groupe, ciblant l'efficacité de la chaîne de valeur pour 2 millions de clients.
Arnaud Schiffert (Country Manager France, Snowflake) : Présente la stratégie de souveraineté des données en France avec plus de 500 clients et le partenariat SAP, s'appuyant sur Apache Iceberg et Polaris pour des solutions hybrides.
Boris Lecoeur (nouveau DG, Synfonium/Qwant/Shadow) : Ancien dirigeant AWS France et Cloudflare, nommé à partir du 11 mai 2026 pour transformer les champions français du cloud et de la recherche souveraine face aux géants américains.
Anthony Cirot (VP EMEA Sud et dirigeant par intérim, Google Cloud France) : Annonce 50% d'usage quotidien des modèles Gemini déployés avec adoption par Valeo, EcoVadis et Renault, tout en reconnaissant les défis du passage à l'échelle de l'IA agentique.
Hélèn

Keep Reading