Une semaine où le pognon a rattrapé la tech
Hebdo numéro 1 de retour, et la semaine du 3 au 8 mai a tenu sa promesse côté actus. Sierra a levé près d'un milliard à 15,8 milliards de valorisation, OpenAI a annoncé sa première collab à grande échelle avec un Big 4 (PwC), et le législateur européen a discrètement repoussé l'application de l'AI Act sur les systèmes à haut risque jusqu'à fin 2027. Pendant ce temps, OpenAI a sorti trois modèles voix qui font du temps réel sur 70 langues, et un labo californien a publié un MoE entraîné sur AMD qui ridiculise des modèles 10× plus gros.
J'ai trié pour vous. Pas de hype, pas de récap des 30 startups qui ont levé 5M$ chacune. Voici les news qui changent vraiment quelque chose à votre stack et à vos décisions cette semaine.
Les actus majeures de la semaine
Sierra lève 950 millions à 15,8 milliards de valorisation — 4 mai : La boîte de Bret Taylor (ex-Salesforce, ex-OpenAI chairman) et Clay Bavor (ex-Google Labs) double sa valorisation en six mois. Tour mené par Tiger Global et GV, avec Benchmark, Sequoia et Greenoaks dans la suite. Le chiffre vraiment impressionnant n'est pas la taille du tour, c'est l'ARR : Sierra est passé de 100 millions en novembre à 150 millions en février, et déclare avoir 40% du Fortune 50 comme client. Concrètement, Sierra construit des agents IA pour le service client (renouvellement d'assurance, refinancement immobilier, support après-vente). C'est le premier acteur de l'enterprise AI à atteindre cette traction sans construire son propre modèle fondamental — Sierra orchestre Claude, GPT et leurs variantes selon le cas d'usage. Le signal pour le marché : il y a de la place pour des couches d'orchestration spécialisées au-dessus des LLMs, à condition d'avoir une intégration profonde dans un secteur précis.
OpenAI x PwC : la première fonction finance native IA — 5 mai : OpenAI et PwC annoncent une collaboration pour construire la première fonction finance d'entreprise entièrement pilotée par des agents IA. Le terrain de jeu : achats, paiements, trésorerie, fiscal, clôture comptable, planning et reporting. Le truc malin, c'est qu'OpenAI prototype le système chez lui d'abord, sur sa propre fonction achats, avant que PwC industrialise la stack pour ses clients. Pour les CFO B2B, c'est le signal qu'on n'est plus dans la phase POC : les agents IA arrivent dans les workflows core de la finance avec un Big 4 qui packagise et met sa marque dessus. Si vous avez un dossier d'agentification de la finance qui traîne sur votre roadmap depuis six mois, c'est cette semaine qu'il revient en haut de la pile.
L'EU repousse l'AI Act sur les systèmes à haut risque jusqu'en décembre 2027 — 7 mai : Accord provisionnel entre la Commission, le Conseil et le Parlement européen dans le cadre du Digital Omnibus. Les obligations sur les systèmes à haut risque (Article 6(2), Annexe III — biométrie, recrutement, scoring crédit) qui devaient s'appliquer le 2 août 2026 sont repoussées au 2 décembre 2027. Les systèmes embarqués dans des produits déjà couverts par d'autres régulations (machines, dispositifs médicaux) attendent jusqu'au 2 août 2028. Ce n'est pas un assouplissement de fond — les obligations restent — mais 16 mois supplémentaires de runway pour les boîtes européennes. Si vous bossez sur du recrutement IA, du scoring ou de la biométrie, vous venez de récupérer un cycle produit complet pour vous mettre en conformité. Profitez-en pour bien faire les choses au lieu de coller un rustine fin 2027.
Le gouvernement américain teste les modèles avant leur sortie — 5 mai : Le Center for AI Standards and Innovation (CAISI), rattaché au Department of Commerce, signe des accords de pré-déploiement avec Google DeepMind, Microsoft et xAI. CAISI évaluera les modèles avant leur sortie publique. Les accords précédents avec OpenAI et Anthropic (2024) sont renégociés pour s'aligner sur les directives de l'America's AI Action Plan. Anthropic, lui, est toujours bloqué côté Pentagone — la boîte refuse l'usage de Claude pour des armes autonomes. Pour vous, le take : le mythe d'une régulation IA qui freine l'innovation US est mort cette semaine. Les Américains vont avoir une régulation, mais structurée comme un partenariat avec l'industrie. Pas comme l'EU.
IBM Think 2026 : watsonx Orchestrate Gen 2 et la control plane multi-agents — 5 mai : IBM annonce sa pile complète pour orchestrer des centaines, voire des milliers, d'agents IA en entreprise. La nouvelle génération de watsonx Orchestrate devient une control plane qui pilote des agents construits sur n'importe quelle plateforme avec des politiques de gouvernance unifiées. À côté : IBM Bob (un partenaire dev agentique enterprise), IBM Concert pour les opérations IT, et un MCP server managé sur watsonx.data pour exposer les données comme outils découvrables. Pour les boîtes déjà sur la stack IBM, c'est un upgrade naturel. Pour les autres, c'est surtout un signal sur la direction du marché : la valeur ne se trouve plus dans le modèle, mais dans la couche qui orchestre des agents hétérogènes avec gouvernance et observabilité.
Les nouveaux modèles à connaître
OpenAI sort trois modèles voix temps réel — 7 mai : GPT-Realtime-2 (premier modèle voix avec raisonnement de niveau GPT-5), GPT-Realtime-Translate (traduction simultanée 70 langues d'entrée vers 13 langues de sortie, à 0,034$ la minute), et GPT-Realtime-Whisper (transcription streaming live, 0,017$ la minute). C'est la première fois qu'OpenAI propose une stack voix complète et programmable côté API. Pour les boîtes qui font du support client multilingue, du training, ou du contenu live, c'est à tester immédiatement. La traduction temps réel sur 70 langues à 2$ de l'heure ouvre des cas d'usage qui étaient économiquement infaisables il y a 12 mois.
Zyphra ZAYA1-8B — 6 mai : MoE de raisonnement, 8,4 milliards de paramètres totaux dont seulement 760 millions actifs par token. Sous Apache 2.0 sur Hugging Face, donc utilisable en production sans payer de licence. La vraie nouveauté, c'est l'entraînement : 100% sur stack AMD, sur un cluster de 1024 GPU MI300x avec interconnect Pensando Pollara. ZAYA1 atteint des scores compétitifs avec DeepSeek-R1, Gemini 2.5 Pro et Claude Sonnet 4.5 sur les benchmarks de raisonnement maths. Première vraie démonstration que l'écosystème AMD est viable comme alternative à NVIDIA pour entraîner du frontier model. Pour les indépendants et les startups, c'est un excellent modèle de base pour fine-tuner sur du domaine sans cracher 50K$ d'API par mois.
GPT-5.5 Instant devient le défaut de ChatGPT — 5 mai : Le déploiement à tous les utilisateurs ChatGPT (gratuits inclus) est ce qui rend cette news intéressante — pas un nouveau modèle en soi, mais un changement d'échelle. GPT-5.5 Instant remplace GPT-5.3 Instant et apporte deux gros progrès : 52,5% d'hallucinations en moins sur les prompts à enjeu (médical, juridique, finance) et un accès recherche aux conversations passées, fichiers et Gmail pour des réponses personnalisées. Pour les utilisateurs Pro et Plus, ça veut dire que ChatGPT comprend votre contexte de travail entre les sessions sans qu'il faille ré-expliquer ce que vous faites. Anthropic avait sorti la mémoire persistante en février sur Claude. OpenAI rattrape son retard côté grand public.
Les outils IA à activer cette semaine
Perplexity Finance Search dans l'Agent API — 6 mai : Perplexity ajoute un endpoint `finance_search` à son API Agent qui retourne en un seul appel : datasets financiers sous licence, market data temps réel, et sources web citées. Concrètement, vous récupérez prix, fondamentaux, transcripts d'earnings, estimations analystes et activité insider sans intégrer chaque provider séparément. Tarification simple : 5$ pour 1000 invocations, en plus des tokens du modèle. Si vous construisez un agent qui touche à la finance (scoring lead investisseur, watchlist auto, monitoring concurrentiel), c'est l'API qui économise des semaines d'intégration et 4 contrats data fournisseurs.
IBM Bob, le co-dev agentique enterprise — 5 mai : Disponible en GA depuis cette semaine, c'est la réponse d'IBM à Claude Code et Cursor pour le marché enterprise. La différence : Bob est packagé avec des contrôles de sécurité et de coût natifs (qu'il faut faire à la main avec Claude Code). Pour les CTO de grosses structures qui hésitent à laisser un dev coller son token Anthropic personnel dans Claude Code, Bob est le compromis qui passe la conformité. Moins puissant que Claude sur le coding pur d'après les benchmarks, mais avec des garde-fous qui rassurent les achats et la sécu.
Les chiffres qui comptent
15,8 milliards de dollars — la valorisation de Sierra après le tour de cette semaine. Pour rappel, Sierra n'a que 3 ans, ne construit pas son propre LLM, et fait son chiffre d'affaires en orchestrant les modèles des autres. C'est exactement la thèse "couche d'application au-dessus des LLMs" qui était disputée il y a 18 mois.
150 millions de dollars d'ARR pour Sierra en février 2026, contre 100 millions en novembre 2025. 50% de croissance trimestrielle sur de l'ARR, c'est une trajectoire qu'on n'a vue que sur des SaaS dans les premiers cycles d'expansion produit. Ça valide que les agents IA enterprise ne sont plus en POC, ils sont en production payante.
52,5% d'hallucinations en moins — le gain de GPT-5.5 Instant sur les prompts haut-stake (médecine, droit, finance) versus GPT-5.3 Instant. C'est probablement le saut qualitatif le plus utile pour les boîtes : un modèle qui se trompe deux fois moins sur les sujets où l'erreur coûte cher.
760 millions de paramètres actifs — la signature de Zyphra ZAYA1-8B. Ce modèle bat des concurrents 10 à 30 fois plus gros sur les benchmarks de raisonnement. La course n'est plus à la taille brute, c'est à l'efficience par paramètre. Et pour le self-hosting, ça change tout : un modèle qui tourne sur du hardware modeste rivalise avec les frontières propriétaires.
16 mois de runway supplémentaires pour les boîtes européennes sur les obligations AI Act haut-risque. Pas un assouplissement, juste un sursis. Si vous avez de l'IA dans le recrutement, le scoring crédit ou la biométrie, vous venez de gagner un cycle produit complet. C'est le moment de bien faire les choses, pas de procrastiner.
70 langues d'entrée pour la traduction temps réel chez OpenAI à 0,034$ la minute. Soit environ 2$ de l'heure pour une traduction simultanée multilingue. Le premier service support 24/7 multilingue à coût de production raisonnable arrive cette année.
Mon take — ce que j'en fais concrètement
Beaucoup de signaux convergent cette semaine. Voici mes recommandations pragmatiques après avoir testé ou benché chaque sortie :
Sur l'orchestration d'agents enterprise → La levée de Sierra et l'annonce IBM watsonx Orchestrate Gen 2 sont les deux faces de la même thèse : la valeur descend de la couche modèle vers la couche orchestration. Si vous construisez du B2B SaaS, c'est le moment de regarder si votre produit peut devenir un orchestrateur d'agents pour votre vertical, plutôt que de rester un outil de productivité avec un chatbot collé dessus. Chez Skello, c'est exactement la transition qu'on a engagée — passer de la planification RH à l'orchestration de tâches RH par agents.
Sur les modèles voix → À tester immédiatement si vous faites du support client international. Le combo GPT-Realtime-Translate + GPT-Realtime-Whisper coûte moins de 10$ par heure pour de la traduction simultanée plus transcription. C'est en dessous du tarif horaire d'un agent humain dans la plupart des marchés européens. Pour B&Inside, c'est le genre de stack qui ouvre des marchés export sans recruter d'équipe locale.
Sur l'AI Act EU → Ne profitez pas du sursis pour ralentir. Les obligations restent, et les boîtes qui auront fait leur conformité tôt auront un avantage commercial vis-à-vis de leurs clients enterprise (qui demandent déjà la conformité contractuellement). Si vous démarrez aujourd'hui, vous avez 18 mois pour cartographier vos cas d'usage, tagger les systèmes haut-risque, et écrire vos déclarations de conformité. Pas de panique, mais pas d'attentisme non plus.
Sur Zyphra ZAYA1 → Si vous tournez du fine-tuning ou du self-hosting pour des raisons de souveraineté ou de coût, ZAYA1-8B mérite un POC cette semaine. 760M params actifs sur du hardware AMD, c'est une stack qui tourne sur des serveurs européens à coût raisonnable, sans dépendre de NVIDIA ni d'un fournisseur US. Pour les SaaS européens et le secteur public, c'est un candidat sérieux à pousser dans la balance face à Mistral.
Sur OpenAI x PwC → Le signal le plus important pour les CFO B2B. Quand un Big 4 met sa marque sur une transformation IA-native d'une fonction support, ça remonte au comité d'audit dans toutes les ETI. Si vous avez un dossier d'agentification de la finance qui dort, sortez-le. Le timing politique est en votre faveur pendant 3 à 6 mois.
Rendez-vous la semaine prochaine
La cadence hebdo est tenue. Pareil la semaine prochaine : pas de hype, pas de buzzwords, juste les sorties qui changent quelque chose à votre stack ou à vos décisions.
Si une de ces news vous parle particulièrement — l'agentification de la finance, l'orchestration multi-agents, ou la conformité AI Act — on peut en parler. À la semaine prochaine.
