Le retour de la veille IA

Cinq semaines depuis la dernière édition. Pendant ce temps, l'écosystème IA a vécu deux des semaines les plus chargées de l'année. Anthropic a sorti Claude Opus 4.7. OpenAI a répondu avec GPT-5.5. Google a annoncé le plus gros deal IA de l'histoire — 40 milliards de dollars dans Anthropic. Et la plateforme Vertex AI a disparu, remplacée par le Gemini Enterprise Agent Platform.

Je vous avais promis une veille hebdomadaire, et j'ai sauté plusieurs rendez-vous. Mea culpa. Plutôt que de vous noyer dans 5 semaines de news, je me concentre sur ce qui compte : les deux dernières semaines (18 avril → 2 mai). Pas de hype, pas de buzzwords, juste ce qui change concrètement pour vos workflows et vos décisions tech.

Les actus majeures des deux dernières semaines

Google investit jusqu'à 40 milliards dans Anthropic — 24 avril : C'est le plus gros deal IA jamais conclu. Google injecte 10 milliards immédiatement à une valorisation de 350 milliards, avec des tranches supplémentaires conditionnées à des milestones, jusqu'à 40 milliards au total. Et surtout, Google Cloud fournit 5 gigawatts de compute sur 5 ans — l'équivalent énergétique d'une grosse métropole dédiée à entraîner des modèles. Le signal stratégique est clair : Google ne peut plus rivaliser frontalement avec OpenAI sur le grand public, donc il finance le seul rival crédible côté enterprise. Pour vous : dans 12 mois, il ne restera plus que 3 ou 4 vrais acteurs des modèles fondamentaux. Préparez-vous à un marché ultra-concentré et architectez vos workflows pour ne pas dépendre d'un seul fournisseur.

Claude Opus 4.7 — 16 avril : Anthropic ne fait plus de bruit, juste de bons modèles. Opus 4.7 passe à 87,6% sur SWE-bench Verified (contre 80,8% pour 4.6) et introduit les "task budgets" — vous donnez à Claude un budget de tokens pour boucler une tâche agentique, et il priorise son travail en fonction du temps restant. Première fois aussi qu'un modèle Claude supporte les images haute résolution (jusqu'à 2576px). Je suis passé dessus le jour de la sortie. La différence se sent surtout sur les tâches longues : le modèle "tient" mieux le contexte sur 30 minutes d'agent autonome, là où 4.6 décrochait. Pricing inchangé à 5$/M input, 25$/M output.

GPT-5.5 — 23 avril : OpenAI répond à Opus 4.7 dans la foulée. SWE-bench à 88,7% (légèrement au-dessus de Claude), -60% d'hallucinations vs GPT-5.4. Le modèle est unifié : un router temps réel choisit entre la version standard et GPT-5.5 Thinking selon la complexité de la requête. Concrètement, vous arrêtez d'avoir à choisir entre vitesse et raisonnement — l'API le fait à votre place. C'est aussi le premier modèle OpenAI vraiment fiable pour les workflows d'agents longs, ce qui rattrape le retard sur Anthropic dans ce domaine. À tester en parallèle de Claude pour voir lequel performe mieux sur vos cas d'usage spécifiques.

Google Cloud Next '26 — Gemini Enterprise Agent Platform — 22 avril : Vertex AI est mort, longue vie au Gemini Enterprise Agent Platform. Google a unifié tout son stack agent IA en une seule plateforme : Agent Studio (low-code visuel), Agent Development Kit (code-first), Model Garden (200+ modèles dont Gemini 3.1 Pro), et un framework graph-based pour orchestrer des sous-agents. Pour les boîtes déjà sur Google Cloud, c'est un game changer — vous pouvez désormais construire des agents enterprise sans coller cinq outils différents. Pour les autres, la question devient : faut-il rester sur AWS Bedrock ou migrer vers Google ?

DeepSeek V4 — 24 avril : Les Chinois sortent V4 en preview open-weight, licence MIT. Deux variantes : V4-Pro avec 1,6 trillion de paramètres totaux (49 milliards actifs), et V4-Flash plus léger (284 milliards / 13 milliards actifs). 73% moins de FLOPs que V3 pour des perfs équivalentes. Si vous avez des contraintes de souveraineté ou de coût, c'est sérieusement à regarder. MIT, ça tourne sur du hardware accessible (le V4-Flash sur 4 GPUs A100), et ça évite de dépendre d'un provider américain. Pour les SaaS européens et la fonction publique, c'est peut-être la sortie la plus importante de la quinzaine.

Les nouveaux modèles à connaître

gpt-image-2 — 21 avril : Le premier modèle de génération d'images d'OpenAI avec du chain-of-thought intégré dans le processus de création. Concrètement, le modèle "réfléchit" avant de générer, ce qui donne des images cohérentes même sur des prompts complexes : typo lisible, composition multi-objets, scènes avec causalité. Pour les marketeurs qui produisent des visuels en volume, c'est le meilleur générateur disponible aujourd'hui — plus fiable que Midjourney sur les contraintes business (logos, cohérence de marque, intégration de texte).

Anthropic Managed Agents — beta lancée le 8 avril : Anthropic propose désormais d'héberger vos agents IA pour vous, à 0,08$ par heure de session. Vous payez à la session active, pas au token. Pour des agents qui tournent en arrière-plan plusieurs heures, c'est radicalement moins cher qu'une facture API classique. Et Anthropic gère l'infra, la persistance d'état, et la sécurité du sandboxing. Si vous construisez un produit basé sur des agents longs (ce que je teste en ce moment sur Optimzd), c'est à mettre dans votre POC immédiatement.

OpenAI Agents SDK update — 15 avril : Mise à jour majeure du SDK avec un model-native harness, des contrôles de safety renforcés, et de meilleurs outils de debugging. Pour ceux qui développent en Python ou TypeScript dans l'écosystème OpenAI, c'est la stack à utiliser. Le harness model-native est intéressant : OpenAI cesse de traiter les outils comme un add-on et les intègre directement dans le modèle, ce qui réduit la latence et améliore la fiabilité des appels.

Les outils IA à activer cette semaine

Adobe CX Enterprise — 20 avril : Adobe lance un système agentique end-to-end pour orchestrer le cycle de vie client. Le truc malin : Adobe CX Enterprise Coworker exécute des tâches définies par des objectifs business, pas par des règles statiques. Vous lui dites "augmente le LTV des clients du segment X", et il coordonne plusieurs sous-agents (segmentation, contenu, distribution, mesure). Pour les boîtes déjà sur la stack Adobe (Marketo, Experience Cloud), c'est un upgrade naturel. Pour les autres, ça vaut le coup de regarder ce que ça donne avant de vous engager dans HubSpot Breeze ou Salesforce Agentforce.

OpenAI Workspace Agents : ChatGPT for Business et Enterprise peuvent désormais créer et partager des agents qui exécutent des tâches autonomes dans Slack, Gmail, et autres outils intégrés. Concrètement, votre équipe peut bâtir un agent "résume les threads importants de Slack chaque matin" ou "classifie les emails entrants" sans écrire une ligne de code. C'est le concurrent direct de Microsoft Copilot Studio, mais avec une meilleure UX et l'écosystème ChatGPT derrière. Si vous êtes déjà sur ChatGPT for Business, à activer en priorité avant d'envisager d'autres outils.

Gemini 3.1 Flash Image : Mentionné en passant à Cloud Next, c'est le concurrent direct de gpt-image-2. Plus rapide, moins cher, mais légèrement en deçà côté cohérence sur les prompts complexes. Pour de la génération d'images en volume (e-commerce, social media, catalogue produit), c'est probablement le meilleur ratio qualité/prix actuellement.

Les chiffres qui comptent

40 milliards de dollars — l'investissement total de Google dans Anthropic. À comparer aux 110 milliards levés par OpenAI au total depuis 2019. Le marché des modèles fondamentaux atteint un niveau de capitalisation que seuls 5 ou 6 secteurs au monde ont jamais connu.

5 gigawatts — la capacité compute que Google Cloud va dédier à Anthropic sur 5 ans. C'est l'équivalent de la production électrique de plusieurs centrales nucléaires. Le compute est devenu la nouvelle barrière à l'entrée du secteur IA.

350 milliards de dollars — la valorisation d'Anthropic à l'occasion de cette levée. Anthropic vaut désormais plus que Disney, Volkswagen ou Coca-Cola. Pour une entreprise de 4 ans avec moins de 1500 employés, c'est sans précédent.

88,7% vs 87,6% — les scores SWE-bench Verified de GPT-5.5 et Claude Opus 4.7. Pour la première fois depuis 18 mois, OpenAI repasse devant Anthropic sur le benchmark coding. Mais la différence est marginale — le choix du modèle dépend désormais surtout des besoins spécifiques (latence, contexte, coût, intégration).

20 000 emplois supprimés — Meta et Microsoft ont annoncé conjointement le 24 avril plus de 20 000 suppressions de postes. Plus de 92 000 emplois tech ont été éliminés en 2026 jusqu'à présent. Le narratif officiel : "réorienter vers l'IA". Le narratif réel : l'IA remplace effectivement des fonctions middle-office et engineering plus rapidement que prévu.

40% — la proportion d'applications enterprise qui auront un agent IA embarqué d'ici fin 2026, selon Gartner. Mais seulement 10% des organisations ont vraiment scalé leurs agents — la plupart restent coincées en pilote pour des problèmes de gouvernance, pas de tech.

Mon take — ce que j'en fais concrètement

Après avoir testé la majorité de ces sorties, voici mes recommandations pragmatiques :

Pour le code et les agents longs → Je suis passé sur Claude Opus 4.7 le jour de la sortie, et je n'ai pas regardé en arrière. Les task budgets changent l'équation pour les workflows agentiques de plus de 10 minutes. Si vous étiez sur Sonnet 4.6 pour économiser, le surcoût d'Opus 4.7 se justifie sur les tâches complexes — la fiabilité accrue compense largement la facture API.

Pour l'infrastructure agent enterprise → Si vous démarrez aujourd'hui, le choix entre Gemini Enterprise Agent Platform, OpenAI Agents SDK et Anthropic Managed Agents devient la décision tech la plus importante de l'année. Mon biais : Anthropic Managed Agents pour le pricing à la session, sauf si vous êtes déjà profondément dans Google Cloud. Pour les workflows simples, OpenAI Workspace Agents fait le job sans code.

Pour la génération d'images → gpt-image-2 pour les visuels critiques (campagnes, hero images, contenu marque), Gemini 3.1 Flash Image pour le volume (catalogue produit, social media). Midjourney reste le meilleur pour le style "artistique", mais pour le contenu business, ces deux modèles sont supérieurs sur la fiabilité.

Pour la stratégie modèle → Le deal Google→Anthropic confirme ce que je dis depuis 6 mois : on va vers un duopole OpenAI/Anthropic, avec Google et Meta comme outsiders. Ne construisez pas votre stack autour d'un seul modèle. Architectez vos workflows pour switcher facilement entre Claude, GPT et un open-source (DeepSeek V4, Llama 4) selon le contexte. Un router maison ou un outil comme OpenRouter, c'est 2 jours de dev qui vous évitent de refaire toute votre intégration dans 6 mois.

Pour la souveraineté → DeepSeek V4 sous licence MIT, c'est sérieux. Si vous avez des contraintes RGPD strictes ou des données sensibles, le V4-Flash tourne sur 4 GPUs A100 et rivalise avec GPT-5.4 sur la plupart des benchmarks. Pour les SaaS européens et les boîtes du secteur public, ça vaut un POC immédiat — vous économisez sur l'API et vous gardez vos données chez vous.

Rendez-vous la semaine prochaine

Promis, je m'y tiens cette fois. La cadence revient à un format hebdomadaire : pas de hype, pas de buzzwords, juste ce que vous pouvez activer dès lundi matin.

Si un sujet vous intéresse particulièrement — le deal Anthropic, les Managed Agents, ou l'arbitrage entre les trois plateformes enterprise — on peut en parler. À la semaine prochaine.