NL#149 - Google et Anthropic sortent des nouveaux modèles !

Des nouveautés et encore des nouveautés !

TL;DR

  • Anthropic lance Claude 4 (Opus & Sonnet) : 200 k tokens de contexte, mémoire persistante, exécution de code et un score SWE‑bench de 72,5 % (1ᵉ place).

  • Google I/O 2025 déploie Gemini Live, l’onglet AI Mode dans Search et la génération vidéo Veo 3—tous accessibles via Vertex AI.

Que retenir des annonces d’Anthropic ?

La firme américaine soutenue par Google lance Claude 4 Sonnet, dans la suite de Claude 3.7 Sonnet et Claude 4 Opus.

Claude 4 Opus est le meilleur modèle de codage au monde d’après les benchmarks. Il est fait pour gérer des tâches complexes et à long terme, tout comme gérer les fameux agents.

Les deux modèles disposent de la pensée étendue (un peu comme les modèles de raisonnement o1 et o3 d’OpenAI), et peuvent utiliser la recherche sur internet.

Claude Code est aussi disponible pour tous.

A la question, “Quand pensez-vous qu’il y aura une entreprise d’un milliard de dollars gérée par des agents ?”, le DG d’Anthropic a répondu 2026.

Ce que j’en pense : nous verrons pour 2026. Cela fait sans doute partie des mythes de la Sillicon Valley. En attendant, Claude 4 est une itération bienvenue des anciens modèles montrant qu’Anthropic est encore dans la course. Je perçois une spécialisation d’Anthropic pour les développeurs, leur modèle 3.7 Sonnet étant déjà une référence pour le code. Je pense que des applications comme Lovable, Manus, ainsi que les agents vont bénéficier de ces nouvelles compétences. Dans le milieu professionnel, je ne prédis que peu de changements massifs à part chez les devs.

Exemple pour le développement web :

Que retenir des annonces de Google ?

Google a fait fort. Je suis impressionné.

Le projet Astra, dans le téléphone, permet de dialoguer en live, de récupérer du contenu d’internet et même d’effectuer des appels téléphoniques et des achats pour ton compte, avec le seul son de ta voix.

Gemini a aussi son agent qui effectue des actions comme chercher des airbnb pour un voyage sur le web, en utilisant les fameux MCPs et le projet Mariner.

Bientôt, il y aura des traductions instantanées lors des appels dans google meet.

Google a aussi ravi les marketers. Imagen 4 produit des images avec une meilleure résolution et une meilleure typographie.

Veo3 permet de générer des vidés de 8 secondes avec du son et des dialogues.

Google met à jour ses modèles Gemini 2.5 Pro avec un pensée de le faire réfléchir profondément de manière à résoudre des problèmes difficiles de code et de maths.

Enfin, Google lance le AI mode, un peu comme ChatGPT mais directement accessible sur le web

Il y a aussi Jules, l’agent qui débug ton code en asynchrone, Stitch qui générer des designs que tu peux exporter sur ton figma.

Ce que j’en pense : je discutais avec un senior developer de chez Google ce week-end à un enterrement de vie de garçon et il me disait que Google est une grosse structure. Ils sont moins agiles qu’un OpenAI, par contre, une fois mis en route, ils ont une énorme force de frappe. Mis en danger par OpenAI au début, Google met toutes ses ressources à disposition pour l’IA et ça se voit. Leurs modèles sont de qualité. Ils les déploient dans leurs différents produits, dont les téléphones et le search.

Mes tests :

  • J’ai utilisé Claude 4 Opus en mode extended thinking et au bout de 3 requêtes je n’avais plus de crédits. Donc fais attention.

  • Pour Google Gemini, j’ai créé des vidéos avec Veo3 (il y a le son). Voici un exemple de prompt trouvé sur twitter : "

    2000s TV show, broadcast booth. A man, Mike, around 35 years old, is sitting and speaking from a broadcast booth. He’s wearing an earpiece and talking to the camera with an energetic voice. With humor, he says:

    “This is SmackDash… and these guys are going to have a blast… literally!”'" . Voici un gpt pour créer des prompts : https://chatgpt.com/g/g-683436e12c94819185f6de72769d5a36-veo-3-prompter

  • J’ai créé une Deep Search puis une infographie et enfin j’ai rajouté sur l’infographie une fonctionnalité IA : https://g.co/gemini/share/6b4dd271405c. Gemini peut ajouter des fonctionnalités LLM dans ces créations canvas.

  • La génération d’image avec le texte n’est pas aussi bien que dans ChatGPT d’après mes tests.

En conclusion :

Nous avons des modèles qui font ce que les autres modèles faisaient avant EN MIEUX. Créer du contenu à partir des sources d’informations d’internet, et les visualiser mieux.

Seule une révolution est visible :

  • Veo3 qui rend les vidéos sonores, et encore plus réalistes.

La vraie révolution d’en ce moment est invisible : des IA qui codent mieux nos applications, des LLMs qui commencent à être assez intelligents pour orchestrer des agents plus complexes, des applications qui commencent à pouvoir se connecter plus facilement via les MCPs.

Voilà pour aujourd’hui,

Excellente semaine,

JB

Reply

or to participate.