Passer au contenu

Mistral : l’IA made in France défie Google, Meta et OpenAI avec un lien torrent

Suite à des annonces importantes de la part de Google, Meta et OpenAI, la startup française Mistral réagit.

La course à l’intelligence artificielle s’intensifie. En effet, cette semaine, Google, Meta et OpenAI ont fait des annonces importantes par rapport à leurs modèles d’intelligence artificielle. Mais l’Hexagone n’est pas en reste puisque, suite à ces annonces, le laboratoire français Mistral a lancé son nouveau modèle Mixtral 8x22B en publiant un simple lien torrent sur la plateforme X (ancien Twitter).

Comme le rapporte The Guardian, lors d’un événement à Londres, Nick Clegg, le responsable des affaires internationales chez Meta, a annoncé la sortie, dans quelques semaines, du nouveau modèle d’IA Llama 3, du groupe. Quelques heures plus tard, Google a publié une annonce : son nouveau modèle, Gemini 1.5 Pro, est désormais disponible en preview pour les développeurs et pour les entreprises. Quant à OpenAI, il a annoncé une nouvelle version de GPT-4 Turbo.

La startup française Mistral, qui fait partie des acteurs les plus prometteurs dans le domaine de l’IA générative, a été moins bavarde. Au lieu de publier une vraie annonce, ou de s’étaler sur les comparaisons, celle-ci s’est contentée de publier un lien magnet sur X. Pour rappel, les liens magnet sont des liens qu’on ouvre sur les logiciels tels que BitTorrent, pour télécharger un fichier. Et le lien que Mistral a partagé permet de télécharger un tout nouveau modèle : Mixtral 8x22B.

Mistral propose une nouvelle IA plus puissante

Comme l’expliquent nos confrères de Zdnet, par rapport au large modèle de langage Mixtral 8x7B, Mixtral 8x22B profite de nombreuses améliorations. Ce dernier dispose d’une fenêtre contextuelle de 65 000 jetons, un indicateur qui donne une idée de la longueur des textes qu’on pourra inclure dans les prompts envoyés à l’IA. De plus, Mixtral 8x22B a une taille de paramètre allant jusqu’à 176 milliards. Ce second indicateur permet de mesurer le nombre de variables que l’IA utilise. Le lien que Mistral a partagé sur X permet de télécharger un fichier de 281 Go pour exploiter son nouveau modèle. En effet, Mistral a choisi une approche ouverte et permet donc aux développeurs d’utiliser et de modifier ce modèle gratuitement.

En tout cas, avec cette publication, Mistral signale qu’il est bel et bien dans la course à l’IA, contre OpenAI et les géants de la tech.

  • Alors que Google, Meta et OpenAI viennent de faire des annonces importantes, la startup française Mistral, spécialisée dans l’IA générative, publie un lien magnet sur X
  • Ce lien permet d’utiliser la technologie torrent pour télécharger son nouveau modèle : Mixtral 8x22B
  • Ce nouveau modèle est capable de traiter des prompts plus longs, et a aussi un nombre de paramètres plus élevé

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

Cliquer pour commenter
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *