Catégories
Nouvelles

Claude contre OpenAI : Considérations tarifaires

Claude surpasse les modèles GPT d’OpenAI dans plusieurs benchmarks. Découvrez comment il se compare en termes de tarification. Le mois dernier, Anthropic a annoncé la dernière génération de la famille Claude, Claude 3. À la manière typique de l’IA, des spéculations ont surgi sur la comparaison entre Claude 3 Opus et GPT-4. Les benchmarks montrent que Claude est un concurrent sérieux, cependant, il y a d’autres facteurs à considérer, tels que le prix et la fonctionnalité au niveau du service et du modèle.

Claude surpasse les modèles GPT d’OpenAI dans plusieurs benchmarks. Découvrez comment il se compare en termes de tarification.

Le mois dernier, Anthropic a annoncé la dernière génération de la famille Claude, Claude 3. À la manière typique de l’IA, des spéculations ont émergé sur la comparaison entre Claude 3 Opus et GPT-4. Les benchmarks montrent que Claude est un concurrent sérieux, cependant, il y a d’autres facteurs à considérer, tels que le prix et la fonctionnalité au niveau du service et du modèle.

Remarque – nous avons déjà abordé Claude contre OpenAI dans notre blog Amazon Bedrock contre Azure OpenAI, mais ce blog se concentrera davantage sur les modèles Claude et OpenAI GPT.

Anthropic Claude

En 2023, Claude a fait sensation en étant le premier à introduire la fenêtre de contexte de 100k à une époque où les autres modèles de premier plan étaient limités à environ 32k. Cependant, il a été critiqué par le passé en raison de problèmes de censure qui ont été priorisés pour amélioration avec Claude 3. La réponse à Claude 3 a été extrêmement positive, les utilisateurs remarquant des améliorations significatives par rapport à la modération de contenu précédente et les benchmarks montrant que Claude 3 Opus est l’un des modèles linguistiques les plus performants dans une variété de tâches. Les modèles Claude excellent particulièrement dans l’écriture, la résumé et le codage.

Une façon d’accéder aux modèles Claude (sur lesquels nous nous concentrerons dans ce blog) est à travers Amazon Bedrock. Bedrock est une place de marché de nombreux modèles d’API de différents fournisseurs, y compris Claude d’Anthropic, où Amazon fournit des API et une sécurité supplémentaires.

Modèles Claude

Tableau des modèles Claude pris en charge (à partir du 11/04/2024).
Remarque – Claude 3 Opus n’est pas encore disponible via Bedrock.

OpenAI GPT

Les modèles GPT d’OpenAI sont largement utilisés, de nombreux utilisateurs et benchmarks les considérant toujours comme les meilleurs. Cependant, comme nous l’avons vu dans notre blog Gemini contre OpenAI, la concurrence rattrape rapidement. Néanmoins, GPT-4 est largement considéré comme le modèle linguistique le plus avancé et capable disponible aujourd’hui.

Azure et OpenAI sont étroitement liés. Microsoft a un partenariat stratégique avec OpenAI, qui inclut Azure en tant que fournisseur de cloud exclusif pour les modèles et services d’OpenAI. Cette collaboration étroite permet à Azure d’offrir une intégration transparente et un accès aux derniers modèles OpenAI (avec des fonctionnalités et une sécurité supplémentaires).

Modèles GPT

Tableau des modèles GPT pris en charge (à partir du 11/04/2024).

Fonctionnalité des modèles Claude vs OpenAI GPT

Consultez ici une comparaison au niveau du service de la documentation de Azure et Bedrock, du support de la communauté et des terrains de jeu sans code. Voir ci-dessous pour la comparaison au niveau du modèle :

  • Nombre maximal de jetons : Comme nous l’avons mentionné précédemment, Claude a été le premier à atteindre une limite de 100k jetons. Ensuite, OpenAI les a dépassés avec un maximum impressionnant de 128k. Claude a maintenant la tête avec un maximum de 200k. Cela correspond à un impressionnant 500 pages d’informations. Avec les avancées rapides continues, telles que la fenêtre de contexte de 1M-10M de Gemini, nous nous attendons à ce que ces limites continuent d’augmenter encore plus.
  • Régions prises en charge : Cela s’applique spécifiquement à Bedrock et Azure. La disponibilité peut dépendre du modèle et des fonctionnalités et de nombreuses régions ne sont pas prises en compte. Consultez Bedrock et Azure pour voir si votre région est prise en charge.
  • Langues prises en charge : Les modèles GPT sont optimisés pour l’anglais, cependant, ils sont utilisables avec d’autres langues. Claude prend en charge plusieurs langues, dont l’anglais, l’espagnol et le japonais. Aucun des deux n’a de liste publique de toutes les langues disponibles.
  • Date des données d’entraînement : Selon Anthropic, les modèles Claude 3 ont été entraînés jusqu’en août 2023. GPT-3.5 Turbo et GPT-4 ont été formés jusqu’en septembre 2021 et les versions Turbo de GPT-4 ont été entraînées jusqu’en avril 2023.

Tarification de Claude

Avec Bedrock, vous avez deux options : Sur-Demande et Débit provisionné. Le réglage fin n’est pas disponible. Les prix sont indiqués pour la région US East.

Sur-Demande

L’option non engageante, payée à l’utilisation. Les frais sont facturés par jeton d’entrée traité et jeton de sortie généré.

Tableau des tarifs de Claude Sur-Demande. (Mis à jour le 11/04/24).
Remarque – Les tarifs de Claude 3 Opus ne sont pas encore disponibles publiquement, cependant, nous pouvons faire une estimation éclairée sur ce que sera la tarification en se basant sur le fait que les tarifs de Bedrock de Claude correspondent historiquement aux tarifs offerts directement par Anthropic.

Débit provisionné

Vous avez la possibilité d’acheter des unités de modèle (débit spécifique mesuré par le nombre maximum de jetons d’entrée/sortie traités par minute). Les tarifs sont facturés à l’heure et vous pouvez choisir une durée d’un mois ou de six mois. Ce modèle tarifaire est le plus adapté aux « charges de travail d’inférence importantes et constantes nécessitant un débit garanti ».

Tableau des tarifs de Débit provisionné de Claude. (Mis à jour le 11/04/24).

Tarification de OpenAI GPT

Les frais pour les modèles GPT via Azure sont assez simples. C’est un paiement à l’utilisation, sans engagement. Il y a des frais de personnalisation supplémentaires. Le prix varie selon la région et est indiqué pour les régions US East et US East 2 (GPT-4 Turbo et le réglage fin ne sont pas disponibles dans US East).

Pay-As-You-Go

Les frais varient en fonction des types de modèles et des contextes.

Tableau des tarifs des modèles OpenAI GPT (au 11/04/2024).

Fine-Tuning

Les frais de fine-tuning sont basés sur le temps de formation et le temps d’hébergement.

Tableau des tarifs de fine-tuning des modèles OpenAI GPT (au 11/04/2024).

Comparaison des prix Claude vs OpenAI

En se basant sur les benchmarks, les retours des utilisateurs et les cas d’utilisation, les modèles les plus comparables sont :

Claude 3 Opus vs GPT-4 Turbo

Claude 3 Opus est relativement cher, ce qui rend GPT-4 Turbo plus économique, notamment pour les cas d’utilisation nécessitant un grand nombre de tokens de sortie. Dans ce cas, il faut envisager des compromis entre le coût et les capacités avancées/un fenêtre de contexte plus large.

Claude 3 Sonnet vs GPT-4

Claude 3 Sonnet est beaucoup moins cher que GPT-4 et présente des cas d’utilisation et des benchmarks similaires. Ses tokens d’entrée sont 95% moins chers que ceux de GPT-4 et ses tokens de sortie sont 87,5% moins chers.

Conclusion

Claude 3 Opus a le potentiel de surpasser GPT-4 Turbo en tant que LLM le plus capable. Cependant, il y a un compromis en termes de prix, notamment car les tokens de sortie sont 150% plus chers que ceux de GPT-4 Turbo. Les capacités avancées et la fenêtre de contexte plus large de Claude 3 Opus pourraient valoir le prix plus élevé, mais pour les clients cherchant à équilibrer le prix tout en utilisant un LLM très performant, GPT-4 Turbo est la réponse.

Le contenu de cet article a été traduit à partir de l’article original.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *