Kategorien
Nachrichten

Claude vs OpenAI: Preisüberlegungen

Claude übertrifft OpenAI’s GPT-Modelle in mehreren Benchmarks – sehen Sie, wie es sich in Bezug auf Preise vergleicht. Im letzten Monat kündigte Anthropic die neueste Generation in der Claude-Familie an, Claude 3. Im typischen AI-Stil brach Spekulationen aus, wie sich Claude 3 Opus im Vergleich zu GPT-4 schlägt. Benchmarks zeigen Claude als ernstzunehmenden Konkurrenten, jedoch gibt es andere Faktoren zu berücksichtigen, wie Preis und Funktionalität auf Service- und Modellniveau.

Claude übertrifft OpenAI’s GPT-Modelle in mehreren Benchmarks – sehen Sie, wie es sich in Bezug auf Preise vergleicht.

Im Jahr 2023 sorgte Claude für Aufsehen, indem es als Erster das 100k-Kontextfenster einführte, zu einer Zeit, als die anderen prominenten Modelle auf etwa 32k beschränkt waren. Es erhielt jedoch in der Vergangenheit Kritik aufgrund von Zensurproblemen, die mit Claude 3 zur Verbesserung priorisiert wurden. Die Reaktion auf Claude 3 war äußerst positiv, wobei Benutzer erhebliche Verbesserungen bei der früheren Inhaltsmoderation feststellten und Benchmarks zeigten, dass Claude 3 Opus eines der leistungsstärksten Sprachmodelle über eine Vielzahl von Aufgaben hinweg ist. Claude-Modelle zeichnen sich insbesondere beim Schreiben, Zusammenfassen und Codieren aus.

Ein Weg, um auf die Claude-Modelle zuzugreifen (auf die wir uns in diesem Blog konzentrieren werden), ist über Amazon Bedrock. Bedrock ist ein Marktplatz mit vielen API-Modellen verschiedener Anbieter, einschließlich Anthropic’s Claude, bei dem Amazon zusätzliche APIs und Sicherheit bereitstellt.

Anthropic Claude

Im Jahr 2023 sorgte Claude für Aufsehen, indem es als Erster das 100k-Kontextfenster einführte, zu einer Zeit, als die anderen prominenten Modelle auf etwa 32k beschränkt waren. Es erhielt jedoch in der Vergangenheit Kritik aufgrund von Zensurproblemen, die mit Claude 3 zur Verbesserung priorisiert wurden. Die Reaktion auf Claude 3 war äußerst positiv, wobei Benutzer erhebliche Verbesserungen bei der früheren Inhaltsmoderation feststellten und Benchmarks zeigten, dass Claude 3 Opus eines der leistungsstärksten Sprachmodelle über eine Vielzahl von Aufgaben hinweg ist. Claude-Modelle zeichnen sich insbesondere beim Schreiben, Zusammenfassen und Codieren aus.

Ein Weg, um auf die Claude-Modelle zuzugreifen (auf die wir uns in diesem Blog konzentrieren werden), ist über Amazon Bedrock. Bedrock ist ein Marktplatz mit vielen API-Modellen verschiedener Anbieter, einschließlich Anthropic’s Claude, bei dem Amazon zusätzliche APIs und Sicherheit bereitstellt.

Claude-Modelle

Tabelle der unterstützten Claude-Modelle (Stand: 11.04.2024).
Hinweis – Claude 3 Opus ist noch nicht über Bedrock verfügbar.

OpenAI GPT

OpenAI’s GPT-Modelle werden weit verbreitet genutzt, wobei viele Benutzer und Benchmarks sie nach wie vor als die besten betrachten. Wie wir jedoch in unserem Gemini vs OpenAI-Blog gesehen haben, holt die Konkurrenz schnell auf. Dennoch gilt GPT-4 weithin als das fortschrittlichste und leistungsfähigste Sprachmodell, das heute verfügbar ist.

Azure und OpenAI sind eng miteinander verbunden. Microsoft hat eine strategische Partnerschaft mit OpenAI, die beinhaltet, dass Azure der exklusive Cloud-Anbieter für OpenAI’s Modelle und Dienste ist. Diese enge Zusammenarbeit ermöglicht es Azure, nahtlose Integration und Zugriff auf die neuesten OpenAI-Modelle anzubieten (mit zusätzlichen Funktionen und Sicherheit).

GPT-Modelle

Tabelle der unterstützten GPT-Modelle (Stand: 11.04.2024).

Claude vs OpenAI GPT-Modelle Funktionalität

Sehen Sie hier einen Vergleich auf Service-Ebene der Azure- und Bedrock-Dokumentation/Gemeinschaftsunterstützung und No-Code-Playgrounds. Sehen Sie unten den Modellvergleich:

  • Maximale Tokens: Wie bereits erwähnt, war Claude der Erste, der eine 100k-Token-Grenze erreichte. Dann übertraf OpenAI sie mit beeindruckenden 128k Max. Claude hat nun mit einem Maximum von 200k die Führung. Das entspricht beeindruckenden 500 Seiten Informationen. Mit den kontinuierlichen schnellen Fortschritten, wie z.B. Gemini’s 1M-10M-Kontextfenster, erwarten wir, dass diese Grenzen noch weiter steigen werden.
  • Unterstützte Regionen: Dies gilt speziell für Bedrock und Azure. Die Verfügbarkeit kann modell- und funktionsabhängig sein und viele Regionen sind nicht berücksichtigt. Sehen Sie auf Bedrock und Azure nach, ob Ihre Region unterstützt wird.
  • Unterstützte Sprachen: Die GPT-Modelle sind auf Englisch optimiert, können jedoch auch mit anderen Sprachen verwendet werden. Claude unterstützt mehrere Sprachen, darunter Englisch, Spanisch und Japanisch. Keiner hat eine öffentliche Liste aller verfügbaren Sprachen.
  • Trainingsdaten-Datum: Laut Anthropic wurden die Claude 3-Modelle bis August 2023 trainiert. GPT-3.5 Turbo und GPT-4 wurden bis September 2021 trainiert, und die GPT-4 Turbo-Versionen wurden bis April 2023 trainiert.

Claude-Preise

Bei Bedrock haben Sie zwei Optionen: On-Demand und Provisionsdurchsatz. Feinabstimmung ist nicht verfügbar. Die Preise gelten für die Region US Ost.

On-Demand

Die unverbindliche, pay-by-usage-Option. Gebühren werden pro verarbeitetem Eingabetoken und generiertem Ausgabetoken berechnet.

Claude On-Demand Preisliste. (Aktualisiert am 11.04.24).
Hinweis – Die Preise für Claude 3 Opus sind noch nicht öffentlich verfügbar, jedoch können wir basierend auf der historischen Preisgestaltung von Bedrock, die historisch die direkt von Anthropic angebotenen Preise entsprach, eine fundierte Annahme über die Preisgestaltung treffen.

Provisionsdurchsatz

Sie haben die Möglichkeit, Modell-Einheiten zu kaufen (spezifischer Durchsatz, gemessen an der maximalen Anzahl von Ein- und Ausgabetoken, die pro Minute verarbeitet werden). Die Preise werden stündlich berechnet und Sie können eine Laufzeit von einem Monat oder sechs Monaten wählen. Dieses Preismodell eignet sich am besten für „große konsistente Inferenz-Workloads, die Durchsatzgarantien benötigen“.

OpenAI GPT-Preise

Die Gebühren für GPT-Modelle über Azure sind recht einfach. Es ist ein Pay-as-you-go-Modell, ohne Verpflichtung. Es gibt zusätzliche Anpassungsgebühren. Der Preis variiert je nach Region und wird für die Regionen US Ost und US Ost 2 angezeigt (GPT-4 Turbo und Feinabstimmung sind in US Ost nicht verfügbar).

Pay-As-You-Go

Die Gebühren variieren je nach Modelltypen und Kontexten.

Preisliste für OpenAI GPT-Modelle (Stand 11. April 2024).

Feinabstimmung

Die Kosten für die Feinabstimmung basieren auf der Trainingszeit und der Hostingzeit.

Preisliste für die Feinabstimmung von OpenAI GPT-Modellen (Stand 11. April 2024).

Preisvergleich Claude vs OpenAI

Basierend auf Benchmarks, Nutzerfeedback und Anwendungsfällen sind die vergleichbarsten Modelle:

Claude 3 Opus vs GPT-4 Turbo

Claude 3 Opus ist relativ teuer, daher ist GPT-4 Turbo die wirtschaftlichere Wahl, insbesondere für Anwendungsfälle, die eine große Anzahl von Ausgabetokens erfordern. In diesem Fall müssen Kompromisse zwischen Kosten und fortgeschrittenen Fähigkeiten/einem höheren Kontextfenster abgewogen werden.

Claude 3 Sonnet vs GPT-4

Claude 3 Sonnet ist wesentlich günstiger als GPT-4 und hat ähnliche Anwendungsfälle und Benchmarks. Seine Eingabetokens sind um 95 % günstiger als die von GPT-4, und seine Ausgabetokens sind um 87,5 % günstiger.

Fazit

Claude 3 Opus hat das Potenzial, GPT-4 Turbo als das leistungsfähigste LLM zu übertreffen. Es gibt jedoch einen Preisabtausch, insbesondere bei den Ausgabetokens, die um 150 % teurer sind als die von GPT-4 Turbo. Die fortgeschrittenen Fähigkeiten und das höhere Kontextfenster von Claude 3 Opus könnten den höheren Preis wert sein, aber für Kunden, die Preis und die Nutzung eines hochleistungsfähigen LLM in Einklang bringen möchten, ist GPT-4 Turbo die Antwort.

Der Inhalt dieses Artikels wurde aus dem Originalartikel übersetzt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert