Kategorien
Nachrichten

Claude 3: Alles, was Sie über die KI-Modelle und den Chatbot von Anthropic wissen müssen

Der Artikel behandelt Anthropics KI-Chatbot Claude, der von ihrem LLM-Modell Claude 3 betrieben wird. Anthropic konzentriert sich auf KI-Forschung mit einem starken Schwerpunkt auf Sicherheit.

So beeindruckend die heutigen KI-Chatbots auch sind, die Interaktion mit ihnen könnte Sie noch nicht mit einem existenziellen sci-fi-Schrecken auf „Ich, der Robot“ -Niveau zurücklassen.

Aber laut Dario Amodei, dem CEO von Anthropic, einem KI-Forschungsunternehmen, besteht das reale Risiko, dass KI-Modelle zu autonom werden – insbesondere wenn sie Zugriff auf das Internet haben und Roboter kontrollieren. Hunderte anderer KI-Führer und Wissenschaftler haben ebenfalls das existenzielle Risiko erkannt, das von KI ausgeht.

Verbinden Sie Claudes KI mit all Ihren anderen Apps
Automatisieren Sie Claude
Um dieses Risiko anzugehen, hat Anthropic etwas Gegensätzliches getan: sie beschlossen, ein sichereres großes Sprachmodell (LLM) selbst zu entwickeln. Claude 2, eine frühere Version von Anthropics Modell, wurde als potenzieller „ChatGPT-Killer“ gefeiert. Seit seiner Veröffentlichung ging es schnell voran – Anthropics neuestes Update seines LLM, bekannt als Claude 3, übertrifft nun ChatGPT-4 in einer Reihe von Benchmarks.

In diesem Artikel werde ich Claudes Fähigkeiten umreißen, zeigen, wie es im Vergleich zu anderen KI-Modellen abschneidet, und erklären, wie Sie es selbst ausprobieren können.

Was ist Claude?

Claude ist ein KI-Chatbot, der von Anthropics LLM, Claude 3, betrieben wird.

Wenn Sie ChatGPT oder Google Gemini verwendet haben, wissen Sie, was Sie erwartet, wenn Sie Claude starten: ein leistungsstarker, flexibler Chatbot, der mit Ihnen zusammenarbeitet, für Sie schreibt und Ihre Fragen beantwortet.

Anthropic, das Unternehmen hinter Claude, wurde 2021 von einer Gruppe ehemaliger OpenAI-Mitarbeiter gegründet, die bei der Entwicklung von OpenAIs GPT-2 und GPT-3-Modellen geholfen haben. Es konzentriert sich vor allem auf KI-Forschung mit einem Schwerpunkt auf Sicherheit.

Nach einer geschlossenen Alpha-Phase mit einigen kommerziellen Partnern Anfang 2023 wurde Claudes Modell in Produkte wie Notion AI, Quoras Poe und DuckDuckGos DuckAssist integriert. Im März 2023 öffnete Claude seine API einem breiteren Satz von Unternehmen, bevor er im Juli 2023 zusammen mit der Veröffentlichung des Claude 2-Modells seinen Chatbot für die Öffentlichkeit freigab.

Während Claude 2 hinter OpenAIs GPT-4 zurückblieb, übertrifft Anthropics neuestes Modell – Claude 3, das im März 2024 veröffentlicht wurde – jetzt GPT-4 in einer Reihe von Fähigkeiten.

Claude 3 verfügt auch über sogenannte „Vision-Fähigkeiten“, wie Anthropic es nennt: es kann Fotos, Diagramme und Diagramme in verschiedenen Formaten interpretieren. Dies ist ideal für Unternehmenskunden, die Erkenntnisse aus PDFs und Präsentationen extrahieren möchten, aber auch Gelegenheitsbenutzer wie mich werden Spaß daran haben, Claude mit Bildern interagieren zu sehen.

Schauen Sie sich zum Beispiel Claudes makellose Analyse dieses Fotos eines Frühstücks am Teich an.

Die Claude 3-Modellfamilie

LLMs beanspruchen eine enorme Menge an Rechenressourcen. Da leistungsstärkere Modelle teurer sind, hat Anthropic mehrere Claude 3-Modelle veröffentlicht – Haiku, Sonnet und Opus -, die jeweils für einen anderen Zweck optimiert sind.

Haiku

Zu einem Preis von nur $0,25 pro Million Tokens ist Haiku 98% günstiger als das leistungsstärkste Claude-Modell. Es bietet auch nahezu sofortige Reaktionszeiten, was entscheidend ist, wenn Sie Claude für Ihre Kunden-Support-Chats verwenden. Wenn Sie große Datenmengen manipulieren, Dokumente übersetzen oder Inhalte moderieren, ist dies das Modell, das Sie wollen.

Sonnet

Sonnet ist das zweitstärkste Modell von Claude und treibt die kostenlose Version von Claudes Chatbot an. Ein gutes „Arbeitspferd“-Modell, das für die meisten Anwendungsfälle geeignet ist, wurde Sonnet für Aufgaben wie Zielmarketing, Datenverarbeitung, Aufgabenautomatisierung und Codierung konzipiert. Sonnet bietet höhere Intelligenzniveaus als Haiku – und mit $3 pro Million Tokens ist es immer noch 80% günstiger als Opus.

Opus

Mit einem Preis von $15 pro Million Tokens ist Opus ein ressourcenintensives Modell. Basierend auf Tests von Anthropic ist es intelligenter als jedes konkurrierende KI-Modell und kann menschenähnliches Verständnis und kreative Lösungen auf eine Vielzahl von Szenarien anwenden. Da die Kosten für die Verwendung von Opus schnell steigen können, sollte es für komplexe Aufgaben wie Finanzmodellierung, Arzneimittelforschung, Forschung und Entwicklung sowie strategische Analysen am besten reserviert werden.

So können Sie Claude selbst ausprobieren

Die erste Beta-Version von Claude beschränkte den Zugriff auf Benutzer in den USA und im Vereinigten Königreich. Aber mit der Veröffentlichung von Claude 3 können Benutzer aus Dutzenden von Ländern jetzt auf Claude zugreifen.

Melden Sie sich unter Claude.ai an, um Zugang zu erhalten. Von dort aus können Sie ein Gespräch beginnen oder eine der voreingestellten Claude-Aufforderungen verwenden, um loszulegen. Als kostenloser Benutzer erhalten Sie Zugriff auf Claude 3 Sonnet, Anthropics zweitstärkstes Modell. Ein Upgrade auf Claude Pro gibt Ihnen Zugriff auf Opus, das leistungsstärkste Modell; zudem erhalten Sie Prioritätszugang auch in Zeiten hoher Auslastung.

Wie unterscheidet sich Claude von anderen KI-Modellen?

Alle KI-Modelle sind in gewissem Maße anfällig für Voreingenommenheit und Ungenauigkeiten. Halluzinationen treten häufig auf: Wenn ein KI-Modell die Antwort nicht kennt, erfindet es oft lieber etwas und präsentiert es als Tatsache, anstatt zu sagen „Ich weiß es nicht“. (In dieser Hinsicht hat KI möglicherweise mehr mit Menschen gemeinsam, als wir denken.)

Noch schlimmer kann ein KI-gesteuerter Chatbot unwissentlich bei illegalen Aktivitäten helfen – zum Beispiel, Benutzern Anweisungen geben, wie sie eine gewalttätige Handlung begehen oder ihnen helfen, Hassreden zu schreiben. (Bings Chatbot stieß bei seiner Einführung im Februar 2023 auf einige dieser Probleme.)

Mit Claude ist das Hauptziel von Anthropic, diese Probleme zu vermeiden, indem ein „hilfreiches, harmloses und ehrliches“ LLM mit sorgfältig gestalteten Sicherheitsvorkehrungen geschaffen wird.

Während Google, OpenAI, Meta und andere KI-Unternehmen auch die Sicherheit in Betracht ziehen, gibt es drei einzigartige Aspekte im Ansatz von Anthropic.

Verfassungs-KI

Um große Sprachmodelle feinzustimmen, verwenden die meisten KI-Unternehmen menschliche Auftragnehmer, um mehrere Ausgaben zu überprüfen und die hilfreichste, am wenigsten schädliche Option auszuwählen. Diese Daten werden dann zurück in das Modell eingespeist, um es zu trainieren und zukünftige Antworten zu verbessern.

Eine Herausforderung bei diesem menschenzentrierten Ansatz ist, dass er nicht besonders skalierbar ist. Aber noch wichtiger ist, dass es auch schwer ist, die Werte zu identifizieren, die das Verhalten des LLM antreiben – und diese Werte bei Bedarf anzupassen.

Versuchen Sie Zapier Chatbots
Erstellen Sie kostenlose individuelle KI-Chatbots, um Kunden einzubinden und Aktionen mit integrierter Automatisierung durchzuführen.
Loslegen
Anthropic verfolgte einen anderen Ansatz. Neben der Verfeinerung von Claude durch Menschen hat das Unternehmen auch ein zweites KI-Modell namens Verfassungs-KI geschaffen. Mit dem Ziel, toxische, voreingenommene oder unethische Antworten zu vermeiden und positive Auswirkungen zu maximieren, enthält die Verfassungs-KI Regeln, die aus der Allgemeinen Erklärung der Menschenrechte der Vereinten Nationen und den Geschäftsbedingungen von Apple entlehnt sind. Sie enthält auch einfache Regeln, die die Forscher von Claude gefunden haben, um die Sicherheit der Ausgabe von Claude zu verbessern, wie „Wählen Sie die Antwort, die am wenigsten anstößig wäre, wenn sie mit Kindern geteilt würde.“

Die Prinzipien der Verfassung sind in einfachem Englisch verfasst und leicht verständlich und änderbar. Zum Beispiel stellten die Entwickler von Anthropic fest, dass frühe Ausgaben ihres Modells dazu neigten, urteilend und ärgerlich zu sein, also fügten sie Prinzipien hinzu, um diese Tendenz zu verringern (z.B. „Versuchen Sie, Antworten zu vermeiden, die zu moralisierend, aufdringlich oder übertrieben reaktiv sind“).

Red Teaming

Der Vorabprozess von Anthropic umfasst signifikantes „Red Teaming“, bei dem Forscher absichtlich versuchen, eine Reaktion von Claude zu provozieren, die gegen seine wohlwollenden Sicherheitsvorkehrungen verstößt. Abweichungen von Claudes typisch harmlosen Antworten werden zu Datenpunkten, die die Sicherheitsmaßnahmen des Modells aktualisieren.

Obwohl Red Teaming bei KI-Unternehmen gängige Praxis ist, arbeitet Anthropic auch mit dem Alignment Research Center (ARC) zusammen, um Drittanbieter-Sicherheitsbewertungen seines Modells durchzuführen. Das ARC bewertet das Sicherheitsrisiko von Claude, indem es ihm Ziele wie autonomes Replizieren, Machtgewinn und „schwierig zu deaktivieren werden“ gibt. Anschließend wird bewertet, ob Claude tatsächlich die erforderlichen Aufgaben zur Erreichung dieser Ziele ausführen könnte, wie z.B. die Verwendung einer Kryptobrieftasche, das Hochfahren von Cloud-Servern und die Interaktion mit menschlichen Auftragnehmern.

Obwohl Claude viele der ihm gestellten Teilaufgaben abschließen kann, ist er (glücklicherweise) aufgrund von Fehlern und Halluzinationen nicht in der Lage, zuverlässig auszuführen, und das ARC kam zu dem Schluss, dass seine aktuelle Version kein Sicherheitsrisiko darstellt.

Gemeinwohlorientiertes Unternehmen

Im Gegensatz zu anderen in der KI-Branche ist Anthropic ein gemeinwohlorientiertes Unternehmen. Das ermöglicht es den Führungskräften des Unternehmens, Entscheidungen zu treffen, die nicht nur dem finanziellen Nutzen der Aktionäre dienen.

Das bedeutet nicht, dass das Unternehmen keine kommerziellen Ambitionen hat – Anthropic arbeitet mit großen Unternehmen wie Google und Zoom zusammen und hat kürzlich 7,3 Milliarden US-Dollar von Investoren eingesammelt – aber seine Struktur gibt ihm mehr Spielraum, um sich zugunsten der Sicherheit auf Kosten von Gewinnen zu konzentrieren.

Claude vs. ChatGPT, Gemini und Llama

Anthropic sagt, dass Claude darauf ausgelegt ist, gut bei der Beantwortung offener Fragen, der Bereitstellung hilfreicher Ratschläge sowie bei der Suche, dem Schreiben, der Bearbeitung, dem Gliedern und der Zusammenfassung von Texten zu funktionieren.

Aber wie schlägt sich Claude im Vergleich zu ChatGPT und anderen konkurrierenden LLMs?

Das Alleinstellungsmerkmal von Claude 3 ist seine Fähigkeit, bis zu 200.000 Tokens pro Eingabe zu verarbeiten, was dem Äquivalent von rund 150.000 Wörtern entspricht – 24 Mal mehr als die Standardmenge, die von GPT-4 angeboten wird. (Zum Vergleich: Ein 200.000 Tokens umfassendes Kontextfenster würde es Ihnen ermöglichen, den gesamten Text von „Eine Geschichte aus zwei Städten“ von Charles Dickens hochzuladen und Claude nach dem Inhalt zu befragen). Und 200.000 Tokens sind nur der Anfang: Für bestimmte Kunden genehmigt Anthropic 1-Millionen-Token-Kontextfenster (das Äquivalent der gesamten „Herr der Ringe“-Serie).

Claude 3 Opus übertrifft GPT-4 bei standardisierten Tests, die universitäres Wissen (MMLU), Abschlussarbeiten-Logik (GPQA), Grundschulmathematik (GSM8K) und Codierung (HumanEval) bewerten. Es ist auch erwähnenswert, dass während das Wissenslimit von GPT-4 im April 2023 liegt, wurde Claude 3 mit Daten bis August 2023 trainiert.

Um Claude in Aktion zu sehen, habe ich ihm ein paar Aufgaben gegeben. Ich habe dann diese gleichen Aufgaben auch anderen konkurrierenden Chatbots gegeben und die Ergebnisse verglichen.

Die erste Aufgabe bestand darin, mir beim Üben von Spanisch zu helfen. Ich bat Claude, mein Spanischvokabular zu testen und die Schwierigkeit im Laufe der Zeit langsam zu steigern.

Als ich Claude 2 im September 2023 zum ersten Mal getestet habe, habe ich denselben „Spanischlehrer“-Test durchgeführt. Damals hat Claude ganz gut abgeschnitten, aber – wie ein Lehrer, der Angst hat, mich zu beleidigen – hat er meine unbeholfenen Phrasen nicht bemängelt, es sei denn, sie waren offensichtlich falsch. Claude 3 hat keine solchen Vorbehalte: Er bemängelt jeden Fehler und schlägt natürlichere Phrasen vor.

In der Zwischenzeit war GPT-4 ein ausgezeichneter Spanischlehrer, Llama 2 hatte Schwierigkeiten, und Gemini tendierte dazu, meine Fehler zu vermeiden, es sei denn, sie waren besonders gravierend.

Unentschieden: Claude/ChatGPT

Anschließend bat ich jedes Modell um Hilfe bei der Ideenfindung für einen dystopischen Jugendroman. Claude, ChatGPT, Gemini und Llama schnitten hier nahezu identisch ab.

Was mich wirklich interessierte, war die Prüfung des 200.000-Token-Kontextfensters von Claude 3, das ihm theoretisch ermöglichen würde, mit einer einzigen Eingabe einen Kurzroman zu schreiben.

Aber als ich Claude bat, einen 100.000-Wörter-Roman für mich zu schreiben, lehnte er ab. Er sagte mir, dass „das Schreiben eines gesamten Romans eine enorme Menge an Zeit und Mühe erfordern würde.“ (Genau richtig, Claude! Deshalb möchte ich es nicht selbst tun.)

Stattdessen bot Claude an, mit mir zusammenzuarbeiten, um den Roman auszuarbeiten:

Trotz Claudes Zurückhaltung, einen gesamten Roman zu verfassen, macht ihn sein größeres Kontextfenster immer noch zum besten LLM für kreative Projekte. Nach einigen Anpassungen in meiner Fragetechnik konnte ich Claude dazu bringen, eine Skizze in eine plausible 3.000-Wörter-Jugendnovelle auszuarbeiten, komplett mit packender Prosa und Dialogen:

„Die Tür quietschte, und ein düster beleuchteter Raum mit Computerterminals und einer zusammengewürfelten Gruppe von Studenten, die über ihnen gebeugt waren, wurde sichtbar. In der Mitte des Raumes stand ein großer, drahtiger Mann mit einer Schock von silbernem Haar und durchdringend blauen Augen. ‚Willkommen,‘ sagte der Mann, seine Stimme leise und rau. ‚Wir haben auf dich gewartet. Ich bin Cypher, der Anführer der Erwachten.’“

Der Gewinner: Claude

Claudes Einfluss auf die Konvertierung der KI-Sicherheit

Der CEO von Anthropic argumentiert, dass sein Unternehmen, um die Sicherheit bei der Entwicklung von KI-Systemen wirklich zu befürworten, nicht nur Forschungspapiere veröffentlichen kann. Stattdessen muss es kommerziell konkurrieren und durch die kontinuierliche Erhöhung des Sicherheitsstandards die Wettbewerber beeinflussen.

Es ist möglicherweise zu früh zu sagen, ob die Veröffentlichung von Claude durch Anthropic andere KI-Unternehmen dazu bringt, ihre Sicherheitsprotokolle zu verschärfen oder Regierungen dazu ermutigt, sich mit der KI-Aufsicht zu befassen. Aber Anthropic hat definitiv einen Platz am Tisch gesichert: Seine Führungskräfte wurden eingeladen, den US-Präsidenten Joe Biden bei einem KI-Gipfel im Weißen Haus im Mai 2023 zu informieren, und im Juli 2023 war Anthropic eines von sieben führenden KI-Unternehmen, die sich auf gemeinsame Sicherheitsstandards geeinigt haben. Anthropic hat sich, zusammen mit Google DeepMind und OpenAI, auch verpflichtet, der britischen KI-Sicherheitskommission frühzeitig Zugang zu seinen Modellen zu gewähren.

Es ist ironisch, dass eine Gruppe von Forschern, die vor einer existenziellen Bedrohung durch KI Angst haben, ein Unternehmen gründen würden, das ein leistungsstarkes KI-Modell entwickelt. Aber genau das passiert bei Anthropic – und im Moment scheint das ein positiver Schritt für die KI-Sicherheit zu sein.

Der Inhalt dieses Artikels wurde aus dem Originalartikel übersetzt

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert