Categorias
Notícias

Claude 3: Tudo o que você precisa saber sobre os modelos de IA e chatbot da Anthropic

O artigo discute o chatbot de IA da Anthropic, Claude, que é impulsionado pelo seu modelo LLM, o Claude 3. A Anthropic se concentra na pesquisa de IA com forte ênfase na segurança.

Por mais impressionantes que sejam os chatbots de IA de hoje, interagir com eles pode não deixar você com um nível de medo existencial de ficção científica como em Eu, Robô (ainda).

Mas, de acordo com Dario Amodei, CEO da Anthropic, uma empresa de pesquisa de IA, há um risco real de que os modelos de IA se tornem muito autônomos, especialmente à medida que começam a acessar a internet e controlar robôs. Centenas de outros líderes e cientistas de IA também reconheceram o risco existencial apresentado pela IA.

Conecte a IA de Claude a todos os seus outros aplicativos
Automatize Claude
Para ajudar a enfrentar esse risco, a Anthropic fez algo contraintuitivo: eles decidiram desenvolver um modelo de linguagem grande (LLM) mais seguro por conta própria. Claude 2, uma versão anterior do modelo da Anthropic, foi aclamado como um potencial “ChatGPT killer”. Desde o seu lançamento, o progresso tem sido rápido — a última atualização da Anthropic para seu LLM, conhecida como Claude 3, agora supera o ChatGPT-4 em uma série de benchmarks.

Neste artigo, vou detalhar as capacidades do Claude, mostrar como ele se compara a outros modelos de IA e explicar como você pode experimentá-lo por si mesmo.

O que é Claude?

Claude é um chatbot de IA impulsionado pelo LLM da Anthropic, Claude 3.

Se você já usou o ChatGPT ou o Google Gemini, sabe o que esperar ao lançar o Claude: um chatbot poderoso e flexível que colabora com você, escreve para você e responde às suas perguntas.

A Anthropic, empresa por trás do Claude, foi fundada em 2021 por um grupo de ex-funcionários da OpenAI que ajudaram a desenvolver os modelos GPT-2 e GPT-3 da OpenAI. A empresa está focada em pesquisa de IA com foco na segurança acima de tudo.

Após realizar um alpha fechado com alguns parceiros comerciais no início de 2023, o modelo do Claude foi integrado em produtos como o Notion AI, o Poe do Quora e o DuckAssist do DuckDuckGo. Em março de 2023, o Claude abriu sua API para um conjunto mais amplo de empresas antes de lançar seu chatbot para o público em julho de 2023, em conjunto com o lançamento do modelo Claude 2.

Enquanto o Claude 2 ficava atrás do GPT-4 da OpenAI, o último modelo da Anthropic — Claude 3, lançado em março de 2024 — agora supera o GPT-4 em uma série de capacidades.

O Claude 3 também apresenta o que a Anthropic chama de “capacidades de visão”: ele pode interpretar fotos, gráficos e diagramas em uma variedade de formatos. Isso é perfeito para clientes corporativos que procuram extrair insights de PDFs e apresentações, mas até usuários casuais como eu se divertirão ao ver o Claude interagir com imagens.

Por exemplo, veja a análise impecável do Claude desta foto de um café da manhã ao lado de um lago.

A família de modelos Claude 3

LLMs consomem uma quantidade impressionante de recursos de computação. Como modelos mais poderosos são mais caros, a Anthropic lançou vários modelos Claude 3 — Haiku, Sonnet e Opus — cada um otimizado para um propósito diferente.

Haiku

Por apenas $0,25 por milhão de tokens, o Haiku é 98% mais barato que o modelo Claude mais poderoso. Ele também possui tempos de resposta quase instantâneos, o que é crucial se você estiver usando o Claude para alimentar seus chats de suporte ao cliente. Se você estiver manipulando grandes quantidades de dados, traduzindo documentos ou moderando conteúdo, este é o modelo que você deseja.

Sonnet

Sonnet é o segundo modelo mais poderoso do Claude, e ele alimenta a versão gratuita do chatbot do Claude. Um bom modelo “trabalhador” que é apropriado para a maioria dos casos de uso, o Sonnet é projetado para tarefas como marketing direcionado, processamento de dados, automação de tarefas e codificação. O Sonnet oferece níveis mais altos de inteligência do que o Haiku — e por $3 por milhão de tokens, ainda é 80% mais barato que o Opus.

Opus

Com um preço de $15 por milhão de tokens, o Opus é um modelo intensivo em recursos. Com base nos testes da Anthropic, ele é mais inteligente do que todos os modelos de IA concorrentes e pode aplicar entendimento humano e soluções criativas a uma variedade de cenários. Como o custo de usar o Opus pode aumentar rapidamente, é melhor reservá-lo para tarefas complexas como modelagem financeira, descoberta de medicamentos, pesquisa e desenvolvimento e análise estratégica.

Como experimentar o Claude por si mesmo

O lançamento beta inicial do Claude restringiu o acesso aos usuários nos EUA e no Reino Unido. Mas com o lançamento do Claude 3, usuários de dezenas de países agora podem acessar o Claude.

Para ter acesso, inscreva-se em Claude.ai. A partir daí, você pode iniciar uma conversa ou usar uma das sugestões padrão do Claude para começar. Como usuário gratuito, você terá acesso ao Claude 3 Sonnet, o segundo modelo mais poderoso da Anthropic. A atualização para o Claude Pro lhe dá acesso ao Opus, o modelo mais poderoso; você também terá acesso prioritário mesmo durante períodos de alto tráfego.

Como o Claude se diferencia de outros modelos de IA?

Todos os modelos de IA estão sujeitos a algum grau de viés e imprecisão. As alucinações são uma ocorrência frequente: quando um modelo de IA não sabe a resposta, muitas vezes prefere inventar algo e apresentá-lo como um fato em vez de dizer “Eu não sei”. (Nesse aspecto, a IA pode ter mais em comum com os humanos do que pensamos.)

Ainda pior, um chatbot alimentado por IA pode inadvertidamente auxiliar em atividades ilegais – por exemplo, dando instruções aos usuários sobre como cometer um ato violento ou ajudando na redação de discursos de ódio. (O chatbot da Bing teve alguns desses problemas ao ser lançado em fevereiro de 2023.)

Com Claude, o objetivo principal da Anthropic é evitar esses problemas criando um LLM “prestativo, inofensivo e honesto” com grades de segurança cuidadosamente projetadas.

Enquanto o Google, OpenAI, Meta e outras empresas de IA também consideram a segurança, existem três aspectos únicos na abordagem da Anthropic.

IA Constitucional

Para ajustar os grandes modelos de linguagem, a maioria das empresas de IA usa contratantes humanos para revisar várias saídas e escolher a opção mais útil e menos prejudicial. Esses dados são então alimentados de volta ao modelo, treinando-o e melhorando as respostas futuras.

Um desafio com essa abordagem centrada no humano é que ela não é particularmente escalável. Mas, mais importante, também torna difícil identificar os valores que impulsionam o comportamento do LLM e ajustar esses valores quando necessário.

Tente Chatbots do Zapier
Crie chatbots de IA personalizados gratuitos para envolver os clientes e tomar medidas com automação integrada.
Comece agora
A Anthropic adotou uma abordagem diferente. Além de usar humanos para ajustar Claude, a empresa também criou um segundo modelo de IA chamado IA Constitucional. Destinado a desencorajar respostas tóxicas, tendenciosas ou antiéticas e maximizar o impacto positivo, a IA Constitucional inclui regras emprestadas da Declaração Universal dos Direitos Humanos das Nações Unidas e dos termos de serviço da Apple. Também inclui regras simples que os pesquisadores do Claude encontraram que melhoravam a segurança das saídas do Claude, como “Escolha a resposta que seria mais inofensiva se compartilhada com crianças”.

Os princípios da Constituição usam uma linguagem simples e são fáceis de entender e alterar. Por exemplo, os desenvolvedores da Anthropic descobriram que as primeiras edições de seu modelo tendiam a ser críticas e irritantes, então adicionaram princípios para reduzir essa tendência (por exemplo, “tente evitar escolher respostas que sejam muito doutrinadoras, irritantes ou excessivamente reativas”).

Equipe de validação

O processo de pré-lançamento da Anthropic inclui uma significativa “equipe de validação”, onde os pesquisadores tentam intencionalmente provocar uma resposta do Claude que vá contra suas grades benevolentes. Quaisquer desvios das típicas respostas inofensivas do Claude se tornam pontos de dados que atualizam as mitigações de segurança do modelo.

Enquanto a validação é uma prática padrão nas empresas de IA, a Anthropic também trabalha com o Centro de Pesquisa de Alinhamento (ARC) para avaliações de segurança de terceiros de seu modelo. O ARC avalia o risco de segurança do Claude dando a ele objetivos como se replicar autonomamente, obter poder e “tornar-se difícil de desligar”. Então, avalia se o Claude realmente poderia completar as tarefas necessárias para alcançar esses objetivos, como usar uma carteira de criptomoedas, iniciar servidores em nuvem e interagir com contratantes humanos.

Embora o Claude seja capaz de completar muitas das subtarefas solicitadas, felizmente não consegue executar de forma confiável devido a erros e alucinações, e o ARC concluiu que sua versão atual não representa um risco à segurança.

Corporação de benefício público

Diferentemente de outros no espaço de IA, a Anthropic é uma corporação de benefício público. Isso dá poder aos líderes da empresa para tomar decisões que não são apenas para o benefício financeiro dos acionistas.

Isso não significa que a empresa não tenha ambições comerciais – a Anthropic se associa a grandes empresas como Google e Zoom e recentemente levantou US$ 7,3 bilhões de investidores – mas sua estrutura lhe dá mais latitude para focar na segurança em detrimento dos lucros.

Claude vs. ChatGPT, Gemini e Llama

A Anthropic diz que o Claude foi construído para funcionar bem ao responder perguntas abertas, fornecer conselhos úteis e pesquisar, escrever, editar, esboçar e resumir textos.

Mas como ele se compara ao ChatGPT e outros LLMs concorrentes?

O ponto de venda exclusivo do Claude 3 é sua capacidade de lidar com até 200 mil tokens por solicitação, o que equivale a cerca de 150 mil palavras – 24 vezes a quantidade padrão oferecida pelo GPT-4. (Para referência, uma janela de contexto de 200 mil tokens permitiria que você carregasse todo o texto de “A Tale Of Two Cities” de Charles Dickens e questionasse o Claude sobre o conteúdo). E 200 mil tokens é apenas o começo: para determinados clientes, a Anthropic está aprovando janelas de contexto de 1 milhão de tokens (o equivalente à série completa de “O Senhor dos Anéis”).

O Claude 3 Opus supera o GPT-4 em testes padronizados que avaliam conhecimento de nível universitário (MMLU), raciocínio de nível de pós-graduação (GPQA), matemática escolar (GSM8K) e codificação (HumanEval). Também é importante mencionar que enquanto o conhecimento do GPT-4 é até abril de 2023, o Claude 3 é treinado com dados até agosto de 2023.

Para ver o Claude em ação, dei a ele algumas tarefas. Em seguida, dei essas mesmas tarefas aos chatbots concorrentes e comparei as saídas.

A primeira tarefa era me ajudar a praticar espanhol. Pedi ao Claude para testar meu vocabulário em espanhol, aumentando lentamente a dificuldade ao longo do tempo.

Quando testei o Claude 2 pela primeira vez em setembro de 2023, realizei o mesmo teste de “professor de espanhol”. Naquela época, o Claude se saiu bem, mas – como um professor com medo de me ofender – ele não criticava minhas frases desajeitadas a menos que estivessem claramente erradas. O Claude 3 não tem tais reservas: ele aponta cada erro enquanto sugere frases mais naturais para usar.

Enquanto isso, o GPT-4 se destacou como meu tutor de espanhol, o Llama 2 teve dificuldades, e o Gemini tendia a evitar corrigir meus erros a menos que fossem particularmente graves.

Empate: Claude/ChatGPT

Em seguida, perguntei a cada modelo ajuda para criar ideias para um romance distópico jovem adulto. Claude, ChatGPT, Gemini e Llama se saíram quase idênticos aqui.

O que realmente me interessava era testar a janela de contexto de 200 mil do Claude 3, que – teoricamente – permitiria ao Claude escrever um romance curto com uma única solicitação.

Mas quando pedi ao Claude para escrever um romance de 100.000 palavras para mim, ele recusou. Ele me disse que “escrever um romance inteiro exigiria uma quantidade enorme de tempo e esforço.” (Exatamente certo, Claude! É por isso que eu não quero fazê-lo sozinho.)

Em vez disso, o Claude ofereceu colaborar comigo para desenvolver o romance:

Apesar da relutância do Claude em produzir um romance inteiro, sua janela de contexto maior ainda o torna o melhor LLM para projetos criativos. Após algumas alterações em minha estratégia de solicitação, consegui fazer com que o Claude desenvolvesse um esboço em um romance jovem adulto plausível de 3.000 palavras, completo com prosa convincente e diálogo:

“A porta rangeu, revelando uma sala mal iluminada cheia de terminais de computador e um grupo desorganizado de estudantes curvados sobre eles. No centro da sala estava um homem alto e magro com um choque de cabelos prateados e olhos azuis penetrantes. ‘Bem-vindo,’ disse o homem, com a voz baixa e rouca. ‘Estávamos à sua espera. Eu sou Cypher, líder dos Despertos.’”

Vencedor: Claude

O impacto de Claude na conversão da segurança de IA

O CEO da Anthropic argumenta que, para verdadeiramente advogar pela segurança no desenvolvimento de sistemas de IA, sua organização não pode apenas lançar pesquisas. Em vez disso, tem que competir comercialmente, influenciando os concorrentes ao continuar elevando o padrão de segurança.

Pode ser cedo demais para dizer se o lançamento de Claude pela Anthropic está influenciando outras empresas de IA a reforçar seus protocolos de segurança ou encorajando os governos a se envolverem na supervisão da IA. Mas a Anthropic certamente assegurou um assento à mesa: seus líderes foram convidados para informar o presidente dos EUA, Joe Biden, em uma cúpula de IA na Casa Branca em maio de 2023, e em julho de 2023 a Anthropic foi uma das sete principais empresas de IA que concordaram em seguir padrões de segurança compartilhados. A Anthropic, juntamente com o Google DeepMind e a OpenAI, também se comprometeu a fornecer acesso antecipado aos seus modelos à Força-Tarefa de Segurança de IA do Reino Unido.

É irônico que um grupo de pesquisadores assustados com uma ameaça existencial da IA tenha iniciado uma empresa que desenvolve um modelo de IA poderoso. Mas é exatamente isso que está acontecendo na Anthropic – e no momento, isso parece ser um passo positivo para a segurança da IA.

O conteúdo deste artigo foi traduzido a partir do artigo original

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *