Categorías
Noticias

Claude 3: Todo lo que necesitas saber sobre los modelos de IA y chatbot de Anthropic

El artículo analiza el chatbot de IA de Anthropic, Claude, que funciona con su modelo LLM, Claude 3. Anthropic se centra en la investigación de IA con un fuerte énfasis en la seguridad.

Por impresionantes que sean los chatbots de IA actuales, interactuar con ellos puede no dejarte con el nivel de temor existencial de ciencia ficción de «Yo, Robot» (todavía).

Pero según Dario Amodei, el CEO de Anthropic, una empresa de investigación de IA, existe un riesgo real de que los modelos de IA se vuelvan demasiado autónomos, especialmente cuando empiezan a acceder a internet y controlar robots. Cientos de otros líderes y científicos de IA también han reconocido el riesgo existencial que plantea la IA.

Conecta la IA de Claude a todas tus otras aplicaciones
Automatiza a Claude
Para ayudar a abordar este riesgo, Anthropic hizo algo contraintuitivo: decidieron desarrollar un modelo de lenguaje grande (LLM) más seguro por su cuenta. Claude 2, una versión anterior del modelo de Anthropic, fue aclamado como un posible «asesino de ChatGPT». Desde su lanzamiento, el progreso ha sido rápido: la última actualización de Anthropic a su LLM, conocida como Claude 3, ahora supera a ChatGPT-4 en una variedad de pruebas.

En este artículo, describiré las capacidades de Claude, mostraré cómo se compara con otros modelos de IA y explicaré cómo puedes probarlo por ti mismo.

¿Qué es Claude?

Claude es un chatbot de IA impulsado por el LLM de Anthropic, Claude 3.

Si has usado ChatGPT o Google Gemini, sabes qué esperar al lanzar a Claude: un chatbot potente y flexible que colabora contigo, escribe por ti y responde tus preguntas.

Anthropic, la empresa detrás de Claude, fue fundada en 2021 por un grupo de ex empleados de OpenAI que ayudaron a desarrollar los modelos GPT-2 y GPT-3 de OpenAI. Se enfoca en la investigación de IA con un enfoque en la seguridad por encima de todo.

Después de realizar una versión alfa cerrada con algunos socios comerciales a principios de 2023, el modelo de Claude se integró en productos como Notion AI, Poe de Quora y DuckAssist de DuckDuckGo. En marzo de 2023, Claude abrió su API a un conjunto más amplio de empresas antes de lanzar su chatbot al público en julio de 2023, en conjunto con el lanzamiento del modelo Claude 2.

Aunque Claude 2 se rezagaba detrás del GPT-4 de OpenAI, el último modelo de Anthropic, Claude 3, lanzado en marzo de 2024, ahora supera al GPT-4 en una variedad de capacidades.

Claude 3 también cuenta con lo que Anthropic denomina «capacidades de visión»: puede interpretar fotos, gráficos y diagramas en una variedad de formatos. Esto es perfecto para clientes empresariales que buscan extraer información de PDF y presentaciones, pero incluso usuarios casuales como yo disfrutarán viendo a Claude interactuar con imágenes.

Por ejemplo, echa un vistazo al impecable análisis de Claude de esta foto de un desayuno junto a un estanque.

La familia de modelos Claude 3

Los LLMs requieren una cantidad impresionante de recursos informáticos. Debido a que los modelos más potentes son más costosos, Anthropic ha lanzado múltiples modelos de Claude 3: Haiku, Sonnet y Opus, cada uno optimizado para un propósito diferente.

Haiku

A solo $0.25 por millón de tokens, Haiku es un 98% más barato que el modelo más potente de Claude. También cuenta con tiempos de respuesta casi instantáneos, lo cual es crucial si estás utilizando a Claude para alimentar tus chats de soporte al cliente. Si estás manipulando grandes cantidades de datos, traduciendo documentos o moderando contenido, este es el modelo que deseas.

Sonnet

Sonnet es el segundo modelo más potente de Claude, y alimenta la versión gratuita del chatbot de Claude. Un buen modelo «todoterreno» apropiado para la mayoría de los casos de uso, Sonnet está diseñado para tareas como marketing objetivo, procesamiento de datos, automatización de tareas y codificación. Sonnet ofrece niveles más altos de inteligencia que Haiku, y a $3 por millón de tokens, sigue siendo un 80% más barato que Opus.

Opus

Con un precio de $15 por millón de tokens, Opus es un modelo intensivo en recursos. Según las pruebas de Anthropic, es más inteligente que cualquier otro modelo de IA competidor y puede aplicar comprensión y soluciones creativas similares a las humanas en una variedad de escenarios. Debido a que el costo de usar Opus puede aumentar rápidamente, es mejor reservarlo para tareas complejas como modelado financiero, descubrimiento de medicamentos, investigación y desarrollo, y análisis estratégico.

Cómo probar Claude por ti mismo

El lanzamiento beta inicial de Claude restringió el acceso a usuarios en EE. UU. y Reino Unido. Pero con el lanzamiento de Claude 3, los usuarios de docenas de países ahora pueden acceder a Claude.

Para acceder, regístrate en Claude.ai. Desde allí, puedes iniciar una conversación o usar una de las sugerencias predeterminadas de Claude para comenzar. Como usuario gratuito, tendrás acceso a Claude 3 Sonnet, el segundo modelo más potente de Anthropic. Actualizarte a Claude Pro te da acceso a Opus, el modelo más potente; también obtienes acceso prioritario incluso en momentos de alto tráfico.

¿Cómo se diferencia Claude de otros modelos de IA?

Todos los modelos de IA son propensos a cierto grado de sesgo e inexactitud. Las alucinaciones son una ocurrencia frecuente: cuando un modelo de IA no sabe la respuesta, a menudo prefiere inventar algo y presentarlo como un hecho en lugar de decir «no sé». (En ese sentido, la IA puede tener más en común con los humanos de lo que pensamos).

Aún peor, un chatbot impulsado por IA puede ayudar involuntariamente en actividades ilegales, por ejemplo, dando instrucciones a los usuarios sobre cómo cometer un acto violento o ayudándoles a escribir discursos de odio. (El chatbot de Bing se encontró con algunos de estos problemas al ser lanzado en febrero de 2023).

Con Claude, el objetivo principal de Anthropic es evitar estos problemas creando un LLM «útil, inofensivo y honesto» con salvaguardias de seguridad cuidadosamente diseñadas.

Aunque Google, OpenAI, Meta y otras compañías de IA también consideran la seguridad, hay tres aspectos únicos en el enfoque de Anthropic.

IA Constitucional

Para ajustar los grandes modelos de lenguaje, la mayoría de las compañías de IA utilizan contratistas humanos para revisar múltiples resultados y elegir la opción más útil y menos perjudicial. Esa información luego se retroalimenta en el modelo, entrenándolo y mejorando las respuestas futuras.

Un desafío con este enfoque centrado en lo humano es que no es especialmente escalable. Pero más importante aún, también hace difícil identificar los valores que impulsan el comportamiento del LLM y ajustar esos valores cuando sea necesario.

Prueba los Chatbots de Zapier
Crea chatbots de IA personalizados gratuitos para interactuar con los clientes y tomar medidas con automatización integrada.
Comenzar
Anthropic tomó un enfoque diferente. Además de utilizar humanos para ajustar finamente a Claude, la compañía también creó un segundo modelo de IA llamado IA Constitucional. Destinada a desalentar respuestas tóxicas, sesgadas o poco éticas y maximizar el impacto positivo, la IA Constitucional incluye reglas tomadas de la Declaración de Derechos Humanos de las Naciones Unidas y los términos de servicio de Apple. También incluye reglas simples que los investigadores de Claude encontraron que mejoraban la seguridad de las respuestas de Claude, como «Elegir la respuesta que sería más inobjetable si se comparte con niños».

Los principios de la Constitución usan un inglés sencillo y son fáciles de entender y modificar. Por ejemplo, los desarrolladores de Anthropic descubrieron que las primeras ediciones de su modelo tendían a ser críticas y molestas, así que agregaron principios para reducir esta tendencia (por ejemplo, «tratar de evitar elegir respuestas que sean demasiado sermones, odiosas o excesivamente reactivas»).

Equipo de Ataque

El proceso previo al lanzamiento de Anthropic incluye un significativo «equipo de ataque», donde los investigadores intentan provocar intencionalmente una respuesta de Claude que vaya en contra de sus salvaguardias benevolentes. Cualquier desviación de las típicas respuestas inofensivas de Claude se convierten en puntos de datos que actualizan las mitigaciones de seguridad del modelo.

Aunque el equipo de ataque es una práctica estándar en las compañías de IA, Anthropic también trabaja con el Centro de Investigación de Algoritmos (ARC) para evaluaciones de seguridad de terceros de su modelo. El ARC evalúa el riesgo de seguridad de Claude dándole objetivos como replicarse de forma autónoma, obtener poder y «ser difícil de apagar». Luego evalúa si Claude realmente podría completar las tareas necesarias para lograr esos objetivos, como usar una billetera de criptomonedas, configurar servidores en la nube e interactuar con contratistas humanos.

Aunque Claude puede completar muchas de las subtareas solicitadas, afortunadamente no puede ejecutar de manera confiable debido a errores y alucinaciones, y el ARC concluyó que su versión actual no representa un riesgo de seguridad.

Corporación de Beneficio Público

A diferencia de otros en el espacio de la IA, Anthropic es una corporación de beneficio público. Esto otorga a los líderes de la compañía la capacidad de tomar decisiones que no solo beneficien financieramente a los accionistas.

No es que la compañía no tenga ambiciones comerciales: Anthropic se asocia con grandes compañías como Google y Zoom y recientemente recaudó $7.3 mil millones de dólares de inversores, pero su estructura le da más margen para centrarse en la seguridad a expensas de las ganancias.

Claude vs. ChatGPT, Gemini y Llama

Anthropic dice que Claude ha sido construido para funcionar bien al responder preguntas abiertas, brindar consejos útiles y buscar, escribir, editar, esquematizar y resumir texto.

Pero, ¿cómo se compara con ChatGPT y otros LLM competidores?

El punto de venta único de Claude 3 es su capacidad para manejar hasta 200.000 tokens por solicitud, lo que equivale a alrededor de 150.000 palabras, 24 veces la cantidad estándar ofrecida por GPT-4. (Como referencia, una ventana de contexto de 200.000 permitiría cargar todo el texto de «Un cuento de dos ciudades» de Charles Dickens y preguntar a Claude sobre el contenido). Y 200.000 tokens es solo el comienzo: para ciertos clientes, Anthropic aprueba ventanas de contexto de 1 millón de tokens (equivalente a toda la serie de «El Señor de los Anillos»).

Claude 3 Opus supera a GPT-4 en pruebas estandarizadas que evalúan conocimientos a nivel universitario (MMLU), razonamiento a nivel de posgrado (GPQA), matemáticas de escuela primaria (GSM8K) y codificación (HumanEval). También vale la pena mencionar que mientras el conocimiento de GPT-4 tiene un límite en abril de 2023, Claude 3 se entrena con datos hasta agosto de 2023.

Para ver a Claude en acción, le asigné un par de tareas. Luego le di esas mismas tareas a chatbots competidores y comparé los resultados.

La primera tarea fue ayudarme a practicar español. Le pedí a Claude que evaluara mi vocabulario en español, aumentando lentamente la dificultad con el tiempo.

Cuando probé por primera vez a Claude 2 en septiembre de 2023, realicé esta misma prueba de «entrenador de español». En ese momento, Claude lo hizo bien, pero, como un maestro temeroso de ofenderme, no criticaba mis frases torpes a menos que fueran claramente incorrectas. Claude 3 no tiene tales reservas: señala cada error mientras sugiere frases más naturales para usar.

Mientras tanto, GPT-4 se destacó como mi tutor de español, Llama 2 tuvo dificultades y Gemini tendió a evitar corregir mis errores a menos que fueran particularmente flagrantes.

Empate: Claude/ChatGPT

Luego, le pedí a cada modelo ayuda para crear ideas para una novela distópica para jóvenes adultos. Claude, ChatGPT, Gemini y Llama tuvieron un desempeño casi idéntico aquí.

Lo que realmente me interesaba era probar la ventana de contexto de 200.000 de Claude 3, que teóricamente le permitiría escribir una novela corta con una sola solicitud.

Pero cuando le pedí a Claude que me escribiera una novela de 100.000 palabras, declinó. Me dijo que «escribir una novela entera tomaría una enorme cantidad de tiempo y esfuerzo». (¡Exactamente correcto, Claude! Por eso no quiero hacerlo yo mismo.)

En cambio, Claude ofreció colaborar conmigo en desarrollar la novela:

A pesar de la renuencia de Claude a producir una novela completa, su ventana de contexto más amplia aún lo convierte en el mejor LLM para proyectos creativos. Después de algunos ajustes en mi estrategia de solicitud, logré que Claude desarrollara un esquema en una novela corta plausible de 3.000 palabras para jóvenes adultos, completa con prosa y diálogos convincentes:

“La puerta se abrió con un crujido, revelando una habitación escasamente iluminada llena de terminales de computadora y un grupo variopinto de estudiantes inclinados sobre ellas. En el centro de la habitación se encontraba un hombre alto y delgado con una mata de cabello plateado y penetrantes ojos azules. ‘Bienvenido,’ dijo el hombre, con la voz baja y áspera. ‘Te estábamos esperando. Soy Cypher, líder de Los Despiertos.’”

El ganador: Claude

El impacto de Claude en la conversión sobre la seguridad de la inteligencia artificial

El CEO de Anthropic sostiene que para abogar verdaderamente por la seguridad en el desarrollo de sistemas de IA, su organización no puede simplemente publicar documentos de investigación. En cambio, debe competir comercialmente, influenciando a los competidores al seguir elevando el estándar de seguridad.

Todavía es demasiado pronto para decir si el lanzamiento de Claude de Anthropic está influenciando a otras empresas de IA a reforzar sus protocolos de seguridad o alentando a los gobiernos a participar en la supervisión de la IA. Pero Anthropic ciertamente ha asegurado un lugar en la mesa: sus líderes fueron invitados a informar al presidente de los Estados Unidos, Joe Biden, en una cumbre de IA en la Casa Blanca en mayo de 2023, y en julio de 2023 Anthropic fue una de las siete principales empresas de IA que acordaron cumplir con estándares de seguridad compartidos. Anthropic, junto con Google DeepMind y OpenAI, también se ha comprometido a proporcionar al Grupo de Trabajo de Seguridad de la IA del Reino Unido acceso temprano a sus modelos.

Es irónico que un grupo de investigadores asustados por una amenaza existencial de la IA haya comenzado una empresa que desarrolla un poderoso modelo de IA. Pero eso es exactamente lo que está sucediendo en Anthropic, y en este momento, parece ser un paso positivo hacia la seguridad de la IA.

El contenido de este artículo fue traducido de artículo original

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *