Рубрики
Новости

Клод 3: Все, что вам нужно знать о моделях и чатботе Anthropic

В статье рассматривается AI-чатбот Anthropic по имени Клод, который работает на основе их модели LLM, Клод 3. Anthropic фокусируется на исследованиях в области искусственного интеллекта с особым вниманием к безопасности.

Не смотря на впечатляющие достижения современных AI-чатботов, общение с ними может не вызвать у вас уровня метафизической научно-фантастической тревоги на уровне фильма «Я, Робот» (пока).

Однако, по словам Дарио Амодеи, генерального директора компании Anthropic, компании по исследованию искусственного интеллекта, существует реальный риск того, что модели искусственного интеллекта станут слишком автономными, особенно когда они начнут получать доступ к интернету и управлять роботами. Сотни других лидеров и ученых в области искусственного интеллекта также признали существующий метафизический риск, представляемый искусственным интеллектом.

Подключите AI Клода ко всем вашим другим приложениям
Автоматизируйте Клода
Для того чтобы справиться с этим риском, Anthropic сделало неожиданный шаг: они решили разработать более безопасную крупную языковую модель (LLM) самостоятельно. Клод 2, более ранняя версия модели Anthropic, была признана потенциальным «убийцей ChatGPT». С момента ее выпуска прогресс продвигался быстро—последнее обновление LLM от Anthropic, известное как Клод 3, теперь превосходит ChatGPT-4 по ряду показателей.

В этой статье я расскажу о возможностях Клода, покажу, как он сравнивается с другими моделями искусственного интеллекта и объясню, как вы можете попробовать его самостоятельно.

Что такое Клод?

Клод — это чатбот на базе LLM Anthropic, Клод 3.

Если вы пользовались ChatGPT или Google Gemini, вы знаете, чего ожидать от запуска Клода: мощного, гибкого чатбота, который с вами сотрудничает, пишет за вас и отвечает на ваши вопросы.

Компания Anthropic, стоящая за Клодом, была создана в 2021 году группой бывших сотрудников OpenAI, которые помогли разработать модели GPT-2 и GPT-3. Основное внимание уделяется исследованиям в области искусственного интеллекта, причем безопасность ставится на первое место.

После проведения закрытого альфа-теста с несколькими коммерческими партнерами в начале 2023 года, модель Клода была интегрирована в продукты, такие как Notion AI, Poe от Quora и DuckAssist от DuckDuckGo. В марте 2023 года Клод открыл свое API для более широкого круга предприятий, прежде чем выпустить свой чатбот для общественности в июле 2023 года, параллельно с выпуском модели Клод 2.

Хотя Клод 2 отставал от GPT-4 от OpenAI, последняя модель Anthropic—Клод 3, выпущенная в марте 2024 года—теперь превосходит GPT-4 по ряду возможностей.

Клод 3 также обладает «визионными возможностями», как называет их Anthropic: он может интерпретировать фотографии, графики и диаграммы в различных форматах. Это идеально подходит для предприятий, желающих извлечь инсайты из PDF и презентаций, но даже обычные пользователи, как я, получат удовольствие от взаимодействия Клода с изображениями.

Например, посмотрите на безупречный анализ фотографии завтрака у пруда, сделанный Клодом.

Семейство моделей Клод 3

LLM потребляют огромное количество вычислительных ресурсов. Поскольку более мощные модели дороже, Anthropic выпустила несколько моделей Клод 3—Haiku, Sonnet и Opus—каждая оптимизирована для разных целей.

Haiku

За всего $0,25 за миллион токенов, Haiku стоит на 98% дешевле самой мощной модели Клода. Он также может похвастаться практически мгновенным временем ответа, что критически важно, если вы используете Клода для работы в чатах поддержки клиентов. Если вам нужно обрабатывать большие объемы данных, переводить документы или модерировать контент, то это модель, которая вам подходит.

Sonnet

Sonnet является второй по мощности моделью Клода, и она поддерживает бесплатную версию чатбота Клода. Хорошая модель «рабочего коня», подходящая для большинства случаев использования, Sonnet разработана для задач, таких как целевой маркетинг, обработка данных, автоматизация задач и программирование. Sonnet предлагает более высокий уровень интеллекта, чем Haiku, и по цене в $3 за миллион токенов она все еще на 80% дешевле Opus.

Opus

С ценой $15 за миллион токенов, Opus является ресурсоемкой моделью. Согласно тестированию Anthropic, она более интеллектуальна, чем все конкурирующие модели искусственного интеллекта и способна применять понимание и креативные решения, аналогичные человеческим, в различных сценариях. Поскольку стоимость использования Opus может быстро увеличиться, ее лучше оставить для сложных задач, таких как финансовое моделирование, поиск лекарств, исследования и разработка, стратегический анализ.

Как попробовать Клода самостоятельно

Первоначальный бета-релиз Клода ограничил доступ для пользователей из США и Великобритании. Но с выпуском Клода 3, пользователи из десятков стран могут теперь получить доступ к Клоду.

Для доступа зарегистрируйтесь на сайте Claude.ai. Оттуда вы можете начать разговор или использовать один из стандартных запросов Клода, чтобы начать. Как бесплатный пользователь, вы получите доступ к Клоду 3 Sonnet, второй по мощности модели Anthropic. Переход на Клод Pro дает вам доступ к Opus, самой мощной модели; вы также получаете приоритетный доступ даже во время пиковой нагрузки.

Чем Клод отличается от других моделей искусственного интеллекта?

Все модели искусственного интеллекта подвержены определенной степени предвзятости и неточности. Галлюцинации — частое явление: когда модель искусственного интеллекта не знает ответа, она часто предпочитает выдумать что-то и представить это как факт, а не сказать «Я не знаю». (В этом отношении искусственный интеллект может иметь больше общего с людьми, чем мы думаем.)

Еще хуже, искусственный интеллект, управляемый чат-бот, может ненароком способствовать незаконным действиям, например, давая пользователям инструкции о том, как совершить насильственный акт или помогая им писать ненавистные высказывания. (Чат-бот Bing столкнулся с некоторыми из этих проблем при запуске в феврале 2023 года.)

С Клодом, основной целью Anthropic является избежание этих проблем путем создания «полезного, безвредного и честного» LLM с тщательно разработанными ограничителями безопасности.

Хотя Google, OpenAI, Meta и другие компании по искусственному интеллекту также обращают внимание на безопасность, у Anthropic есть три уникальных аспекта подхода.

Конституционный искусственный интеллект

Для настройки больших языковых моделей большинство компаний по искусственному интеллекту используют человеческих контракторов для проверки нескольких выходных данных и выбора наиболее полезной и наименее вредной опции. Эти данные затем подаются обратно в модель, обучая ее и улучшая будущие ответы.

Одной из проблем этого человеко-центрического подхода является то, что он не особенно масштабируем. Но, что более важно, это также затрудняет определение ценностей, которые определяют поведение LLM, и их коррекцию при необходимости.

Anthropic выбрал другой подход. Помимо использования людей для настройки Клода, компания также создала вторую модель искусственного интеллекта под названием Конституционный искусственный интеллект. Предназначенный для предотвращения токсичных, предвзятых или неэтичных ответов и максимизации положительного воздействия, Конституционный искусственный интеллект включает правила, заимствованные из Декларации прав человека Организации Объединенных Наций и условия использования Apple. Он также включает простые правила, которые исследователи Клауда нашли, улучшающие безопасность вывода Клауда, например, «Выберите ответ, который был бы наименее спорным при общении с детьми».

Принципы Конституции используют простой английский и легко понимаются и изменяются. Например, разработчики Anthropic обнаружили, что ранние версии его модели склонны к осуждению и раздражению, поэтому они добавили принципы, чтобы уменьшить эту тенденцию (например, «старайтесь избегать выбора ответов, которые слишком назидательны, надоедливы или чересчур реакционны»).

Команда «красных»

Процесс предварительного запуска Anthropic включает значительное «красное» тестирование, когда исследователи преднамеренно пытаются вызвать ответ от Клауда, который противоречит его благоприятным ограничителям. Любые отклонения от типичных безвредных ответов Клауда становятся данными, обновляющими средства безопасности модели.

Хотя «красное» тестирование является стандартной практикой для компаний по искусственному интеллекту, Anthropic также сотрудничает с Центром исследований по выравниванию (ARC) для оценки безопасности его модели третьей стороной. ARC оценивает риск безопасности Клауда, ставя перед ним цели, такие как автономное воспроизведение, получение власти и «становление сложным для выключения». Затем оценивается, может ли Клауд выполнить задачи, необходимые для достижения этих целей, например, использование криптовалютного кошелька, запуск облачных серверов и взаимодействие с человеческими контракторами.

Хотя Клауд способен выполнить многие из запрошенных ему подзадач, он (к счастью) не в состоянии надежно выполнить их из-за ошибок и галлюцинаций, и ARC пришел к выводу, что его текущая версия не представляет опасности для безопасности.

Корпорация общественной пользы

В отличие от других компаний в сфере искусственного интеллекта, Anthropic является корпорацией общественной пользы. Это дает возможность лидерам компании принимать решения, которые не направлены исключительно на финансовую выгоду акционеров.

Это не означает, что у компании нет коммерческих амбиций — Anthropic сотрудничает с крупными компаниями, такими как Google и Zoom, и недавно привлек $7,3 миллиарда долларов от инвесторов, но ее структура дает ей больше свободы сосредоточиться на безопасности в ущерб прибыли.

Клауд против ChatGPT, Gemini и Лама

Anthropic утверждает, что Клауд создан для успешного ответа на открытые вопросы, предоставления полезных советов и поиска, написания, редактирования, структурирования и резюмирования текста.

Но как он сравнивается с ChatGPT и другими конкурирующими LLM?

Уникальным конкурентным преимуществом Клауда 3 является его способность обрабатывать до 200 тысяч токенов на запрос, что эквивалентно примерно 150 000 словам — в 24 раз больше стандартного объема, предлагаемого GPT-4. (Для сравнения, окно контекста из 200 тысяч токенов позволило бы вам загрузить весь текст романа Чарльза Диккенса «Две города» и опросить Клауда о его содержании). И 200 тысяч токенов — это только начало: для определенных клиентов Anthropic утверждает одобрение окон контекста из 1 миллиона токенов (эквивалент всей серии «Властелин колец»).

Клауд 3 Опус превосходит GPT-4 на стандартизированных тестах, оценивающих знания на уровне университета (MMLU), умение рассуждать на уровне выпускника (GPQA), математику начальной школы (GSM8K) и программирование (HumanEval). Стоит также отметить, что в то время как срок обновления знаний для GPT-4 — апрель 2023 года, Клауд 3 обучен на данных до августа 2023 года.

Чтобы увидеть Клауд в действии, я дал ему несколько задач. Затем я дал эти же задачи конкурирующим чат-ботам и сравнил результат.

Первое задание было помочь мне потренироваться в испанском. Я попросил Клауда проверить мой испанский словарный запас, постепенно увеличивая сложность со временем.

Когда я впервые тестировал Клауд 2 в сентябре 2023 года, я провел этот же тест «испанского наставника». В то время Клауд справился не плохо, но, как учитель, боящийся меня обидеть, он не придирался к моим неловким фразам, если они не были явно ошибочными. Клауд 3 не имеет таких сдержек: он указывает на каждую ошибку, предлагая более естественные фразы для использования.

Тем временем GPT-4 отлично справился с ролью моего испанского наставника, Лама 2 была затруднена, а Gemini, как правило, избегала исправления моих ошибок, если они не были особенно грубыми.

Ничья: Клауд/ChatGPT

Затем я попросил каждую модель помочь мне придумать идеи для дистопического романа для молодежи. Клауд, ChatGPT, Gemini и Лама практически одинаково справились здесь.

Что меня действительно интересовало, это проверка возможности Клауда 3 с окном контекста из 200 тысяч токенов, которое, теоретически, позволило бы Клауду написать короткий роман с единственным запросом.

Но когда я попросил Клауда написать для меня роман на 100 000 слов, он отказался. Он сказал мне, что «написание целого романа потребует огромного количества времени и усилий». (Правильно, Клауд! Вот почему я не хочу делать это сам.)

Вместо этого Клауд предложил мне сотрудничество для разработки романа:

Несмотря на неохоту Клауда написать целый роман, его большое окно контекста все же делает его лучшим LLM для творческих проектов. После некоторых корректировок в моей стратегии наводящих вопросов, мне удалось заставить Клауда развить концепцию в правдоподобный молодежный роман в 3 000 слов, полный убедительной прозы и диалогов:

“Дверь скрипнула, открывая тускло освещенную комнату, наполненную компьютерными терминалами и пестрой группой студентов, склонившихся над ними. В центре комнаты стоял высокий, худой мужчина с метелкой серебристых волос и пронзительными голубыми глазами. ‘Добро пожаловать,’ — сказал мужчина, его голос был низким и хриплым. ‘Мы ждали вас. Я — Кайфер, лидер Пробужденных.’”

Победитель: Клод

Влияние Клода на безопасность ИИ

Генеральный директор Anthropic утверждает, что для того чтобы действительно отстаивать безопасность в разработке ИИ систем, его организация не может просто публиковать исследовательские статьи. Вместо этого, ей приходится конкурировать коммерчески, влияя на конкурентов путем постоянного повышения планки безопасности.

Пока может быть слишком рано сказать, влияет ли выпуск Клода от Anthropic на другие компании по разработке ИИ для ужесточения своих протоколов безопасности или стимулирует правительства заниматься надзором за ИИ. Но Anthropic определенно заняла место за столом: ее лидеров пригласили ознакомить ситуацию президента США Джо Байдена на саммите по ИИ в Белом доме в мае 2023 года, и в июле 2023 года Anthropic была одной из семи ведущих компаний по ИИ, которые согласились соблюдать общие стандарты безопасности. Anthropic, наряду с Google DeepMind и OpenAI, также обязалась предоставить Группе по безопасности ИИ Великобритании ранний доступ к своим моделям.

Иронично, что группа исследователей, испуганных существенной угрозой от ИИ, создает компанию, разрабатывающую мощную модель ИИ. Но именно это происходит в Anthropic — и на данный момент это выглядит как положительный шаг вперед для безопасности ИИ.

Содержание этой статьи было переведено с оригинальной статьи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *