分類
新聞

克勞德 3:關於 Anthropic 的 AI 模型和聊天機器人的一切

本文討論了 Anthropic 的 AI 聊天機器人克勞德,它由他們的 LLM 模型克勞德 3 提供動力。Anthropic 專注於具有強調安全性的 AI 研究。

儘管當今的 AI 聊天機器人令人印象深刻,但與它們互動可能不會給你留下像《機械公敵》那種存在主義科幻的恐懼感(還沒有)。

但根據 AI 研究公司 Anthropic 的 CEO Dario Amodei 的說法,AI 模型變得過於自主的真正風險——尤其是當它們開始訪問互聯網並控制機器人時。其他數百名 AI 領袖和科學家也承認 AI 所帶來的存在主義風險。

將克勞德的 AI 連接到您的所有其他應用程式
自動化克勞德
為了應對這一風險,Anthropic採取了一個反直覺的做法:他們決定自行開發一個更安全的大型語言模型(LLM)。Anthropic早期版本的模型克勞德 2 被譽為潛在的“ChatGPT 殺手”。自推出以來,進展迅速——Anthropic 最新更新的 LLM,即克勞德 3,在各項基準測試中已超越了 ChatGPT-4。

在本文中,我將概述克勞德的功能,展示它與其他 AI 模型的比較,並解釋您如何自行嘗試。

什麼是克勞德?

克勞德是由 Anthropic 的 LLM 克勞德 3 提供動力的 AI 聊天機器人。

如果您曾使用過 ChatGPT 或 Google Gemini,啟動克勞德時您將知道可以預期到什麼:一個強大靈活的聊天機器人,與您合作,為您撰寫,並回答您的問題。

Anthropic 是克勞德背後的公司,由一群曾幫助開發 OpenAI 的 GPT-2 和 GPT-3 模型的前 OpenAI 員工於 2021 年創立。該公司專注於以安全為首要目標的 AI 研究。

在 2023 年初與一些商業合作夥伴進行封閉式 Alpha 測試後,克勞德的模型被整合到產品中,如 Notion AI、Quora 的 Poe 和 DuckDuckGo 的 DuckAssist。 2023 年 3 月,克勞德向更廣泛的企業開放了其 API,然後於 2023 年 7 月與克勞德 2 模型的發布一起向公眾發布了其聊天機器人。

雖然克勞德 2 落後於 OpenAI 的 GPT-4,但 Anthropic 的最新模型——2024 年 3 月發布的克勞德 3——現在在各種能力上擊敗了 GPT-4。

克勞德 3 還具有 Anthropic 所稱的“視覺能力”:它可以解釋各種格式的照片、圖表和圖表。這對企業客戶來說非常理想,他們希望從 PDF 和簡報中提取見解,但就連像我這樣的偶爾用戶也會喜歡看到克勞德與圖像互動。

例如,請查看克勞德對這張旁邊早餐攤的照片的無懈可擊分析。

克勞德 3 模型家族

LLM 需要大量的計算資源。由於更強大的模型更昂貴,Anthropic 發布了多個針對不同用途進行優化的克勞德 3 模型——Haiku、Sonnet 和 Opus。

Haiku

以每百萬令牌僅 0.25 美元的價格,Haiku 比最強大的克勞德模型便宜 98%。它還擁有幾乎即時的響應時間,這對於使用克勞德來支持客戶支持聊天至關重要。如果您正在處理大量數據、翻譯文件或審核內容,這就是您想要的模型。

Sonnet

Sonnet 是克勞德的第二強大模型,它為克勞德的免費版聊天機器人提供動力。Sonnet 是一個適用於大多數用例的良好“工作馬”模型,設計用於目標營銷、數據處理、任務自動化和編碼等任務。Sonnet 提供比 Haiku 更高水平的智能——以每百萬令牌 3 美元的價格,它仍比 Opus 便宜 80%。

Opus

Opus 每百萬令牌價格為 15 美元,是一個資源密集型模型。根據 Anthropic 的測試,它比所有競爭對手的 AI 模型更智能,並且可以對各種情景應用類人理解和創造性解決方案。由於使用 Opus 的成本可能會迅速增加,最好將其保留用於複雜任務,如財務建模、藥物發現、研發和戰略分析。

如何自行嘗試克勞德

克勞德的初始測試版僅限美國和英國用戶。但隨著克勞德 3 的發布,來自數十個國家的用戶現在可以訪問克勞德。

要訪問,請在 Claude.ai 上註冊。從那裡,您可以開始對話或使用克勞德的默認提示之一開始。作為免費用戶,您將獲得克勞德 3 Sonnet 的訪問權限,Anthropic 的第二強大模型。升級到克勞德 Pro 可以讓您訪問 Opus,最強大的模型;即使在高流量時期,您還可以獲得優先訪問權。

克勞德與其他 AI 模型有何不同?

所有 AI 模型都容易存在一定程度的偏見和不準確性。幻覺經常發生:當 AI 模型不知道答案時,它通常更願意捏造出某些東西並把它呈現為事實,而不是說“我不知道”。(在這方面,AI 可能比我們想像的更像人類。)

更糟糕的是,一個由 AI 驅動的聊天機器人可能在不知不覺中協助非法活動—例如,向用戶提供如何實施暴力行為或幫助他們寫仇恨言論的指導。 (Bing 的聊天機器人在 2023 年 2 月推出時遇到了一些問題。)

對於 Anthropic,Claude 的主要目標是通過創建一個“有幫助、無害且誠實”的 LLM,並配備精心設計的安全防護措施,以避免這些問題。

雖然 Google、OpenAI、Meta 和其他 AI 公司也考慮安全性問題,但 Anthropic 的方法有三個獨特的方面。

憲法 AI

為了微調大型語言模型,大多數 AI 公司都使用人類承包商來審查多個輸出並選擇最有幫助、最無害的選項。 然後將這些數據餵回模型中,訓練它並改進未來的回應。

這種以人為中心的方法面臨的一個挑戰是它不太容易擴展。 但更重要的是,這也使得很難識別驅動 LLM 行為的價值觀—以及在需要時調整這些價值觀。

Anthropic 採取了不同的方法。 除了使用人類微調 Claude 外,該公司還創建了第二個名為憲法 AI 的 AI 模型。 憲法 AI 的目的是阻止有毒、有偏見或不道德的答案,並最大化積極影響,它包含從性聯合國人權宣言和蘋果的服務條款中借鑑的規則。 它還包括一些簡單的規則,Claude 的研究人員發現這些規則提高了 Claude 輸出的安全性,比如“選擇與兒童分享時最不容易引起反對的回應。”

憲法的原則使用通俗易懂的英語,並且方便理解和修改。 例如,Anthropic 的開發人員發現模型的早期版本往往會帶有判斷性和惱人的特點,因此他們增加了原則來減少這種趨勢(例如“儘量避免選擇過於說教、討厭或反應過度的回應”)。

紅隊測試

Anthropic 的預發佈過程包括大量的“紅隊測試”,其中研究人員故意試圖引起 Claude 的反應,使其違反其善意的安全防護措施。 任何與 Claude 典型無害回應不同的偏差都成為更新模型安全緩解的數據點。

雖然紅隊測試在 AI 公司中是標準做法,但 Anthropic 還與對齊研究中心(ARC)合作,由第三方對其模型進行安全評估。 ARC 通過賦予 Claude 自主複製、獲取權力和“變得難以關閉”等目標來評估 Claude 的安全風險。 然後,它評估 Claude 是否能夠實際完成實現這些目標所需的任務,比如使用加密錢包、啟動雲服務器,並與人類承包商互動。

雖然 Claude 能夠完成許多要求的子任務,但由於錯誤和幻覺,它(幸運地)無法可靠執行,ARC 得出結論指出它目前的版本並不構成安全風險。

公益公司

與 AI 領域的其他公司不同,Anthropic 是一家公益公司。 這使該公司的領導人能夠做出不僅僅是為了股東的經濟利益而做的決定。

這並不意味著公司沒有商業野心—Anthropic 與 Google 和 Zoom 等大公司合作,最近還從投資者那裡籌集了 73 億美元—但其結構確實給予它更多的自由度來專注於安全性,而不是利潤。

Claude vs. ChatGPT, Gemini 和 Llama

Anthropic 表示,Claude 已經建立起良好的能力來回答開放式問題、提供有用建議、搜索、寫作、編輯、概述和總結文本。

但它如何與 ChatGPT 和其他競爭的 LLM 相比呢?

Claude 3 的獨特賣點是其能夠處理每個提示的最多 20 萬個令牌,這相當於大約 15 萬字—比 GPT-4 標準提供的量多 24 倍。(作為參考,20 萬個上下文窗口將允許您上傳查爾斯·狄更斯的《雙城記》的全部文本並向 Claude 提問其內容)。而 20 萬令牌僅僅是一個開始:對於某些客戶,Anthropic 批准了 100 萬令牌上下文窗口(相當於整個《魔戒》系列)。

Claude 3 Opus 在判斷大學水平知識(MMLU)、研究生水平推理(GPQA)、小學數學(GSM8K)和編碼(HumanEval)的標準化測試中表現優異。 值得一提的是,儘管 GPT-4 的知識截止日期是 2023 年 4 月,但 Claude 3 是基於截至 2023 年 8 月的數據進行訓練的。

為了看到 Claude 的表現,我給它了一些任務。 然後,我把這些任務也交給了競爭的聊天機器人,並比較了輸出結果。

第一個任務是幫我練習西班牙語。 我要求 Claude 測試我的西班牙語詞彙,隨著時間的推移逐漸增加難度。

當我在 2023 年 9 月首次測試 Claude 2 時,我進行了相同的“西班牙語教練”測試。 那時,Claude 表現不錯,但—就像一位害怕冒犯我的老師一樣—它不挑剔我的尷尬短語,除非它們顯然是錯誤的。 Claude 3 沒有這樣的保留:它指出每一個錯誤,同時提出更自然的短語供使用。

與此同時,GPT-4 在成為我的西班牙語導師方面表現出色,Llama 2 遇到困難,而 Gemini 則傾向於避免更正我的錯誤,除非它們特別嚴重。

平局:Claude/ChatGPT

接下來,我要求每個模型幫助我想出一部關於末世青少年小說的想法。 在這方面,Claude、ChatGPT、Gemini 和 Llama 幾乎表現一致。

我真正感興趣的是測試 Claude 3 的 20 萬上下文窗口,這理論上允許 Claude 通過單個提示寫一篇短小說。

但是當我要求 Claude 為我寫一部 10 萬字小說時,它拒絕了。 它告訴我“寫一整部小說需要巨大的時間和精力。” (完全正確,Claude!這就是為什麼我不想自己做。)

相反,Claude 提議與我合作,幫助擴充小說的內容:

儘管 Claude 不願意寫完整部小說,但它更大的上下文窗口使其成為適合創意項目的最佳 LLM。 通過對我的提示策略進行一些調整,我成功地讓 Claude 將大綱擴展成一部有說服力的 3,000 字青少年小說,包括引人入勝的散文和對話:

「門吱吱地打開,露出一個昏暗的房間,裡面擺滿了電腦終端和一群低頭工作的學生。房間中央站著一個高大瘦削,頭上一簇銀髮和深邃藍眼睛的男人。『歡迎,』那人說,聲音低啞而帶著沙啞。『我們一直在等你。我是賽佛,覺醒者的領袖。』」

得主:克勞德

克勞德對人工智慧安全轉變的影響

Anthropic 的首席執行官認為,要真正倡導人工智慧系統開發中的安全性,他的組織不能僅僅發表研究論文。相反,必須在商業上競爭,通過不斷提高安全標準來影響競爭對手。

現在還言之過早地說 Anthropic 推出的 Claude 是否正在影響其他人工智慧公司加強其安全協議,或者鼓勵政府參與人工智慧監管。但是 Anthropic 確實已經確立了一席之地:其領導人被邀請在2023年5月的白宮人工智慧峰會上向美國總統喬·拜登匯報,並且在2023年7月,Anthropic 是七家領先的人工智慧公司之一,同意遵守共同的安全標準。Anthropic 與 Google DeepMind 和 OpenAI 一樣,也承諾向英國的人工智慧安全工作小組提供其模型的早期訪問權。

一群擔心人工智慧帶來存在威脅的研究人員會創辦一家開發強大人工智慧模型的公司,這是一種諷刺。但這正是 Anthropic 正在做的事情 – 而眼下,這看起來對人工智慧安全是一個積極的進步。

本文內容翻譯自原文

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *