產品定位
更強模型,更低價格,更易落地
發布歷程
2023年8月31日訊息,首批大模型產品將陸續通過《生成式人工智慧服務管理暫行辦法》備案,可正式上線面向公眾提供服務。位元組的雲雀大模型是首批上線的8家大模型之一。
2024年5月15日,位元組跳動豆包大模型在火山引擎原動力大會上正式發布。
2024年5月,火山引擎官網更新了豆包大模型的定價詳情,全面展示豆包通用模型不同版本、不同規格的價格信息。在模型推理定價大幅低於行業價格的基礎上,豆包通用模型的 TPM(每分鐘Tokens)、RPM(每分鐘請求數)均達到國內最高標準。以豆包主力模型 pro-32k 為例,價格比行業低99%,TPM限額則高達同規格模型的2.7倍到8倍。5月21日訊息,豆包大模型公布價格清單。 6月3日訊息,豆包大模型推出桌面客戶端,支持
Windows與
macOS。6月,榮耀與位元組豆包大模型現已達成合作,豆包大模型家族中的語音識別、角色扮演等多款模型將助力榮耀構建移動辦公領域垂直模型落地套用的基礎能力。7月17日,三星電子面向中國市場發布新一代Galaxy Z系列產品。會上,三星電子與火山引擎官宣合作,為Galaxy Z Fold6、Galaxy Z Flip6手機的智慧型助手和AI視覺接入豆包大模型。截至7月,豆包大模型日均Tokens使用量已突破5000億,平均每家企業客戶日均Tokens使用量較5月15日模型發布時期增長22倍。8月9日,位元組跳動旗下雲服務平台火山引擎宣布,豆包大模型支持實時語音通話。截至12月18日,豆包大模型日均tokens使用量超過4萬億,發布7個月以來增長超過33倍。12月18日上午,“2024火山引擎FORCE原動力大會·冬”拉開帷幕,宣布豆包大模型全面升級,並且已經與八成主流汽車品牌合作,並接入到多家手機、PC等智慧型終端,覆蓋終端設備約3億台,來自智慧型終端的豆包大模型調用量在半年時間內增長100倍。12月26日,聯想宣布與火山引擎合作,為其 AI桌面助手如意(AI Stick)接入豆包大模型。
大模型家族
豆包通用模型pro
位元組跳動自研LLM模型專業版,支持128K長文本,全系列可精調,具備更強的理解、生成、邏輯等綜合能力,適配問答、總結、創作、分類等豐富場景。
豆包通用模型lite
位元組跳動自研LLM模型輕量版,對比專業版提供更低token成本、更低延遲,為企業提供靈活經濟的模型選擇。
豆包·角色扮演模型
個性化的角色創作能力,更強的上下文感知和劇情推動能力,滿足靈活的角色扮演需求。
豆包·語音合成模型
提供自然生動的語音合成能力,善於表達多種情緒,演繹多種場景。
豆包·聲音復刻模型
5秒即可實現聲音1:1克隆,對音色相似度和自然度進行高度還原,支持聲音的跨語種遷移。
豆包·語音識別模型
更高的準確率及靈敏度,更低的語音識別延遲,支持多語種的正確識別。
豆包·文生圖模型
更精準的文字理解能力,圖文匹配更準確,畫面效果更優美,擅長對中國文化元素的創作。
豆包·Function call模型
提供更加準確的功能識別和參數抽取能力,適合複雜工具調用的場景。
豆包·向量化模型
聚焦向量檢索的使用場景,為LLM知識庫提供核心理解能力,支持多語言。
場景示例
文字創作能力:具備文字創作、嚴格的指令遵從和龐大的知識儲備能力,可套用在大綱生成、行銷文案生成等內容創作場景。
生活常識、工作技能快速獲取:集成了知識庫,可高效地解決工作、生活等各類場景中的問題。
角色扮演能力:角色扮演能力符合設定且具備多輪記憶,可套用在社交陪伴、虛擬主播等人設對話場景。
專業的代碼生成能力:具備專業的代碼生成能力和知識儲備,可高效地輔助代碼生產場景。
強大的語言理解能力:深入理解文本信息之間的邏輯關係,從非結構化的文本信息中抽取準確的結構化信息。
進行思維、常識、科學推理:通過分析問題的前提條件和假設來推理出答案或解決方案,給出新的想法和見解。
價值優勢
大使用量
打造更優的模型效果
位元組跳動50+業務場景實踐驗證,
每日千億級tokens大使用量持續打磨
位元組跳動專業算法團隊,保障模型使用效果
模型家族
適配企業多種業務場景
更易落地
滿足個性化業務需求
安全可信
企業可放心使用
豆包大模型套用
AI套用開發平台
無論用戶是否有編程基礎,都可以在扣子上快速搭建各類Bot,並發布到各類社交平台、通訊軟體或部署到網站等其他渠道。
多功能AI助手
豆包是用戶的多功能AI助手,為用戶的生活、學習、工作提供幫助,搜尋信息,答疑解惑,分析總結,提供靈感,輔助創作。
數據處理
2024年5月15日訊息,豆包大模型日均處理1200億Tokens文本,生成3000萬張圖片。
產品套用
2024年6月,小米旗下人工智慧助手“小愛同學”與火山引擎達成合作,將通過豆包大模型為用戶帶來更完美的體驗。
產品售價
豆包大模型的定價大幅低於行業價格:以豆包通用模型pro-32k版為例,模型推理輸入價格僅為0.0008元/千Tokens。而市面上同規格模型的定價一般為0.12元/千Tokens,是豆包模型價格的150倍。
2024年5月21日訊息,火山引擎官網更新了豆包大模型的定價詳情,全面展示豆包通用模型不同版本、不同規格的價格信息。以豆包主力模型pro-32k為例,價格比行業低99%,TPM(每分鐘Tokens)限額則高達同規格模型的2.7倍到8倍。
在按照Tokens實際使用量計算費用的“後付費”模式下,豆包通用模型-pro、豆包通用模型-lite的32k及以下視窗版本,模型限流為10K RPM(每分鐘請求數)和800K TPM(以RPM和TPM其中之一到達上限為準)。國內其他主流模型的TPM限額大多在100K到300K之間,RPM則是在60到120區間,輕量級模型的RPM限額相對較高,但僅僅在300到500之間。