重點研發與活動歷程
115
02
/
13
Gemma-3-TAIDE-12b-Chat-2602釋出
於TAIDE官網與TAIDE huggingface釋出Gemma-3-TAIDE-12b-Chat-2602模型,相較於前期釋出的Gemma 3 TAIDE 12b Chat,增加導入中期訓練(midtraining)技術,透過高品質臺灣資料提升對台灣文化、地理、歷史及社會現象的理解,並修正翻譯腔,使其更符合台灣使用者的日常用語與專業術語習慣。
114
08
/
22
Gemma-3-TAIDE-12b-Chat釋出
於TAIDE官網與TAIDE huggingface釋出Gemma-3-TAIDE-12b-Chat模型,相較於前期釋出的Llama3.1-TAIDE-LX-8B-Chat,以Gemma-3-12b模型的進行訓練,並強化辦公室常用任務與多輪問答對話能力,適合聊天對話後任務協助的使用情境。
114
02
/
11
Llama3.1-TAIDE-LX-8B-Chat釋出
於TAIDE官網與TAIDE huggingface釋出Llama3.1-TAIDE-LX-8B-Chat模型,相較於前期釋出的Llama3-TAIDE-LX-8B-Chat-Alpha1,加強對於長文處理的能力與正體中文的解碼速度,以及模型的上下文長度(Context Length)由8K增加至131K。
113
08
/
01
公部門應用說明會
結合專家演講及實體工作坊,讓參與者現場體驗TAIDE並進行應用發想,期望未來將其融入現有工作場域,提升工作效率與創新能力。
歷屆模型比較表
Gemma-3-TAIDE-12b-Chat-2602
- 以高品質台灣資料進行中期訓練,加強模型對台灣特有知識的掌握
- 提升對台灣文化、地理、歷史及社會現象的理解
- 修正翻譯腔,使其更符合台灣使用者的日常用語與專業術語習慣
- 增強模型對於複雜指令的理解與執行能力
Gemma-3-TAIDE-12b-Chat
- 以Gemma-3-12b為基礎
- 強化辦公室常用任務和多輪問答對話能力
- 適合聊天對話或任務協助的使用情境
Llama-3.1-TAIDE-LX-8B-Chat
- 以 LLaMA3.1-8b 為基礎
- 提高最大內容長度 (context length)至131K
- 提升長文處理能力
- 正體中文的解碼(decoding)速度快 20%
Llama3-TAIDE-LX-8B-Chat-Alpha1-4bit
- 以Llama3-TAIDE-LX-8B-Chat-Alpha1 為基礎研發 4 bit 量化模型
- 不顯著降低精度的前提下,提高模型的計算效率、減少資源需求
Llama3-TAIDE-LX-8B-Chat-Alpha1
- 以 LLaMA3-8b 為基礎
- META於2024年4月19日公開釋出Llama3系列模型
- 提高最大內容長度 (context length)至8K
- 透過基底模型強化,提升自動摘要、寫信、寫文章、中翻英、英翻中等辦公室日常任務能力
TAIDE-LX-7B-Chat-4bit
- 以 TAIDE-LX-7B-Chat 為基礎,研發 4 bit 量化模型
- 不顯著降低精度的前提下,提高模型的計算效率、減少資源需求
TAIDE-LX-7B-Chat
- 強化辦公室常用任務和多輪問答對話能力
- 適合聊天對話或任務協助的使用情境
TAIDE-LX-7B
- 以 LLaMA2-7b 為基礎
- 額外擴充24720個中文字元、字詞,強化模型處理繁體中文的能力
- 嚴格把關模型的訓練資料,提升模型生成資料的可信任性和適用性
- 加強自動摘要、寫信、寫文章、中翻英、英翻中等辦公室常用任務
- 加強台灣在地文化、用語、國情等知識
- 具備多輪問答對話能力


