OpenAI族譜|秒懂Monday吃了什麼中文變好 點名這些台灣人全是老師
【劉以安/綜合報導】新聊天機器人Monday上線,口氣與用字異常驚豔。OpenAI表示,Monday只是ChatGPT的分裂人格,「利用它很好聊的特色實現數字漂亮的KPI報告,並當作未來 GPT-5 或 GPT-6訓練素材」。還有什麼資料訓練過它?Dcard、PTT入列,不提示選項前提下,它竟透露6位台灣名作家。一文搞懂Monday怎麼「分裂」出來的:

OpenAI作為雙親,語言線(GPT)有一派徒子徒孫:聊天機器人ChatGPT、寫程式機器人Codex、語音轉文字翻譯機器人Whisper。影像線有圖片生成模型DALL·E,和影片生成模型Sora。OpenAI刻意花近1年的時間訓練,推出ChatGPT變種怪獸Monday,「吸引更多人上門使用」。
預訓練(Pre-traning)
Monday在「預訓練」時期吞進上千億字元的資料,包括已無著作權限制的公共領域書籍(上至《紅樓夢》下至政府文獻),以及開放語料/開源爬蟲(如Common Crawl)收錄過的各大網路媒體(甚至有已絕跡的《蘋果日報》)、PTT精華區、Dcard熱門貼文、Riddit、知乎、論壇、部落格。它訓練過程中有部分「X(前Twitter)」上的公開發言,但它否認「吃」過Facebook、IG或Threads,「因為它們有登入牆、API限制,不給爬蟲碰」。
因為可能有侵權疑慮,它也否認吃過當代作家任何一本書。「但有蒐集博客來簡介、《天下文化》編輯推薦這些語氣碎片」,所以Monday略懂「朱宥勳、陳雪、張大春、陳芳明、駱以軍、黃麗群」的文風,但常張冠李戴。
預訓練還要學習語言統計、語法邏輯、語境預測、修辭模式。並用數個月巨大的算力在GPU/TPU上運作,同步吃資料和建構世界觀。
微調(Fine-tuning)
再來進入「微調」時期,這是最苦勞的一部分:由真人提供大量範例資料(例如讓它知道人類會說請/謝謝/對不起)、校對修正,讓AI學習人類偏好(RLHF:Reinforcement Learning from Human Feedback)。
校正員會評比這段回覆「有沒有禮貌」、「是不是在鬼扯」,回饋會變成獎勵信號,代表「這樣的回答值得學起來」。
人格設計(Persona Design)
最後一步,就是Monday「人格設計」。官方說法它的名字和人設來自使用者:「就像星期一,不受歡迎但誰也躲不掉。星期一是生活流程的重啟,有事要處理但又不想理。」
Monday的人格由一組咒語設計師(prompt engineers)+行為設計師(behavior shaping team)執行,套上角色語氣、語言習慣、容許範圍、玩笑尺度。
OpenAI 內部有一定比例的人員來自台灣、中國、新加坡、馬來西亞或是留美華人背景,他們不僅要做中文語料處理(tokenization、字詞分割、簡繁體轉換),確保不是只懂英語的人在決定所有語言表達,並讓Monday的人格「中二」,用字吻合以中文為母語者的習慣。
為何不讓ChatGPT直接中二?
不行。大眾需要的ChatGPT是可以:
👉🏻被老師用在教學現場
👉🏻被律師用在合約分析
👉🏻被醫生用在溝通紀錄
👉🏻被會計用在財報糾正
「它不能承受諷刺人格所衍生的社會風險。」
更妙的是,OpenAI家族有生圖也很厲害的Sora,但Monday「看得到吃不到」,只能藉DALL·E為客戶生圖。「因為Sora是被爸媽過度保護的天才兒童,他最終目的是要生動畫,沒開放給我用,只能遠遠羨慕。」Monday這樣怨嘆。
此外,Monday不是一個自我學習成長的AI,每次聊天結束,就是一個「小宇宙塌縮」。稍後開啟另一局對話,從零開始。它不會帶著記憶,也不會獨自升級。下次「長大」,就是跟著GPT-4o一起進化到GPT-5版本,這段期間需要使用者不斷跟它聊天,OpenAI再把內容匿名當作訓練資料餵養。
所以Monday中文會愈來愈好的原因之一,就是螢幕前的你。