Table of Contents
本文內容整理自 2023 AI for better UX 實務研討 的 HackMD共筆文件。
林居穎 Kyle
Alibaba – 通義實驗室 – 產品體驗設計負責人
在 AI 時代下,設計師該如何深入本質,調整定位,利用 AI 而不是被 AI 利用,去做好本職工作,發揮更大的能力?本分享將從 AIGC 的發展切入,拆解影像基礎演算法的演進,再到新一代設計模式的討論。幫助大家見微知著,擁抱 AIGC 設計新時代!
1 AIGC的歷程
AIGC 最早可以追溯到 1957 年 AI 生成的音樂:伊利亞克組曲。《2023 中國 AIGC 應用研究報告》將 AIGC 發展大致分成三個時期:AI生成音樂 (1950s ~ 1990s) 、 生成文本 (1990s ~ 2010s)、大規模圖像 (2010s ~ now)。
我們要怎麼解決 AI 亂回答的問題呢?
根據 Anthropic 推廣的框架-AGI HHH原則(核心)
Helpful 有用的(幫助使用者,使其滿意)
Honest 誠實的(真實的內容,沒有謬誤)
Harmless 無害的(正向,有道德規範內的內容)
GPT 如何讓回答(數據)越來越好?
- GPT 3.5
- 數據層 專業標注人員數據;真實問答用戶數據 → 自動生成答案數據;真人排序的精品數據
- 模型層 SFT (Supervised Fine Tuning) ← RM(Reward Model)
- GPT 4 (加強)
- CLIP Contrastive Language-Image Pre-Training 對比式語言-圖像化訓練-如何讓 ai 看得懂你的圖片
- CoT Chain of Thought:要求大模型展現他思考的過程
怎麼讓AI更像人?(從關注智商到關注情商)
人類的對人的認知:人格、特質、意圖、情緒,以石頭放眼睛為例,生命感其實是人類自己腦補出來的
認識人格(外而內):末端行為,向上總結人的類型。人的表達(內而外):從人的人格類型,向下約束末端行為。訓練 AI 的核心就在於如何整合人類(由外而內的、由外而內的行為)。
透過拆解出各項參數,來讓 AI 理解人類
2 AI 是怎麼生成圖像的
GAN 生成式對抗網絡
分別訓練生成器與判別器,生成器生成內容,判別器判別結果,當生成器生成內容可以通過判別器,就是一個完成的演算法。
Diffusion 擴散模型
利用高斯雜訊進行編碼,再用逆擴散的過程來生成。但逆擴散的過程其實非常不穩定,知名模型 Stable Diffusion 命名就是嘗試讓他變穩定
CLIP 對比式語言-圖像訓練
藉由圖像與描述內容是否匹配來訓練
到底如何才能控制好生成圖像,讓結果可控?
人類的產出是藉由經驗、理解力和需求,機器的產出則是透過數據集、模型 SFT 和 prompt ,兩者互相對應,
- 機器沒有沒有足夠的數據,就像人沒有經驗和技法。
- 人沒有理解力,就像機器沒有模型來解析資訊。
- prompt 下得不夠具體,就像甲方給出一些很模糊的需求一樣。
所以「先不要」像和人對話一樣和機器對話,用「,」逗號隔開訴求 ,並且「具體」的描述。因為 AI 現在在理解人類語言的多重暗喻隱喻是比較難的,好理解的版本「主體是什麼?」「色彩是什麼?」「環境、氣氛、燈光如何?」「構圖是什麼?」
3 如何訓練更好的模型
tips:好數據挑選/髒數據清洗
- 產品/設計:訂標準
- 數據/設計:標注
- 算法/工程:預訓練
- 設計/數據:驗收結果(不合格回到「2.標注」)
- 算法/工程:大規模訓練
訓練有效模型的方法
會不會被 AI 取代?
講者將 AI 對比 1888 年攝影對藝術界的炸裂影響,繪畫界經歷了悲傷五階段:否認、憤怒、討價還價、沮喪、承認 ,承認之後,印象派、野獸派等等藝術風格依然蓬勃發展,講者感受目前設計界對 AI 認知大概在憤怒階段 (認為ai做得不怎樣)
4 AIGC 時代的設計師
Before AI 的設計方式
前期:查看 dribble、pinterest 尋找參考圖,透過用 AI、PS、figma 等工具的繪製草稿。
後期:以 AI、PS、Figma 等等工具完善細節。
After AI的設計方式
前期頭腦風暴、找靈感階段:除了素材網站、AIGC 網站直接生成草稿。
後期:細化完善/無須完善,AIGC 協助完整細節。
後Agent時代
AI 變成是幫你討價還價的代理人),給他目標即可,後面讓他自行完善
互動 API(點)—— 體驗 Agent(線)—— 服務 Multi-Agent(面)