Table of Contents
文 / 悠識數位資深 UX 研究員 Meiling Chen,文章同步刊載於作者 Medium,如果你覺得實用,歡迎到原文給作者拍拍手 👏
1 前言
前陣子因為某個重量級專案,研究範圍非常的大,大到我們悠識研究團隊幾乎 6 個人力全出動,去各地進行場域觀察收集資料。經歷了好幾十場之後,收回了一堆錄音錄影檔、觀察筆記、訪談重點紀錄。
除了資料量大之外,牽涉到的重要角色也非常多樣。必須不斷思考各角色的互動、溝通方式。除了需要拿顯微鏡觀察特定細節之外,我們也必須手持望遠鏡,類似上帝視角的角度來全面檢視,服務單位間的溝通有哪些斷掉的地方。基於保密原則,以下舉例皆有變造過。
這邊有幾個前提:
- 因為專案範圍巨大,我們切成 5 大子題目,但是這 5 大子題目,在關係上環環相扣。
- 在進入到 AI 輔助階段之前,我們團隊已經先把各 5 大子題目的資料分析完畢,並撰寫成簡報形式的研究報告。
蛤,你說都已經分析完了,為什麼還要用 AI?其實是有幾個原因:
- 該專案需要文章形式的產出,而簡報是我們慣用的交付成果。
- 在有限時間內,我們要快速盤點出 5 大子題目的共通處,挖掘下一步值得深入探討的方向。
先說結論,這次用 Notion AI + ChatGPT 輔助了哪些研究產出?
✅ 將條列式簡報,用 ChatGPT 轉化成 5 篇可閱讀的長文
✅ 將以上 5 篇長文,使用 Notion AI 進行摘要壓縮,再讓 ChatGPT 吃
✅ 將 ChatGPT 養成金頭腦,快速找出橫跨 5 大子題目的重點發現
以下記錄這次將文字資料進行切割,並重新整合的過程。為什麼要這麼麻煩,其實就是因為現在的 ChatGPT 使用上仍有一些限制,例如:一次吃進去的訊息不能太長、短期記憶有限等。在使用這些 AI 工具的時候,我們必須去留意它的專長與限制,確保後續資料產出的合適性與正確性。(特別是在講求實事求是的研究領域)
2 Step 1. 製作資料的「罐頭食品」
使用 ChatGPT,先將每一議題的條列式簡報,產出有脈絡式的文章。接下來,因為每一議題的文章很長,將近 6000 字左右。於是我們將文章放到 notion 中(不確定字數限制,但目前測試萬字以內是沒問題),請 notion AI 進行摘要壓縮。這個階段,我們製作出,5 個議題的「資訊罐頭」。
將研究報告的簡報,轉換成文章形式
ChatGPT4 成功將簡報文字轉換成文章
利用 Notion AI 製作資訊罐頭
3 Step 2. 因為 ChatGPT 食量不大,需要分次餵食
雖然 ChatGPT 從 3.5 升級到 4 之後,單則可輸入的資訊大幅 8 倍,但太多字數還是吃不進去。所以我們必須分次將資訊罐頭,餵給 ChatGPT。我使用的指令是:
「接下來我會給你_篇議題的文章,請在我貼完所有的文章後,找出這_篇文章的共通性與重要議題。」
但我後來發現,只要我一貼文章,他就會忍不住想要馬上幫我馬上摘要,很想叫他馬上閉嘴(?)。後來,這幾天看到電腦玩物的 Esor 用了另一種下指令的方式,可能會更有效的讓 ChatGPT 吸收。(參考文章:利用 ChatGPT 提示語突破字數限制教學,深入分析摘要2萬字資料 )
接下來,就是把這 5 個資料罐頭,一則一則餵給他吃。
4 Step 3. 把 ChatGPT 當神燈精靈,快速取得重點資訊
吃完後,ChatGPT 現在已變成 +9 金頭腦 🤖,我們終於可以開始進入資訊提取的重點。我下的指令是:
「現在請開始分析,前面第一章~第五章,文章的共通性和重要議題」
驚人的事情開始出現了,我之前沒想過原來 ChatGPT4 在回答中,還會再特別點出,某段資訊來自於第幾篇文章。
例如,下圖中的 OO 整合與優化:各篇文章都提到了OOOOO需求。無論是OOO(第四篇文章)、還是OOO(第五篇文章),都強調了OOOOO方面的不足。
特別提出來源,讓人覺得他的短期記憶還算是可靠的。當然,即使他產出了長篇大論的回答,我們也不能照單全收,必須去檢查他有沒有突然秀逗而講錯的部分。
而這一部分的資訊收整,可以說是,針對已知的資訊進行初步萃取,提升研究員對於大範圍資料分析的敏感度。
再來,除了既有資訊的萃取外,你也可以試試讓 ChatGPT 回答一些探索式的問題。例如說,我們嘗試了:「請分析OOO文章中,所有OOOO資料可能會介接的OOOOO單位」於是,ChatGPT 馬上列出了數個可能會和此專案相關的單位,方便我們從另一個利害關係人的視角,來檢視這個大範圍的研究議題。
5 Step 4. 利用訪談技巧,再深入挖掘 ChatGPT 還沒告訴你的事
不只於此,我們還可以利用「訪談技巧」深入挖掘 ChatGPT 沒告訴我們的事情。
我們通常在訪談尾聲,都會問受訪者:「還有沒有哪些您剛剛沒有提到,但您也有想分享的事情呢?」
最後一個開放性的問題,常常充滿驚奇,而 ChatGPT 也並非例外。
我下的指令為:
「還有沒有哪些剛剛沒提到的單位,是也有機會介接OOOOO相關系統?」。
沒想到他還真的給我好幾個單位,而且這些推理,也通通是來自於我餵給他的資訊罐頭。
畢竟 ChatGPT 每次的回答,本身就不會有絕對固定的形式,而且可以 regenerate 不斷優化,所以道理上,可能有些已存在的資訊推理,沒有通通一次攤出來說給你聽。
再回顧一次,我們這次資料重新拆解與整合的流程,如下圖所示:
6 總結
使用 AI 工具的最大效益為:畫重點、提醒、補強,而並非完全取代人腦
總而言之,這次使用心得上,用 AI 工具的最大效益是,幫我們快速找出各大子題目的共通點,並找出下一步值得深入探討的研究問題,快速的畫出重點。
當然,在分析這些個別議題時,我們腦袋中多少都已經累積一些接下來的大方向。而 ChatGPT 很棒的是,幫我們把人腦快速產生的研究直覺,與它爬梳資訊的萃取做互相對照驗證。
另外我在文章一開始也提到,因為此研究議題非常的大,所以我們當初是把子題目分配給不同成員進行訪談與分析。當使用 ChatGPT 做整合時,他可以提醒,我本人沒親自參與的子題目重點。除了我們團隊成員之間彼此本身就有討論之外,ChatGPT 的資訊整合,可以再一次加深團隊中每一人對於議題的掌握。
必須提醒大家的是,我們在使用 AI 工具時,必須要清楚它目前的缺點。例如,ChatGPT 短期記憶仍有限,在參考他的資訊時,還是必須要仰賴我們本身的專業,去對照他是否有在亂講話、或是記憶錯亂的情形。再來我們這次讓資訊壓縮,所以必然有些細節,是 ChatGPT 沒吃進去的狀況。
總而言之,目前以上的做法,還是只能作為輔助使用,並非完全取代 UX 研究員的大腦。而現在技術的發展實在太快,我這篇文章寫出來時,可能工具的發展狀況又不同了。
現階段的 AI 工具,可能還需要我們人去拆解每一步的工作流程,適度投餵給 AI 資料,設定後續的串接服務,但未來,應該會有越來越多的 AI 服務,會直接針對各個知識工作者的情境,提供一站式的分析服務。
例如,前幾天看到有人分享的 User Evaluation 服務,User Evaluation — AI for Research,開放將錄音錄影檔上傳後,自動使用語言模型的推理,直接萃取出使用者的痛點與重大發現,並給予下一步建議。目前好像只有開放部分語言使用,如果有人曾經使用過,也歡迎分享你的使用心得。
以上是這次使用 Notion AI + ChatGPT 作為研究輔助工具的心得,如果你也有 AI 工具輔助 UX 工作流程的小訣竅,歡迎跟我們分享交流。🙌