講座紀錄:生成式人工智慧工具應用

崔家瑋
Sep 13, 2024

--

台大圖書館HELP講堂系列活動

附圖是台大總圖書館改裝後的黑膠唱機,以後壓力大就去那邊聽黑膠好了

美國時間的本週四(9/12),OpenAI 發佈了新的人工智慧語言模型o1,也宣布正在進行更大規模的融資。而在台灣時間的週四,台大圖書館 HELP 講堂也舉辦了「生成式AI工具使用指南」,從如何利用人工智慧協助知識學習與學術研究的角度進行分享。講者是台大圖書館學習服務組的組員范蔚敏,也是圖資所的博士生,分享內容非常豐富扎實,故寫成文章分享。

本次課程分為對話練習、AI 工具、生成式人工智慧的特色與限制、學術倫理與資訊素養議題五大部分。本文也會以此架構鋪陳。

對話練習

「不要問 chatGPT 能夠幫你做什麼,要問你想要 chatGPT 幫你做什麼。」- 李宏毅老師

使用生成式AI工具最重要的就是要與AI 進行對話練習,秘訣在於拆解你的問題,並利用每一次回覆的答案不斷追問。利用追問法可以獲得較為精確的結果。除了追問外,在需要腦力激盪與創意時,也可以利用元素碰撞法,例如請生成式AI 產生文案的不同部分再加以組合。

改寫與擴寫法則是提供生成式AI一段自己撰寫的文字請工具繼續延伸。最後的設定角色法則是設定「使用者的角色」,例如「我是一個行銷顧問,請幫我完成….」。

這些方法背後的共通點是減少任務的複雜性與不確定性,同時盡可能給予生成式AI工具參考的資料、內容的方向、還有對於內容的明確標準。

AI 工具:注意文獻來源與AI 幻覺

在該環節中,講師介紹了幾種結合學術資料庫的AI 工具,包含學術搜尋用的 consensus, ELICT Scispace,三者從基礎到進階,除了能夠利用自然語言設定範圍與方向外,, ELICT 甚至能夠生成摘要。

在文獻探討上,Connected Papers 可以讓使用者以文章為起點,找出主題相似的文獻。

在協助參與者閱讀文章上,ChatPDF 可以幫助有時間壓力或讀完文章仍有疑問的使用者釐清文章內容(但這個好像已經要被 o1 取代了)

除了文獻資料外,也有心智圖工具 Whimsical,讓使用者可以運用 AI 功能來發想。目前的 AI 工具也能用來轉譯語言與編修文章。

以上的工具都要注意,如果檢索的範圍包含 Open Access 的話,要特別注意掠奪性期刊的問題。在轉譯語言與編修文章上,也要注意逐步給予,並適時用提示詞如「照我給的資料摘要或改寫」、「不要加入個人觀點」等方式,降低幻覺發生。

特色與限制:如何切分工作很重要。

使用 AI 工具的優點在於 1. 增進學術研究的效率 2. 降低語言與資源帶來的不平等。然而使用相關工具亦會有其問題,包含知識的創新不足、容易受到網路資訊誤導、文獻品質良莠不齊、生成內容原創性不足。

同時,其也具有相關的倫理議題,首先目前的人工智慧受到感知能力的局限,對於倫理議題的理解仍有其限制。其使用的資料亦存在偏誤,輸出方式也容易誤導使用者。有一個比較有趣的是講者提到目前生成式 AI 工具本身偏向美式英語,缺乏其他族群的書寫方式。也具有隱私與保密性的問題。

因此除了不要將人工智慧生成的內容直接拿來利用外,如何建立資訊素養很重要,以下講者分享了對於如何建立人工智慧時代下的資訊素養較為具體的方向與實作,這也是我覺得本場講座最有價值之部分。

實作資訊素養:CRAAP 與 ROBOT

在判讀人工智慧產生的相關資訊時,可以以CRAAP 五大標準加以判讀,而在選擇人工智慧相關工具時,則可參考ROBOT 的五大準則。

CRAAP 是即時性 currency 、相關性 relevance 、權威性 authority、正確性 accuracy 、目的性 purpose ,在觀察人工智慧產生的資訊時,要注意該資訊的來源是否即時,與你的研究或學習是否相關,其資料來源是否足夠權威與正確,最重要的是其資訊的目的為何。

ROBOT 則是可信度 reliability、目標 objective 、偏見 bias、所有權 ownership、範疇 type,工具本身的可信度為何?開發的目標是什麼?其使用的資料與產出結果是否帶有偏見?工具本身與資料的所有權為何?其應用的範疇為何?

除此之外,面對隱私的問題,講者也建議以紅綠燈為資訊分級,公開資訊為綠燈,未公開的資訊為黃燈、在工作與任務上的保密資訊為橘燈,個人私密資訊為紅燈。同時也要意識到所有 AI 工具機乎都會預設以使用者輸入的提示詞與資料來訓練模型。

學術倫理:可課責性與透明度

最後,講者以各大主要學術資料庫與期刊對於應用 AI 工具的準則與規範來說明 AI 工具在學術投稿中的議題。共通點在於責任、透明度與學術誠信,包含明確禁止以 AI 作為共同作者,因為 AI 無法承擔學術責任;有使用的話就要明確聲明範圍與貢獻(通常是在致謝、使用工具或輔助資訊,有些甚至會要求明確紀錄提示詞與互動情形。)這些措施的目的在於確保學術誠信,保證生成內容的原創性與真實性。

台下有聽眾在最後質疑這些措施是否無法發揮作用,尤其是當 AI 工具日益增強,學術投稿競爭激烈,若缺乏有效的課責與辨識機制,這樣的道德準則遲早會崩壞。

我自己則是在會後詢問了講者相關的應用是否會因為不同學科的在地化程度不同而產生不同的表現,講者的回應是她認為目前模型使用的資料確實一開始會有這樣的情形,但隨著使用者擴大,這些互動資料成為訓練的一部份後,應該會有所改善。例如李宏毅老師之前紀錄的與人工智慧互動的文章中提到 AI 不會晶晶體,但講者自己照著提示詞重新跑一遍後,發現 AI 工具已經學會了。

--

--