人工智能協助寫作的倫理問題:對學生和專業人士應該是一套還是兩套標準?
余創豪 chonghoyu@gmail.com
挑戰谷歌的 ChatGPT
去年 11 月,Open AI 推出了一個名為
ChatGPT 的人工智慧聊天機器人軟件,在發
布後的短短五天內,已有一百萬用戶註冊了
該項服務。Open AI 2015 年由馬斯克和其
他一些科技先鋒創立,雖然如今馬斯克不再
Open AI 的董事會成員,但仍是主要贊助
者。2019 年微軟向 Open AI 投資了 10 億美
元,從而加強其研究,當中最成功的研究成
果之一就是 GPT GPT 的全名是 Generative
Pre-Trained Transformer,這是一種語言模型。
ChatGPT 幾乎可以回答任何通過自然語言輸
入的問題,它能夠作文、寫詩、編寫電腦程式程序。筆者曾經出了幾度題目去考驗
ChatGPT,這個人工智能軟件果然名不虛傳,輸出的文章真的頭頭是道。
Gmail 的創建者保羅‧布赫海特(Paul Buchheit)說,類似 ChatGPT 的人工智能將在兩
年內摧毀谷歌的業務。谷歌的搜索引擎只能夠羅列出網頁的資料,用家仍然需要整理資料
和撰寫文章,但 ChatGPT 一手包辦了蒐集資料、整理、寫作。ChatGPT 真是前途無可限
量, 因此,儘管微軟近期裁減約一萬名員工,但它同時宣布對 Open AI 投資一百億美
元,微軟會將 Open AI 的技術引入自己的雲端計算和搜索引擎。
ChatGPT 會取代谷歌的搜索引擎嗎?現在去判斷仍然是為時過早。ChatGPT 會完全取
代人類作家和其他類型的工人嗎(例如記者、客戶支援人員等)? 我相信不會,但它絕
對可以幫助我們更加有效率地辦事。
針對學生作弊的措施
任何新科技都會帶來利弊,你可能已經預料到,ChatGPT 會被人濫用,確實,很多學
生開始用 ChatGPT 做作業,許多老師對此表達了深切的擔憂, 例如紐約教育諮詢專家惠
特尼‧撒都 Whitney Shashou 指出:學生有了這個垂手可得的工具,老師便很難去評
估學生真正的寫作能力。 無怪乎紐約市教育局阻止學生使用此工具,一些美國大學亦敦
促教授細心檢查學生是否使用 ChatGPT 作弊。澳大利亞八所主要大學宣布,由於不少學
生提交了採用 ChatGPT 完成的文章, 故此他們改變了審核學生的方式,例如悉尼大學修
改了其學術誠信政策,明確指出使用人工智能創作內容屬於作弊行為。澳洲國立大學亦改
變了其考核學生的方法,它將重點由作文轉移到實驗室活動、在課室中限時考試、口頭報
…… 等等。
此外,一位普林斯頓學生建構了一個名叫 GPTZero 的軟件,用來測試一篇文章是否出
ChatGPT,目的是打擊學生採用人工智能去作弊。OpenAI 亦開發出類似的探測軟件,
但準確率只有 26% 左右。筆者認為,更加有效的分辨方法應該是:若果學生以前呈交的
功課 只是平平無奇、文法和串字錯漏百出、觀點則卑卑而無高論,但突然之間送出的論
文竟然是文筆流暢、內容豐富、旁徵博引、見解獨到,那麼大有可能這是用了人工智能。
不過,這當然不是絕對有效,聰明的學生可能會故意在文章中放入幾個錯字,從而避過教
授的懷疑。
針對專業人士的政策
以上都是針對學生的措施,但其實教師、教授、研究人員、專業人士都可能會濫用人
工智能。去年 12 月,一篇關於醫學教育論文的預印本發佈在醫學資料庫 medRxiv 上,
ChatGPT 被列為十二位作者之一。根據美國權威科學期刊《自然》的報導,在 2023 1
月發表的四篇論文裏面,ChatGPT 竟然被列為「作者」之一,其中一篇甚至提供了
ChatGPT 這位「作者」的電子郵件地址。《自然》解釋說,這是一個錯誤,將很快更正。
然而,PubMed Google Scholar 已經將這些文章和非人類「作者」編入索引。
有鑒於人工智能可能被學者濫用,2023 1 5 日,國際機器學習會議宣布禁止作者
使用 ChatGPT 等人工智能工具撰寫科學論文,除非人工智能製造出來的內容是實驗分析
的一部分,值得強調的是,該禁令僅適用於完全由人工智能生成的文章,但它沒有禁止人
類與 人工智慧「合著」的論文。此外,《自然》制定了政策,指導如何在科學出版物中
使用 人工智能的語言模型,例如禁止將人工智慧命名為作者。《美國醫學協會》 期刊最
近亦更新了 作者指引:人工智能、語言模型、機器學習和類似技術不符合成為作者的資
格; 當這些工具被用於製造內容或協助撰寫文稿時,作者必須檢查這些資料的可靠性,
並且必須在手稿中明確說明使用了人工智能。
需要兩套不同的標準嗎?
ChatGPT 所帶來的問題並不是史無前例的,在 ChatGPT 和其他人工智慧工具出現之
前,Mathematica Wolfram Alpha 這些由 Wolfram 軟件公司開發的產品已經能夠解決複雜
的數學問題,不消說,數學教授抱怨這些工具被學生用來走捷徑。此外,許多學生都採用
谷歌、維基網上百科全書…… 等網上工具去搜集資料,結果提交了許多急就章的論文。
儘管如此, 現在人們已經接受和習慣了使用 Wolfram、谷歌、維基…… 同樣道理,我
相信 ChatGPT 將會廣泛地被採用,這是禁絕不了的。
關於使用 ChatGPT,現在對學生和專業人士 有兩套截然不同的政策,上面提過,許多
學校嚴格禁止學生在功課中包含任何 ChatGPT 產生的內容,違反該規矩將被視為作弊。
學術會議和學術期刊卻沒有禁止作者採用人工智慧,它們只是要求人工智慧不可以被
列為作者,人工智能製造的內容需要通過驗證,而且必須要在文章中註明採用了這種工
具。
我猜想這些不同的做法是基於一個隱含的假設:成熟的專業人士比年輕的學生更有責
任感,我認為這並不一定。Retraction.com 羅列了許多學者造假而被迫撤回文章的案例,
據估計,PubMed 存檔的論文中約有 1% 包含有問題的內容,隨著 ChatGPT 等人工智能工
具逐漸進步,學者更加容易做假。
也許以上那些「歧視性」 的政策最終會引起學生的不滿,與其制定兩套政策,不如
所有人都跟從同一套標準。無論是學生還是專業人士,我認為採用 ChatGPT 來作為一個
起草的工具是沒有問題的,但隨後作者應該加入自己本身的東西。曾經有一位朋友問我:
一篇文章裏面應該有幾多百分比是出自人工智能,有幾多出自人類作者才可以接受
呢?」 坦白說,我沒有答案,這是一個嶄新的工具,我相信關於怎樣適當使用這工具的
倫理指引還需要漫長的摸索。
最後,我想指出,這篇文章完全是出自我的手筆,我沒有採用人工智能。
2023 2 5
原載於澳洲《同路人》雜誌
更多資訊