特尼‧撒都 (Whitney Shashou ) 指出:學生有了這個垂手可得的工具,老師便很難去評
估學生真正的寫作能力。 無怪乎紐約市教育局阻止學生使用此工具,一些美國大學亦敦
促教授細心檢查學生是否使用 ChatGPT 作弊。澳大利亞八所主要大學宣布,由於不少學
生提交了採用 ChatGPT 完成的文章, 故此他們改變了審核學生的方式,例如悉尼大學修
改了其學術誠信政策,明確指出使用人工智能創作內容屬於作弊行為。澳洲國立大學亦改
變了其考核學生的方法,它將重點由作文轉移到實驗室活動、在課室中限時考試、口頭報
告…… 等等。
此外,一位普林斯頓學生建構了一個名叫 GPTZero 的軟件,用來測試一篇文章是否出
自 ChatGPT,目的是打擊學生採用人工智能去作弊。OpenAI 亦開發出類似的探測軟件,
但準確率只有 26% 左右。筆者認為,更加有效的分辨方法應該是:若果學生以前呈交的
功課 只是平平無奇、文法和串字錯漏百出、觀點則卑卑而無高論,但突然之間送出的論
文竟然是文筆流暢、內容豐富、旁徵博引、見解獨到,那麼大有可能這是用了人工智能。
不過,這當然不是絕對有效,聰明的學生可能會故意在文章中放入幾個錯字,從而避過教
授的懷疑。
針對專業人士的政策
以上都是針對學生的措施,但其實教師、教授、研究人員、專業人士都可能會濫用人
工智能。去年 12 月,一篇關於醫學教育論文的預印本發佈在醫學資料庫 medRxiv 上,
ChatGPT 被列為十二位作者之一。根據美國權威科學期刊《自然》的報導,在 2023 年 1
月發表的四篇論文裏面,ChatGPT 竟然被列為「作者」之一,其中一篇甚至提供了
ChatGPT 這位「作者」的電子郵件地址。《自然》解釋說,這是一個錯誤,將很快更正。
然而,PubMed 和 Google Scholar 已經將這些文章和非人類「作者」編入索引。
有鑒於人工智能可能被學者濫用,2023 年 1 月 5 日,國際機器學習會議宣布禁止作者
使用 ChatGPT 等人工智能工具撰寫科學論文,除非人工智能製造出來的內容是實驗分析
的一部分,值得強調的是,該禁令僅適用於完全由人工智能生成的文章,但它沒有禁止人
類與 人工智慧「合著」的論文。此外,《自然》制定了政策,指導如何在科學出版物中
使用 人工智能的語言模型,例如禁止將人工智慧命名為作者。《美國醫學協會》 期刊最
近亦更新了 作者指引:人工智能、語言模型、機器學習和類似技術不符合成為作者的資
格; 當這些工具被用於製造內容或協助撰寫文稿時,作者必須檢查這些資料的可靠性,
並且必須在手稿中明確說明使用了人工智能。