《華爾街日報》:ChatGPT與新型大學教育
wsj
圖片來源:lionel bonaventure/法新社/蓋蒂圖片社編者按:本期《未來視角》中,學生們探討了聊天機器人與學術誠信問題。下週我們將提問:“最新報道顯示,到2097年社保基金將面臨22萬億美元缺口,其信託基金預計最早在2034年只能支付80%的應發款項。你迄今為止所有工作都從工資中扣繳了社保金,而大學畢業後的工作將繳納更多。你是否期待退休時能領回這些錢?你認為自己有生之年能領取到社保福利嗎?“學生請於1月23日前點擊此處提交250詞以內的觀點。最佳回覆將於當晚刊登。
僅是一種工具
ChatGPT本質上只是個語言模型,無法產生新觀點。雖然它能輔助寫作和頭腦風暴,但無法創造實質性內容。它會編造證據(如律師使用時就發現其引用了不存在的案例),不能理解內容且常犯錯誤。使用ChatGPT的學生既可能構成抄襲,又可能提交明顯錯誤的作業。
問題在於學生而非ChatGPT。抄襲和劣質論文是學術界存在數百年的問題。解決前者需要學生自查作業確保原創性;解決後者則要求教授對作業實施更嚴格標準。
ChatGPT僅僅是一種工具,其能力存在根本性侷限。自20世紀80年代以來,教師和教授們對計算器與作弊的擔憂如出一轍,但我們已經越來越清楚認識到它們的侷限性。每年有成千上萬高中生使用計算器參加SAT和ACT考試,鮮有STEM課程禁用計算器,許多課程甚至強制要求使用——因為就像ChatGPT一樣,計算器永遠無法取代人類思維。
——俄亥俄大學數學系 埃文·卡萊爾
法律工作助手
法學院學生正爭先恐後地利用AI來簡化繁忙的生活。教授們通過在課程大綱中制定新AI政策予以回應。有些教授甚至鼓勵在課堂作業中使用AI,比如每週的博客寫作。儘管去年紐約律師因使用AI生成虛假引用的法律簡報而遭法官處罰的警示案例猶在耳畔,法學生們仍看到了AI的價值。就連較為謹慎的同學也會委託AI撰寫千篇一律的求職信,或通過AI重温基礎法律問題。那些更敢冒險的同學則用AI輔助靈感迸發,或生成法律分析初稿。
這對某些律師是件好事。在大語言模型爆發前,AI已逐步取代法律工作中許多枯燥環節。藉助AI,篩選數千頁證據材料或判例法並生成刻板法律術語的效率顯著提升。在AI幫助下,律師能將更多時間投入複雜法律問題與客户關係維護,因此早期接觸AI的法學院學生將比抗拒技術的同行更具優勢。但值得注意的是,這些法律苦差通常並非由精英律師處理,而是由律師助理或地方小型律所承擔。所以當頂級律所的律師們把玩ChatGPT時,其他人可能會飯碗不保。
——亞倫·鮑姆,哈佛法學院
學術不端的便利性
幾周前的考試季,我和一位同學在講座上比鄰而坐。我瞥見她打開ChatGPT,直接將論文題目粘貼進程序。最初我感到憤怒——自己堅持學術誠信的努力彷彿遭到了嘲弄。但當講座結束她合上電腦時,我突然意識到:我既不確定她是否會提交AI生成的論文,也不清楚這樣做的後果。
早在小學時代,老師就反覆告誡我們剽竊的嚴重性和註明出處的必要性。人們常誇大AI對教育的威脅,但它確實為學術不端創造了新途徑。如果AI能直接告訴你論文該包含哪些觀點,聽課的意義何在?畢竟構思內容本佔寫作的半壁江山。我們究竟該將其視為作弊,還是效率工具?
——露西·克雷斯韋爾,倫敦國王學院政治學系
我們必須適應變革
AI不會消失,我們必須學會共存。多數高校(包括我的學校)將AI使用規範交由教師決定,這意味着剽竊的本質定義未變:任何未註明且實質性非原創的內容都屬作弊。若學生存心舞弊,再嚴苛的聊天機器人禁令也無濟於事。
部分教授因擔心作弊迴歸紙筆考試,但這絕非良策。作為歷史課助教,我讓學生先用聊天機器人寫論文,再批改評分。多數人發現AI文章僅具基礎框架卻缺乏深度,還有些人認為其分析框架根本站不住腳。它能羅列傳記事實和簡單對比,卻無力整合文獻線索——若稱這些文字"大二水平”,恐怕是對真實大二生的侮辱。
儘管如此,學生們仍能通過聊天機器人即時獲得對其想法的反饋,通過對話打磨論點。雖然人工智能在定性分析上表現欠佳,但在翻譯、模式識別和定量分析方面卻出類拔萃。我們應當教導學生將聊天機器人作為工具來使用,而非將繁重的研究工作全盤交由AI處理,從而欺騙自己。
——凱文·霍夫曼,耶魯大學歷史學博士
點擊此處提交對下週《未來視角》欄目的回應。