看板 Teacher
※ [本文轉錄自 AfterPhD 看板 #1asD3lxW ] 作者: zkow (逍遙山水憶秋年) 看板: AfterPhD 標題: [新聞] 還在用ChatGPT寫作業?!教授曝露餡3大敗 時間: Sun Aug 13 20:47:40 2023 還在用ChatGPT寫作業?! 教授曝露餡「3大敗筆」 台視新聞 2023.08.11 21:49 ChatGPT今年爆紅,許多人開始將它應用在工作或生活中,提升效率,不過卻有學生動歪 腦筋,利用ChatGPT寫作業,自己只要複製貼上就能輕鬆交差。不過教授們直言,其實他 們一看就知道,內容是不是出自學生本人,也點出以AI完成的作業,最容易露餡的三大敗 筆。 AI產出內容乏味 零錯誤、沒活力「像50歲律師」 AI是現代人的重要幫手,卻有大學生利用ChatGPT寫作業,交差了事,以為神通廣大,殊 不知都被教授一眼識破。就有網友表示,自己班上有半數同學被抓包,教授們也公開, ChatGPT寫出來的作業,最容易露餡的三大敗筆。 阿巴拉契亞州立大學哲學系教授克里斯多福‧巴托就說,AI產出的內容不會有錯,但很機 械、很乏味,不會有人這樣說話,「AI作業看起來作者像是一位很聰明,但沒上過我的課 的人」。 文章中完全不見錯誤,反而不符合人性,字裡行間也沒有學生的影子,明顯就是出自機器 人之手。 普林斯頓大學講師史提夫‧克爾特斯也表示,「ChatGPT內建的語氣,就像一名50歲的合 格律師,似乎少了活力,缺乏真實學生的語氣跟經驗」。 有說服力但卻是錯誤內容 「AI幻覺」難辨真假 而最大問題是人工智慧幻覺,AI會產出看似很有說服力,但卻是錯誤的內容。北密西根州 大學哲學系教授安東尼‧歐曼指出,AI會用完美的文法寫出明顯是錯誤的內容,因為它無 法分辨事實和虛構,也無法分辨資訊和假資訊。 也有教授坦言,有時AI產出的錯誤內容,逼真到連學者都沒把握誰對誰錯,同時也提醒, 以ChatGPT代勞,不僅會喪失思考機會,對學習更是一大損失。 國際中心/劉人豪 編譯 責任編輯/林均 https://news.ttv.com.tw/news/11208110041600M -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 180.176.190.76 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/AfterPhD/M.1691930863.A.EE0.html ※ 發信站: 批踢踢實業坊(ptt.cc) ※ 轉錄者: zkow (180.176.190.76 臺灣), 08/13/2023 20:48:25
TheStranger : 很常有明顯錯誤... 08/13 21:24
neoggyy : 應該說是結構、邏輯無誤,但事實常有錯誤 08/13 22:13
Frobel : 會照抄答案的學生層次應該很低 但拿來快速查資料 08/13 22:36
Frobel : 非常有用 尤其是尋找相關文獻 以往我要驗證一個論點 08/13 22:36
Frobel : 可能得花上半天一天才能找到一篇可以引用的 有GPT 08/13 22:37
Chricey : 關節痛有人有有效的復健方法嗎? 08/13 22:37
Frobel : 可能一小時就找得到 找到後丟GOOGLE驗證真偽即可 08/13 22:37
Frobel : 但我懷疑現在的免費版本功能可能被限縮很大 08/13 22:38
qwe123456460: 找文獻用別的比較好,gpt不會給連結 08/13 22:42
an123456781 : 現在學生不會在意學習有什麼損失 08/13 23:56
Chricey : 我阿嬤說吃豬腳補關節,豬腳吃起來 08/13 23:56
yuehxian : 目前ai只適合找開放性答案 08/14 08:41