作者zkow (逍遙山水憶秋年)
看板Teacher
標題Fw: [新聞] 還在用ChatGPT寫作業?!教授曝露餡3大敗筆
時間Sun Aug 13 20:48:25 2023
※ [本文轉錄自 AfterPhD 看板 #1asD3lxW ]
作者: zkow (逍遙山水憶秋年) 看板: AfterPhD
標題: [新聞] 還在用ChatGPT寫作業?!教授曝露餡3大敗
時間: Sun Aug 13 20:47:40 2023
還在用ChatGPT寫作業?! 教授曝露餡「3大敗筆」
台視新聞
2023.08.11 21:49
ChatGPT今年爆紅,許多人開始將它應用在工作或生活中,提升效率,不過卻有學生動歪
腦筋,利用ChatGPT寫作業,自己只要複製貼上就能輕鬆交差。不過教授們直言,其實他
們一看就知道,內容是不是出自學生本人,也點出以AI完成的作業,最容易露餡的三大敗
筆。
AI產出內容乏味 零錯誤、沒活力「像50歲律師」
AI是現代人的重要幫手,卻有大學生利用ChatGPT寫作業,交差了事,以為神通廣大,殊
不知都被教授一眼識破。就有網友表示,自己班上有半數同學被抓包,教授們也公開,
ChatGPT寫出來的作業,最容易露餡的三大敗筆。
阿巴拉契亞州立大學哲學系教授克里斯多福‧巴托就說,AI產出的內容不會有錯,但很機
械、很乏味,不會有人這樣說話,「AI作業看起來作者像是一位很聰明,但沒上過我的課
的人」。
文章中完全不見錯誤,反而不符合人性,字裡行間也沒有學生的影子,明顯就是出自機器
人之手。
普林斯頓大學講師史提夫‧克爾特斯也表示,「ChatGPT內建的語氣,就像一名50歲的合
格律師,似乎少了活力,缺乏真實學生的語氣跟經驗」。
有說服力但卻是錯誤內容 「AI幻覺」難辨真假
而最大問題是人工智慧幻覺,AI會產出看似很有說服力,但卻是錯誤的內容。北密西根州
大學哲學系教授安東尼‧歐曼指出,AI會用完美的文法寫出明顯是錯誤的內容,因為它無
法分辨事實和虛構,也無法分辨資訊和假資訊。
也有教授坦言,有時AI產出的錯誤內容,逼真到連學者都沒把握誰對誰錯,同時也提醒,
以ChatGPT代勞,不僅會喪失思考機會,對學習更是一大損失。
國際中心/劉人豪 編譯 責任編輯/林均
https://news.ttv.com.tw/news/11208110041600M
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 180.176.190.76 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/AfterPhD/M.1691930863.A.EE0.html
※ 發信站: 批踢踢實業坊(ptt.cc)
※ 轉錄者: zkow (180.176.190.76 臺灣), 08/13/2023 20:48:25
推 TheStranger : 很常有明顯錯誤... 08/13 21:24
推 neoggyy : 應該說是結構、邏輯無誤,但事實常有錯誤 08/13 22:13
推 Frobel : 會照抄答案的學生層次應該很低 但拿來快速查資料 08/13 22:36
→ Frobel : 非常有用 尤其是尋找相關文獻 以往我要驗證一個論點 08/13 22:36
→ Frobel : 可能得花上半天一天才能找到一篇可以引用的 有GPT 08/13 22:37
推 Chricey : 關節痛有人有有效的復健方法嗎? 08/13 22:37 → Frobel : 可能一小時就找得到 找到後丟GOOGLE驗證真偽即可 08/13 22:37
→ Frobel : 但我懷疑現在的免費版本功能可能被限縮很大 08/13 22:38
推 qwe123456460: 找文獻用別的比較好,gpt不會給連結 08/13 22:42
推 an123456781 : 現在學生不會在意學習有什麼損失 08/13 23:56
推 Chricey : 我阿嬤說吃豬腳補關節,豬腳吃起來 08/13 23:56 推 yuehxian : 目前ai只適合找開放性答案 08/14 08:41