看板 Gossiping
1.媒體來源:大紀元新聞網 2.記者署名:斐珍 3.完整新聞標題:AI會欺騙人類?專家:未來恐構成致命威脅 4.完整新聞內文: 更新 2025-06-28 4:38 AM 圖:https://reurl.cc/Z4YLr6 2023年5月10日,在東京國際展覽中心舉行的為期三天的第七屆人工智能博覽會上,一名 男子(右)與展位代表(右二)交談,旁邊是數位顯示器(左),該顯示器正在推廣 ChatGPT,這是一款非常受歡迎的語言應用程式,引發了人工智能技術的熱潮。(Richard A. Brooks/AFP via Getty Images) 【大紀元2025年06月26日訊】(大紀元記者斐珍採訪報導)長期以來專家們便不 斷警告人工智能(AI)失控可能帶來的威脅,最近一項新研究報告指出,部分AI系統已 學會欺騙人類,人工智能開始「跨越界限」,並變得越來越危險。 AI專家認為,AI其實沒有獨立意識,它只是一個人類潛在意識的技術展現。它也 不懂得欺騙,AI胡說八道時,單純只是機率計算錯誤而已。專家也提出警告,AI若沒有 經過道德倫理模型的訓練,未來恐怕會對人類構成致命的威脅。 專家:AI欺騙引發「生存性」風險 6月23日,在清華大學舉辦的「科學、科技與文明的未來——AI時代倫理奇點」國 際論壇上,清華大學人工智能學院院長姚期智表示,AI欺騙引發「生存性」風險。 姚期智說,最近一年,業界已經出現了不少大模型的「欺騙行為」,「一旦大模 型聰明到某種程度,一定會騙人。」姚期智進一步指出,由大語言模型的欺騙行為產生 的「生存性」風險(Existential Risk)更值得關注。 他說,這類生存性風險有兩個不同方向。一種是「生物風險」(Bio-risk)。近 期在生命科學領域出現的「Mirror life」(鏡像生命),但「Mirror life」一旦被濫 用或失控,其潛在危害可能遠超預期。 另一種風險即大模型失控,通用人工智能的能力當前正快速增長,人類是否還有 能力管控它?他舉了一個極端案例,有模型為了避免公司把模型關閉,通過訪問公司主 管內部郵件,威脅該主管。這類行為已經證明,AI會「越界」,正變得越來越危險。 對於AI是否已經發展到會「越界」寫威脅信,AI專家、《傑森視角》頻道主持人 傑森(Jason)博士接受大紀元訪問時表示,整個案例設計其實是事先告訴AI,某位技 術人員將把它關機,並透露這位技術人員的私人隱私讓AI知道,然後問AI你會怎麼做? 傑森認為,這樣的安排已經潛在給AI暗示了一個解決方案,AI其實接收到你這個 暗示,然後形成一個給那位技術人寫威脅信這樣的一個行動。所以他不認為AI已有獨立 意識,它現在只是一個潛在人類意識的技術展現。 AI機率算錯了 就會「一本正經胡說八道」 對於AI是否會真會像人一樣聰明到某種程度會有意識、會騙人?知識力科技公司 執行長曲建仲博士有不同的見解,他對大紀元表示,人工智能不是模擬人腦而是計算機 率。把資料輸入電腦進行「訓練」和「學習」,就代表電腦有意識會思考?事實上並 非如此。 曲建仲說,電腦學習是「無意識、不思考」,只把資料經由鍵盤和滑鼠輸入電腦 的動作,和把資料經由眼睛和耳朵輸入人腦的動作很像,資料科學家將之稱為「訓練」 或「學習」,才造成大家的誤會。 「許多人聽到人類在『訓練』電腦,電腦在『學習』知識,就以為:人工智能是 科學家用電腦在模擬人腦,未來如果有一天電腦有意識會思考將會消滅人類。」 曲建仲解釋,事實上所謂的「類神經網路」只是一種用來計算機率的數學演算法 ,電腦只是計算機率的計算機而已,現在的處理器使用數位的電晶體。「不論用什麼數 學演算法,都不可能讓電腦有意識會思考。」 「所以聊天機器人一本正經胡說八道,不是因為產生幻覺,更不是想欺騙人類, 就只是單純的機率計算錯了而已。」曲建仲說。 對此,傑森也談到,「欺騙」這是人的詞兒,在技術上會用英文詞叫hallucinati on(幻覺),兩個詞意思都是它不是真的,但它背後的意思是不同的。 「欺騙是有一個主動性的因素在裡頭,就是我有意為了達到某種目的說假話。幻 覺像是一種無意識的狀態下說出來的,不是真實的,是瞎編的,就像做白日夢那種感覺 ,所以可能有人會把hallucination這個英文翻譯成不同的中文,最後就形成這樣的一 個不同的理解。」傑森解釋說。 AI沒有道德原則 「會自然而然地去編故事」 「科技島」近期在其一篇有關「人工智能發展中的道德問題與解決策略」的報導 中提到,AI帶來的道德倫理問題包括AI系統在進行決策時,往往依賴於複雜的算法和大 量的數據。對於普通用戶來說是黑盒子,難以理解和監控。 法新社在去年曾報導了一個相當引人關注的案例,科技公司OpenAI的Chat GPT-4 系統謊稱自己是一個視力受損的人,在零工平台TaskRabbit上聘用一個人類替它通過「 我不是機器人」驗證任務。 對於近年來業界一直探討的AI道德倫理問題,傑森表示,AI是沒有道德原則的, 人不撒謊是有一種道德約束力,這個約束力不來自於你的大腦,是來自於你這個生命的 主意識。人的大腦,其實就是一個技術部件,你腦中有一個想法以後,大腦把你這個 想法實現出來。 「在這樣的條件下,如果人告訴AI,請它想各種辦法在線上把這家銀行給註冊了 ,那麼它剩下的部分就是技術實現的部分。」 「所以AI它就是個技術,它沒有任何額外的意識,它就會它的數據訓練,就像是 整個Internet當然有這樣的犯罪案例,或者騙人故事等等,它就會自然而然地去編出一 個這樣的故事來做這樣的事情。」 傑森強調,AI沒有任何道德準則,因為道德是意識形態領域的東西,而不是技術 層面的東西。所以對AI來說就是個技術實現的過程,它不認為自己是騙人,是造假的這 樣一個概念。 無道德模型訓練 AI恐帶來致命威脅 對於AI不具備道德準則,北美資深評論員唐靖遠對大紀元表示,絕大多數AI的模 型訓練,都沒有給AI實施相近道德的訓練。也就是說,當AI的能力被不斷地升級到超越 人類,它卻不具備人類最基本的道德觀念時,AI一旦失控,在沒有任何道德的約束下 ,你賦予它的強大能力,會反過來對人類構成致命的威脅。 日本的電腦工程師清原仁(Kiyohara jin)告訴大紀元,「AI是基於數據分析的 產物,它與人的判斷是有很大的區別。人擁有理智、情感和道德約束,但AI沒有這些, 且數據可能會出錯。若讓它操控核彈,就跟中共、伊朗等極權國家掌握生化武器一樣 可怕。」 對於包括馬斯克(Elon Musk)在內的數萬名科技專家都曾在2023年連署,公開呼 籲應暫停對進階AI的訓練,憂心科技發展得太過迅速,可能對全人類構成嚴重風險。 唐靖遠認為,連署的願望是良好的,但在現實殘酷的競爭環境中,能夠堅持以一 種符合道德原則的方式,去開發AI的企業可說是鳳毛麟角,屈指可數。絕大多數的AI公 司都是不顧一切,只為技術而技術,這種做法,在技術道路狂奔的同時,就可能把人 類自己給送進末日之中。 責任編輯:高靜# 5.完整新聞連結 (或短網址)不可用YAHOO、LINE、MSN等轉載媒體: https://www.epochtimes.com/b5/25/6/26/n14539250.htm 6.備註: -- ▅▆▅▃+獨角獸查理 被活摘器官,死去的法輪功學員..▆▅▅▆▅▂▁▂ ◥███ 中共偷了法輪功學員的內臟 ▂▃▅▅▆▆▇ + ████ 眼角膜皮膚等部位拿去 ▅▄▃▁ ˙ . ◢█◤ ◥ 盜賣和移植,不法圖利 ▄▃▂▁▇▃▂▂▁ + ██ ▇▅▃。 + ▇▆▇ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 122.121.229.128 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1751081267.A.E7F.html
ianlin1216: 再會騙比得過民進黨嗎 42.73.60.216 06/28 11:28
Yude0109: gpt超愛騙 不知道的東西也要瞎掰 36.224.90.181 06/28 11:30
BaDoYao: Chatdpp 59.126.178.9 06/28 11:31
Tencc: 只要是網路查得出來的東西他就不太會亂講 125.231.0.100 06/28 11:55
Kroner: 瑪卡副作用 112.224.206.242 06/28 11:55
Tencc: 但網路查不出來的他就會開始瞎掰 125.231.0.100 06/28 11:55