2022年9月,一位年輕人用Al繪畫(huà)工具M(jìn)idtravel創(chuàng )作的作品《太空歌劇》在美國科羅拉多博覽會(huì )的藝術(shù)競賽中獲獎。該獎項是“數字藝術(shù)/數字修飾照片”組中的第一個(gè)獎項。然而,這引發(fā)了一波文化爭議和反人工智能繪畫(huà)。
一位網(wǎng)友說(shuō),我們已經(jīng)眼睜睜地目睹了藝術(shù)的消亡?!叭绻词故撬囆g(shù)作品也無(wú)法避免被機器吞噬,那么高技能工人也將面臨被淘汰的危機。那么我們該怎么辦?”
AI科學(xué)家們最初的猜想是,AI大發(fā)展后,一些藍領(lǐng)崗位、重復性的工作會(huì )首先被取代。然而,ChatGPT、AlphaFold等工具出來(lái)后,人們發(fā)現,最先感受到AI沖擊的,反而是創(chuàng )造性的工作,而送餐這一類(lèi)涉及勞動(dòng)力的工作卻沒(méi)能被取代。他解釋說(shuō),在機器人、自動(dòng)駕駛等領(lǐng)域,機械與智能是兩個(gè)基本的模塊?,F實(shí)進(jìn)展來(lái)看,機械部分有很多物理上的限制,很多技術(shù)目前尚未突破;得益于深度學(xué)習等模型的發(fā)展,智能部分反而突破更快。
這些涉及創(chuàng )造力、知識探索、信息獲取的行業(yè),是人文領(lǐng)域的核心,是人類(lèi)最擔心被機器化的部分。一直以來(lái),AI在這些領(lǐng)域的重大突破都伴隨著(zhù)廣泛的倫理爭議。
世界知名的復雜性科學(xué)研究中心、美國圣塔菲研究所教授梅勒妮·米切爾近日在接受媒體采訪(fǎng)時(shí)就談到,過(guò)于盲目采用這些技術(shù),將我們的交流和創(chuàng )意自動(dòng)化,可能會(huì )導致人類(lèi)失去對機器的控制,“機器人會(huì )給機器人寫(xiě)電子郵件,而機器人會(huì )回復其他機器人”。米切爾說(shuō),“我們作為人的特質(zhì)從我們的信息中被卷走了?!?/p>
1月5日,紐約市教育部門(mén)表示,紐約公立學(xué)校的所有設備和網(wǎng)絡(luò )上將禁止使用ChatGPT。紐約市教育部門(mén)發(fā)言人詹娜·萊爾指出,這一決定是基于“該工具可能會(huì )對學(xué)生學(xué)習產(chǎn)生負面影響,以及對其內容的安全性和準確性的擔憂(yōu)”。
人們普遍表示擔心,該工具可能會(huì )鼓勵學(xué)生抄襲。詹娜·萊爾說(shuō),雖然ChatGPT能夠為問(wèn)題提供快速而簡(jiǎn)單的答案,但它沒(méi)有培養批判性思維和解決問(wèn)題的能力,而這些能力對學(xué)術(shù)和終身成功來(lái)說(shuō)是至關(guān)重要的。
2022年12月27日,美國西北大學(xué)的一個(gè)團隊在預印本論文bioRxiv上發(fā)表了一篇文章。這項研究中,研究者讓ChatGPT學(xué)習發(fā)表在《柳葉刀》《美國醫學(xué)會(huì )雜志》等頂刊上的文章,并撰寫(xiě)50篇醫學(xué)研究摘要,然后讓抄襲檢測器、人工智能輸出檢測器和期刊審稿人將這些摘要與原始摘要比較,找出ChatGPT編造的摘要。
結果發(fā)現,ChatGPT生成的摘要全部順利通過(guò)了抄襲檢測器,人工智能輸出器找出了66%的生成摘要,期刊審稿人僅正確識別了68%的生成摘要和86%的真實(shí)摘要。研究者們表示,使用大型語(yǔ)言模型進(jìn)行科學(xué)寫(xiě)作的道德和可接受邊界需要被進(jìn)一步明確。
《自然》雜志最新發(fā)布的規定稱(chēng),任何大型語(yǔ)言模型工具都不能成為論文作者;如在論文創(chuàng )作中用過(guò)相關(guān)工具,作者應在“方法”或“致謝”或適當部分明確說(shuō)明。
用AI寫(xiě)論文這樣的事情,技術(shù)上一定會(huì )發(fā)生的,而且知識獲取的門(mén)檻越來(lái)越低,“我覺(jué)得發(fā)展方向上更多不一定是禁止它,而是說(shuō)教育評估的標準和理念需要發(fā)生變化。相比那些大段輸出的、能夠在機器的幫助下寫(xiě)得更好的文字,思考的質(zhì)量、深度和研究的原創(chuàng )性等將會(huì )越來(lái)越重要”。
這就好像一項新的技術(shù),比如說(shuō)汽車(chē)、飛機被發(fā)明了,不可能說(shuō)不用它們,關(guān)鍵是如何使用、如何規范。從這一意義上來(lái)說(shuō),王帥表示,以ChatGPT為代表的生成式人工智能的出現,圍繞它及其應用相關(guān)的各方面都沒(méi)有跟上,包括法律、教育、社會(huì )、倫理等。實(shí)際上,就算是圈內人,也沒(méi)有完全理解AI領(lǐng)域正在發(fā)生的事情意味著(zhù)什么。
2022年12月,《大西洋月刊》在《大學(xué)論文已死》的文章中警示,沒(méi)有人為人工智能將如何改變學(xué)術(shù)界做好準備?!叭缃馎I模型遠比我們想象的更強大,而我們用于探索它們的技術(shù)卻非常幼稚?!監penAI實(shí)驗室的人工智能政策專(zhuān)家杰克·克拉克在近來(lái)的一篇文章中寫(xiě)道。
目前,業(yè)內沒(méi)有能力去處理AI帶來(lái)的可能的社會(huì )影響,因為人們對它的了解還很有限,這是最大的問(wèn)題。比如說(shuō),盡管美國部分學(xué)校禁用ChatGPT生成的內容,但現在卻沒(méi)有手段檢測和區分機器與人類(lèi)生產(chǎn)的內容,也就更加難說(shuō)防御機制,“因為GPT這些技術(shù)太新了,監管部門(mén)也沒(méi)辦法去理解。我認為,在幾年時(shí)間內,網(wǎng)絡(luò )上會(huì )有很多虛假信息的出現”。
每一次AI出現一個(gè)新東西,大眾總是會(huì )覺(jué)得某種巨大的變化將要來(lái)臨,并且往往伴隨著(zhù)機器代替人工的擔憂(yōu)。然而,王詠剛說(shuō),人們一方面太容易夸大AI短期內取得的成果和影響;另一方面,卻又忽視AI正在發(fā)生的、真正可能帶來(lái)不可逆的長(cháng)期變化。
在他看來(lái),短期來(lái)說(shuō),ChatGPT等人工智能的應用仍舊是工具式的,它會(huì )提高效率、替代一部分工作,但真正值得擔心的是,隨著(zhù)計算機能夠處理的數據結構、模型、算法越來(lái)越膨脹和復雜,里面可能有大量的“黑盒子”運算,人們未必能預測其最終輸出的結果。會(huì )不會(huì )在某個(gè)時(shí)間點(diǎn),人工智能會(huì )跨越某個(gè)關(guān)鍵的節點(diǎn),進(jìn)入到一個(gè)我們尚未看到的世界,沒(méi)有人可以預測。
本文標題: ChatGPT會(huì )取代人類(lèi)的大部分工作嗎?
本文地址: http://www.guizhouboda.com/brand/news-0558da7f4.html
內容均來(lái)源于網(wǎng)絡(luò ),錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com
2009-2025 黃頁(yè)88版權所有 京ICP備2023012932號-1 │ 京公網(wǎng)安備 11010802023561號 京ICP證100626
內容均來(lái)源于網(wǎng)絡(luò ),錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com