国产毛片一区二区,黄色体验区,亚洲一级电影在线观看,亚洲特黄,a级在线视频,小嫩嫩下直流白浆视频,亚洲a级黄色片

Hi,歡迎來(lái)到黃頁(yè)88網(wǎng)!
當前位置:首頁(yè) > 人工智能 > AI人工智能會(huì )毀滅人類(lèi)嗎?可能的方式有哪些?

AI人工智能會(huì )毀滅人類(lèi)嗎?可能的方式有哪些?

互聯(lián)網(wǎng)時(shí)間: 2023-08-03 11:45:42

AI崛起之后,會(huì )毀滅人類(lèi)嗎?如果會(huì )的話(huà),它又會(huì )以怎樣的方式毀滅人類(lèi)呢?關(guān)于這點(diǎn),很多人都在擔心,因為好萊塢早就預言過(guò),AI都不是什么好東西。不管是終結者里的天網(wǎng),還是黑客帝國里的矩陣,又或是西部世界里的Host,總之,它們不是要滅亡人類(lèi)就是要圈養人類(lèi),再次再次,也要跟人類(lèi)平起平坐。這你受得了嗎!

所以在看到過(guò)去幾個(gè)月里,人工智能的突飛猛進(jìn)之后,很多大咖都急了,表示要是我們再不加限制的開(kāi)發(fā)AI,一個(gè)恐怖的將來(lái)就一定會(huì )在不遠處等著(zhù)我們。這里面喊聲最大的一個(gè),大概就要數埃隆馬斯克了,看來(lái),他真的很討厭AI呀。

那么問(wèn)題就來(lái)了,當你很討厭一樣東西,又拿它沒(méi)辦法的時(shí)候,該怎么做呢?埃隆馬斯克給我們上了很好的一課,那就是——用另一個(gè)AI去干掉自己討厭的這個(gè)AI。

好吧,所以本質(zhì)上,他只是不放心別人開(kāi)發(fā)的AI而已。

就在最近,埃隆馬斯克正式推出了一家名為xAI的人工智能公司, 雖然目前我們對該公司的雄心壯志了解甚少,但馬斯克在Twitter Spaces活動(dòng)中表示,他希望他的人工智能能夠“理解宇宙的真實(shí)本質(zhì)”。

為什么讓人工智能理解宇宙的本質(zhì)那么重要,因為馬斯克認為——如果AI理解了宇宙的真實(shí)本質(zhì),它就會(huì )明白,人類(lèi)其實(shí)會(huì )比非人類(lèi)有趣太多了,于是基于這點(diǎn),它自然就會(huì )站在人類(lèi)的一邊,成為一個(gè)對人類(lèi)來(lái)說(shuō)安全的AI了。呃......這個(gè)邏輯......通嗎?

好吧,希望它通,因為如果不通,人類(lèi)的未來(lái)在A(yíng)I面前,可能的確會(huì )比較黯淡。我最近正好看了一篇文章,標題就叫做《人工智能傷害我們的最危險、最令人意外和最讓人討厭的六種方式》,文章的作者在采訪(fǎng)了大量相關(guān)領(lǐng)域的專(zhuān)家和從業(yè)者后,得出結論——雖然AI可能并不會(huì )像好萊塢宇宙中表現的那么邪惡,但是它依然會(huì )給我們制造大量的噩夢(mèng),其中有六個(gè),已經(jīng)到了讓人夜不能寐的程度,下面,我就來(lái)分享一下。

但事先說(shuō)明,由于作者和他訪(fǎng)談的對象都是國外的,所以其中舉的案例也基本都是國外的,可能跟我們的情況會(huì )略有不同,大家如果有不同的意見(jiàn)或者補充,正好可以在留言區討論討論。下面,噩夢(mèng)就來(lái)了。

噩夢(mèng)一,叫做數據分身的詛咒。2011年,美國密歇根州州長(cháng)批準了一筆資金,讓密歇根失業(yè)保險局開(kāi)發(fā)一個(gè)新的算法,目的是要讓該算法能夠智能的檢測保險欺詐。

保險局與三家不同的軟件開(kāi)發(fā)公司合作,于2013年推出了密歇根集成數據自動(dòng)化系統(MiDAS)。盡管該局從未透露算法從哪里收集數據,但隨后的訴訟表明,它可能從雇主提供的失業(yè)數據集中收集了不準確的細節。因為在接下來(lái)的兩年里,MiDAS錯誤地指控了4萬(wàn)多人欺詐,并通過(guò)各種方式迫使他們支付了高額的罰款。

但這還不算最糟糕的,一旦MiDAS在數據庫中錯誤地將成千上萬(wàn)的無(wú)辜者標記為騙子,其他使用該數據庫進(jìn)行背景調查的機構就會(huì )重復這些錯誤信息。于是,有些被指控者便無(wú)法找到工作,有些則無(wú)法再領(lǐng)取失業(yè)救濟金。而這其中最絕望的一點(diǎn)是,當這些人突然被當成是罪犯來(lái)對待時(shí),他們根本就想不明白這是為什么?到底背后發(fā)什么什么?直到,有缺陷的算法被曝光之后,他們才用集體訴訟的方式為自己討回了公道。

好,你以為這就完了嗎?不,噩夢(mèng)還沒(méi)走,甚至,它這一輩子都走不掉了。倫理組織AI Now的主席梅雷迪斯·惠特克將MiDAS創(chuàng )造出來(lái)的與真實(shí)人物有偏差的在線(xiàn)版本稱(chēng)為“數據分身”。它們的功能很像被盜用的身份,一旦建立起來(lái),就幾乎無(wú)法刪除。因為我們的很多數據都被重新打包并出售給第三方,所以一個(gè)由人工智能創(chuàng )造出來(lái)的數據分身可能會(huì )從你的保險記錄里消失,但又會(huì )出現在你的銀行記錄、學(xué)校錄取或工作背景調查中。由于許多數據庫是集中式的,所以一個(gè)數據分身可能會(huì )在你的一生中跟隨你許多年。

惠特克說(shuō):“這些系統正在生成沒(méi)有人給予它們的虛假個(gè)人數據,而它們正變得越來(lái)越比真相更真實(shí)。這一定會(huì )影響我們的生活?!?/p>

接著(zhù),是噩夢(mèng)二,它叫做“萬(wàn)歲,隨機鸚鵡”。

鸚鵡學(xué)舌我們都知道,要是訓練的好,你完全可以跟一只鸚鵡展開(kāi)看似正常的對話(huà)——它可以跟你問(wèn)好、可以跟你打招呼、甚至,還能跟你對罵幾句——盡管,它可能根本就不知道這些語(yǔ)言的含義。

誒,對比一下,GPT之所以厲害,之所以它說(shuō)的話(huà)看起來(lái)像是人說(shuō)的,不就是因為我們用了大量人類(lèi)的語(yǔ)言去訓練它的結果嗎。但是,它真的就明白這些語(yǔ)言背后的真實(shí)含義嗎?不見(jiàn)得。

華盛頓大學(xué)社會(huì )未來(lái)實(shí)驗室的負責人艾米·張說(shuō),她最擔心的就是AI胡說(shuō)八道的傾向。很多通過(guò)ChatGPT或是其他類(lèi)似的,能夠寫(xiě)出大段句子甚至整篇文章的AI說(shuō)出來(lái)的東西,咋聽(tīng)起來(lái)非常合理,但你仔細一想,就會(huì )發(fā)現錯得是相當離譜。

她舉了個(gè)例子,在一次科學(xué)作家蓋瑞·馬庫斯與ChatGPT的對話(huà)中,后者建議到,將瓷器粉加入母乳有好處,因為——瓷器粉可以幫助平衡母乳的營(yíng)養成分,為嬰兒提供生長(cháng)和發(fā)育所需的營(yíng)養。是不是的相當的荒謬。

研究人員稱(chēng)這種現象為“隨機鸚鵡”問(wèn)題: 當計算機以混亂的方式復制聽(tīng)起來(lái)像是人類(lèi)的短語(yǔ)時(shí),這種問(wèn)題就會(huì )發(fā)生。艾米介紹,隨機鸚鵡可能會(huì )在互聯(lián)網(wǎng)上散播大量錯誤信息,從而造成一場(chǎng)堪稱(chēng)核災難級別的垃圾信息泛濫。AI生成內容的擴散將使得在一片垃圾信息中找到高質(zhì)量信息變得更加困難。最終,我們必然面臨一個(gè)完全被隨機鸚鵡信息取代了人類(lèi)生成文字的世界。到那個(gè)時(shí)候,除了垃圾,還剩什么呢?隨機鸚鵡,真的是萬(wàn)歲了。

噩夢(mèng)三,AI學(xué)會(huì )了偏見(jiàn)。當我們現在為AI能做的很多事感到興奮不已,并本能的認為這是一個(gè)全新開(kāi)啟的時(shí)代時(shí)。其實(shí),你要知道,大多數的人工智能實(shí)際上是建立在一些能追溯到上個(gè)世紀80年代的“破舊系統”之上的。所以可以這么說(shuō):AI不是什么新技術(shù),新的,只不過(guò)是我們現在擁有的大量數據和計算能力。

這會(huì )帶來(lái)什么問(wèn)題?這會(huì )帶來(lái)算法通過(guò)學(xué)習按照舊有標準分類(lèi)的數據,從而得出偏離了真相的結果。比如AI在警務(wù)平臺上的使用。 上個(gè)世紀90年代,洛杉磯警察使用一個(gè)奇怪的縮寫(xiě)詞“NHI”來(lái)指代涉及黑人和其他少數族裔的事件。NHI到底是什么意思呢?后來(lái)通過(guò)調查才知道,它是“沒(méi)有涉及人類(lèi) no humans involved”的縮寫(xiě)。

這就相當歧視了,意思就是在洛杉磯警察的眼里黑人和少數族裔都不是人唄。顯然,這個(gè)縮寫(xiě)很快就被刪除。但是,就像我們上面講到的一樣,數據分身是很難被徹底抹掉的。在用可能含有這個(gè)縮寫(xiě)的數據去訓練AI的過(guò)程中,AI也許就會(huì )錯誤的學(xué)習到某些人比其他人不那么有價(jià)值——等于是把歧視和偏見(jiàn)也學(xué)了下來(lái)。

這也是多年來(lái)人工智能專(zhuān)家一直在警告的,一些警務(wù)算法是根據有偏見(jiàn)的數據進(jìn)行訓練的,于是很容易就將黑人與犯罪畫(huà)上了等號。通常,這些算法會(huì )“學(xué)習”誰(shuí)更可能犯罪,這是基于逮捕和監禁的歷史數據,而其中黑人美國人由于曾經(jīng)被不公平地定位為目標,就導致了他們在這些數據中占據了錯誤的高比例。

隨著(zhù)人臉識別越來(lái)越多地被集成到智能監控攝像頭中,這個(gè)問(wèn)題將變得更加嚴重。因為當一個(gè)超市試圖安裝這樣的智能攝像頭,來(lái)將顧客的臉與之前涉嫌偷竊的人匹配,從而警告保安人員時(shí)。錯誤訓練的AI很有可能會(huì )將亂指無(wú)辜,既傷害了顧客的權利,也削弱了商場(chǎng)的信譽(yù),可謂極具危害性。

噩夢(mèng)四,AI教我打仗。想象這么一個(gè)場(chǎng)景,在未來(lái)的戰場(chǎng)上,一個(gè)軍事指揮官正在與恐怖分子作戰,硝煙籠罩,他需要同時(shí)處理數百個(gè)關(guān)于發(fā)生了什么的相互矛盾的情報,并迅速做出一個(gè)可能會(huì )造成不同傷亡的決策。那么,他應該怎么做呢?

合理的推測是,依靠AI。

美國國防高級研究計劃局(DARPA)已經(jīng)開(kāi)始啟動(dòng)一個(gè)名為ITM(In The Moment)的項目,旨在設計一個(gè)可以幫助做出關(guān)于戰場(chǎng)傷亡的復雜決策的算法。所以,在可以預見(jiàn)的未來(lái),將會(huì )有更多算法會(huì )基于歷史沖突的數據來(lái)幫它做出決策。

但是,這些歷史沖突的數據就真的那么可靠嗎?如果這個(gè)未來(lái)的指揮官在歐洲,卻使用了基于阿富汗戰爭的數據所訓練出來(lái)的AI呢?

你想,在阿富汗作戰的方式,它也許并不適合放在歐洲嘛,那么這樣的AI所做出的決策就勢必產(chǎn)生了偏差。最慘的,你即使知道有這個(gè)偏差,也很難去修正,因為它本質(zhì)上,是個(gè)“黑箱”問(wèn)題。對于構成我們算法基礎的神經(jīng)網(wǎng)絡(luò ),我們可以看到的只有數據的輸入和輸出,而并不知道里面到底發(fā)生了什么。

比如我們現在在訓練AI下棋時(shí)就會(huì )發(fā)生這種情況。AI贏(yíng)了,是因為它想出了人類(lèi)在數千年的下棋過(guò)程中從未想象過(guò)的棋步??蔀槭裁此苓@么想?它在想的過(guò)程中加入了什么、放棄了什么?這么做會(huì )帶來(lái)其他后果嗎?等等這些,我們是既看不到也無(wú)法理解,這就帶來(lái)了很多巨大的風(fēng)險。

比如,在未來(lái)的某個(gè)時(shí)刻,當作戰指揮官問(wèn)一隊由AI控制的無(wú)人機下一步該怎么做時(shí),它們可能會(huì )制定出一種對指揮官而言毫無(wú)意義的策略——轟炸所有戴黃帽子的人。聽(tīng)上去很荒謬吧?但是指揮官不得不相信它,因為它是通過(guò)對情報的大量分析后,才得出的這一判斷——恐怖分子都在暗中編織黃色的帽子。但是,萬(wàn)一它是犯了一個(gè)錯,把織毛線(xiàn)帽的無(wú)辜大媽標記成了恐怖分子呢?指揮官在做出決定之前是根本不會(huì )知道的,而當他知道的時(shí)候,一切都已經(jīng)太晚了。

噩夢(mèng)五, 你的大腦植入物不會(huì )讓你頂嘴。最終,我們一定會(huì )邀請算法進(jìn)入我們的身體。多倫多大學(xué)的研究人員已經(jīng)設計了可以植入到人腦中的增強型AI芯片,幫助罹患帕金森病的患者。當然,我們還有其他的腦植入物,可以幫助癱瘓的人用意念控制鼠標和鍵盤(pán)。

聽(tīng)起來(lái)很安全,對吧?但是,等到心電感應、用想一想就能給其他人發(fā)送信息的時(shí)候,情況就會(huì )發(fā)生變化了。由于像微軟這樣的公司會(huì )為文本加上預測算法,通過(guò)該算法來(lái)幫助你更快的完成你想要的句子??伤诹硪环矫?,也既能阻止你講臟話(huà),還能改變你可能想講的話(huà)。也許在一個(gè)不那么光明的未來(lái),它會(huì )阻止你批評某個(gè)公司或者組織,甚至連一個(gè)有點(diǎn)創(chuàng )造性的提議都不會(huì )讓你發(fā)出來(lái)。

最后,噩夢(mèng)六,跨越了維度的麻煩。在噩夢(mèng)二里面,隨機鸚鵡還只存在于你的瀏覽器里,但是,當它跨出網(wǎng)絡(luò )開(kāi)始控制你的汽車(chē)時(shí)會(huì )發(fā)生什么?這就是華盛頓大學(xué)法學(xué)教授瑞安·卡羅最關(guān)心的。他指出,人工智能與重要系統之間的意外互動(dòng),可能會(huì )帶來(lái)難以想象的后果。

其中一個(gè)系統可能就是你所在的智能城市。在那里,算法將控制從電網(wǎng)分配到交通流量等一切事情。想象一下,那些通過(guò)鸚鵡學(xué)舌自動(dòng)產(chǎn)生了某些毫無(wú)意義的垃圾的算法,此刻可能正在控制著(zhù)橋梁、控制著(zhù)你所在建筑物的空調系統,或者,控制著(zhù)你的自動(dòng)駕駛車(chē)輛穿過(guò)擁擠的市區......難道不令人恐懼嗎!

其實(shí)一些奇怪、或者說(shuō)可怕的相互作用已經(jīng)出現了。比如,之前就有一群自動(dòng)駕駛汽車(chē),毫無(wú)緣由的阻塞了舊金山數小時(shí)的交通。這還不是最差的,還記得我上面說(shuō)的黑箱問(wèn)題嗎?在這里,黑箱問(wèn)題也導致了人類(lèi)既不能理解也不能修復的一些奇怪的交通行為。比方說(shuō),一個(gè)由AI控制的電網(wǎng)和交通系統,該如何應對一場(chǎng)突發(fā)而來(lái)的抗議或者慶?;顒?dòng)呢?

本文標題: AI人工智能會(huì )毀滅人類(lèi)嗎?可能的方式有哪些?

本文地址: http://www.guizhouboda.com/brand/news-6130mcf745.html

內容均來(lái)源于網(wǎng)絡(luò ),錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com

2009-2025 黃頁(yè)88版權所有 京ICP備2023012932號-1京公網(wǎng)安備 11010802023561號 京ICP證100626

內容均來(lái)源于網(wǎng)絡(luò ),錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com