人類(lèi)曾無(wú)數次幻想由機器代替人類(lèi)工作,由電腦充當人類(lèi)管家,由機器人充當人類(lèi)的生活伴侶。而今天,這一切正借助人工智能一一實(shí)現,而且,人工智能展現了人類(lèi)無(wú)法企及的超能力和幻想都想不到的新才能。但各種文學(xué)和影視作品中的機器人往往變成邪惡的化身,傷害甚至殺戮人類(lèi)。面對人工智能,我們應該開(kāi)心,還是害怕?
相比人工智能,人類(lèi)弱爆了,人工智能所展現出的智能水平,人類(lèi)就是努力一輩子,也不可能達到。
下棋
自2014年以來(lái),在世界圍棋界刮起一股妖風(fēng),一名新出道的“棋手”將世界上頂級圍棋高手們打得落花流水,全軍覆沒(méi),這名棋手不是人,而是名為“阿爾法圍棋”的人工智能程序。阿爾法圍棋最初以人為師,通過(guò)學(xué)習數百萬(wàn)人類(lèi)棋譜,加上自我對弈,在半年時(shí)間后出道,就以5比0輕松戰勝了蟬聯(lián)三界歐洲圍棋冠軍的攀麾,在2017年5月,以3比0令世界第一圍棋高手柯潔敗到哭。
阿爾法圍棋幾經(jīng)改良,目前最新一代叫“阿爾法零”。阿爾法零學(xué)成進(jìn)入江湖只用了3天,與最初的阿爾法圍棋對戰,甚至達到百戰百勝。最令人毛骨悚然的是,它沒(méi)有學(xué)習任何人類(lèi)圍棋知識,只保留最基礎的圍棋規則,從零開(kāi)始,通過(guò)自我對弈,總結出自己的下棋策略。這些策略在人類(lèi)棋手看來(lái),完全超越了已有的認知。
開(kāi)車(chē)
無(wú)人駕駛汽車(chē),利用人工智能技術(shù),無(wú)需人類(lèi)駕駛員,卻比人類(lèi)駕駛更高效、安全,能自動(dòng)選擇最佳路線(xiàn),自動(dòng)避讓行人、車(chē)輛和其他障礙物,能辨識交通燈,完全按照當地交通規則行駛。人類(lèi)司機會(huì )因為接打電話(huà)、走神、困倦而分散注意力,以致無(wú)法及時(shí)應對交通狀況,或者魯莽駕駛,帶來(lái)交通隱患,人工智能則不會(huì )。據專(zhuān)家計算,如果人們全都選擇乘坐無(wú)人駕駛汽車(chē)出行,道路交通事故將減少90%以上。
看病
美國科技巨頭IBM公司開(kāi)發(fā)的超級計算機沃森具有診病的智能,它擁有單個(gè)人類(lèi)醫生無(wú)法擁有的巨大醫療信息數據庫,診斷病情時(shí)不受科室限制和人類(lèi)醫生偏見(jiàn)的影響,能夠高速比對病情和以往病例,更加精準地診斷疾病。
人工智能如何學(xué)習
人工智能技術(shù)之所以能達到如此境界,得益于“機器學(xué)習”這項技術(shù)的開(kāi)發(fā),這是傳統編程技術(shù)無(wú)法做到的。試想,計算機專(zhuān)家可以編程使一輛無(wú)人駕駛車(chē)避讓障礙物,但要讓它判斷前面的物體是躥出的小狗,還是風(fēng)吹來(lái)的黑色塑料袋就很難了。雖然這對人類(lèi)而言再簡(jiǎn)單不過(guò),但傳統編程很難給出足夠的判斷指令。而設置一定的算法,讓程序自我推演,自我修正,無(wú)需人類(lèi)干預,計算機就能學(xué)會(huì )判斷的方法,這就是機器學(xué)習。借助互聯(lián)網(wǎng)提供的海量數據和高速運行的計算機,算法可以在短時(shí)間內對大量情形進(jìn)行測試,并得出正確的方法。
人工智能,無(wú)所不能
人工智能的應用范圍可以非常廣,如識別人臉,用自然語(yǔ)言聲控手機,搜索互聯(lián)網(wǎng)信息(如谷歌、百度),甚至藝術(shù)創(chuàng )作,難怪大家都在擔心,人類(lèi)的工作會(huì )被機器搶走了。
陪伴人類(lèi)
科幻電影中可以陪人類(lèi)聊天的機器人現在真的可以買(mǎi)到了,就是這個(gè)“小白”,它名叫Pepper,是一款情感機器人,由日本軟銀公司開(kāi)發(fā)生產(chǎn)。它可以識別人類(lèi)表情和聲音所傳達的情感,并做出回應。如果你眉頭緊鎖,它會(huì )安慰你;如果你發(fā)脾氣,它會(huì )開(kāi)個(gè)玩笑,哄你開(kāi)心,有時(shí)甚至會(huì )為你跳一段舞蹈。它在日本還被用來(lái)出售咖啡、手機和迎賓。
繪畫(huà)
你猜這幾幅畫(huà)哪幅是人類(lèi)畫(huà)的,哪幅是人工智能畫(huà)的?
上方兩幅是人類(lèi)作品,下方是人工智能作品。其他藝術(shù)創(chuàng )作,包括作曲、寫(xiě)詩(shī),人工智能都能做得像模像樣。
管理倉庫
亞馬遜公司是全球最大的電商,它的倉庫遍布全球各地,發(fā)貨量巨大,倉庫工作量異常繁重。但倉庫環(huán)境較差,夏天炎熱,人類(lèi)管理員經(jīng)常脫水、中暑,抱怨不斷。于是,亞馬遜公司啟用機器人管理倉庫,這些橙色“大饅頭”能頂起貨架在倉庫里來(lái)回穿梭。別看這些機器人沒(méi)點(diǎn)“人樣”,動(dòng)作單一,但效率奇高,能提升50%的庫存處理效率。它們的行為通過(guò)一個(gè)名叫Kiva的人工智能系統控制,按照訂單將貨物從存儲區搬運至員工處理區。
人工智能會(huì )像人類(lèi)一樣思考嗎?
既然人工智能會(huì )開(kāi)車(chē)、下棋、畫(huà)畫(huà)、聊天,那么,它真的會(huì )像人類(lèi)一樣思考嗎?要測試這一點(diǎn),就跟它開(kāi)聊!因為語(yǔ)言直接反映人的思維方式。圖靈于1950年提出的一個(gè)關(guān)于判斷機器是否能夠像人類(lèi)一樣思考的著(zhù)名試驗:如果一臺機器能夠與人類(lèi)展開(kāi)對話(huà)(通過(guò)電傳設備)而不暴露出它的機器身份,那么稱(chēng)這臺機器具有人類(lèi)的思考能力。
評判者可以問(wèn):“今天天氣如何?”如果對方回答:“天氣預報如下……”這無(wú)疑是電腦,人類(lèi)可能回答:“不怎么樣,霧霾太重了,我呼吸困難?!?/p>
2014年,有一個(gè)智能程序還真通過(guò)了圖靈測試,但現在人工智能的自然語(yǔ)言處理能力非常強大,模仿人類(lèi)語(yǔ)言來(lái)通過(guò)圖靈測試是完全可以做到的,因此,圖靈測試還是無(wú)法真正地確保測試的準確性。不過(guò),出現了一些以圖靈測試為基礎的人工智能競賽,競賽中會(huì )出現類(lèi)似這樣的問(wèn)題:
○貓坐在毯子上,因為它很溫暖。什么很溫暖?
○貓坐在毯子上,因為它很冷。什么很冷?
智能程序通常判斷不了,“它”是指的貓還是毯子。但是,隨著(zhù)技術(shù)的進(jìn)步,人工智能的語(yǔ)言處理能力越來(lái)越強大,競賽中的問(wèn)題也需要不斷更新。但無(wú)論人工智能如何強大,它也只是一個(gè)程序,沒(méi)有人類(lèi)的感觀(guān)和人生經(jīng)歷,如果問(wèn)它“如果你用一條毛巾刺自己,你會(huì )受傷嗎?”人類(lèi)會(huì )回答“毛巾是軟的,怎么會(huì )刺傷我!”但智能程序就給不出合理的回答了,因為它沒(méi)有感官,也沒(méi)有類(lèi)似的經(jīng)歷。
人工智能機器人會(huì )反叛人類(lèi)嗎?
著(zhù)名科幻小說(shuō)家阿西莫夫曾提出“機器人三原則”:
第一:機器人不得傷害人類(lèi),或看到人類(lèi)受到傷害而袖手旁觀(guān)。
第二:機器人必須服從人類(lèi)的命令,除非這條命令與第一條相矛盾。
第三:機器人必須保護自己,除非這種保護與以上兩條相矛盾。
然而,在引用了這三條原則的文學(xué)和影視作品中,超級智能機器人往往擺脫了人類(lèi)的控制,或者意識覺(jué)醒,與人類(lèi)為敵??磥?lái),人人都覺(jué)得機器人三原則有漏洞。
有計算機專(zhuān)家就開(kāi)發(fā)出了為保障自身安全,不聽(tīng)從人類(lèi)指揮的人工智能機器人。在一張桌子邊緣,研究者下達指令讓這個(gè)機器人前進(jìn),但機器人語(yǔ)音回復“這不安全”,拒絕服從。
本文標題: 人工智能 滲透在生活的方方面面
本文地址: http://www.guizhouboda.com/brand/news-673h85984f.html
內容均來(lái)源于網(wǎng)絡(luò ),錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com
2009-2025 黃頁(yè)88版權所有 京ICP備2023012932號-1 │ 京公網(wǎng)安備 11010802023561號 京ICP證100626
內容均來(lái)源于網(wǎng)絡(luò ),錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com