從1958年美國(guó)原子能委員會(huì)提出在建筑中使用核爆的計(jì)劃,再到谷歌眼鏡,歷史上有不少曇花一現(xiàn)的項(xiàng)目和技術(shù)。不過(guò),人工智能(AI)顯然不在此列,因?yàn)樗诓粩嗨⑿轮嬖诟小?/p>
日前,英國(guó)《自然·展望》雜志發(fā)表長(zhǎng)文,敘述了人工智能正逐漸滲透進(jìn)我們的日常生活,而人們正一邊享用一邊恐懼著,這種情緒下,正在大力推動(dòng)下一場(chǎng)自動(dòng)化變革的技術(shù)人員則需要直面一個(gè)嚴(yán)肅的議題:公眾接下來(lái)究竟想要什么。
難道還有人對(duì)AI毫無(wú)察覺嗎
在第一封郵件開始用數(shù)字方式寄送時(shí),分揀垃圾郵件的問(wèn)題就出現(xiàn)了。但從海量垃圾郵件中識(shí)別出真實(shí)郵件的技術(shù),直到今天也在進(jìn)步著。這是因?yàn)槁斆鞯睦]件制造者很快就找到了躲避過(guò)濾器的辦法,于是電子郵箱平臺(tái)開始啟用AI。
現(xiàn)在,AI經(jīng)過(guò)大量訓(xùn)練,已經(jīng)可以完全無(wú)需人類動(dòng)手,很好地完成分揀郵件的工作。人們?cè)诒臼兰o(jì)初擔(dān)心的垃圾郵件可能會(huì)扼殺正常電子郵件的事情并沒有發(fā)生,機(jī)器學(xué)習(xí)算法十分善于識(shí)別群發(fā)郵件的“套路”。
但我們還是需要時(shí)不時(shí)查看一下郵箱廢紙簍,這是因?yàn)闄C(jī)器學(xué)習(xí)也并非完美,如果沒有及時(shí)更新數(shù)據(jù)庫(kù)的話,很容易就會(huì)被垃圾郵件制造者的新招數(shù)打敗。但無(wú)論如何,事情已經(jīng)變得輕松許多,可以說(shuō),機(jī)器學(xué)習(xí)是我們擁有過(guò)的最好的工具。
郵件系統(tǒng)只是一個(gè)例子。利用機(jī)器學(xué)習(xí),流媒體服務(wù)平臺(tái)可以向用戶推薦他要看的電影,發(fā)送他可能很快就會(huì)在線下單的商品,它還能幫著識(shí)別照片中的人物甚至花草。沒錯(cuò),這些都是AI。
AI點(diǎn)滴滲入,但人們不再毫無(wú)察覺了。許多人每天都會(huì)與計(jì)算機(jī)進(jìn)行語(yǔ)音互動(dòng),谷歌的“阿法狗”(AlphaGo)利用機(jī)器學(xué)習(xí)在擁有3000年歷史的圍棋項(xiàng)目上擊敗了人類冠軍,更是讓人們印象深刻。
面對(duì)AI,你為什么恐懼
現(xiàn)在,有機(jī)構(gòu)和企業(yè)投入重金力圖將機(jī)器學(xué)習(xí)用于無(wú)人駕駛汽車。顯然,比起識(shí)別垃圾郵件的簡(jiǎn)單模式,這是一個(gè)更為遠(yuǎn)大但也更有風(fēng)險(xiǎn)的項(xiàng)目。所以在這個(gè)過(guò)程中,研發(fā)者不得不面對(duì)一個(gè)問(wèn)題:公眾對(duì)于人工智能的認(rèn)知。
這其實(shí)是每一個(gè)正大力推動(dòng)自動(dòng)化變革的研發(fā)人員所需要直面的嚴(yán)肅議題——公眾在想什么。
在人工智能領(lǐng)域,過(guò)去一個(gè)世紀(jì)主宰人們觀念的其實(shí)是科幻小說(shuō)。小說(shuō)中的AI形象深深影響了公眾的看法,因此現(xiàn)在面對(duì)其日益顯要的地位時(shí),人們的普遍反應(yīng)是——恐懼。
這其中部分恐懼,可能源于機(jī)器竟擁有與人差別不大的認(rèn)知。另外,對(duì)AI研究的報(bào)道方式,也可能引起恐慌。譬如2017年6月,“臉書”(Facebook)的AI研究人員稱有兩個(gè)聊天機(jī)器人開始在對(duì)話中使用代碼字。而部分新聞報(bào)道甚至描繪成,研究人員為免事態(tài)失控,匆忙終止實(shí)驗(yàn)。
此外,著名公眾人物的警告也有可能放大恐懼。譬如“鋼鐵俠”埃隆·馬斯克曾說(shuō)過(guò),AI或很快便會(huì)強(qiáng)大到能統(tǒng)治世界的地步。
其實(shí),如火如荼AI研究也曾有過(guò)寒冬。大約在20世紀(jì)70年代末,經(jīng)歷了經(jīng)費(fèi)不斷縮減的一段時(shí)光。
但1997年,IBM的“深藍(lán)”打敗了國(guó)際象棋世界冠軍,展示了強(qiáng)大的計(jì)算力,其純粹的暴力破解法震驚人類,也徹底扭轉(zhuǎn)了AI研發(fā)的形勢(shì)。這種暴力破解法后來(lái)就被用于機(jī)器學(xué)習(xí),在看似具有無(wú)數(shù)種招式的游戲中輕松獲勝。
現(xiàn)在,AI不斷擊敗人類的消息,可能會(huì)給人這樣一種印象:計(jì)算機(jī)在認(rèn)知能力方面已堪比人類。但實(shí)際上,兩者之間仍存在一條鴻溝。機(jī)器學(xué)習(xí)和自然語(yǔ)言專家格雷格·霍蘭德告訴人們,人腦可以解決AI前所未見的問(wèn)題,而機(jī)器學(xué)習(xí),只是針對(duì)特定問(wèn)題而設(shè)計(jì)的。
恐懼對(duì)技術(shù)的影響
說(shuō)回到汽車制造業(yè),人工智能的快速進(jìn)步加上傳感系統(tǒng)的革新,為行業(yè)帶來(lái)了劇變,在無(wú)人駕駛汽車的提倡者看來(lái),這一技術(shù)可以將人們從高峰期駕駛的壓力中解放出來(lái),也能減少交通事故發(fā)生。
不過(guò),行業(yè)的自信與公眾的謹(jǐn)慎形成了鮮明反差——技術(shù)人員認(rèn)為無(wú)人駕駛已經(jīng)做好上路準(zhǔn)備了,但是,公眾還沒做好乘坐的準(zhǔn)備。2018年4月,蓋普洛公司的一項(xiàng)民意調(diào)查顯示,只有9%的美國(guó)成年人愿意在政府監(jiān)管機(jī)構(gòu)判定無(wú)人駕駛汽車的安全性后,才使用無(wú)人駕駛汽車;而38%的人表示會(huì)在無(wú)人駕駛汽車推出后,先觀察一陣子再說(shuō);另有52%的人表示絕對(duì)不會(huì)想要使用無(wú)人駕駛汽車。
公眾對(duì)無(wú)人駕駛的抵觸情緒,更多出于安全考慮。盡管按數(shù)據(jù)統(tǒng)計(jì),人為錯(cuò)誤才是大多數(shù)致命交通事故發(fā)生的原因,但機(jī)器人仍然不被信任。
2016年,特斯拉自動(dòng)駕駛發(fā)生事故。調(diào)查發(fā)現(xiàn)駕駛員曾忽視了汽車反復(fù)發(fā)出的“手持方向盤”提醒,然而公眾仍然惶恐不已;此外,優(yōu)步測(cè)試的一輛無(wú)人駕駛車夜間撞上了一名行人,據(jù)稱當(dāng)時(shí)車載AI沒有及時(shí)提醒車上的安全員。
部分制造商正在努力改變這一恐懼。通用的無(wú)人駕駛汽車未來(lái)將僅在路況清晰、方便汽車導(dǎo)航的限定城市區(qū)域內(nèi)行駛,而在人口密集的城市里,汽車行駛速度只是在寬敞公路上的一半。還有一些計(jì)劃提議,在氣候條件不佳、AI系統(tǒng)的安全導(dǎo)航能力受阻的情況下,無(wú)人駕駛汽車將限制上路。
無(wú)論如何,最大的考驗(yàn)仍然是公眾對(duì)于乘坐由AI參與駕駛的汽車出行的意愿。隨著技術(shù)成熟和規(guī)則完善,研發(fā)人員將很快能看到,公眾愿不愿意給AI這個(gè)機(jī)會(huì)。(張夢(mèng)然)
標(biāo)簽:
Copyright @ 2008-2020 m.g888726.cn 華夏財(cái)富網(wǎng) 版權(quán)所有 聯(lián)系郵箱:3960 29142@qq.com