烽巢網(wǎng)5月31日新聞,無論是好是壞,谷歌助手都能做到這一點(diǎn)。從打開你的燈,設(shè)置提醒,到令人信服地模仿人類的語言模式,人工智能助手非常有能力,很可怕。然而,它最新的(非官方的)能力則更為險(xiǎn)惡。
? ? ? ? 藝術(shù)家亞歷山大·雷本(Alexander Reben)最近教助手開槍。幸運(yùn)的是,受害者是一個(gè)蘋果,而不是一個(gè)活人。這段時(shí)長30秒的視頻名為“谷歌shoot”,顯示Reben說“OK谷歌,激活槍”。僅僅過了一秒鐘,一個(gè)蜂鳴器響起,槍聲響起,助手回答說:“當(dāng)然,打開槍。”從表面上看,這段視頻并沒有給人留下深刻的印象——沒有任何視覺上的吸引。但是,即使是一點(diǎn)點(diǎn),這也很明顯,這個(gè)項(xiàng)目的目的就是要在人工智能的邊界上引發(fā)一場對話。
? ? ? ? 正如Reben告訴Engadget的,“圍繞這樣一個(gè)(n)設(shè)備的討論比它的物理存在更重要。”對于這個(gè)項(xiàng)目,他選擇使用谷歌助理,但表示它可能是亞馬遜Echo或其他一些輸入設(shè)備。與此同時(shí),被觸發(fā)的“可能是背部按摩椅或冰淇淋機(jī)”。
? ? ? ? 但雷本選擇用槍來武裝助手。考慮到谷歌在本月早些時(shí)候I/O和美國似乎永遠(yuǎn)不會(huì)停止的大規(guī)模槍擊事件中所引起的擔(dān)憂,他的決定是精明的。
? ? ? ? 在這個(gè)例子中,Reben告訴助手“激活槍支”。他仍然是這個(gè)行動(dòng)的負(fù)責(zé)人。但是,在一個(gè)機(jī)器學(xué)習(xí)引領(lǐng)人工智能的世界里,智能足以預(yù)見我們的需求,并滿足我們每天的舒適,不難想象,如果有一天,數(shù)字助理可以殺死那些讓我們心煩意亂的人,如果他們能獲得武器的話。那么誰應(yīng)該對死亡負(fù)責(zé)呢?
? ? ? ? 說我們應(yīng)該阻止人工智能進(jìn)入危險(xiǎn)設(shè)備,這很容易。但是我們已經(jīng)在我們的車?yán)铮谲婈?duì)里,在我們可能還沒想過的地方。我們可以要求公司確保他們的技術(shù)不會(huì)造成傷害,但我們根本不可能計(jì)劃所有可能發(fā)生的事情,所有可能的方式都可能讓人工智能失控。
? ? ? ? “我的部分信息包括技術(shù)的意外后果和考慮每個(gè)用例的無用性,”Reben說。谷歌可能從來沒有想象過助手被用來射擊武器。但為了實(shí)現(xiàn)這一目標(biāo),Reben只需要在他的工作室里做些事情。他使用了一個(gè)控制繼電器,通常會(huì)打開一盞燈,把它與一個(gè)谷歌的家庭揚(yáng)聲器連接起來,然后將一個(gè)自動(dòng)洗衣店的自動(dòng)開關(guān)連接起來,這樣就可以拉出一個(gè)繞著扳機(jī)的繩子。“安裝非常簡單,”Reben說。
? ? ? ? 他對具有人工智能能力的藝術(shù)作品并不陌生。Reben已經(jīng)創(chuàng)建了一些項(xiàng)目,展示了AI在“繪畫的樂趣”中聽到和看到的東西,以及在url中隱藏微小的藝術(shù)品。然而,這是一個(gè)更具有挑釁性的作品,它迫使觀眾想象如果邪惡的程序員制造了一個(gè)失控的人工智能,會(huì)發(fā)生什么。現(xiàn)在,我們比以往任何時(shí)候都更需要討論如何,以及如果我們能阻止一臺智能機(jī)器將我們?nèi)繗⑺馈?/p>
烽巢辣評:一方面我們越來越依賴智能科技,一方面我們又在擔(dān)心其失控。就好像《我,機(jī)器人》中的NS-5型高級機(jī)器人以及《生化危機(jī)》中的紅后。人與人的隔閡,思想的獨(dú)立,空間的禁閉,就算是我們?nèi)硕紵o法做到情孚意合,更何況是機(jī)器呢。既然賦予了“人”的定義,那么機(jī)器就不再是仿生科技。機(jī)器人三大定律的邏輯是非常完美的。但,我們?nèi)祟惒⒉煌昝馈?/p> ]]>