
【烽巢網】
也許在我們的有生之年,一個接近人類水平的機器智能AI將不再只是科幻小說的素材。隨著科技的發展,人工智能研究已經由過去簡單的算法走向了今天的系統化。
或許有一天,我們可能會造出擁有人工神經網絡的機器,以各種有意義的方式模仿我們的大腦。當這種情況發生時,確保它們不像我們這樣容易被攻擊是很重要的。
盡管現代人工智能可能看起來相當聰明了,但事實是,今天還沒有一個機器人能在沒有外界幫助的情況下走進廚房,為你做好早餐,甚至只是為你倒一杯水。
這是因為人工智能不會思考。它沒有一個像我們大腦一樣“思維結構”,它只是在被要求時將輸入轉換為輸出。但一些人工智能研究人員認為,除了深度學習,還有其他方法可以讓我們實現更“自然”的人工智能形式,就是開發模仿我們大腦的人工神經網絡。
但是這也這就引出了一個問題:一個人類級別的機器智能能被催眠師催眠嗎?
每個人都會擔心有一天終結者會破門而入,我們對我們信任的機器似乎忽視了人類恐懼的弱點。
催眠術是一個經常被爭論的領域,一個人可以通過調用一個字,或一句話進入一個意識的改變狀態。當然,這并不是對任何人都適用。如果科學界愿意考慮一項關于催眠術的單獨研究是否受用于大眾,那么我們可能也應該擔心它會對我們的機器人產生怎樣的影響。
想象一下,一個被催眠的智能AI變得口齒不清,這可能是個有趣的游戲。但當你想象一名恐怖分子利用紅綠燈模式入侵數百萬輛無人駕駛汽車時,就非常可怕了。
可以說,機器偏見是人工技術領域最大的問題。我們向機器輸入大量人類生成或人類標記的數據,它們無法避免會帶有我們的偏見。這就是為什么GPT-3天生就對穆斯林有偏見,或者為什么當麻省理工學院在Reddit上訓練一個機器人時,它最后變成了一個精神病患者。
我們在人工智能系統中越接近模仿人類學習和思考的方式,就越有可能受到這種影響。同時無處不在的黑客可以繞過安全保護墻向人工智能發送指令信號。能聽的人工智能可以通過音頻來操縱,能看的人工智能可以被騙去看我們想要它看的東西。
因此從理論上講,近人類思維的人工智能是能夠像我們一樣被催眠。
請登錄以參與評論
現在登錄