機器人的智能,足夠當好你的心理醫生嗎?

當機器人越來越具有人類的智能 , 你永遠不會知道 , 坐在你對面的是你的同類 , 或是一個按照程序運行卻無所不知的機器人 。
1. 讓機器人心理咨詢師為你做心理輔導
有這樣一檔心理咨詢談話類節目 , 曾經非常熱播 。 咨詢者和咨詢師有時相隔大半個地球 , 彼此之間通過遠程通信工具交流 。 他們的對話會被全程直播 , 只有一些涉及個人隱私的關鍵詞會被軟件自動屏蔽 。 咨詢者和咨詢師都是自愿報名參加這個節目——咨詢者可以獲得一筆酬勞 , 以支付昂貴的咨詢費 , 咨詢師則可借此提高名望 。 盡管這種節目形式受到很多人的質疑 , 但收視率卻一直居高不下 。

機器人的智能,足夠當好你的心理醫生嗎?



節目最引發爭議的地方在于 , 每次正式開始之前 , 節目組都會安排一個極富儀式感的環節:屏幕上出現一紅一藍兩顆藥丸 , 咨詢者必須從中挑一顆——這一幕當然是在向電影《黑客帝國》中的經典橋段致敬 。 這兩顆藥丸 , 分別代表兩位備選的咨詢師 , 其中一位是有行醫執照的專業心理醫師 , 另一位則由智能聊天軟件來扮演 。
無論是咨詢者本人還是觀眾 , 都不知道另一頭坐著的究竟是人還是機器 。

每期節目的長度為一小時 。 在播出過程中 , 觀眾可以隨時為咨詢師投下贊成或反對的一票 。 這些投票將使咨詢師的人氣隨之變化 , 人氣過低的咨詢師會被淘汰 , 再也無緣參加這個節目 。

然而 , 沒有人知道被淘汰的究竟是人還是機器 。 每一位咨詢師都有完整的個人資料 , 出生日期、家庭環境、教育背景、工作經歷 , 看起來毫無破綻 。 每期節目播出之后 , 網上都會冒出一大堆爆料的帖子 , 抓住咨詢師的某些疑點爭得不可開交 。 如果某位網友自稱是咨詢師的大學同學 , 并且曬出畢業合影和聚會照片 , 下一秒就會有人跳出來 , 指出照片中存在某些造假痕跡 。 最終是真是假 , 永遠撲朔迷離 。

2. 人工智能機器人是否真的智能?
機器人的智能,足夠當好你的心理醫生嗎?



1950年 , 數學家艾倫·圖靈在一篇論文《計算機器與智能》中 , 提出了一種基于模仿原則的檢驗標準 , 來判斷機器是否有可能具有像人一樣的智能:
假想有一間密閉的小黑屋 , 里面坐著一個正常思維的人(a)和一臺機器(b) , 房間外面還有第三個人(c) , 可以不斷向房間里面的人提問 , 并通過打印在紙條上的文字來讀取“他們”的回答 。 如果在若干輪詢問之后 , c不能根據回答來分辨a與b的不同 , 那么我們似乎應該承認 , 兩者之間其實沒有什么本質上的不同 。

“圖靈測試”的關鍵之處在于 , 究竟如何定義“思維/心智/意識/靈魂” , 其實是一個很難說清楚的問題 。 因此圖靈從一開始就繞開了“機器能思考嗎”這樣的問題 , 而把它替換成另外一個更具操作性的問題:“機器能做我們這些思考者所做的事嗎?”

然而 , 這兩個問題真的可以相互替代嗎?

譬如說 , 機器能夠寫詩 , 甚至比許多資質平庸的人寫出的詩更像樣子 。 如果我們人為擬定出一套標準 , 來為機器和人寫的詩打分 , 那么完全有可能設計出一臺能夠贏過絕大多數詩人的作詩機器 。 但這和人類理解并欣賞一首詩真的是一回事嗎?

3. 機器人挑戰理解人類語言有多難
在2013年的一次國際會議上 , 來自多倫多大學的計算機科學家赫科特·勒維克發表了一篇論文 , 對“圖靈測試”提出了批評 。 他認為類似這樣的人機博弈其實并不能真正反映AI的智能水平 。 對于人工智能來說 , 真正構成挑戰的是這樣的問題:

猜你喜歡