來源:本站日期:2018-2-5
用不太嚴格但容易理解的方式說,深度學習就是給現有數據(大量數據)打標簽,然后系統自己總結數據和結果(也就是所打的標簽)之間的關系,面對新數據時,就能依據自己總結的規律給出判斷。對圍棋來說,無論歷史棋局還是自我對弈,AlphaGo知道盤面,也...
用不太嚴格但容易理解的方式說,深度學習就是給現有數據(大量數據)打標簽,然后系統自己總結數據和結果(也就是所打的標簽)之間的關系,面對新數據時,就能依據自己總結的規律給出判斷。對圍棋來說,無論歷史棋局還是自我對弈,AlphaGo知道盤面,也知道結局(也是一種標簽),系統就會總結規律,面對新盤面時判斷贏棋的概率。但AI系統找到的是數據的哪些特征,與結果之間是怎樣的關系,連創造AI的工程師也不知道。
所以,現在的人工智能系統是個黑盒子。我們知道AI判斷的正確率高,但不知道為什么,不知道是怎么判斷的。
搜索算法中的AI也是如此。百度搜索工程師的說法很少見到,只是知道百度現在All In AI了。Google工程師明確表示過,他們對RankBrain到底是怎么工作的也不太清楚。在這種情況下,在算法中大量使用人工智能就比較麻煩了,一旦出現異常結果,不知道是什么原因,也無法debug。
前些天看到一篇紐約時報的文章“AI能學會解釋它自己嗎?”,非常有意思。一位心理學家Michal Kosinski把 20 萬社交網絡賬號(是個約會網站)的照片及個人信息(包括很多內容,如性向)輸入面部識別人工智能系統,發現人工智能在只看到照片的情況下判斷性向準確率很高。人工通過照片判斷一個人是否同性戀的準確率是60%,比扔硬幣高一點,但人工智能判斷男性是否同性戀準確率高達91%,判斷女性低一些,也有83%。
從照片里是看不到音色語調、體態、日常行為、人際關系之類幫助判斷的信息的。同性戀有純相貌方面的特征嗎/?靠相貌判斷不大靠譜。我以前認識一對男同,他們都是很man的那種,常年健身,待人彬彬有禮但絕沒有女氣,從外表是看不出來的。也可能是依靠某種服飾特點?表情?背景?人工智能從照片中到底看到了什么我們人類很可能忽略了的特征,或者人類根本看不到的特征,并達到91%的準確率呢?不得而知,反正只是知道AI看得挺準。