阿米爾·侯賽因是IBM“沃森”認(rèn)知計算平臺顧問,也是一位發(fā)明家、計算機(jī)科學(xué)家和企業(yè)家。侯賽因和比爾·蓋茨、馬斯克等名人的觀點不同,他認(rèn)為人工智能不是一種威脅,而是人類進(jìn)步的又一個階梯,只有人工智能才能保護(hù)人類不受人工智能的傷害。
侯賽因認(rèn)為,人們對人工智能的擔(dān)心主要基于三點。
首先,人們害怕控制不了人工智能,擔(dān)心會像一些好萊塢大片演的那樣,人工智能將出現(xiàn)意識,取代人類控制世界?!笆聦嵣?,我們現(xiàn)在的技術(shù)遠(yuǎn)沒有達(dá)到那樣先進(jìn)的地步,人們的恐懼來源于并不存在的技術(shù),更多的是對想象的恐懼,而不是現(xiàn)實?!?/span>
其次,人們會擔(dān)心人工智能有了意識之后,會有自己的目標(biāo),在實現(xiàn)目標(biāo)的過程中不管人類的遭遇,最終成了毀滅人類的惡魔。但侯賽因說,這也只是人類的推測,人們覺得人工智能會出現(xiàn)像本·拉登、希特勒這樣的惡魔,這是用人類思維來推測人工智能,而人工智能并不是按人類的方式思考的。
最后,侯賽因認(rèn)為,毀滅人類的技術(shù)其實已經(jīng)存在了,比如核技術(shù),但人類仍然在用核技術(shù)為社會發(fā)展提供便利。所以,人工智能也一樣可以被我們所用。目前為止,人工智能真正帶來的危險不是毀滅人類,而是對就業(yè)的影響,以及在軍事方面的應(yīng)用。
此外,侯賽因說,當(dāng)人工智能應(yīng)用越來越廣泛時,當(dāng)人工智能涉及到昂貴設(shè)備的運行、生與死的問題、城市的力量和整個物質(zhì)系統(tǒng)等重大問題時,我們要做的是增加算法運行的解釋,要說明如何運行以及為什么。比如,一家公用設(shè)施公司花巨資購買了一個渦輪機(jī),當(dāng)自動監(jiān)測系統(tǒng)發(fā)現(xiàn)異常時,會給出停止運行渦輪機(jī)的指令,但公司不會武斷地停止這么昂貴的機(jī)器,公司需要知道為什么會出現(xiàn)異常以及停止的理由。再比如人工智能在軍事上的應(yīng)用,當(dāng)自動化武器瞄準(zhǔn)某個物體時,需要說明為什么這個物體是攻擊目標(biāo)。