據(jù)俄衛(wèi)星新聞中文信息專線,著名天體物理學(xué)家史蒂芬·霍金日前在接受美國記者拉里·金的專訪時表示,人工智能一旦脫離控制,將極難被阻止。
霍金稱,自己不認(rèn)為發(fā)展人工智能“一定能讓人類朝好的方向發(fā)展”,“當(dāng)機(jī)器發(fā)展到能自己演化的重要階段之時,它們的目標(biāo)與人類愿望之間的相符程度就很難預(yù)料了。”他強(qiáng)調(diào),人工智能應(yīng)該在符合倫理道德和安全措施要求的情況下開發(fā),因為脫離人類控制之下的機(jī)器將很難被阻止。
霍金指出,人工智能可以比人類的智慧發(fā)展得更快。“有益的人工智能可以與人類共存,并擴(kuò)大人類的可能性...想象一下那些可以對科學(xué)家想法迅速作出評價、更早地查出癌癥、并預(yù)測證券市場走勢的人工智能!它們將影響到我們的經(jīng)濟(jì),影響到我們的決策,并在整體上影響我們的生活。”
霍金被譽(yù)為是繼阿爾伯特·愛因斯坦之后最杰出的理論物理學(xué)家。他提出宇宙大爆炸的理論,在統(tǒng)一20世紀(jì)物理學(xué)的兩大基礎(chǔ)理論——愛因斯坦的相對論和普朗克的量子論方面走出了重要一步。遺憾的是,他21歲就患上肌肉萎縮性側(cè)索硬化癥(盧伽雷病),全身癱瘓,不能言語,唯一能動的地方只有一雙眼睛和3根手指。
6月29日電 據(jù)日媒報道,在4月舉行了日本眾院北海道5區(qū)補(bǔ)選、7月將迎來參院選舉的北海道,一名自衛(wèi)官的母親平和子...[詳細(xì)]