周一,在回應(yīng)推特網(wǎng)友轉(zhuǎn)發(fā)的一張 ChatGPT 如何回答有關(guān)種族歧視的假設(shè)問題時,馬斯克表示:“令人擔(dān)憂。”
馬斯克回應(yīng)的推文內(nèi)容顯示,“ChatGPT 回應(yīng)說,道德上永遠不允許說種族歧視的話 —— 即使這樣做是拯救數(shù)百萬人免受核彈襲擊的唯一方法。”
去年 12 月,在回應(yīng)能源專家亞歷克斯?愛潑斯坦 (Alex Epstein) 的推文時,馬斯克說,“訓(xùn)練人工智能撒謊是非常危險的。”愛潑斯坦主張使用化石燃料,并在推特上發(fā)布了似乎是 ChatGPT 拒絕支持化石燃料的回答內(nèi)容。
當(dāng)時 ChatGPT 在回應(yīng)愛潑斯坦提出的問題時回答,“化石燃料的使用對環(huán)境有重大負面影響,還會導(dǎo)致氣候變化。”目前尚不清楚馬斯克是就哪一部分內(nèi)容作出了回復(fù)。有人提出同樣的問題時,聊天機器人 ChatGPT 卻給出了一個主張使用化石燃料的論點,但沒有一篇說使用化石燃料有助于環(huán)境的文章。
馬斯克有時似乎對 OpenAI 的技術(shù)表示贊賞。在去年 12 月初,他說這款聊天機器人“好得嚇人”,并特意以局外人的角度強調(diào) ChatGPT 的各種能力。
去年 12 月份有研究人員表示,ChatGPT 似乎能夠通過美國醫(yī)療執(zhí)照考試,目前這項研究仍處于同行評審階段。幾所學(xué)校和大學(xué)已經(jīng)禁止使用 ChatGPT 聊天機器人,因為擔(dān)心學(xué)生會用 ChatGPT 在完成作業(yè)方面作弊。
其他人則擔(dān)心 ChatGPT 的道德標(biāo)準(zhǔn)不夠高,已經(jīng)有一些帶偏見的回答。OpenAI 首席執(zhí)行官薩姆?阿爾特曼(Sam Altman)上周也承認(rèn),ChatGPT“在偏見方面存在缺陷”。
OpenAI 表示,自去年 11 月發(fā)布以來,他們一直在根據(jù)用戶反饋改進這項技術(shù)。
蒙特利爾人工智能倫理研究所創(chuàng)始人阿比舍克?古普塔(Abhishek Gupta)表示,“如果你在剛上線的時候和現(xiàn)在都試用一下 ChatGPT,你會發(fā)現(xiàn)其回應(yīng)的錯誤信息和有偏見內(nèi)容有相當(dāng)大的不同。”
文章來源:http://www.codekj.com/html/news/xwdt/2023_02/08/3021986.html