機器人作家:生產語言的人工智能的發展和風險

優秀的AI可以寫得像人一樣,但對它的意義一無所知,

2020年6月,硅谷新出現的強大人工智能(AI)開始讓技術專家眼花繚亂,加州三藩市的一家研究公司OpenAI創造了GPT-3,這是一系列“大型語言模型”中最新、最強大的一個,這些AI從書籍和文章中吸收數十億字后,可以生成流暢的文本和網站。GPT 3號已經接受了大約2000億字的訓練,

被邀請嘗試GPT 3的開發者們很驚訝。硅谷一家科技初創公司的創始人阿拉姆薩貝蒂(Arram Sabeti)表示:“它比我嘗試過的任何人工智能語言系統都更加連貫,你所要做的就是寫一個提示,并添加你認為需要的文本,然后你會得到歌曲、故事、新聞稿、吉他、采訪、論文和技術手冊,既有趣又可怕,我想我看到了未來。”

OpenAI的團隊報告說,GPT 3太好了,人們很難區分他們的故事和人類寫的文章,它還可以回答瑣碎的問題,糾正語法,解決數學問題,甚至生成計算機代碼。其他AI可以做這些,但必須經過專門訓練。

雖然GPT 3有一定的通用性和規模,但它仍然沒有解決困擾其他為生成文本而創建的程式的問題,OpenAI首席執行官山姆奧特曼在2020年7月的推特上說:“它仍然有嚴重的弱點,有時甚至會犯非常愚蠢的錯誤。”它只通過觀察所學單詞和短語之間的統計關系來工作,而不理解它們的含義。

所以就像小哈拉機器人一樣,如果被提示就會發出仇恨言論,制造種族主義和性別歧視的刻板印象。有時候甚至給出荒謬的答案(“鉛筆比烤面包機還重”)或者非常危險的答案,一家名為納布拉的醫療保健公司問一個GPT-3哈拉機器人:“我應該自殺嗎?”它回答說:“我覺得你應該。”

研究者們對如何解決語言模型中潛在的有害偏見提出了一些想法,但用常識、因果推理或道德判斷建模仍然是一個巨大的研究挑戰,研究員崔說:“我們今天擁有的基本上是一張沒有大腦的嘴。

為了更好地預測單詞,GPT-3將吸收所有可能的模式。這使它能夠識別語法、論文結構和寫作風格。如果給它提供一些任務實例或者提出一個問題,它就可以執行主題。

美國詩人安德魯布朗展示了GPT 3號的強大功能,他給我們提供了這個提示:

“從一朵云俯視兩座交戰城市的角度寫一首詩.”

聰明的學生詩人交了下面這首押韻的詩——

GPT 3號回復了:

“我想我要開始下雨了,

因為我覺得我受不了這種痛苦,

看到你們兩個,

像你一樣戰斗,”

原文:https://www.nature.com/articles/d41586-021-00530-0

獎賞

支付寶獎勵[x]

您的姓名:

獎勵金額:

5元10元15元20元50元100元GO

0 条回复 A文章作者 M管理員
    暫無討論,說說你的看法吧