令人印象深刻的新語言AI撰寫產品評論和新聞文章

2019-06-16 10:09

打印 放大 縮小

  我所見過的最酷的人工智能系統之一也可能會讓我失去工作。本周早些時候,我參加了OpenAI的研究團隊的一個演示,這個舊金山的非營利組織正在與科技公司合作,對人工智能的前沿進行令人印象深刻的新研究。他們向我展示的系統是一種語言學習模型,可以編寫新聞,解讀閱讀理解問題,并開始在翻譯等任務中表現出前景。

  在周四發布的一篇論文中,OpenAI團隊證明我們可以從“無人監督”的人工智能中獲得這些結果 - 這意味著系統從閱讀800萬篇互聯網文章中學習,而不是通過明確的任務培訓。他們的人工智能推動了最先進的技術 - 在某些情況下,通過很多方面。OpenAI團隊表示,他們的系統在所謂的Winograd架構上創造了性能記錄,這是一項艱難的閱讀理解任務; 在兒童書籍考試中達到近乎人性的表現,這是對閱讀理解的另一種檢查; 并且 - 最激動人心的 - 產生自己的文本,包括非常有說服力的新聞文章和亞馬遜評論。

  AI一次選擇一個單詞,然后考慮下一個應該是什么。添加句子需要幾秒鐘。 這絕不是完美的: 散文非常粗糙,偶爾也會有不成文,而且文章越長越不連貫。紐約大學自然語言處理和計算語言學專業的薩姆鮑曼在一封電子郵件中告訴我,“該模型最終似乎仍然偏離主題,輸出上限為幾百字。”

  而且要明確的是,雖然人工智能可以撰寫有時令人信服的新聞文章,但我不會對在報紙上看到它們感到驚訝,但它不能寫出真正的新聞文章; 報價和統計數據全部組成。

  在過去十年中,我們在自然語言處理方面取得了巨大進步。翻譯已經改進,變得高質量,你可以閱讀其他語言的新聞文章。谷歌去年夏天證明谷歌助理可以打電話和預約,同時聽起來就像一個人(雖然該公司承諾它不會在實踐中使用欺騙性的策略)。

  AI系統在自然語言處理之外也看到了同樣令人印象深刻 新技術 - 以及更強大的計算能力 - 使研究人員能夠發明逼真的圖像,擅長Go等雙人游戲,并與Starcraft和DOTA 等戰略視頻游戲中的專業人士競爭。

  但即使對于我們這些習慣于在這個領域取得快速進展的人來說,OpenAI的最新版本也令人印象深刻。

  到目前為止,試圖在語言任務上獲得世界紀錄結果的研究人員將“微調”他們的模型,以便在所討論的特定任務中表現良好 - 也就是說,AI將針對每項任務進行訓練。

  名為GPT-2的OpenAI系統不需要進行微調:它在我們用來判斷語言AI的許多核心任務中實現了創紀錄的性能,而沒有經過專門的訓練來處理這些任務他們。它也開始展示一些閱讀理解,總結和翻譯的才能,而沒有對這些任務進行明確的培訓。

  GPT-2是一種稱為“無監督學習”的方法的結果。這就是這意味著什么。當今工業中的主流方法是“監督學習”。在這里,您可以獲得包含所需輸入和所需輸出的大型,精心標記的數據集。你教AI如何根據輸入產生輸出。

  這可以獲得很好的結果,但它需要構建龐大的數據集并仔細標記每一位數據。值得注意的是,有 監督的學習并不是人類獲得技能和知識的方式。我們在沒有監督學習的仔細描述的例子的情況下推斷出這個世界。

  許多人認為,一般人工智能能力的進步將需要在無監督學習方面取得進展- 也就是說,人工智能只會暴露于大量數據并且必須自己弄清楚其他一切。無監督學習更容易擴展,因為非結構化數據比結構化數據更多,無監督學習可以更好地概括任務。

  OpenAI用于測試GPT-2功能的一項任務是機器學習中的著名測試,稱為Winograd模式測試。Winograd模式是一個語法模糊但對人類不模糊的句子 ??- 因為我們有上下文來解釋它。

  對于人類讀者來說,很明顯這意味著獎杯太大了,而不是手提箱太大,因為我們知道物體如何適應其他物體。但是,人工智能系統很難解決這些問題。

  OpenAI表示,在本文之前,能夠解決Winograd模式的最先進的AI在63.7%的時間內正確使用它們。(人類幾乎從來沒有弄錯過他們。)GPT-2在70.7%的時間內得到了正確的答案。這仍然遠遠低于人類水平的表現,但它比以前可能的表現更加驚人。

  GPT-2也設置了其他語言任務的記錄。LAMBADA是一項測試計算機使用故事中前面提到的上下文來完成一個句子的能力的任務。之前的最佳表現準確率為56.25%; GPT-2的準確率達到63.24%。(同樣,人類在95%以上的時間都能獲得這些權利,因此人工智能還沒有取代我們 - 但這是能力的大幅提升。)

  鮑曼指出,對文本生工智能系統的一種持懷疑態度的觀點是,“這樣的模型有時看起來只是重復他們訓練過的確切文本而看起來很好看。評論網”例如,如果你這么做就很容易得到連貫的段落。從其他來源抄襲整個段落。但這不是正在發生的事情:“這是以一種不能真正做到這一點的方式建立的。”因為它一次選擇一個單詞,所以不是抄襲。

  人工智能的另一個持懷疑態度的觀點是,它們并沒有反映出我們對計算機系統的理解的“深刻”進展,只是能夠使用更多數據和更多計算能力所帶來的淺薄改進。批評者認為,幾乎所有預測為人工智能發展的東西實際上只是從增加更多計算能力到現有方法的漸進過程。

  OpenAI的團隊對此表示質疑。GPT-2使用了一種新發明的神經網絡設計,稱為變形金剛,由Google Brain的研究人員在18個月前發明。性能的一些提升肯定得益于更多的數據和更強的計算能力,但它們也受到該領域最近強大創新的推動 - 正如我們所期望的那樣,人工智能作為一個領域正在各方面都有所改進。

  “這是更多的數據,更多的計算,更便宜的計算和架構改進 - 大約一年半前由Google的研究人員設計,”OpenAI研究員Jeffrey Wu告訴我。“我們只是想嘗試一切,看看實際結果在哪里。”

  OpenAI團隊正在做出不尋常的選擇,不公開發布他們的系統,讓每個人都能與之互動。這太糟糕了 - 從我這里拿走它,嘗試它是非常有趣的 - 但它們有很好的理由。

  OpenAI一直在努力弄清楚如何限制濫用AI的可能性,并且他們得出結論,在某些情況下,正確的解決方案限制了他們發布的內容。

  例如,通過這樣的工具,可以很容易地欺騙亞馬遜的評論并在人類需要的時間內抽出假新聞文章。稍微復雜一點的版本可能足以讓學生生成剽竊的論文,垃圾郵件發送者可以改進他們對目標的消息傳遞。

  OpenAI政策主管杰克克拉克告訴我,“我擔心會產生任意大量的垃圾意見內容,這是性別歧視和種族主義者。” 他還擔心“扮演虛假信息的人,更復雜的人”,并指出可能有其他濫用途徑,我們還沒有想到。所以他們讓這個工具保持離線狀態,至少現在是這樣,而每個人都可以權衡如何安全地使用這些AI。(有一個較小的版本可以公開試用。)

  當然,保持一些私有功能可能效果不大。“我相信,一個人單獨使用足夠的計算資源可以在一兩個月內重現這些結果(或者是擁有大量設備和時間的業余愛好者,或者更有可能是科技公司的研究人員),”Bowman寫道。我。“鑒于將模型公之于眾是標準做法,這一決定只是推遲了短時間內這類模型的發布。”并且保持私有能力存在缺陷 - 這使得公眾更難以獨立評估工作。正在完成。

  “我們希望以負責任的方式溝通我們所做的事情,使其他重要的利益相關者,如記者和政策制定者,能夠理解和驗證我們所做的事情,”Clark寫道。這是一種平衡,需要采取一些適當的練習,但他們認為這一發現 - 盡可能成為假新聞的危險工具 - 是開始調查如何打擊它的正確場所。

  雖然他們沒有在網上提供語言生成器本身,但是OpenAI的團隊讓我可以訪問它,所以我可以查看他們的結果并寫下這篇文章。

  “OpenAI發布了一種名為GPT-2的新語言模型,它超越了各種任務的最新技術水平,”我提示道。在接下來的15秒內,AI為我擴展了這一點。

  GPT-2并不完美 - 即使是最好的AI模型也是如此 - 但它每天都在不斷改進。隨著技術的進步,構建模型變得越復雜。AI研究人員繼續為圖像識別和機器視覺等任務創建模型。[...]

  人工智能正在以最快和最積極的方式改變我們的生活。人工智能將允許智能機器人和計算機與我們一起工作,甚至可以使我們能夠與其他智能代理一起工作,無論他們是人還是機器。

l來源:未知  作者:admin

本文由中國評論編輯

重庆幸运农场开奖官网