在撰寫令人信服的新聞報道方面,人工智能的能力正在變得越來越強了,這讓它的創(chuàng)造者開始懷疑自己是否應該發(fā)布這種技術。
據報道,伊隆·馬斯克的OpenAI已經開發(fā)了一種有趣的算法,只需一些只言片語作為起點,它就能生成任意主題的假新聞,并且讀起來相當令人信服。
實際上,這項算法最初只是被設計成一種通用的語言AI,可以回答問題,總結故事和翻譯文本。但研究人員很快意識到,它還可以被用在更加陰險的目的上,比如大量輸出虛假信息。
因此,根據MIT Technology Review的報道,該團隊只計劃向公眾提供這種人工智能的“簡化版本”。
所幸的是,這項技術目前還存在一些不完善的地方。它經常會寫出抄襲、或者只是在表面上看有凝聚力的故事,成功率并不高。但OpenAI項目研究者Jack Clark警告說,開發(fā)出一個有能力穩(wěn)定輸出假新聞的系統(tǒng)可能只需“一到兩年”。而等到那時,想要反駁這些新聞的真實性將需要徹底的事實調查。
這就是核心問題所在。雖然OpenAI會恪守道德準則,不會故意進行假新聞的生成和傳播,但其他組織是否同樣會守規(guī)矩就很難說了。
而另一個更大的擔憂是,一個不道德的(或不知情的)公司或敵對政府可能會開發(fā)一個強大的人工智能來進行大規(guī)模的假新聞傳播。社交網絡在打擊假新聞方面取得了一些成績,但如果有機器大量產生錯誤信息,他們可能會無力招架。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )