作者:John deVadoss,CryptoSlate;編譯:鄧通,
2024 年 1 月的達(dá)沃斯論壇主題是人工智能。
人工智能正在被兜售; 主權(quán)國家正在宣傳他們的人工智能基礎(chǔ)設(shè)施; 政府間組織正在審議人工智能的監(jiān)管影響; 企業(yè)高管大肆宣揚(yáng)人工智能的前景; 政治巨頭們正在爭(zhēng)論人工智能的國家安全內(nèi)涵; 幾乎你在主大道上遇到的每個(gè)人都對(duì)人工智能滔滔不絕。
然而,內(nèi)心卻隱藏著一絲猶豫:這是真的嗎? 以下是您應(yīng)該了解的關(guān)于人工智能的 10 件事——好的、壞的和丑陋的——整理自我上個(gè)月在達(dá)沃斯的一些演講。
準(zhǔn)確的術(shù)語是“生成式”人工智能。 何為“生成”? 雖然之前的人工智能創(chuàng)新浪潮都是基于從數(shù)據(jù)集中學(xué)習(xí)模式并能夠在對(duì)新輸入數(shù)據(jù)進(jìn)行分類時(shí)識(shí)別這些模式,但這一波創(chuàng)新是基于大型模型(又名“模式集合”)的學(xué)習(xí),并能夠使用這些模型創(chuàng)造性地生成文本、視頻、音頻和其他內(nèi)容。
不,生成式人工智能并不是幻覺。 當(dāng)之前訓(xùn)練過的大型模型被要求創(chuàng)建內(nèi)容時(shí),它們并不總是包含完全完整的模式來指導(dǎo)生成; 在那些學(xué)習(xí)模式僅部分形成的情況下,模型別無選擇,只能“填空”,從而導(dǎo)致我們觀察到的所謂幻覺。
正如你們中的一些人可能已經(jīng)觀察到的,生成的輸出不一定是可重復(fù)的。 為什么? 因?yàn)閺牟糠謱W(xué)習(xí)的模式中生成新內(nèi)容涉及一定的隨機(jī)性,本質(zhì)上是一種隨機(jī)活動(dòng),這是一種奇特的說法,即生成式人工智能輸出不是確定性的。
內(nèi)容的非確定性生成實(shí)際上為生成式人工智能應(yīng)用的核心價(jià)值主張奠定了基礎(chǔ)。 使用的最佳點(diǎn)在于涉及創(chuàng)造力的用例; 如果不需要或不需要?jiǎng)?chuàng)造力,那么該場(chǎng)景很可能不適合生成式人工智能。 以此作為試金石。
微小的創(chuàng)造力提供了非常高的精確度; 在軟件開發(fā)領(lǐng)域使用生成式人工智能來生成供開發(fā)人員使用的代碼就是一個(gè)很好的例子。 大規(guī)模的創(chuàng)造力迫使生成式人工智能模型填補(bǔ)非常大的空白; 這就是為什么當(dāng)你要求它寫一篇研究論文時(shí)你往往會(huì)看到錯(cuò)誤的引用。
一般來說,生成式人工智能的比喻是德爾福的甲骨文。 神諭的表述含糊不清; 同樣,生成式人工智能的輸出也不一定是可驗(yàn)證的。 詢問有關(guān)生成式人工智能的問題; 不要將事務(wù)性操作委托給生成式人工智能。 事實(shí)上,這個(gè)比喻遠(yuǎn)遠(yuǎn)超出了生成式人工智能,延伸到了所有人工智能。
矛盾的是,生成式人工智能模型可以在科學(xué)和工程領(lǐng)域發(fā)揮非常重要的作用,盡管這些通常與藝術(shù)創(chuàng)造力無關(guān)。 這里的關(guān)鍵是將生成式人工智能模型與一個(gè)或多個(gè)用于過濾模型輸出的外部驗(yàn)證器配對(duì),并讓模型使用這些經(jīng)過驗(yàn)證的輸出作為后續(xù)創(chuàng)造力周期的新提示輸入,直到組合系統(tǒng)產(chǎn)生期望的結(jié)果。
生成式人工智能在工作場(chǎng)所的廣泛使用將導(dǎo)致現(xiàn)代的大鴻溝; 那些使用生成式人工智能以指數(shù)方式提高創(chuàng)造力和產(chǎn)出的人,以及那些將思維過程放棄給生成式人工智能并逐漸被邊緣化并不可避免地休假的人。
所謂的公共模型大多是有污點(diǎn)的。 任何在公共互聯(lián)網(wǎng)上接受過訓(xùn)練的模型都經(jīng)過了網(wǎng)絡(luò)末端內(nèi)容的訓(xùn)練,包括暗網(wǎng)等。 這具有嚴(yán)重的影響:一是模型可能接受過非法內(nèi)容的訓(xùn)練,二是模型可能被特洛伊木馬內(nèi)容滲透。
生成人工智能的護(hù)欄概念存在致命缺陷。 正如上一點(diǎn)所述,當(dāng)模型受到污染時(shí),幾乎總有辦法創(chuàng)造性地促使模型繞過所謂的護(hù)欄。 我們需要更好的方法; 更安全的方法; 一種導(dǎo)致公眾對(duì)生成人工智能的信任的方法。
當(dāng)我們目睹生成式人工智能的使用和濫用時(shí),我們必須向內(nèi)審視,并提醒自己人工智能是一種工具。