本文作者是斯坦福大學(xué)(Stanford University)網(wǎng)絡(luò)政策中心(Cyber policy Center)國(guó)際政策主任、歐盟委員會(huì)(European Commission)特別顧問(wèn)
幾乎每天都有關(guān)于如何監(jiān)管人工智能的新提議:研究機(jī)構(gòu)、安全部門(mén)、模仿國(guó)際原子能機(jī)構(gòu)(IAEA)打造“人工智能領(lǐng)域的IAEA”……這個(gè)名單還在不斷變長(zhǎng)。所有這些建議都反映出人們迫切希望做些什么,即使對(duì)于應(yīng)該“做些什么”并沒(méi)有達(dá)成共識(shí)。當(dāng)然,這個(gè)問(wèn)題關(guān)系到很多方面,從就業(yè)和歧視到國(guó)家安全和民主。但是,鑒于政治領(lǐng)導(dǎo)人對(duì)人工智能知之甚少,他們真的能制定出必要的政策嗎?
這并不是對(duì)政府人員知識(shí)空白的低級(jí)抨擊。就連技術(shù)專(zhuān)家也對(duì)大型語(yǔ)言模型(LLMs)的行為模式抱有嚴(yán)重疑問(wèn)。今年早些時(shí)候,紐約大學(xué)(NYU)教授薩姆?鮑曼(Sam Bowman)發(fā)表了《關(guān)于大型語(yǔ)言模型要知道的八件事》(Eight Things to Know about Large Language Models)一文,這篇令人瞠目結(jié)舌的文章揭示這些模型的行為往往難以預(yù)測(cè),專(zhuān)家們也沒(méi)有可靠的技術(shù)來(lái)指導(dǎo)它們。