国产精品无码久久久久,成人国产一区二区三区精品,99热99re8国产在线播放,国产呦精品一区二区三区下载,秋霞免费理论片鲁丝在线观看,最近中文字幕大全免费全集3,国产一区免费在线观看,久久青草免费97线频观,999久久66久6只有精品

X

掃碼登錄

二維碼
  • 賬號(hào)登錄
登錄
登錄視為您已同意第三方賬號(hào)綁定協(xié)議、服務(wù)條款、隱私政策
X

掃碼注冊(cè)

二維碼
  • 賬號(hào)注冊(cè)
我以閱讀并同意 服務(wù)條款、 隱私政策
注冊(cè)
注冊(cè)視為您已同意第三方賬號(hào)綁定協(xié)議、服務(wù)條款、隱私政策

人工智能武器的倫理挑戰(zhàn);劍橋文科博士遭網(wǎng)暴風(fēng)波

2025年01月06日 16:06
行業(yè)資訊 瀏覽:172

2024年12月19日,美國(guó)國(guó)防部高級(jí)研究計(jì)劃局(DARPA)發(fā)布了一項(xiàng)與人工智能相關(guān)的新計(jì)劃——“具有軍事作戰(zhàn)價(jià)值的自主標(biāo)準(zhǔn)和理想”(The Autonomy Standards and Ideals with Military Operational Values,簡(jiǎn)稱ASIMOV) 項(xiàng)目。該項(xiàng)目的啟動(dòng)進(jìn)一步引發(fā)了對(duì)于人工智能、自主武器系統(tǒng)及其倫理評(píng)估問(wèn)題的關(guān)注。

在題為《DARPA探索評(píng)估自主武器倫理的方法》的官方新聞中,DARPA表示:ASIMOV計(jì)劃旨在為未來(lái)的自主系統(tǒng)制定基準(zhǔn),客觀和定量地衡量未來(lái)自主用例的倫理難度,以及自主系統(tǒng)在軍事作戰(zhàn)的價(jià)值背景下執(zhí)行這些用例的準(zhǔn)備情況。DARPA還聲稱,該項(xiàng)目不制造武器,不直接開(kāi)發(fā)自主系統(tǒng)或用于自主系統(tǒng)的算法,也不為所有自主系統(tǒng)制定標(biāo)準(zhǔn)(其重點(diǎn)是自主武器系統(tǒng)),并且其不專注于制定定性基準(zhǔn)。ASIMOV的目標(biāo)是創(chuàng)建一種“倫理自主通用語(yǔ)言”(the ethical autonomy common language),以使開(kāi)發(fā)測(cè)試/操作測(cè)試(DT/OT)社區(qū)能夠有效評(píng)估特定軍事場(chǎng)景的倫理復(fù)雜性,以及自主系統(tǒng)在這些場(chǎng)景中遵守人類道德規(guī)范的能力。ASIMOV的參與團(tuán)隊(duì)將開(kāi)發(fā)原型生成建模環(huán)境,以快速探索日益增加的倫理復(fù)雜性范圍內(nèi)的場(chǎng)景迭代與變量。研究人員將通過(guò)多種方式評(píng)估自主武器系統(tǒng)遵循人類道德規(guī)范的能力。如果成功,ASIMOV將為未來(lái)自主系統(tǒng)的基準(zhǔn)定義奠定基礎(chǔ)。

 

ASIMOV將“軍事作戰(zhàn)價(jià)值”定義為在作戰(zhàn)活動(dòng)中被認(rèn)為重要的原則、標(biāo)準(zhǔn)或品質(zhì),它們指導(dǎo)軍事人員的行動(dòng)和決策。遵循指揮官的意圖是ASIMOV開(kāi)發(fā)的關(guān)鍵方面之一。DARPA認(rèn)為,ASIMOV所追求的量化方法將對(duì)整個(gè)自主系統(tǒng)社區(qū)產(chǎn)生更為廣泛的影響。此外,該計(jì)劃還將包括一個(gè)倫理、法律和社會(huì)影響小組,為項(xiàng)目參與者提供建議,并在整個(gè)項(xiàng)目過(guò)程中提供指導(dǎo)。DARPA同時(shí)公布了該計(jì)劃的七個(gè)簽約合作方:CoVar, LLC; Kitware, Inc.; Lockheed Martin; RTX Technology Research Center; SAAB, Inc.; Systems & Technology Research, LLC以及新南威爾士大學(xué)。

根據(jù)PR Newswire網(wǎng)站2024年12月20日的報(bào)道,人工智能和機(jī)器學(xué)習(xí)解決方案開(kāi)發(fā)商、ASIMOV計(jì)劃的合作者之一CoVar公司將負(fù)責(zé)開(kāi)發(fā)一種名為“GEARS”(Gauging Ethical Autonomous Reliable Systems)的自主系統(tǒng)倫理測(cè)試基礎(chǔ)設(shè)施?!癎EARS”將通過(guò)適合于人類和機(jī)器理解的知識(shí)圖譜來(lái)表示倫理場(chǎng)景和指揮官的意圖,從而定義一種新的倫理數(shù)學(xué),并從中得出特定場(chǎng)景的可量化倫理挑戰(zhàn)評(píng)級(jí)。CoVar的首席技術(shù)官彼得·托里奧內(nèi)(Peter Torrione)博士表示:“如果這項(xiàng)工作取得成功,它將成為第一個(gè)適用于測(cè)試自主系統(tǒng)倫理標(biāo)準(zhǔn)的、基于 ELSI(ethical, legal and social implications)的定量評(píng)估框架。這將使美國(guó)國(guó)防部能夠部署具有AI/ML能力的自主系統(tǒng),不僅能清楚了解系統(tǒng)的技術(shù)能力,還能了解其行為的倫理標(biāo)準(zhǔn)。”

實(shí)際上,《軍事與航空航天電子》(Military & Aerospace Electronics)雜志在2024年11月22日的文章《COVAR探索人工智能和機(jī)器自主性在軍事應(yīng)用中的倫理使用》中就提到了這一合作。ASIMOV是一項(xiàng)為期24個(gè)月的兩階段計(jì)劃,美國(guó)空軍研究實(shí)驗(yàn)室代表DARPA在10月授予了CoVar這份價(jià)值800萬(wàn)美元的合同。ASIMOV計(jì)劃將以美國(guó)國(guó)防部2022年6月發(fā)布的《負(fù)責(zé)任的人工智能戰(zhàn)略與實(shí)施路徑》(Responsible AI Strategy and Implementation Pathway)為指導(dǎo)方針,制定負(fù)責(zé)任的軍事人工智能技術(shù)基準(zhǔn)。該文件列出了美國(guó)軍方“負(fù)責(zé)任的人工智能”的五項(xiàng)道德原則:負(fù)責(zé)任、公平、可追溯、可靠和可治理。

ASIMOV項(xiàng)目的名字來(lái)自于科幻作家艾薩克·阿西莫夫(Isaac Asimov)。他在1942年發(fā)表的小說(shuō)《轉(zhuǎn)圈圈》(Runaround)中提出了著名的“機(jī)器人三定律”:

1.機(jī)器人不得傷害人類,或因不作為而使人類受到傷害。

2.機(jī)器人必須服從人類的命令,除非這些命令與第一定律相沖突。

3.機(jī)器人必須保護(hù)自己的存在,只要這種保護(hù)不與第一定律或第二定律相沖突。這三條法則為機(jī)器人設(shè)定了基礎(chǔ)的倫理原則。

DARPA認(rèn)為,阿西莫夫深入探討了這些法則的局限性以及可能導(dǎo)致意圖失敗的極端案例,而這些情況通常以對(duì)人類的不利后果為結(jié)局?!鞍⑽髂蛟谄渥髌分蓄A(yù)測(cè)的挑戰(zhàn)和機(jī)遇至今仍具有深刻意義。隨著自主技術(shù)和人工智能在民用和軍用領(lǐng)域的迅速發(fā)展和普及,我們迫切需要一個(gè)強(qiáng)大且量化的框架,不僅用于評(píng)估這些系統(tǒng)的技術(shù)能力,更重要的是評(píng)估其遵守人類道德期望的能力?!?/p>

ASIMOV項(xiàng)目負(fù)責(zé)人克勞蘇蒂斯(T. J. Klausutis)博士表示,“倫理問(wèn)題本身就充滿挑戰(zhàn),而對(duì)倫理進(jìn)行量化更是難上加難。ASIMOV 正在解決一個(gè)極其復(fù)雜的問(wèn)題,其中包含無(wú)限的變量。”“我們不知道我們嘗試做的事情是否真的可行,但我們知道,評(píng)估自主武器系統(tǒng)是否符合人類的倫理規(guī)范是一場(chǎng)必須展開(kāi)的對(duì)話,而且越快越好。我們的目標(biāo)極具雄心——通過(guò) ASIMOV計(jì)劃,DARPA 希望引領(lǐng)關(guān)于自主武器系統(tǒng)倫理問(wèn)題的國(guó)際對(duì)話?!睋?jù)稱,在2024年的預(yù)算申請(qǐng)中,DARPA為ASIMOV計(jì)劃撥款500萬(wàn)美元,而2025年將撥款2200萬(wàn)美元。

1月2日,《新共和》雜志發(fā)表了題為《探秘向機(jī)器人教授戰(zhàn)爭(zhēng)法則的計(jì)劃》(Inside the Plan to Teach Robots the Laws of War)的評(píng)論文章,作者黎貝卡·麥卡錫(Rebecca McCarthy)圍繞ASIMOV計(jì)劃采訪了相關(guān)科學(xué)家、研究者和管理者,探討了人工智能武器倫理相關(guān)話題。

由ASIMOV計(jì)劃引發(fā)的一個(gè)擔(dān)憂是,在未來(lái),軍工企業(yè)和科技公司是否會(huì)決定他們自己的武器倫理?xiàng)l款?對(duì)此,國(guó)際機(jī)器人武器控制委員會(huì)聯(lián)合創(chuàng)始人和副主席、紐約新學(xué)院大學(xué)(The New School)媒體研究副教授彼得·阿薩羅(Peter Asaro)認(rèn)為,“無(wú)論如何他們都會(huì)這么做?!卑⑺_羅的研究重點(diǎn)關(guān)注人工智能和機(jī)器人技術(shù)的倫理問(wèn)題,包括軍用機(jī)器人和無(wú)人機(jī)的社會(huì)、法律與倫理面向。他曾從正義戰(zhàn)爭(zhēng)理論和人權(quán)視角撰寫(xiě)了關(guān)于致命機(jī)器人的論文,研究了無(wú)人機(jī)定點(diǎn)清除的人權(quán)問(wèn)題和自主致命機(jī)器人的軍備控制問(wèn)題。在他看來(lái),在“DARPA向雷神公司提供了巨額撥款,以研究人工智能武器的倫理問(wèn)題(RTX的前身即雷神公司,現(xiàn)為雷神公司的母公司)”和“雷神公司將制造人工智能武器”之間,似乎存在著某種顯而易見(jiàn)的聯(lián)系或一個(gè)不言自明的答案。

人工智能與自主武器的倫理挑戰(zhàn)在麥卡錫看來(lái)也是一個(gè)哲學(xué)問(wèn)題。在其中,我們使用的是誰(shuí)的道德標(biāo)準(zhǔn)?這些標(biāo)準(zhǔn)又是如何選擇的?這些問(wèn)題都至關(guān)重要又復(fù)雜難解。“畢竟,個(gè)人對(duì)道德行為的定義千差萬(wàn)別,而將道德標(biāo)準(zhǔn)付諸實(shí)踐的想法似乎有些荒謬。道德困境之所以是道德困境,正是因?yàn)樗鼈儚母旧蟻?lái)說(shuō)很痛苦,很難解決?!丙溈ㄥa認(rèn)為,很難想象一種不受束縛的人工智能能夠合乎道德——“你可以向一項(xiàng)甚至沒(méi)有懷疑能力的技術(shù)教授道德嗎?”RTX公司的科學(xué)家Peggy Wu對(duì)此則表現(xiàn)出更為樂(lè)觀的態(tài)度。他認(rèn)為,“這可以說(shuō)是實(shí)現(xiàn)自我反思或內(nèi)省的第一步?!纾绻到y(tǒng)可以意識(shí)到,‘嘿,我本來(lái)可以采取其他做法的’,那么它就可以開(kāi)始進(jìn)行下一步的推理——‘我是否應(yīng)該采取另一種做法呢?’……對(duì)我們來(lái)說(shuō),‘懷疑’的概念實(shí)際上更像是概率。這類問(wèn)題在計(jì)算上會(huì)迅速變得極其復(fù)雜?!?/p>

人工智能的道德“懷疑”所涉及的哲學(xué)問(wèn)題是復(fù)雜的。在Peggy Wu看來(lái),這個(gè)問(wèn)題似乎可以轉(zhuǎn)化為概率與計(jì)算。而在阿薩羅看來(lái),人類道德的運(yùn)作機(jī)制與人工智能的計(jì)算和量化存在著根本的不同。他指出,“你可以利用人工智能反復(fù)迭代,重復(fù)練習(xí)某件事數(shù)十億次。但道德并不是這樣運(yùn)作的。它不是量化的……你的道德品質(zhì)是在一生中培養(yǎng)的,通過(guò)偶爾做出錯(cuò)誤的決定,從中吸取教訓(xùn),而在未來(lái)做出更好的決定。這并不像下棋。”道德中的權(quán)衡涉及非常多的復(fù)雜因素,它并不等同于可以明確量化的“利弊計(jì)算”。麥卡錫也認(rèn)為,向人工智能教授道德是不可行的?!白稣_的事情往往是痛苦的——得不到回報(bào),費(fèi)力不討好,有時(shí)還要付出巨大的個(gè)人代價(jià)。你如何向一個(gè)與世界沒(méi)有實(shí)際利益關(guān)系、沒(méi)有什么可失去的、沒(méi)有罪惡感的系統(tǒng)傳授這樣的知識(shí)?而且,如果你真的能賦予武器系統(tǒng)以良知,它最終會(huì)不會(huì)不再服從命令?”

整體而言,受訪者們對(duì)AMOSIV計(jì)劃及其涉及的人工智能倫理評(píng)估表現(xiàn)出了樂(lè)觀與疑慮的兩種態(tài)度。不過(guò)大多數(shù)受訪者也表示,軍方正在考慮為自動(dòng)化戰(zhàn)爭(zhēng)工具制定道德準(zhǔn)則至少是一件令人鼓舞的事情。里士滿大學(xué)教授、DARPA訪問(wèn)學(xué)者黎貝卡·克魯托夫(Rebecca Crootof)說(shuō)道,“這并不是說(shuō),DARPA 認(rèn)為我們能用計(jì)算機(jī)來(lái)捕捉道德。(但是)更明確地表明我們能否做到這一點(diǎn),是很有意義的?!?/p>

麥卡錫提到,訪談中有許多人指出,人類一直在行不道德之事。持有這類觀點(diǎn)的人或許更傾向于支持人工智能進(jìn)行道德評(píng)估的未來(lái)愿景。一位ASIMOV計(jì)劃的申請(qǐng)人指出,“從理論上看,我們沒(méi)有理由不能編寫(xiě)出比人類更擅長(zhǎng)遵守《武器沖突法》的人工智能?!敝徊贿^(guò),當(dāng)面對(duì)真實(shí)世界的復(fù)雜圖景時(shí),人工智能是否能夠勝任依然存在著巨大的疑問(wèn)。麥卡錫強(qiáng)調(diào),“雖然這種理論上的可能性令人信服,但在戰(zhàn)爭(zhēng)的具體實(shí)踐中,這到底會(huì)是什么樣子卻是完全不清楚的。以現(xiàn)狀來(lái)看,人工智能在處理細(xì)微差別方面仍然存在巨大挑戰(zhàn)。即使它未來(lái)有所改進(jìn),將倫理決策交由機(jī)器做出仍然是一個(gè)令人深感不安的想法?!?/p>

對(duì)ASIMOV計(jì)劃的疑慮不僅針對(duì)人工智能是否能夠“學(xué)會(huì)”道德判斷與倫理評(píng)估的問(wèn)題,更關(guān)乎人類是否應(yīng)該讓人工智能進(jìn)行這種評(píng)判與決策的問(wèn)題。ASIMOV計(jì)劃的另一位申請(qǐng)者、喬治亞大學(xué)哲學(xué)教授杰里米·戴維斯(Jeremy Davis)說(shuō)道,“令人恐懼的是,士兵們會(huì)說(shuō):‘好吧,我殺了這個(gè)家伙,因?yàn)槭请娔X告訴我這么做的?!倍覀円呀?jīng)在許多科幻作品中看到了對(duì)于類似場(chǎng)景的想象,其中的殺戮者究竟是機(jī)器還是人,或者是機(jī)器與人的共謀,成為了沒(méi)有標(biāo)準(zhǔn)答案的道德難題。此外,問(wèn)題關(guān)乎是人類真的相信人工智能能夠做出更加“理性”或“更好”的選擇,還是人類其實(shí)是在將責(zé)任推卸給技術(shù)或某個(gè)抽象的系統(tǒng)?

《新共和》的文章中簡(jiǎn)要提及了DARPA的歷史起源和人工智能作為一門(mén)學(xué)科的前史,二者都發(fā)生于美蘇冷戰(zhàn)并展開(kāi)太空競(jìng)賽的1950年代。在歷史性的目光中,對(duì)ASIMOV計(jì)劃的關(guān)注必然勾連起人工智能技術(shù)與國(guó)際政治的關(guān)系。在DARPA的官網(wǎng)上,我們看到它對(duì)自身使命的描述是——“為國(guó)家安全創(chuàng)造技術(shù)驚喜”。日前,特朗普承諾將撤銷拜登政府旨在控制人工智能使用的多項(xiàng)法規(guī),且特朗普挑選的美國(guó)新任環(huán)境保護(hù)署負(fù)責(zé)人、共和黨前國(guó)會(huì)議員李·澤爾?。↙ee Zeldin)也表示,他的首要任務(wù)之一是“讓美國(guó)成為人工智能的全球領(lǐng)導(dǎo)者”,“幫助釋放美國(guó)能源主導(dǎo)地位,讓美國(guó)成為世界AI之都”。在麥卡錫看來(lái),相關(guān)去監(jiān)管化的跡象說(shuō)明了,“顯而易見(jiàn)的是,在特朗普的領(lǐng)導(dǎo)下,人工智能將不受束縛?!?/p>

去年8月,《華爾街日?qǐng)?bào)》刊登的文章,介紹了美國(guó)科技公司和創(chuàng)業(yè)者如何通過(guò)尖端技術(shù)為國(guó)防部門(mén)提供支持,尤其是在潛在軍事競(jìng)爭(zhēng)中發(fā)揮作用。該文指出,人工智能技術(shù)被視為未來(lái)軍事戰(zhàn)略的核心,科技公司與國(guó)防部門(mén)的合作日益緊密,尤其是在研發(fā)和部署自主系統(tǒng)方面。自主無(wú)人系統(tǒng)、自動(dòng)化防御系統(tǒng)、人工智能決策支持等技術(shù)領(lǐng)域的競(jìng)爭(zhēng)被認(rèn)為是未來(lái)戰(zhàn)爭(zhēng)中的關(guān)鍵變量。此外,這篇文章也探討了與ASIMOV計(jì)劃的目標(biāo)類似的議題,即如何確保自主系統(tǒng)在復(fù)雜軍事環(huán)境中做出符合倫理的決策。因?yàn)橄嚓P(guān)智能技術(shù)的發(fā)展引發(fā)了倫理與政策方面的爭(zhēng)議,例如自主武器系統(tǒng)的合法性和潛在的濫用風(fēng)險(xiǎn)。為此,政府和科技公司之間的協(xié)作需要找到技術(shù)推進(jìn)與倫理責(zé)任之間的平衡。

“只有當(dāng)我們將整個(gè)系統(tǒng)削減到允許人類的選擇、人類的干預(yù)和人類的目標(biāo)完全不同于系統(tǒng)本身的目的時(shí),科學(xué)技術(shù)所帶來(lái)的真正優(yōu)勢(shì)才能得以保留?!边@句話源自美國(guó)社會(huì)學(xué)家、技術(shù)哲學(xué)家、城市規(guī)劃學(xué)者劉易斯·芒福德(Lewis Mumford)1964年在《技術(shù)與文化》雜志上發(fā)表的《集權(quán)技術(shù)與民主技術(shù)》(Authoritarian and Democratic Technics)一文的結(jié)尾。在這篇文章中,芒福德區(qū)分了“集權(quán)技術(shù)”和“民主技術(shù)”這兩種主要的技術(shù)發(fā)展模式,并提出了現(xiàn)代技術(shù)過(guò)于偏向集權(quán)模式因而可能會(huì)威脅民主價(jià)值觀和人類自由的警告。在1967年和1970年出版的兩卷本《機(jī)器的神話》(The Myth of the Machine)中,他繼續(xù)批判性地探討了以“巨機(jī)器”(megamachine)為本質(zhì)的現(xiàn)代技術(shù)的反有機(jī)本性,并主張一種“心靈優(yōu)先論”(the primacy of mind)——不是技術(shù)決定心靈,而是心靈決定技術(shù)。

毫無(wú)疑問(wèn),芒福德對(duì)技術(shù)烏托邦主義的批判,對(duì)技術(shù)的非中立性或技術(shù)的建構(gòu)主義視角的強(qiáng)調(diào),對(duì)技術(shù)的集中化和去中心化關(guān)系的辨析,對(duì)技術(shù)治理的思考,等等,為當(dāng)代技術(shù)哲學(xué)的發(fā)展提供了深刻的思想遺產(chǎn)。六十年后,面對(duì)更為新興的人工智能技術(shù)與自主武器,我們似乎已經(jīng)處于某種不得不更加緊迫地考慮這些問(wèn)題的境地,特別是對(duì)于技術(shù)與倫理的關(guān)系疑難展開(kāi)辯論。

如芒福德所言,“我們必須問(wèn)的問(wèn)題,不是什么對(duì)科學(xué)和技術(shù)有利,更不是什么對(duì)通用汽車公司、聯(lián)合碳化物公司、IBM或五角大樓有利,而是什么對(duì)人類有利。這里所指的不是被機(jī)器控制、被系統(tǒng)規(guī)訓(xùn)的大眾人(mass-man),而是作為個(gè)體的活生生的人,他能夠自由地穿越生活的每一個(gè)領(lǐng)域?!?/p>

從博士論文到人身攻擊:仇恨與反智時(shí)代的文科學(xué)術(shù)窘境

2024年11月28日,如同每一個(gè)開(kāi)設(shè)社交媒體賬號(hào)的青年學(xué)者一樣,劍橋大學(xué)英語(yǔ)文學(xué)專業(yè)的艾莉·盧克斯(Ally Louks)在通過(guò)博士論文答辯之后,非常激動(dòng)地在個(gè)人X(推特)賬號(hào)上發(fā)布了這則喜訊,同時(shí)也發(fā)出了她和博士論文的自拍合影。不過(guò)這份名為《嗅覺(jué)倫理:現(xiàn)當(dāng)代散文中的嗅覺(jué)政治》(Olfactory Ethics: The Politics of Smell in Modern and Contemporary Prose)的論文卻在接下來(lái)的一整個(gè)月里讓盧克斯陷入了荒唐的境地中:在她的帖文轉(zhuǎn)發(fā)和評(píng)論區(qū)里,大量質(zhì)疑其論文“價(jià)值”的言論出現(xiàn)。如果說(shuō)稍顯合理的質(zhì)疑還屬于正常的學(xué)術(shù)交流,且這也是戴上“劍橋文學(xué)博士”這一冠冕所必然要應(yīng)對(duì)的挑戰(zhàn)的話,那么大量針對(duì)盧克斯的性別、將其與“覺(jué)醒”(woke)政治作聯(lián)結(jié)并堂而皇之裁定文科學(xué)術(shù)生產(chǎn)的都是垃圾的言論,則讓盧克斯這則報(bào)喜帖文淪為了當(dāng)下互聯(lián)網(wǎng)仇恨政治和反智言論的大秀場(chǎng)。

在一張帶有論文標(biāo)題的自拍點(diǎn)燃輿論之后,為了更好地說(shuō)明其論文所關(guān)注的內(nèi)容,盧克斯還曬出了論文的摘要,從中我們也可以更清楚地了解這篇論文的主旨以及論點(diǎn)。盧克斯的摘要提到,其論文“目標(biāo)是通過(guò)揭示氣味在創(chuàng)造和顛覆性別、階級(jí)、性、種族及物種權(quán)力結(jié)構(gòu)中應(yīng)用的潛在邏輯,提供一種交叉性且廣泛的嗅覺(jué)壓迫研究?!睂?duì)此,論文“主要聚焦于現(xiàn)代和當(dāng)代時(shí)期的散文小說(shuō),以追溯嗅覺(jué)偏見(jiàn)的歷史傳承,并定位其當(dāng)代相關(guān)性?!憋@然,即便是翻譯成中文,這些表述也未免過(guò)于專業(yè)化,帶有強(qiáng)烈的“學(xué)術(shù)黑話”(jargon)氣息,這無(wú)疑也是諸多針對(duì)盧克斯的攻訐的緣由所在。

面對(duì)惡評(píng),盧克斯的態(tài)度始終堅(jiān)定,她澄清這篇博士論文的摘要是面向她所在的領(lǐng)域內(nèi)的專家學(xué)者所寫(xiě)的,而并非面向外行讀者,她本人也不會(huì)選擇用這種方式向一般讀者表達(dá)她所做的研究?jī)?nèi)容。但這樣的表態(tài)和補(bǔ)充說(shuō)明顯然也未能完全堵上質(zhì)疑者的嘴巴——后者的攻擊邏輯也非常清楚,一是認(rèn)為盧克斯流露出象牙塔精英的傲慢:憑什么盧克斯可以如此輕巧地將學(xué)術(shù)界和“一般人”區(qū)隔開(kāi)?難道她是在看不起所謂的一般人嗎?此外,也有批判者抨擊這種只能學(xué)科內(nèi)自?shī)实难芯坑钟泻未嬖诘谋匾??一位生物技術(shù)學(xué)家在批評(píng)盧克斯的時(shí)候更聳動(dòng)地表示:“學(xué)術(shù)界已死?!倍瘛督?jīng)濟(jì)學(xué)人》這樣的大媒體也在一則題為《學(xué)術(shù)寫(xiě)作變得越來(lái)越難讀——尤其是人文學(xué)科》的評(píng)論文章中指出,盧克斯所附上的摘要內(nèi)容正是讓這場(chǎng)輿論圍剿升級(jí)的導(dǎo)火索。

當(dāng)然,社交媒體并非一個(gè)讓學(xué)界中人理性討論的地方,盧克斯所面對(duì)的也遠(yuǎn)遠(yuǎn)不止上述負(fù)面評(píng)論,而是大量情緒性的宣泄和攻擊,這些言論也帶有明顯的極端保守和厭女特征。一個(gè)刺激到這些攻擊者的要素,或許是盧克斯研究中所提到的“嗅覺(jué)壓迫”,以及其所對(duì)應(yīng)的性別、階級(jí)和種族等議題。一方面,在當(dāng)下的西方人文學(xué)科領(lǐng)域,要做出一份足以讓人欣喜若狂地公開(kāi)宣布自己獲得博士學(xué)位的論文,勢(shì)必也要在當(dāng)下西方的文化政治語(yǔ)境甚至思想政治上做“到位”。如此看來(lái),盧克斯在她的研究中所力圖把握的性別、種族和階級(jí)議題,未免也是當(dāng)下學(xué)術(shù)政治大氣候的體現(xiàn)。但另一方面,這種研究取向在社交媒體上被架在火上烤,一個(gè)緣由就是它“太想進(jìn)步了”——“反覺(jué)醒”(anti-woke)的極端保守主義者們顯然不會(huì)輕易放過(guò)盧克斯和她的研究,何況這個(gè)題目還有著相當(dāng)多可以一并打包被抨擊的要素:學(xué)術(shù)黑話、題目?jī)r(jià)值遠(yuǎn)離大眾等等。

很快,針對(duì)盧克斯博士論文的負(fù)面評(píng)論,逐漸從質(zhì)疑走向抨擊,再走向充滿厭女氣息的人身攻擊。根據(jù)英國(guó)廣播公司BBC的報(bào)道,盡管盧克斯也承認(rèn)大多數(shù)針對(duì)她研究的評(píng)論都“非常友好”,但在她的帖子“被幾個(gè)極右翼賬戶轉(zhuǎn)發(fā)”后,負(fù)面關(guān)注也由此產(chǎn)生。盧克斯在接受采訪的時(shí)候表示:“我收到了很多強(qiáng)奸威脅,甚至死亡威脅,也有很多人把他們對(duì)女人應(yīng)該是什么樣子或應(yīng)該做什么的看法強(qiáng)加給我,而這些看法完全與(論文的)主題無(wú)關(guān)?!倍鴦蚩ぞ礁菍?duì)外證實(shí),他們已開(kāi)始對(duì)針對(duì)盧克斯的“仇恨事件”進(jìn)行調(diào)查。警方發(fā)言人表示,他們收到了一起仇恨事件的報(bào)告,包括一封威脅性郵件,于格林威治標(biāo)準(zhǔn)時(shí)間2024年12月1日22點(diǎn)47分發(fā)送給一名女性,也就是盧克斯。對(duì)于盧克斯在輿論上遭到的不公和騷擾,劍橋大學(xué)官方也在社交媒體上發(fā)表聲明聲援盧克斯,并寫(xiě)道:“當(dāng)網(wǎng)絡(luò)噴子攻擊艾莉的博士論文主題、她的教育背景、她的成就以及她的性別時(shí),這些關(guān)注就已然是騷擾和厭女的體現(xiàn)?!?/p>

按照某種流量思維,盧克斯在獲得博士學(xué)位之后這一個(gè)多月以來(lái)可以說(shuō)是一炮而紅,當(dāng)然她本人也并不拒斥這種狀態(tài),一方面如她所說(shuō),的確有不少人對(duì)她的成果表達(dá)了善意,也有學(xué)界同好或者象牙塔外的讀者對(duì)她的研究題目感興趣,并且去信表示想閱讀一下這篇論文;另一方面,如同前文提到的,盧克斯本人也有著頗為強(qiáng)大的內(nèi)心狀態(tài),她應(yīng)對(duì)這些惡評(píng)的態(tài)度或許有著學(xué)界精英固有的傲慢,但卻也不失體面和勇氣。就其論文所遭遇的詰難,盧克斯也不反感與媒體接觸,甚至先后在兩家媒體上發(fā)表文章,既試圖用更加平白的語(yǔ)言解釋自己的研究何為,同時(shí)也頗為坦誠(chéng)地說(shuō)明了學(xué)術(shù)寫(xiě)作必然面對(duì)的公眾化的壁壘。在盧克斯眼中,她也是足夠幸運(yùn)的,能夠有這樣的機(jī)會(huì)面對(duì)公眾,盡管在我們旁觀者看來(lái),這種“運(yùn)氣”未免來(lái)得過(guò)于滑稽。

在她其中一則回應(yīng)中,盧克斯自嘲是“一個(gè)內(nèi)向的書(shū)呆子”,經(jīng)過(guò)了“在聚光燈下并不舒服的一周”,“但看到這么多人參與我的作品,我感到非常欣慰,我非常欣賞這么多評(píng)論者的幽默?!痹诹硪黄涛闹?,盧克斯則更細(xì)致地指出了自己被負(fù)面輿論攻擊的其中一個(gè)原因:一些評(píng)論有意識(shí)地略去了她研究的復(fù)雜性,而將其邏輯簡(jiǎn)化并誤導(dǎo)為“氣味是種族主義的象征”——事實(shí)上,即便這篇論文不可避免地用大量學(xué)術(shù)語(yǔ)言乃至黑話包裝,以便其能夠通過(guò)當(dāng)下世界最頂尖大學(xué)的博士論文審查和答辯,但依然提出了很重要的觀點(diǎn),其中就包括盧克斯所說(shuō)的:“有充分證據(jù)表明,氣味曾被用來(lái)為種族主義、階級(jí)歧視和性別歧視的表達(dá)辯護(hù),自20世紀(jì)80年代以來(lái),研究人員一直在評(píng)估與氣味相關(guān)的觀念和刻板印象的道德影響。”

眼下這則互聯(lián)網(wǎng)鬧劇漸漸落幕,盧克斯如今的煩惱則是有太多人向圖書(shū)館申請(qǐng)閱讀她的論文。但這起事件更像是當(dāng)下互聯(lián)網(wǎng)生態(tài)下各種病態(tài)現(xiàn)象的大亂燉,從文科無(wú)用論的闡發(fā)、象牙塔內(nèi)外的壁壘與矛盾、學(xué)術(shù)界政治正確和反覺(jué)醒的互相揪斗,再到埋藏在“理客中”之下的厭女情結(jié),每一味“食材”仿佛都是從自我封閉的土壤中生長(zhǎng)出來(lái),并用傲慢的水澆灌。本應(yīng)由科學(xué)和人文學(xué)科所共享并賦予的理性、開(kāi)放與批判思維,卻不見(jiàn)了蹤影。

暫無(wú)評(píng)論
頭像
0/1000
匿名