【摘要】生成式人工智能是建立在人機交互的基礎(chǔ)上,其在實踐上的準(zhǔn)確度、易用性等優(yōu)勢離不開與人類順暢高效的交互。因此,用戶作為內(nèi)容生成的參與者需要具備一定的媒介素養(yǎng),包括責(zé)任意識、專業(yè)知識、批判精神和表達能力等。積極主動提升用戶的媒介素養(yǎng),不僅有助于生產(chǎn)出高品質(zhì)的內(nèi)容產(chǎn)品,而且可以防范出現(xiàn)“智能鴻溝”現(xiàn)象。
【關(guān)鍵詞】生成式人工智能 用戶 媒介素養(yǎng)
【中圖分類號】G206 【文獻標(biāo)識碼】A
當(dāng)前,內(nèi)容生產(chǎn)模式在經(jīng)歷了專業(yè)生成內(nèi)容、用戶生成內(nèi)容和專業(yè)用戶共同生成內(nèi)容之后,開始進入人工智能生成內(nèi)容的階段,即通過生成式人工智能(AIGC)輔助或自動生成內(nèi)容。生成式人工智能是基于人工智能技術(shù),通過大模型訓(xùn)練和大數(shù)據(jù)學(xué)習(xí),可以按照用戶的指令,生產(chǎn)出具有一定意義的內(nèi)容產(chǎn)品。生成式人工智能不僅構(gòu)建了內(nèi)容生產(chǎn)的新范式,而且使社會信息結(jié)構(gòu)發(fā)生較大變化,也將對我們的生產(chǎn)生活方式產(chǎn)生深遠影響。
生成式人工智能促使更多用戶參與內(nèi)容生產(chǎn)
為消弭“能力溝”提供技術(shù)可供性。在大眾傳播時代,用戶在經(jīng)濟資源、文化水平和認(rèn)知理念等方面存在差異,使得資訊可供性出現(xiàn)不平等不均衡,導(dǎo)致受眾之間出現(xiàn)“知識溝”“信息溝”等現(xiàn)象。互聯(lián)網(wǎng)的普及,在信息、知識等的可供性上賦予了普通用戶更多的機會,事實上,一些人就抓住機遇,實現(xiàn)創(chuàng)業(yè)拓展,而一些人則沉湎于網(wǎng)劇、游戲等娛樂性消遣,引發(fā)“能力溝”問題。雖然社交媒體的快速發(fā)展在觀點的表達、信息的生產(chǎn)上賦予人們更大權(quán)力,但能否快速、大量地生產(chǎn)出優(yōu)質(zhì)內(nèi)容產(chǎn)品,成為區(qū)分普通用戶與專業(yè)傳媒機構(gòu)的重要標(biāo)準(zhǔn)。如果不能提升內(nèi)容產(chǎn)品的質(zhì)量,就很難改變普通用戶依然是內(nèi)容接收端的現(xiàn)實,用戶生成內(nèi)容也只能是用戶社交行為的衍生物。生成式人工智能的面世,有助于普通用戶通過AI技術(shù)彌補自身在內(nèi)容生產(chǎn)中的不足,包括對專業(yè)知識、語言、編程等的掌握和應(yīng)用。生成式人工智能賦予普通用戶與專業(yè)的內(nèi)容生產(chǎn)者幾乎相同的技術(shù)可供性,能夠大幅度提升普通用戶在使用社會資源、生成各類文本及解決實際問題等方面的能力。
推進內(nèi)容生產(chǎn)的“平民化”。多數(shù)人在日常工作和生活中,都是消費他人內(nèi)容產(chǎn)品的旁觀者,尤其是在大型網(wǎng)絡(luò)社區(qū)和社交網(wǎng)絡(luò)中,通常是少數(shù)人生產(chǎn)大多數(shù)內(nèi)容,更多的潛水用戶只是觀看,并不貢獻任何內(nèi)容,這一現(xiàn)象有時被叫作參與不均。①內(nèi)容生產(chǎn)是一項復(fù)雜的系統(tǒng)工程,需要具備一定的條件。僅就生產(chǎn)者而言,自身的家庭背景、經(jīng)濟水平、受教育程度,以及一定的技術(shù)素養(yǎng)等,都關(guān)涉到內(nèi)容的創(chuàng)作與生產(chǎn)。對處于分散狀態(tài)、紛繁復(fù)雜的信息資源,無論是采集整合素材、生成文本還是生成視頻,生成式人工智能都有助于減少內(nèi)容生產(chǎn)所要耗費的時間、物力和人力,并為普通用戶搭建智能化的信息場景,賦予用戶更多便利。生成式人工智能,為人們發(fā)揮想象力進行各種創(chuàng)作大開方便之門,使得內(nèi)容生產(chǎn)成為體現(xiàn)個人能力、興趣和品位,乃至自身價值的一種途徑和方式??梢哉f,生成式人工智能,不僅為人們提供展示一技之長的機會,更是一種技術(shù)賦權(quán)。生成式人工智能在改變傳統(tǒng)內(nèi)容生產(chǎn)主體結(jié)構(gòu)的基礎(chǔ)上,推動內(nèi)容生產(chǎn)與創(chuàng)作的社會化和平民化。人們以自己的方式“創(chuàng)造”日常生活,也“創(chuàng)造”對規(guī)訓(xùn)進行抵制的戰(zhàn)略與戰(zhàn)術(shù),人們通過重新組織、解釋編碼的方式對文化產(chǎn)品進行二次生產(chǎn)。②
“按需生產(chǎn)”的實現(xiàn)促進用戶角色轉(zhuǎn)變。用戶在使用生成式人工智能時,需要輸入反映個性化需求的“提示詞”。AI工具根據(jù)用戶的指令進行內(nèi)容的量身定制,不僅降低內(nèi)容生產(chǎn)的成本,而且使用戶更易于找到感興趣的內(nèi)容,按需生產(chǎn)得以實現(xiàn),技術(shù)進步成為個性化需求的重要驅(qū)動力。生成式人工智能賦予普通用戶自由表達、自由創(chuàng)作以及通過內(nèi)容獲利的機會,激發(fā)人們的內(nèi)容生產(chǎn)積極性,促進了慣常的內(nèi)容消費者向內(nèi)容生產(chǎn)者的轉(zhuǎn)變,推動著他們從單一的“消費者”轉(zhuǎn)向復(fù)合的“產(chǎn)消者”,這些“產(chǎn)消者”越來越能夠按照自己的利益、意愿、觀念、能力和方式等,開發(fā)自己所能夠掌控的各類信息資源。在智能化生產(chǎn)體系和算法推薦技術(shù)的雙重助力下,普通用戶在內(nèi)容產(chǎn)業(yè)領(lǐng)域不僅提高了內(nèi)容生產(chǎn)的效率,實現(xiàn)了多模態(tài)的呈現(xiàn),而且一定程度上改變了原有的內(nèi)容生產(chǎn)鏈,并對內(nèi)容的流量和流向產(chǎn)生深遠影響。
普通用戶使用生成式人工智能面臨的常見問題
把關(guān)不到位,影響對信息真實性判別。機器學(xué)習(xí)技術(shù)無法有效區(qū)分真實信息和虛構(gòu)信息,即便在圖像識別、自然語言處理等加持下所生產(chǎn)出來的圖文、音視頻等產(chǎn)品,也難免夾雜著非真實信息的風(fēng)險,尤其是在音視頻數(shù)據(jù)采集效率得到大幅提高的情況下,虛擬視聽技術(shù)被應(yīng)用于多種場景,更易于混淆影像創(chuàng)作與真實內(nèi)容的邊界。“天馬行空”“語出驚人”成為生成式人工智能在內(nèi)容創(chuàng)作時的顯著特點,尤其是生成一些看似專業(yè)但實際上并不存在的概念或事實,普通用戶僅憑個人能力很難辨識這些內(nèi)容產(chǎn)品中所含信息的真?zhèn)?。作為典型的、主觀故意的“深度偽造”,更會引發(fā)內(nèi)容失真、混淆視聽、強化偏見等現(xiàn)象,不僅進一步打破人們慣常的“眼見為實”的觀念,而且增加為辨識信息真?zhèn)嗡馁M的心智成本。
信息保護意識缺乏,易引發(fā)侵權(quán)和泄密問題。用戶在與AI進行交互時,如果所使用的內(nèi)容(已有明確著作權(quán)人的作品)未經(jīng)授權(quán)或允許,則可能侵犯著作權(quán)。個人數(shù)據(jù)可以直接體現(xiàn)個人在作出選擇時的偏好,有著較高的市場價值。在生成內(nèi)容中,隨意使用個人生物識別信息(如人臉照片、身份、健康等相關(guān)信息),就會存在侵犯公民個人隱私的風(fēng)險。當(dāng)用戶在使用個人形象生成AI圖片或AI視頻時,如使用Midjourney(由Midjourney研究實驗室開發(fā)的人工智能程序,可根據(jù)文本生成圖像),就需要將自己的個人攝像或攝影作品上傳至網(wǎng)站,然而生成過程中無法保證個人照片的隱私性。此外,用戶在與AI對話時,為了提高生成內(nèi)容的效率,編寫“提示詞”時不可避免的需要真實地表達自己的觀點和立場,甚至有時需要讓渡一定的平時不宜公開的個人信息,但人工智能則會將這些信息傳輸?shù)椒?wù)器上,使得用戶所輸入的信息進入學(xué)習(xí)語料素材庫中,這就可能在反復(fù)交流對話中實現(xiàn)多次的傳輸。當(dāng)AI向他人輸出生成的內(nèi)容時,前期用戶的信息則可能會輸出給其他用戶,從數(shù)據(jù)層面造成個人信息甚至是秘密的泄露。
“提示詞”不精準(zhǔn),影響人機交互效果。在AI大模型中,“提示詞”是為機器生成回復(fù)指明方向、角度和范圍的詞匯或短語。普通用戶在編寫“提示詞”時,容易因為對“提示詞”的用法不了解,致使“需求”“問題”的含義不能有效表達,影響到AI工具對用戶的響應(yīng)質(zhì)量,導(dǎo)致人機對話不順暢。
從語言層面看,最常見的是用戶給出的“提示詞”過于籠統(tǒng)模糊或者多義,導(dǎo)致AI曲解或誤判,生成不符合用戶期望的空話、套話,內(nèi)容的同質(zhì)化嚴(yán)重;個別用戶輸入的“提示詞”中包含明顯的立場和傾向,這就導(dǎo)致生成的回復(fù)總是支持特定的觀點,缺乏呈現(xiàn)不同觀點或中立的態(tài)度,強化刻板印象或偏見,使得用戶和AI工具開發(fā)者可能會面臨法律風(fēng)險。有時候,用戶沒有提供足夠的、技術(shù)性的上下文,得到的回復(fù)則過于抽象、簡略,缺乏專業(yè)性見解,降低了啟發(fā)性、指導(dǎo)性??傊绻脩魶]有很好地掌握提問的“技巧”,將會花費較多的時間和精力,增加了工作量,容易挫傷用戶使用AI工具的積極性。
過度依賴機器,易產(chǎn)生“創(chuàng)作惰性”。當(dāng)下,AI大模型模仿人類生成自然語言是基于已有的大數(shù)據(jù),它并不能理解所生產(chǎn)的知識的價值與意義。而以人為主體的意義創(chuàng)造,是基于對人自身及其社會環(huán)境的思考,以及對人的需要的回應(yīng)。因此,人的意義創(chuàng)造,始終是機器無法達到的。③
生成式人工智能在內(nèi)容生成上所表現(xiàn)出的“強大”,可能會使人們認(rèn)為AI有“無限”的可能,過度依賴技術(shù)手段,這勢必會影響用戶主觀能動性的發(fā)揮,滋生“創(chuàng)作惰性”。眾所周知,要創(chuàng)作生產(chǎn)出思想性、藝術(shù)性、觀賞性有機統(tǒng)一的內(nèi)容產(chǎn)品,依靠的往往不是“靈機一動”,而是長時間的積淀、絞盡腦汁的深入思索、持續(xù)創(chuàng)新和反復(fù)修正。過度依賴AI技術(shù),就會降低內(nèi)容生產(chǎn)者主動思考、積極探索的興趣與動機,導(dǎo)致所生成的內(nèi)容趨于雷同和平庸。另外,盡管人們對內(nèi)容產(chǎn)品賦予極高的期待,但仍然對AI大模型能否生產(chǎn)出具有類似人類創(chuàng)新思維的創(chuàng)新型作品存在質(zhì)疑,而“創(chuàng)作惰性”的出現(xiàn)則會強化人們的這種質(zhì)疑。
生成式人工智能環(huán)境下的用戶媒介素養(yǎng)提升策略
增強把關(guān)能力,保證內(nèi)容真實準(zhǔn)確。生成式人工智能的用戶在使用AI工具生成內(nèi)容時,需要具備一定的把關(guān)意識和把關(guān)能力,只有對生成式人工智能的工作原理和可能的失誤有所了解,才能更好地評估其輸出內(nèi)容的質(zhì)量,更安全可靠地使用該技術(shù)。首先,可以采用多角度、多來源對比、交叉驗證的方法,將AI生成的內(nèi)容與多個可靠的外部來源,如來自政府部門、教研機構(gòu)或知名組織等的信息進行比較,也可以通過查閱權(quán)威網(wǎng)站、學(xué)術(shù)文章和官方出版物進行比對。其次,可以分析生成的內(nèi)容,邏輯是否正確、前后是否矛盾,以及是否合情理、籠統(tǒng)含糊等。真實的信息往往需要背景、細節(jié)和數(shù)據(jù)的支持,以及合理的解釋,注意生成內(nèi)容中的細微差異和細節(jié),這些可能是判斷內(nèi)容真實性的重要線索。最后,可以借助外部資源,如通過一些事實核查網(wǎng)站、驗證平臺來驗證AI生成的內(nèi)容,對于專業(yè)性較強的信息,可以訪問學(xué)術(shù)數(shù)據(jù)庫,查找相關(guān)學(xué)術(shù)論文,也可以直接向相關(guān)領(lǐng)域的專家咨詢,以獲取專業(yè)建議和科學(xué)依據(jù)。用戶還可以要求AI提供回復(fù)內(nèi)容的來源或參考資料,以便核查。
培養(yǎng)用戶的批判意識和質(zhì)疑精神。負責(zé)任的態(tài)度、質(zhì)疑精神和批判意識,是合理使用生成式人工智能的前提。當(dāng)感知到AI生成的內(nèi)容存在問題時,需要遵循真實、客觀原則,對其主動核查、審慎處理、積極反饋,不盲信盲從,幫助AI在迭代更新中不斷修正和完善。
新技術(shù)賦予公眾更多的參與內(nèi)容生產(chǎn)和傳播的權(quán)力,用戶需要善于質(zhì)疑和評估AI工具所提供的信息,這樣才能實現(xiàn)對內(nèi)容產(chǎn)業(yè)發(fā)展趨勢的把握。首先,用戶在面對AI生成的內(nèi)容時,需要以嚴(yán)謹(jǐn)求真的態(tài)度,獨立思考,堅持理性、無偏見的分析,要敢于質(zhì)疑作者或發(fā)布者的動機,進而評估內(nèi)容的可信度,客觀判斷內(nèi)容是否存在偏向性或誤導(dǎo)性,不輕信未經(jīng)驗證的信息。其次,當(dāng)發(fā)現(xiàn)AI的答復(fù)中存在含糊不清的事實或有疑問的觀點時,可以繼續(xù)提出探索性問題,追加指令,如“為什么”“你怎么知道的”“逐句分析疑點并標(biāo)注需要核實的地方”“有什么證據(jù)支持這一點”等。用戶也需要善于歸納總結(jié)AI工具會在何種情況下提供錯誤答案,錯誤答案是否具有某種共同特點,這也能極大節(jié)省用戶的精力和時間成本。④最后,用戶需要清楚AI工具的能力和局限性,包括AI不能做到的事情、AI大模型中的偏見是如何從訓(xùn)練數(shù)據(jù)中產(chǎn)生的,以及如何識別等,這有助于用戶設(shè)定自己的使用目標(biāo),不提出超越現(xiàn)實的期望。
強化信息安全意識。在使用AI工具生成內(nèi)容的過程中,用戶需要具備對他人及自身隱私和信息的安全保護意識。首先,用戶需要積極主動地學(xué)習(xí)AI工具所提供的安全使用說明,清楚了解如何操作才能識別潛在風(fēng)險,以及如何避免分享個人敏感信息、不應(yīng)詢問的問題類型,充分掌握有關(guān)信息安全和隱私保護方面的知識。其次,用戶需要遵守相關(guān)的數(shù)據(jù)保護法規(guī),掌握如何移除或隱藏個人標(biāo)識,注意所生成的內(nèi)容中是否有侵害他人隱私的可能。再次,用戶在選擇AI工具時,需要選擇那些允許用戶查看和刪除自身數(shù)據(jù)的工具,可以檢測出、過濾掉敏感信息,防止個人信息或重要數(shù)據(jù)被記錄或處理。最后,除了要求AI開發(fā)者及服務(wù)提供者制定必要的數(shù)據(jù)安全應(yīng)急預(yù)案外,在人機對話過程中,用戶需要時刻關(guān)注隱私通知和提醒,注意賬戶的密碼安全,保持警惕性,避免在不安全的環(huán)境下使用個人信息,準(zhǔn)確厘清一般信息和敏感信息的邊界,以免過度共享信息引發(fā)泄密。
掌握設(shè)計清晰明確“提示詞”的能力。“提示詞”是激發(fā)或引導(dǎo)人工智能深入思考的詞語,該詞語能夠抓住或體現(xiàn)所指的核心內(nèi)容或特質(zhì)。因此,為了提高所生成內(nèi)容的質(zhì)量,用戶需要培養(yǎng)能夠準(zhǔn)確描述自己需求的能力,或許在AI時代,提問能力將成為拉開個體之間差距的一個關(guān)鍵點。
為了正確使用提示詞并提高內(nèi)容生產(chǎn)的效率,首先,建議用戶由“下達指令”的操作思路轉(zhuǎn)變?yōu)?ldquo;表達需求”,并盡可能地提供“任務(wù)”的背景,表明用戶的知識狀態(tài)、身份、使用目的,幫助AI準(zhǔn)確明白用戶的意圖,有效挖掘生成式人工智能的潛能,提高生成內(nèi)容的針對性。其次,使用清晰列出要點的結(jié)構(gòu)化的“提示詞”。結(jié)構(gòu)化的“提示詞”,有助于AI準(zhǔn)確理解用戶的需求,指導(dǎo)AI生成有組織和連貫的內(nèi)容。再次,簡化復(fù)雜問題,可以將復(fù)雜問題分解為多個單一的小問題來提問,分段生成,逐層深入,有助于AI提供更全面的答案。最后,用戶可以在輸入“提示詞”之前設(shè)置參數(shù),如字?jǐn)?shù)、語氣和格式等。預(yù)設(shè)參數(shù)有助于AI從一開始就與用戶的需求保持一致。另外,“角色提示技術(shù)”也是可供選擇的有效方法,即通過為大模型提供特定角色,引導(dǎo)AI輸出的一種方法。這種技術(shù)對于生成針對特定環(huán)境或受眾的文本頗為有效。⑤在追尋人類語言與機器語言對話一致性和目標(biāo)達成的過程中,個體用戶的認(rèn)知壁壘將會不斷被打破,認(rèn)知邊界得到拓展,內(nèi)容生產(chǎn)者身份也將進一步從“資源搜索匠”向“提示工程師”轉(zhuǎn)型。⑥
重視提高英文學(xué)習(xí)能力。調(diào)查顯示,以英文作為互聯(lián)網(wǎng)常用語言的網(wǎng)站占比最高。網(wǎng)絡(luò)技術(shù)調(diào)查網(wǎng)站W(wǎng)3techs統(tǒng)計,超過一半(51.2%)的網(wǎng)站使用英語作為內(nèi)容語言。⑦截至2024年6月4日,在維基百科上檢索“互聯(lián)網(wǎng)上使用的語言”發(fā)現(xiàn),萬維網(wǎng)上訪問量最大的網(wǎng)站中,英文主頁略超一半。⑧在學(xué)術(shù)界,很多論文系統(tǒng)收錄的論文也是以英文為主,使得英文知識庫覆蓋眾多領(lǐng)域,它們?yōu)榇竽P偷挠?xùn)練提供常用的數(shù)據(jù)資源。當(dāng)前研發(fā)的AI工具大多數(shù)是支持英文的GPT模型,借助于龐大、高質(zhì)量英文數(shù)據(jù)的訓(xùn)練,使英文版AI工具在性能和應(yīng)用范圍等方面更勝一籌。有時為了獲得理想的應(yīng)答,用戶不得不先把問題翻譯為英文后,再輸入提示框中。隨著生成式人工智能的普及,英文信息的生成在質(zhì)量、數(shù)量和類別等方面將會有更快速的增長,這也會反哺GPT模型在英文應(yīng)答上的質(zhì)量,形成良性循環(huán)。
正確認(rèn)識生成式人工智能中的算法和數(shù)據(jù)。生成式人工智能的生產(chǎn)效率取決于AI大模型的底層算法和用于訓(xùn)練的海量數(shù)據(jù)。算法是其核心,決定其性能和應(yīng)用效果,而數(shù)據(jù)則是基礎(chǔ)資源。用戶在使用AI工具時,需要理解其基本原理、算法、數(shù)據(jù)等概念,以及算法、數(shù)據(jù)引發(fā)的歧視、偏見等問題,對算法和數(shù)據(jù)的應(yīng)用和優(yōu)化要有一定的正確認(rèn)知。生成式人工智能的每一次迭代更新,就是在不斷地探索和優(yōu)化算法、提升內(nèi)容生成的精度。算法工程師的主觀性、價值觀以及機器算法的透明度問題,都會對算法的公平公正產(chǎn)生影響,因此,用戶需要辯證地看待算法偏見、算法歧視等風(fēng)險。此外,用戶還需要清楚,人工智能生成內(nèi)容首要的、決定性的起點是數(shù)據(jù),背后邏輯是機器可以從數(shù)據(jù)和模式中學(xué)習(xí),從而創(chuàng)建模仿人類行為和創(chuàng)造力的新內(nèi)容。⑨在這一過程中,數(shù)據(jù)的采集方式、處理方法等可能受到各種因素的影響,需要承認(rèn)數(shù)據(jù)本身并不是客觀的,AI所使用的數(shù)據(jù)集是人類選擇的結(jié)果,是從現(xiàn)實中抽象出來的。數(shù)據(jù)集不完整或質(zhì)量差,就會導(dǎo)致偏見的出現(xiàn)。從萬維網(wǎng)上獲取文本數(shù)據(jù),機器學(xué)習(xí)也會產(chǎn)生數(shù)據(jù)偏見,因為這些語言數(shù)據(jù)反映人類日常文化,其本身就含有偏見。⑩用戶在使用AI生成內(nèi)容前,需要確保所依據(jù)的數(shù)據(jù)是權(quán)威部門的最新數(shù)據(jù),通過對比不同的數(shù)據(jù)來源,以便對生成的內(nèi)容作出準(zhǔn)確判斷,此外,還需要關(guān)注所用的AI工具是否可以連入互聯(lián)網(wǎng),因為社會上的萬事萬物在不斷發(fā)展,人們的思想觀點也在不斷變化,實現(xiàn)同步跟進,做實時的數(shù)據(jù)抓取和對比分析,關(guān)系到內(nèi)容產(chǎn)品的質(zhì)量,有助于避免生成誤導(dǎo)性信息。
【注:本文系人大“雙一流”建設(shè)馬克思主義新聞觀創(chuàng)新項目(項目編號:MXG202301)的階段性成果】
【注釋】
①[美]大衛(wèi)·克羅托、[美]威廉·霍因斯著,黃典林、劉晨宇譯:《媒介·社會:技術(shù)、產(chǎn)業(yè)、內(nèi)容與用戶》(第六版),北京:北京大學(xué)出版社,2024年,第368頁。
②吳飛:《“空間實踐”與詩意的抵抗——解讀米歇爾·德塞圖的日常生活實踐理論》,《社會學(xué)研究》,2009年第2期,第190頁。
③彭蘭:《智能與涌現(xiàn):智能傳播時代的新媒介、新關(guān)系、新生存》,北京:電子工業(yè)出版社,2023年,第106頁。
④厲曉婷、王傳領(lǐng):《人工智能時代用戶媒介素養(yǎng)的養(yǎng)成:機遇、挑戰(zhàn)及應(yīng)對策略》,《中國編輯》,2023年第10期,第74—78頁。
⑤漆亞林、李文冰主編:《智能媒體發(fā)展報告(2023)》,北京:中國社會科學(xué)出版社,2023年,第109頁。
⑥喻國明、楊雅等:《生成式AI與新質(zhì)生產(chǎn)力內(nèi)容:從理論解讀到實際應(yīng)用》,北京:人民郵電出版社,2024年,第148頁。
⑦Felix Richter,《The Most Spoken Languages: On the Internet and in Real Life》,https://www.statista.com/chart/26884/languages-on-the-internet/.
⑧WIKIPEDIA,《Languages used on the Internet》, https://en.wikipedia.org/wiki/Languages_used_on_the_Internet.
⑨陳昌鳳、張夢:《由數(shù)據(jù)決定?AIGC的價值觀和倫理問題》,《新聞與寫作》,2023年第4期,第15—23頁。
⑩[奧]馬克·考科爾伯格著,周薇薇、陳海霞譯:《人工智能倫理學(xué)》,上海:上海交通大學(xué)出版社,2023年,第92頁。
責(zé)編/謝帥 美編/楊玲玲
聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復(fù)本微信號獲得授權(quán),轉(zhuǎn)載時務(wù)必標(biāo)明來源及作者,否則追究法律責(zé)任。
