主要職責(zé)
中國科學(xué)院貫徹落實(shí)黨中央關(guān)于科技創(chuàng)新的方針政策和決策部署,在履行職責(zé)過程中堅(jiān)持黨中央對科技工作的集中統(tǒng)一領(lǐng)導(dǎo)。主要職責(zé)是:
一、開展使命導(dǎo)向的自然科學(xué)領(lǐng)域基礎(chǔ)研究,承擔(dān)國家重大基礎(chǔ)研究、應(yīng)用基礎(chǔ)研究、前沿交叉共性技術(shù)研究和引領(lǐng)性顛覆性技術(shù)研究任務(wù),打造原始創(chuàng)新策源地。 更多+
院況簡介
中國科學(xué)院是國家科學(xué)技術(shù)界最高學(xué)術(shù)機(jī)構(gòu)、國家科學(xué)技術(shù)思想庫,自然科學(xué)基礎(chǔ)研究與高技術(shù)綜合研究的國家戰(zhàn)略科技力量。
1949年,伴隨著新中國的誕生,中國科學(xué)院成立。建院70余年來,中國科學(xué)院時(shí)刻牢記使命,與科學(xué)共進(jìn),與祖國同行,以國家富強(qiáng)、人民幸福為己任,人才輩出,碩果累累,為我國科技進(jìn)步、經(jīng)濟(jì)社會發(fā)展和國家安全作出了不可替代的重要貢獻(xiàn)。 更多+
院領(lǐng)導(dǎo)集體
機(jī)構(gòu)設(shè)置
科技獎(jiǎng)勵(lì)
科技期刊
工作動態(tài)/ 更多
工作動態(tài)/ 更多
中國科學(xué)院學(xué)部
中國科學(xué)院院部
語音播報(bào)
人工智能(AI)在廣泛賦能科學(xué)研究的同時(shí),也催生了“AI洗稿”“數(shù)據(jù)裝飾”“代筆”等一系列新型科研誠信問題。如何應(yīng)對這些新挑戰(zhàn),已成為關(guān)乎科學(xué)事業(yè)健康發(fā)展的關(guān)鍵課題。
9月26日,中國科學(xué)院學(xué)部科技倫理研討會在北京舉行,主題為“人工智能時(shí)代的科研誠信”,旨在為應(yīng)對AI時(shí)代的科研誠信挑戰(zhàn)建言獻(xiàn)策,為完善我國科研誠信體系、推動AI的負(fù)責(zé)任應(yīng)用凝聚共識。
自ChatGPT等大型語言模型問世以來,人工智能已廣泛應(yīng)用于知識獲取、數(shù)據(jù)分析和學(xué)術(shù)寫作等領(lǐng)域,顯著提升了學(xué)習(xí)與研究效率。然而,AI的深度介入也使學(xué)術(shù)活動的主體構(gòu)成發(fā)生根本性變化。
以“算法參與”為特征的科研模式,導(dǎo)致了貢獻(xiàn)界定模糊、研究過程不透明、結(jié)果可解釋性下降等一系列新問題。更復(fù)雜的是,AI系統(tǒng)可能攜帶算法偏見,甚至生成虛假或誤導(dǎo)性內(nèi)容,這使研究結(jié)果的可靠性面臨嚴(yán)峻挑戰(zhàn)。
中國科學(xué)院學(xué)部科學(xué)道德建設(shè)委員會主任胡海巖院士在致辭時(shí)強(qiáng)調(diào),當(dāng)前AI檢測技術(shù)的發(fā)展明顯滯后于AI生成技術(shù),傳統(tǒng)查重與識別手段效力漸微,致使科研不端行為更具隱蔽性和復(fù)雜性。大量因AI隨機(jī)生成內(nèi)容和虛假引文導(dǎo)致的撤稿案例,已引發(fā)國際學(xué)術(shù)界的廣泛警惕。
“AI的應(yīng)用,至少從兩個(gè)方面加劇了傳統(tǒng)的科研不端行為。一是生成式AI速度快,大幅降低了造假成本;二是目前大語言模型生成內(nèi)容的結(jié)構(gòu)、格式、語法,都呈現(xiàn)出較高水準(zhǔn),檢測判斷的難度急劇增加。”中國科學(xué)院院士、北京大學(xué)教授梅宏分析道。
AI的應(yīng)用也帶來了不少新問題。“比如,AI的介入模糊了責(zé)任邊界。大模型生成的錯(cuò)誤或‘幻覺’內(nèi)容,應(yīng)被視為‘誠實(shí)的錯(cuò)誤’還是歸責(zé)于使用者?大模型能否作為作者或共同作者?”梅宏舉例說,“操縱AI審稿”等新伎倆已經(jīng)出現(xiàn),如在論文中隱藏“僅限正面評價(jià)”的指令,以欺騙AI評審系統(tǒng)。
尤為值得警惕的是,AI生成內(nèi)容可能污染人類知識體系。近期案例顯示,有自媒體賬號發(fā)布杜撰的“科技新聞”,虛構(gòu)頂尖大學(xué)的研究成果。這些由AI炮制、語言通順但事實(shí)錯(cuò)誤百出的文章被廣泛傳播,誤導(dǎo)公眾并侵蝕知識的可信基石。
對此,中國科學(xué)院院士、南京大學(xué)黨委書記譚鐵牛表示,AI生成的虛假或錯(cuò)誤內(nèi)容,若未被有效識別而進(jìn)入學(xué)術(shù)傳播鏈條,長期危害不容小覷。
面對這些挑戰(zhàn),我們必須采取系統(tǒng)性的綜合措施,在擁抱技術(shù)創(chuàng)新的同時(shí),堅(jiān)決守住科研誠信的底線。梅宏建議,持續(xù)深化理論探討與案例研究,厘清AI對科研誠信的影響機(jī)制;全面開展科技倫理教育與AI技能培訓(xùn),引導(dǎo)科研人員負(fù)責(zé)任地使用AI工具;積極凝聚全球共識,構(gòu)建適應(yīng)AI時(shí)代的科技倫理治理體系。
“人工智能對于科學(xué)研究而言,既是賦能創(chuàng)新的‘阿拉丁神燈’,也可能是開啟風(fēng)險(xiǎn)的‘潘多拉魔盒’。”譚鐵牛認(rèn)為,我們唯有堅(jiān)持管理與技術(shù)并重、制度規(guī)范與教育文化協(xié)同、國內(nèi)治理與國際合作并舉的綜合施策思路,才能破解人工智能時(shí)代的科研誠信難題,確保我國科技事業(yè)在健康可持續(xù)的軌道上行穩(wěn)致遠(yuǎn),為人工智能更好地造福人類貢獻(xiàn)中國智慧與中國方案。
(原載于《科技日報(bào)》2025-09-30?03版)
掃一掃在手機(jī)打開當(dāng)前頁
© 1996 - 中國科學(xué)院 版權(quán)所有 京ICP備05002857號-1
京公網(wǎng)安備110402500047號 網(wǎng)站標(biāo)識碼bm48000002
地址:北京市西城區(qū)三里河路52號 郵編:100864
電話: 86 10 68597114(總機(jī)) 86 10 68597289(總值班室)








