科研应用AI的边界在哪里?——青年创新汇客厅(第4期)举行

发布时间:2024.12.05

人工智能学院教授魏哲巍、法学院副教授张吉豫、哲学院副教授王小伟、统计学院副教授周静、公共管理学院讲师龚芳颖、应用经济学院博士研究生陈冠锟参与研讨,科研处副处长路磊主持会议。

科研处副处长(主持工作)钱明辉致辞。

钱明辉表示AI技术的广泛应用正引领着一场前所未有的变革,科研应用AI的边界何在,一直备受关注。本期青创汇聚焦科研应用AI的边界,希望青年人才深入探讨AI在科研领域的应用和规制,明确科技发展的界限,追寻智能与伦理的和谐共生之道。

魏哲巍、王小伟、张吉豫、周静、龚芳颖、陈冠锟作交流发言。

魏哲巍围绕“科研应用AI的边界”主题分享三点感悟。首先,2023年诺贝尔奖首次颁发给“AI for Science”领域,充分彰显了人工智能在科研中的革命性作用,为科学研究开辟了全新视野。AI正以强大的计算和分析能力,推动从物理学、化学到生命科学等多领域取得突破性进展,展示了其赋能科研的无限潜力。其次,随着大模型和多智能体技术的快速发展,人文社会科学也迎来了前所未有的变革契机。AI可能会使传统定性研究具备实验科学的特性,为这一领域注入更加精确、可验证的新范式,促进学术创新与跨学科协作。最后,在拥抱技术红利的同时,也必须保持对科学本质的敬畏。AI工具的运用固然重要,但科学研究的核心仍然是人的主体性与创造力。我们需要清醒地认识到,AI是辅助而非替代,确保智能技术与学术伦理的深度契合,避免因技术过度依赖而削弱科研的独立性与方向性。

王小伟表示,人工智能的迅速发展为科研注入了前所未有的动能,也对科学研究的哲学基础提出了深刻挑战。从哲学视角审视,AI的赋能将不可避免地重塑当下的科研活动。一方面,AI的介入深刻改变了知识生产的传统路径。其基于数据驱动的推理模式可能削弱科学研究中经验验证与理论构建的核心地位,甚至引发对知识“客观性”与“真理性”的反思。算法的隐性偏向和黑箱特性,进一步模糊了科研结果的可解释性与可靠性,挑战了经典科学哲学中的实在论与工具论的界限。其次从伦理视角来看,AI在科研中的应用引发了主体性和责任归属的伦理困境。很多具体问题需要得到足够的重视。例如科研主体在多大程度上能够自主掌控AI工具的运作?算法对决策的深度影响是否削弱了人类实践的主体性?AI驱动的科研活动亟需得到更加细腻的哲学审查。

张吉豫表示,人工智能为科学研究带来了全新的方法和效率的提升,应当积极加以推进,但同时也要注意边界问题。首先,需要注重研究过程中的科技伦理和安全性,确保数据的合法获取和使用,在敏感领域更是要加强研究方案的伦理审查。其次,要注重对输出结果使用的学术规范。一方面,人工智能输出的准确性、全面性、观点和逻辑的正确性等方面都需要科研人员进行审慎核实。另一方面,要注意人工智能输出内容可能属于他人的在先成果,应当谨慎检索出处、规范引用。最后,要倡导研究方法的多样性和综合运用。人工智能赋能科研可能加速一些类型成果的获得,但与此同时也需要注意到,传统的研究方法仍然可能具有积极意义,应当重视和促进多种研究方法的结合使用。

周静表示,AI赋能科研的边界并不是限制,而应该是未来创新的起点,应以开放的心态迎接挑战当AI应用于科学研究产生了利益冲突时,这时候边界可能就出现了,例如,当利用AI进行疾病诊断时,AI的高效和高精度很有可能就会侵害部分医生的利益,而使得AI赋能医学研究产生缓慢进展。要解决这样的现状,研究人员要勇于走出去,接触不同学科的思想和方法,与其他领域的专家学者建立多元化合作,理解不同学科领域将AI应用于科研的边界;其次,要重视技术与人文的深度结合,充分发挥中国人民大学在人文社会科学领域的优势,为技术赋予更深刻的社会意义,解决可能产生的利益冲突,从而利用AI形成更好的科研范式。

龚芳颖表示,AI在公共管理学科中广泛应用于政府政策分析、社会治理研究和公共服务优化,但其边界问题需引起高度重视。技术透明性与监督是智能政务的核心边界问题,如智能审批系统提高了效率,但若决策规则不透明将引发公众的不信任。在社会治理与公共安全中,AI的应用强化了治安能力,但也带来了隐私保护与过度监控的风险。在公共政策决策中,AI通过大数据辅助决策,但数据偏见与公正性问题可能导致资源分配不平等。如扶贫政策中的数据偏差可能放大区域差距,需加强对AI模型监督,确保数据多样性和结果公平性。此外,AI在面临数字治理中的公众意见处理或公共资源配置等情境时,可能因公众参与不足或资源分配失衡而忽视弱势群体需求。因此,在利用AI开展公共管理学科研究的过程中应结合人工审核和伦理考量,确保社会公平与政策的包容性。

陈冠锟表示,机器学习的应用边界依然取决于人类学习的边界,但两者能够相互促进突破原有约束:机器学习能够帮助人类学习突破时间约束,人类学习则能够帮助机器学习不断超越数据约束。将人类学习过程解构为“感知摄入”“信息处理”和“生成输出”三个环节后发现,机器学习通过解决数据规模和计算速度方面的问题,显著在摄入和处理阶段拓展了人类学习的边界。然而在输出阶段,大模型生成内容时依赖的是基于训练数据的算法概率,而非真正的认知理解。高概率往往意味着内容重复性强、创新性低,这与科研写作追求原创性的目标相矛盾。因此,在AI时代,经济学(社会科学)研究者写作能力的重要性不减反增。文字是人类思维的载体,但对机器而言,仅是分类的概率。这一本质差异决定了尽管机器学习能够拓展人类学习的部分边界,但在社会科学领域,学术成果的产出仍将以人类的创造性写作为核心驱动力。最后,我们需要从精确性、信息量和可读性三个维度来评估在写作中对大模型的依赖程度,更好地把握机器学习在认知领域的边界。