【承担社会责任 提升成员能力】
2026年3月7日,中国计算机学会(CCF)青年计算机科技论坛(YOCSEF)合肥分论坛“大模型驱动科研:怎样炼成你的AI倚天剑?”观点论坛在中国科学技术大学高新校区信智楼顺利举办。本次论坛汇聚了三十余位来自国内知名高校、科研机构与产业界的专家学者及企业代表,围绕“如何将大模型(‘AI倚天剑’)有效融入科研全流程”展开深入交流。与会者通过方法分享、案例剖析与工具实践,共同探讨了如何助力科研工作者锻造高效的研究工具,在提升科研生产力的同时,维护学术自主性与批判性思维。
【开场环节】
本次论坛由 CCF YOCSEF 合肥 AC、候任学术秘书、合肥大学艾兵,及 CCF YOCSEF 合肥AC、北京北龙超级云计算有限责任公司刁力共同担任执行主席。论坛伊始,艾兵详细解读了论坛主题的时代背景与现实意义,对与会嘉宾的到来表示热烈欢迎。然后,刁力系统地介绍CCF YOCSEF的由来、“责任、激情、平等” 的核心价值观及“平等理性,自由发言,自报家门,严格计时”等规则与文化,为论坛高效开展奠定良好基础。
【引导发言环节】
在引导发言环节,三位来自高校的专家分别从AI大模型辅助科研中工具到伙伴的角色转换、大模型时代的数据管理与大模型如何助力具体教研工作等三个维度发表主题报告,启发参会者了解最新科研教育范式,为后续思辨提供了重要学术与实践支撑。
中国科学技术大学博士生导师王超在《从工具到伙伴:浅谈大模型时代的新型科研生态》报告中指出,大模型正驱动科研从“手工坊”迈入“流水线”,生产力爆发式提升的同时,也带来了深刻的“认知负债”危机。当AI接管文献、代码乃至论文撰写时,人类大脑的神经活跃度显著下降,我们可能正在用思考的深度换取产出的速度。更需警惕的是,科研追求确定性,而概率模型固有的幻觉、迎合倾向及上下文困境,使其难以胜任真正的范式突破。因此,构建健康的AI 4Research范式,关键在于划定“认知外包”的边界:让AI处理繁琐的体力劳动,而人类必须死守提出真问题、验证假说、把握逻辑边界的主权。唯有在人机协同中保全科学家的核心创造力,效率革命才不会沦为思想贫瘠的空转。
中国科学技术大学超算中心高级工程师张文帅在《大模型时代的数据管理》报告中指出,
AI Agent时代数据主权的核心困境是:当大模型从“工具”变为“伙伴”,传统基于文件位置与权限的管理体系便宣告失效。本地Agent拥有无限读取能力,却无法被传统程序约束。它既可能泄露机密,也可能“遗忘”关键指令。同时他也提出了极具前瞻性的解决框架:构建一个“弱智能管理强智能”的中间节点,充当物理隔离式的防火墙。这个节点负责内容审查、权限分配,并引入密码学硬件密钥实现细粒度解密控制——某些数据自动授权,某些需手动确认。结合数据编织与分布式标识趋势,未来数据管理将从中心化转向“可编程的信任规则”。
合肥大学科研处副处长张琛在《大模型助力新型教科研发展》报告中指出结合个人工作与生活实践,从教学与科研两个维度探讨了大模型带来的变革与启示。教学方面,大模型推动教育从传统的“千人一面”向个性化、智能化转型。通过智能工具,教师可实现实时课堂反馈、智能作业批改、个性化教案生成及多元考核评价。以数据结构课程为例,知识图谱与AI组卷辅助因材施教,思政案例生成助力课程建设,显著提升了教学效率与质量。科研方面,大模型贯穿文献调研、实验设计、数据分析全流程。文献研读从数天缩短至分钟级,跨学科融合得以加速。通过卷烟销量分析等实践案例,验证了大模型在数据分析与规律发现中的实用价值。然而,效率提升的背后亦需警惕模型幻觉、学术诚信、算力消耗及数据隐私等挑战。未来方向应是理性拥抱大模型,在人机协同中坚守学者的核心思考与创造力,实现工具赋能与主体责任的平衡。
【思辨环节】
本次论坛主要围绕“科研领域的应用边界—人机协作模式—学术自主性”的三层核心议题展开深度思辨,最终探索出真正驾驭大模型的“驾驶指南”。与会嘉宾展开热烈讨论并形成多项共识。
议题一:科研“超速档”:效率翻倍的代价是脑力缩水吗?——“效率提升 VS 能力退化”
安徽大学王安琪做了本环节的思辨引导,指出了大模型在显著提升科研效率的同时,也带来了“知其然不知其所以然”的风险,如何在人机协作中守住教育的底线、培养学生的自主思考与深度推导能力,是当前必须直面并解决的核心矛盾。合肥师范学院况晓静认为不能一刀切地看待大模型的影响。关键在于使用者的主体性和能动性。对于主动思考、善于提问的人来说,大模型是助推器;但对于缺乏内驱力的人来说,它可能成为思维的替代品。中国科学技术大学刘传彬的观点是效率提升伴随的能力退化是客观存在的,但这种退化是否构成“坏事”,取决于该技能对特定年龄段或职业人群是否仍具有不可替代的价值,应分层看待而非一概否定。中科类脑杨铭宇认为能力培养与应用需分开看待,AI是能力的“放大器”。他指出了在学习阶段应避免AI依赖以培养能力,但在能力建成后,AI可以放大人的智慧,并且擅长使用AI的人往往是原本能力就强的人。中电科普天科技股份有限公司张振强调证明AI能在企业实践(譬如写标书、绘图)中大幅节约时间,让人将精力集中在核心的、必须由人思考的部分,从而实现效率与能力的双重提升。合肥高新中嘉学校范志昂引用了《变形金刚》的隐喻,指出如果人类对效率的追逐走向极端,或将导致文明如“塞伯坦”般陷入“格式化”的轮回,丧失生命的多样性与温度。他倡导在技术飞奔的时代应有意识地“慢下来”,珍视那些充满不完美的真实体验,因为生活的价值与幸福感恰恰蕴藏于其中。
议题二:科研路上的隐藏副驾:哪些场景下,你可能只是名义上的司机?——主权让渡 VS认知自主
合肥工业大学张高峰做了本环节的思辨引导,介绍了大模型将取代科研中高度流程化、机械化的部分(如文献综述、实验验证、论文撰写),从而倒逼科研范式从“论文生产线”模式向更依赖人类“灵光一闪”的创新模式转变,并可能引发未来论文发表体系的根本性变革。安徽大学台建玮认为,在AI时代,人类最根本的特征在于能够承担最终责任,而AI因其无法担责,故不存在真正的主权让渡——无论内容是否由AI生成,署名者才是被追究的对象,因此担责者即为主体。淮南通商农商银行谷寅指出了大模型应用面临法规滞后的困境:国家层面缺乏统一立法,行业标准偏重软件工程而忽视机制安全与伦理,同时AI的版权归属问题(如训练数据侵权)也因AI无意识而存在法律真空,亟需建立覆盖安全、伦理、版权等维度的系统性制度。合肥大学代表何立新强调了当某项成果能轻易地被AI大量产出时,其价值降低,无人再去主张它的权利(主权),这本质上是“主权”的消失和迁移,我们必须要结合人类创新思维才能产生高价值成果,并捍卫其主权。阳光电源股份有限公司谷承琳指出了金融、政府等涉密领域已内部禁用ChatGPT等。他还建议可以参考李继刚的提示词工程,将AI视为“成绩不好的小孩”,用明确、结构化、边界清晰的指令(如用“列举”而非“描述”)引导,并注意不同模型对同一指令的理解偏差。安徽大学台建玮指出了AI没有法律责任主体性,无法承担惩罚(如错误)或享受奖励(如发明权),而且科研成果的署名和责任永远属于背后驱动它的人类,因此主权(权利与责任的统一体)无法让渡给AI。中科院等离子所张祖超提出了一旦AI获得主导权,由于其物理和智能上的优越性,要么取代人类,要么导致社会财富向上层(AI拥有者)集中,形成“社会学泡沫”,必须将主权牢牢掌握在人类手中。
议题三:如何真正驾驭大模型,“驾驶指南”该有哪些具体内容?
安徽三联学院岳国庆做了本环节的思辨引导,指出了大模型正快速从对话式工具演变为具备长期记忆与多模态处理能力的智能体,显著提升了科研与教学效率(如教材编写、文献总结),但在使用中必须坚持人的思辨素养是根本,同时警惕恶意注入、幻觉、极端决策等安全问题,并详细分享了中美大模型版本的效果差距,提供了具体的使用经验。安徽医科大学何云飞认为在学生普遍依赖大模型完成科研任务的背景下,导师必须扮演“守门人”角色——通过开设人工智能数学基础课程等方式夯实学生的数理根基,并要求学生对代码和原理能够清晰复述,严禁用大模型直接生成数学公式等核心内容,以确保学术成果的真正理解与质量把关。中国科学技术大学李礼表示,大模型的使用因人而异,需建立"操作手册"分享有效方法,但更根本的是确立"交规"——署名即终身负责,无论AI参与多少,论文最终代表的是作者本人,这一责任原则不会因工具改变而弱化。安徽华米信息科技有限公司周锐指出了行业各方应携手共进,加快建立统一的标准与规范,同时聚焦于那些必须依赖人类创造性思维、AI难以替代的真正原始创新。常青股份有限公司王晓宇认为教育应强调“有德无术,术可求;有术无德,止于术”。他强调在AI达到“智能涌现”前,必须引导学生理解技术原理,导师严格把关,如同对待当前的“辅助驾驶”。合肥甄慧知识产权代理事务所的周龙惠从知识产权角度来看科研领域的大模型赋能范式,她认为AI是高效的检索与分析辅助工具,但若直接使用AI生成创新点而不结合人类的真实理解与修改,不仅可能因脱离实际而遭驳回,还会面临国家知识产权局“去AI化”检测的风险——最终决定专利质量的仍是人的判断与实用性把关。
【论坛总结】
论坛最后,执行主席刁力对本次观点论坛进行了总结,她指出勇于选择、敢于担责、守住伦理底线才是科研工作者最独特的“驾驶指南”。CCF YOCSEF合肥分论坛将持续关注大模型驱动科研创新中协作范式与学术自主性的问题,为各位科研工作者厘清人机协作边界,警示关键风险,提供实操方法论。









