高分子人节系列讲座回顾|科研视界:AI科研技术经验分享
发布时间:2025-05-21


2025  4  9 日上午,复旦大学高分子科学系研究生会在系楼B2084举办高分子人节系列讲座,邀请 2024 级博士生王纪峰作题为国内外大语言模型横向评测与科研应用的学术报告。王纪峰同学围绕主流大语言模型的技术进展与科研实用性进行系统阐述,帮助在场师生洞悉人工智能赋能科研的最新范式。

报告首先概述了全球大语言模型的性能格局:闭源模型依旧保持领先,但开源方案进步显著,性能差距持续收窄;ChatGPT 系列在综合能力与学术问答的表现上仍居首位,而 DeepSeek-R1 在中文联网检索方面展现出优异效率。就联网与非联网模式的比较而言,前者在实时信息提取方面占优,后者则以稳定性和深度推理能力见长。针对模型接入与网络环境配置,主讲人结合官网直连、腾讯元宝平台及校内 eHall 部署等多种途径分享实践数据,并提出 VPN 线路优化与海外支付的具体建议,以保障模型推理速度及响应质量。他特别提醒,保持相对固定的出口节点可避免频繁切换导致的性能波动,而 WildCard 等虚拟银行卡服务为国内用户付费使用 ChatGPT 提供了便捷途径。

在提示词工程方面,报告总结了角色扮演、操作链路、示例演示、任务分解与魔法命令等五个核心要素,并展示了不同科研任务场景下的组合策略。王纪峰进一步介绍了基于大模型的联网检索工具秘塔 AI”,指出其对 NatureScienceACS 等开放获取文献的抓取与可视化能力显著提升了信息筛选效率,每日百次免费额度足以满足常规科研需求。

随后,主讲人以文献综述、科研示意图构建和学术论文润色为例,演示了 LLM 在科研全流程中的高效支持。从主题确定到深度阅读,再到利用 DeepSeek  ChatGPT 完成综述写作,整体用时可由数日压缩至三小时以内;借助 ChatGPT-4o 的图形生成功能,可快速获得高质量示意图。对于 AI 生成内容检测,报告提出以不同模型输出的困惑度比较为依据,评估潜在人工智能痕迹,并建议研究者对机器生成文本进行二次人工润色,以降低学术伦理风险。

最后,王纪峰指出,科研智能化已成大势,同学们需要主动拥抱并灵活整合国内外领先的 AI 技术与工具,方能在激烈的学术竞争中保持持续创新活力。随着模型迭代与算法优化的不断深入,AI 在科研效率与深度上的价值必将进一步凸显,为高分子科学乃至更广泛的交叉学科研究注入源源不断的创新动能。