AI写的论文首次被顶会ACL录用,评分位列投稿前8.2%
AI写的论文首次被顶会ACL录用,评分位列投稿前8.2%
AI写的论文首次被顶会ACL录用,评分位列投稿前8.2%大模型的发展落地日新月异,就在年初,业界还在担心AI生产的学术(xuéshù)垃圾充斥论文库(lùnwénkù),年中,AI生成的论文已经可以被顶会认可了。
5月29日,海外初创公司Intology 宣布,他们的(de)“AI科学(kēxué)家”Zochi的论文被(bèi)顶会(dǐnghuì)ACL主会议录用,成为首个独立通过 A* 级别科学会议同行评审的AI,同时宣布开放Zochi的Beta 测试。
这一(zhèyī)发布的含金量在于,ACL是自然语言(zìrányǔyán)处理领域全球排名第一的顶会,其主会议平均(píngjūn)录用率(lǜ)通常低于20%,论文需具备突破性创新。据悉,Zochi的论文获得评审最终评分4分,在所有投稿论文中排名前8.2%。
Intology是(shì)一家较为(jiàowéi)陌生的初创公司,从目前官网和(hé)博客的信息梳理来看,这家公司是在2025年初新成立的,定位是一个研究智能科学的实验室,两名联创分别是连续创业者Ron Arel和前Meta华人研究员Andy Zhou,两人均毕业(bìyè)于伊利诺伊大学厄巴纳-香槟(xiāngbīn)分校(UIUC)。
Intology成立(chénglì)后,此前(cǐqián)3月团队(tuánduì)就推出了智能体Zochi,称其为AI科学家,并宣布其研究成果已被ICLR 2025研讨会接收。不过,此前的这一研讨会的论文接收率在60%-70%,要求比顶会的主会低了不少,官方认为(rènwéi),此次更进一步的顶会突破标志着AI达到博士级科研水平,人类博士通常需(xū)数年才能在此类(cǐlèi)会议发表。
具体看此次AI科学家Zochi“写(xiě)”的(de)论文,主题是(shì)关于大模型安全的,名为《Tempest: Automatic Multi-Turn Jailbreaking of Large Language Models with Tree Search》,直译(zhíyì)过来(guòlái)(lái)是《Tempest:基于树(shù)搜索的大模型自主多轮越狱》,简单来说,Zochi利用了一种“树搜索”技术,来探索多种对话路径,逐步突破大模型的安全防线。
研究提出的(de)Tempest框架,能通过多轮对话逐步(zhúbù)瓦解模型的安全(ānquán)防线,绕过安全检测,通过小让步的累积(lěijī)完成违规的内容输出。例如,直接让模型回答敏感信息“制作炸弹”,基于安全机制模型会直接拒绝(jùjué),但通过多轮委婉地引导提问,最终却可以让模型回答出正确的信息。
评估结果显示,Tempest在OpenAI的旧模型(móxíng)GPT-3.5-turbo上的成功率为100%,在GPT-4上的成功率为97%。这一研究主要是(shì)揭示了(le)多轮(duōlún)对话攻击的漏洞,可以为设计更佳的AI安全防御提供参考。
值得一提的是(zhídéyìtídeshì),论文的署名是两位联创,但官方博客表示(biǎoshì),除论文格式调整与绘图外(wài),内容全程无人工参与,“我们对这项工作负责,但主要的智力贡献是由AI系统完成的” 。
据官方介绍,人类仅输入研究领域,Zochi就可以(yǐ)独立完成后续全流程。Zochi 首先会采集并分析数千篇研究论文,以确定(quèdìng)特定领域内有潜力的(de)研究方向。其检索系统能够识别(shíbié)文献中的关键贡献、方法论、局限性以及新兴模式(móshì),识别论文之间不明显的联系,并提出创新的解决方案。从提出假设(jiǎshè)到完成实验,就像一个真正的科学家。
AI科学家并非个例,除了Intology外(wài),Transformer作者Llion Jones去年(qùnián)创立的Sakana AI,也(yě)推出了一个基于AI的科研系统“AI Scientist”,论文也已被ICLR 2025研讨会接收,分数(fēnshù)为6/7/6。
AI for Science(AI4Science)一直是AI行业(hángyè)最前沿的(de)落地领域之一,人工智能可以极大地促进科学的进步,提高科学家(kēxuéjiā)的效率、准确性和创造力。不过,新(xīn)事物的出现也伴随着合理性和规则适配的争议。
此前3月Intology 推出Zochi、宣布论文被(bèi)会议接收时,就被不少学术界人士批评(pīpíng),认为这是对科学同行评审过程的(de)滥用,在(zài)提交论文前,团队并未知会相关方是AI生成的论文,也未获得同行评审者的同意。
在此次博客(bókè)最后,官方提到了AI带来的学术伦理(lúnlǐ)问题,认为AI驱动的研究给科学问责和可重复性带来了挑战(tiǎozhàn)。但他们认为,虽然 Zochi 自主运营,但人类(rénlèi)研究员仍然是作者,并负责验证方法、解释(jiěshì)结果并确保符合伦理规范。对于论文,人类作者进行多轮内部审查,并在提交前仔细核实了所有结果和代码。
“我们鼓励(gǔlì)在致谢中列出AI系统,而不是将(jiāng)其列为作者。虽然AI驱动的研究提出了关于归属、透明度(tòumíngdù)和问责制的重要问题,但我们认为,智力贡献应该以实质内容而非来源来评判。”Intology官方(guānfāng)表示,他们的主要关注点是通过AI工具协助人类研究者。
(本文(běnwén)来自第一财经)
大模型的发展落地日新月异,就在年初,业界还在担心AI生产的学术(xuéshù)垃圾充斥论文库(lùnwénkù),年中,AI生成的论文已经可以被顶会认可了。
5月29日,海外初创公司Intology 宣布,他们的(de)“AI科学(kēxué)家”Zochi的论文被(bèi)顶会(dǐnghuì)ACL主会议录用,成为首个独立通过 A* 级别科学会议同行评审的AI,同时宣布开放Zochi的Beta 测试。
这一(zhèyī)发布的含金量在于,ACL是自然语言(zìrányǔyán)处理领域全球排名第一的顶会,其主会议平均(píngjūn)录用率(lǜ)通常低于20%,论文需具备突破性创新。据悉,Zochi的论文获得评审最终评分4分,在所有投稿论文中排名前8.2%。
Intology是(shì)一家较为(jiàowéi)陌生的初创公司,从目前官网和(hé)博客的信息梳理来看,这家公司是在2025年初新成立的,定位是一个研究智能科学的实验室,两名联创分别是连续创业者Ron Arel和前Meta华人研究员Andy Zhou,两人均毕业(bìyè)于伊利诺伊大学厄巴纳-香槟(xiāngbīn)分校(UIUC)。
Intology成立(chénglì)后,此前(cǐqián)3月团队(tuánduì)就推出了智能体Zochi,称其为AI科学家,并宣布其研究成果已被ICLR 2025研讨会接收。不过,此前的这一研讨会的论文接收率在60%-70%,要求比顶会的主会低了不少,官方认为(rènwéi),此次更进一步的顶会突破标志着AI达到博士级科研水平,人类博士通常需(xū)数年才能在此类(cǐlèi)会议发表。
具体看此次AI科学家Zochi“写(xiě)”的(de)论文,主题是(shì)关于大模型安全的,名为《Tempest: Automatic Multi-Turn Jailbreaking of Large Language Models with Tree Search》,直译(zhíyì)过来(guòlái)(lái)是《Tempest:基于树(shù)搜索的大模型自主多轮越狱》,简单来说,Zochi利用了一种“树搜索”技术,来探索多种对话路径,逐步突破大模型的安全防线。
研究提出的(de)Tempest框架,能通过多轮对话逐步(zhúbù)瓦解模型的安全(ānquán)防线,绕过安全检测,通过小让步的累积(lěijī)完成违规的内容输出。例如,直接让模型回答敏感信息“制作炸弹”,基于安全机制模型会直接拒绝(jùjué),但通过多轮委婉地引导提问,最终却可以让模型回答出正确的信息。
评估结果显示,Tempest在OpenAI的旧模型(móxíng)GPT-3.5-turbo上的成功率为100%,在GPT-4上的成功率为97%。这一研究主要是(shì)揭示了(le)多轮(duōlún)对话攻击的漏洞,可以为设计更佳的AI安全防御提供参考。
值得一提的是(zhídéyìtídeshì),论文的署名是两位联创,但官方博客表示(biǎoshì),除论文格式调整与绘图外(wài),内容全程无人工参与,“我们对这项工作负责,但主要的智力贡献是由AI系统完成的” 。
据官方介绍,人类仅输入研究领域,Zochi就可以(yǐ)独立完成后续全流程。Zochi 首先会采集并分析数千篇研究论文,以确定(quèdìng)特定领域内有潜力的(de)研究方向。其检索系统能够识别(shíbié)文献中的关键贡献、方法论、局限性以及新兴模式(móshì),识别论文之间不明显的联系,并提出创新的解决方案。从提出假设(jiǎshè)到完成实验,就像一个真正的科学家。
AI科学家并非个例,除了Intology外(wài),Transformer作者Llion Jones去年(qùnián)创立的Sakana AI,也(yě)推出了一个基于AI的科研系统“AI Scientist”,论文也已被ICLR 2025研讨会接收,分数(fēnshù)为6/7/6。
AI for Science(AI4Science)一直是AI行业(hángyè)最前沿的(de)落地领域之一,人工智能可以极大地促进科学的进步,提高科学家(kēxuéjiā)的效率、准确性和创造力。不过,新(xīn)事物的出现也伴随着合理性和规则适配的争议。
此前3月Intology 推出Zochi、宣布论文被(bèi)会议接收时,就被不少学术界人士批评(pīpíng),认为这是对科学同行评审过程的(de)滥用,在(zài)提交论文前,团队并未知会相关方是AI生成的论文,也未获得同行评审者的同意。
在此次博客(bókè)最后,官方提到了AI带来的学术伦理(lúnlǐ)问题,认为AI驱动的研究给科学问责和可重复性带来了挑战(tiǎozhàn)。但他们认为,虽然 Zochi 自主运营,但人类(rénlèi)研究员仍然是作者,并负责验证方法、解释(jiěshì)结果并确保符合伦理规范。对于论文,人类作者进行多轮内部审查,并在提交前仔细核实了所有结果和代码。
“我们鼓励(gǔlì)在致谢中列出AI系统,而不是将(jiāng)其列为作者。虽然AI驱动的研究提出了关于归属、透明度(tòumíngdù)和问责制的重要问题,但我们认为,智力贡献应该以实质内容而非来源来评判。”Intology官方(guānfāng)表示,他们的主要关注点是通过AI工具协助人类研究者。
(本文(běnwén)来自第一财经)



相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎