的ChatGPT聊天机器人在智能手机上显示登录屏幕的笔记本电脑在后台监控。

一个人工智能聊天机器人,ChatGPT一直是副驾驶的生产研究论文。信贷:Ascannio /上面

一对科学家产生了一篇研究论文在不到一个小时的帮助下ChatGPT——由人工智能(AI)的工具,可以理解和生成类文本。这篇文章流畅、富有洞察力和提出了预期的科学论文的结构,但是研究人员说,有很多障碍需要克服之前的工具可以真正帮助。

目的是探索ChatGPT的能力作为研究“副驾驶”,引发讨论其优点和缺陷,Roy Kishony、生物学家和数据科学家Technion——在海法以色列理工学院。“我们需要讨论我们如何能得到的好处用更少的缺点,”他说。

数据科学家Kishony和他的学生Tal Ifargan总部也设在带下载公开数据集从美国疾病控制和预防中心的行为风险因素监测系统数据库与健康有关的电话调查。数据集包括信息收集的超过250000人的糖尿病状态,食用水果和蔬菜,和体育活动。

一篇论文的基石

研究人员要求ChatGPT编写代码,他们可以使用数据中发现模式,他们可以进一步分析。第一次尝试,漏洞百出的chatbot生成的代码,没有工作。但是当科学家们传递错误信息并要求纠正错误,最终产生的代码可以用来探索数据集。

,衣服的数据集,Kishony然后Ifargan问ChatGPT来帮助他们开发一个研究目标。工具建议他们探讨体力活动和饮食影响糖尿病风险。一旦生成更多的代码,ChatGPT交付结果:吃更多的水果和蔬菜,运动与糖尿病的风险较低。ChatGPT当时提示总结表中的重要发现和写整个结果部分。一步一步,他们问ChatGPT写摘要,引言,方法和讨论部分的手稿。最后,他们要求ChatGPT提炼文本。“我们由[摘要]从输出的提示,“Kishony说。“每一步都是建立在前面的步骤的产品。”

虽然ChatGPT生成一个显然与扎实的数据分析,写手稿纸远非完美,Kishony说。研究人员遇到的一个问题是ChatGPT的倾向,以填补空白,这种现象称为幻觉。在这种情况下,它生成的假引用和不准确的信息。例如,本文指出,这项研究“地址差距在文献中”——一个短语在论文中是很常见的,但不准确的在这种情况下,汤姆希望,在耶路撒冷希伯来大学的计算机科学家。这一发现是“不是意外的任何医学专家”,他说。“这不是接近小说。”

利益和关切

Kishony还担心这样的工具可以方便研究人员参与等不诚实的行为P黑客,科学家测试几个假设数据集,但只有报告那些产生重大科研成果。

另一个担忧是,缓解生产与生成人工智能工具可能导致期刊论文被充斥着低质量的论文,他补充道。他说他data-to-paper方法,与人类监督每一步的核心,可以确保人员能够轻松理解的一种方式,检查和复制的方法和结果。

Vitomir Kovanović,开发人工智能技术对教育的南澳大利亚阿德莱德大学说,需要有更大的可视性AI工具的研究论文。否则,它将很难评估一项研究的发现是正确的,他说。“我们很可能需要在未来做更多的如果生产假论文会那么容易。”

生成人工智能工具有可能加速研究过程通过简单但耗时的任务,如写总结和生产代码,纳拉辛格说,计算生物学家麻省理工和哈佛剑桥市麻省。他们可能是用于从数据集生成文件或发展假说,他说。但因为幻觉和偏见是困难的研究人员发现,辛格说,“我不认为写整个论文——至少在可预见的未来将会是一个特别好的使用。”