ChatGPT很火,但是我作为一个天坑专业的搬砖生,和我有关系吗?我该如何使用ChatGPT呢?我应该用什么态度面对ChatGPT?抱着这种疑惑去翻看了Science和Nature上的文章,得出了一下的结论。
ChatGPT简介
ChatGPT是一个大规模语言模型(large Language Model,LLM),即在大规模搭上了标签的数据当中进行学习而产生的语言模型。2022.11.30,OpenAI公司发布了这款产品,并且免费向公众推出。这款产品成为迄今为止增长最快的消费者应用程序。
- 2022.11.30,发布产品;
- 2022.12.04,用户人数突破一百万;
- 两个月后,用户数超过1亿。
ChatGPT具有多种应用场景,通过对话能够解决非常多的事情,如编写计算机程序、写论文、回答问题、写诗作画、玩游戏等等。这些内容都可以在Youtube或者Bilibili上找到相应的内容。
那么AI就是无所不能吗?ChatGPT还是有一些限制:
- 给出看似合理但是不正确的答案
- 通常会对输入的问题要求比较高
- 会产生过长的信息
- 有时候会出现一些有害的指令或者有偏见的行为。
尽管有这些缺点,但是瑕不掩瑜,仍然是一款非常棒的工具。期望大家都能够好好体验一番。
学术界如何使用ChatGPT?
既然是一款优秀的工具,那么学术界肯定会使用这款工具的呀。根据一份调查,学术界使用的频率还是非常高的。
一方面,只有非常少的学术人士每天使用这个工具。这是符合常理的,毕竟这款工具在一开始产生的结果是有些问题的,不太符合科学严谨的形式。不过也不能排出另外一个原因,某些地区不能够使用ChatGPT这款工具。
另一方面,ChatGPT还是可以用来干科研的。比如说图中所说,写文献总结、写文章初稿、产生科技论文所需要的图片。除此之外,还有其他的用法,不过还没有尝试过使用这款工具来进行上述三项工作,后面的话,将会学习一下看看如何使用。
人工智能已经出现,想要封闭它不可能,那么我们都要解放思想,开始学习如何使用这款工具,来更好辅助科研工作。
ChatGPT能否作为作者?
在ChatGPT刚开始发型的时候,有一些作者使用ChatGPT完成论文手稿之后,把ChatGPT列为作者。但是,接下来就有非常多的人思考ChatGPT是否能够被列为文章的作者?
支持的一方认为,在ChatGPT发布之前,都有人把宠物作为作者列入到文章当中。有一篇 1975 年在物理顶级期刊 Physical Review Letters(物理学领域最顶级的期刊) 发表的文章,严肃地讨论了固态氦 -3 在不同的温度下的物理性质。但是作者在写初稿的时候,使用了太多的we、our,可是作者却只有他一个人。在不重新修改论文的情况下,这位密歇根州立大学的物理教授Jack H. hetherington便把自家的猫(F.D.C Willand)给写了上去。
反对的一方认为,ChatGPT由于自身的缺陷,不能够被列为文章的作者。一方面,科研要求原创性工作,而ChatGPT所产生的内容都是从过往的书中中抄来的。另外一方面,文章的作者需要对文章负责,可是ChatGPT明显不能对文章的质量负责。
如何解决嗯?Science期刊的编辑对这个为做出了回答。ChatGPT这一类工具不能够作为文章的作者,但是可以使用这种工具来写文章,不过需要在论文中说明使用了这款工具。
不过需要说明的是,后面还产生了一款工具GPTZero,来检测一份文稿是否是由ChatGPT这一类工具写出来的内容。
ChatGPT的缺点,流畅但不准确
ChatGPT是一种大语言模型的产物,所以其缺点便来自于训练所需要的信息上。ChatGPT的信息都是人工打上了标签的,但是作为打标签的人会存在一系类的错误和偏见,当然打标签的过程也会有一些失误。那么当AI获取了这些信息之后,所产生的结果当然会有所错误或者偏见。专业人员由于自身的知识背景不会被蒙蔽,但是非专业人士呢?
既然有这个问题,那么如何解决呢?有下面三种方法。
第一种,学术期刊都是有引用的,应用的多的文章相对来说比较好。所以根据引用设置权重来比较信息,从而绕过这个方法。
第二种,使用私有数据来训练AI。DeepMind,Anthropic公司便是使用这种方法。
第三种,Facebook公司的Galacitica直接拿科技论文的摘要作为信息来源,并且当信息作为的时候,用户可以提供反馈。
学术界如何应对ChatGPT?
AI已经出现了几个月,完全禁止它是不可能的,现在的任务是研究他,利用它,把它变成工具。
2023年2月Nature上的一篇文章认为学术界在现在应该做的五件事情。
坚持人工验证
由于AI chatbot所产生的的数据仍然可能具有事实性错误、历史性偏见等等,所以最终的信息还是要人类来验证。
发展责任规则
AI不能为所产生的文本负责,最终负责的对象还是人。所以我们应该思考在使用AI的过程中透明、诚实、正直。现在AI可以帮助编辑和作者发现文本当中存在的潜在偏见、准确性和不合时宜的编辑内容。所以AI在未来很有可能和文本处理、编辑工具、搜索引擎、编程工具等等走在一起。
向开源的LLMs投钱
因为大公司产生的LLMs内容是保密的、代码是保密的,不利于AI的继续发展。所以在接下来的日子要向非盈利组织,如大学、NGOs、独立研究人员投钱,让其能够发展处更好的开源项目。
拥抱AI
AI虽然仅仅只是通过文本来说明内容,还没有理解文本的内容。但是仍然要拥抱起变化。AI和学术结合是非常有可能的,会简便一些工作。但是我们作为研究人员的基础,创造性、教育、训练、和他人的交流仍然是未来科技创造力的源泉。
深化讨论
作为一种新工具的出现,还那么火。现在是一种必要的工作去进行一系列的活动。能够通过广泛地讨论出现一些新的原则。并倡导出现国际化的、跨学科的论坛去讨论这些事情。
结语
ChatCPT虽然被称作人工智能,但是仍然还是一款工具,还是不能够替代人在在科研中的三个重要能力:好奇心、想象力、洞察力。但是仍然要学习这种工具,把ChatGPT当成简化科研、快速工作的一款工具。
参考文献
- Editorials, Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature 2023, 613 (7945), 612.
- Stokel-Walker, C.; Van Noorden, R., What ChatGPT and generative AI mean for science. Nature 2023, 614 (7947), 214-216.
- Graham, F., Daily briefing: ChatGPT listed as author on research papers. Nature 2023.
- Owens, B., How Nature readers are using ChatGPT. Nature 2023, 615 (7950), 20.
- Else, H., Abstracts written by ChatGPT fool scientists. Nature 2023, 613 (7944), 423.
- Thorp, H. H., ChatGPT is fun, but not an author. Science 2023, 379 (6630), 313.
- van Dis, E. A. M.; Bollen, J.; Zuidema, W.; van Rooij, R.; Bockting, C. L., ChatGPT: five priorities for research. Nature 2023, 614 (7947), 224-226.