049 ChatGPT和学术
本文最后更新于 300 天前,其中的信息可能已经有所发展或是发生改变。

ChatGPT很火,但是我作为一个天坑专业的搬砖生,和我有关系吗?我该如何使用ChatGPT呢?我应该用什么态度面对ChatGPT?抱着这种疑惑去翻看了Science和Nature上的文章,得出了一下的结论。

ChatGPT简介

ChatGPT是一个大规模语言模型(large Language Model,LLM),即在大规模搭上了标签的数据当中进行学习而产生的语言模型。2022.11.30,OpenAI公司发布了这款产品,并且免费向公众推出。这款产品成为迄今为止增长最快的消费者应用程序。

  • 2022.11.30,发布产品;
  • 2022.12.04,用户人数突破一百万;
  • 两个月后,用户数超过1亿。

ChatGPT具有多种应用场景,通过对话能够解决非常多的事情,如编写计算机程序、写论文、回答问题、写诗作画、玩游戏等等。这些内容都可以在Youtube或者Bilibili上找到相应的内容。

那么AI就是无所不能吗?ChatGPT还是有一些限制:

  1. 给出看似合理但是不正确的答案
  2. 通常会对输入的问题要求比较高
  3. 会产生过长的信息
  4. 有时候会出现一些有害的指令或者有偏见的行为。

尽管有这些缺点,但是瑕不掩瑜,仍然是一款非常棒的工具。期望大家都能够好好体验一番。

学术界如何使用ChatGPT?

既然是一款优秀的工具,那么学术界肯定会使用这款工具的呀。根据一份调查,学术界使用的频率还是非常高的。

049 ChatGPT和学术

一方面,只有非常少的学术人士每天使用这个工具。这是符合常理的,毕竟这款工具在一开始产生的结果是有些问题的,不太符合科学严谨的形式。不过也不能排出另外一个原因,某些地区不能够使用ChatGPT这款工具。

另一方面,ChatGPT还是可以用来干科研的。比如说图中所说,写文献总结、写文章初稿、产生科技论文所需要的图片。除此之外,还有其他的用法,不过还没有尝试过使用这款工具来进行上述三项工作,后面的话,将会学习一下看看如何使用。

人工智能已经出现,想要封闭它不可能,那么我们都要解放思想,开始学习如何使用这款工具,来更好辅助科研工作。

ChatGPT能否作为作者?

在ChatGPT刚开始发型的时候,有一些作者使用ChatGPT完成论文手稿之后,把ChatGPT列为作者。但是,接下来就有非常多的人思考ChatGPT是否能够被列为文章的作者?

支持的一方认为,在ChatGPT发布之前,都有人把宠物作为作者列入到文章当中。有一篇 1975 年在物理顶级期刊 Physical Review Letters(物理学领域最顶级的期刊) 发表的文章,严肃地讨论了固态氦 -3 在不同的温度下的物理性质。但是作者在写初稿的时候,使用了太多的we、our,可是作者却只有他一个人。在不重新修改论文的情况下,这位密歇根州立大学的物理教授Jack H. hetherington便把自家的猫(F.D.C Willand)给写了上去。

049 ChatGPT和学术

反对的一方认为,ChatGPT由于自身的缺陷,不能够被列为文章的作者。一方面,科研要求原创性工作,而ChatGPT所产生的内容都是从过往的书中中抄来的。另外一方面,文章的作者需要对文章负责,可是ChatGPT明显不能对文章的质量负责。

如何解决嗯?Science期刊的编辑对这个为做出了回答。ChatGPT这一类工具不能够作为文章的作者,但是可以使用这种工具来写文章,不过需要在论文中说明使用了这款工具。

不过需要说明的是,后面还产生了一款工具GPTZero,来检测一份文稿是否是由ChatGPT这一类工具写出来的内容。

ChatGPT的缺点,流畅但不准确

ChatGPT是一种大语言模型的产物,所以其缺点便来自于训练所需要的信息上。ChatGPT的信息都是人工打上了标签的,但是作为打标签的人会存在一系类的错误和偏见,当然打标签的过程也会有一些失误。那么当AI获取了这些信息之后,所产生的结果当然会有所错误或者偏见。专业人员由于自身的知识背景不会被蒙蔽,但是非专业人士呢?

既然有这个问题,那么如何解决呢?有下面三种方法。

第一种,学术期刊都是有引用的,应用的多的文章相对来说比较好。所以根据引用设置权重来比较信息,从而绕过这个方法。

第二种,使用私有数据来训练AI。DeepMind,Anthropic公司便是使用这种方法。

第三种,Facebook公司的Galacitica直接拿科技论文的摘要作为信息来源,并且当信息作为的时候,用户可以提供反馈。

学术界如何应对ChatGPT?

AI已经出现了几个月,完全禁止它是不可能的,现在的任务是研究他,利用它,把它变成工具。

2023年2月Nature上的一篇文章认为学术界在现在应该做的五件事情。

坚持人工验证

由于AI chatbot所产生的的数据仍然可能具有事实性错误、历史性偏见等等,所以最终的信息还是要人类来验证。

发展责任规则

AI不能为所产生的文本负责,最终负责的对象还是人。所以我们应该思考在使用AI的过程中透明、诚实、正直。现在AI可以帮助编辑和作者发现文本当中存在的潜在偏见、准确性和不合时宜的编辑内容。所以AI在未来很有可能和文本处理、编辑工具、搜索引擎、编程工具等等走在一起。

向开源的LLMs投钱

因为大公司产生的LLMs内容是保密的、代码是保密的,不利于AI的继续发展。所以在接下来的日子要向非盈利组织,如大学、NGOs、独立研究人员投钱,让其能够发展处更好的开源项目。

拥抱AI

AI虽然仅仅只是通过文本来说明内容,还没有理解文本的内容。但是仍然要拥抱起变化。AI和学术结合是非常有可能的,会简便一些工作。但是我们作为研究人员的基础,创造性、教育、训练、和他人的交流仍然是未来科技创造力的源泉。

深化讨论

作为一种新工具的出现,还那么火。现在是一种必要的工作去进行一系列的活动。能够通过广泛地讨论出现一些新的原则。并倡导出现国际化的、跨学科的论坛去讨论这些事情。

结语

ChatCPT虽然被称作人工智能,但是仍然还是一款工具,还是不能够替代人在在科研中的三个重要能力:好奇心、想象力、洞察力。但是仍然要学习这种工具,把ChatGPT当成简化科研、快速工作的一款工具。

参考文献

  1. Editorials, Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature 2023, 613 (7945), 612.
  2. Stokel-Walker, C.; Van Noorden, R., What ChatGPT and generative AI mean for science. Nature 2023, 614 (7947), 214-216.
  3. Graham, F., Daily briefing: ChatGPT listed as author on research papers. Nature 2023.
  4. Owens, B., How Nature readers are using ChatGPT. Nature 2023, 615 (7950), 20.
  5. Else, H., Abstracts written by ChatGPT fool scientists. Nature 2023, 613 (7944), 423.
  6. Thorp, H. H., ChatGPT is fun, but not an author. Science 2023, 379 (6630), 313.
  7. van Dis, E. A. M.; Bollen, J.; Zuidema, W.; van Rooij, R.; Bockting, C. L., ChatGPT: five priorities for research. Nature 2023, 614 (7947), 224-226.
作者:Dongdong
链接:http://ddw2019.com/049
声明: 本博客所有文章除特别声明外,均采用CC BY-NC-SA 4.0协议,转载请注明文章地址。

如果观众姥爷们觉得冬冬的博客还不错,可以订阅赏杯奶茶让我继续撰写下去呦 (ฅ´ω`ฅ)
暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇