• 拾月收藏夹
  • My links
  • 标签
  • 每天
  • RSS
  • 登录
过滤出没有标签的链接

木遥:解释一些关于大语言模型的常见误解。https://m.weibo.cn/status/4867504348334485

  • 人工智能
  • AIGC
  • NLP
  • type:article
  • 人工智能
  • AIGC
  • NLP
  • type:article

其中提到的第二个误解:「ChatGPT 是统计模型,所以它的一切认知都是来自于它的语料。」

我也有,并且当大家讨论ChatGPT的时候,经常会从这个基础数学原理的角度得出「当前的AI并没有质变」的结论。

我不知道有没有质变,但给我的感受,是产生了质变。

但让我更意外的是,原来学术界也不知道在这样基础的原理下,为什么产生如此意外的结果/能力。(就是目前处于它做到了但我们并不确切知道它为什么能做到的状态)-- 关于这一点,木遥附上了两个论文链接,一个来自Google,一个来自微软:

  • What learning algorithm is in-context learning? Investigations with linear models
  • Why Can GPT Learn In-Context? Language Models Secretly Perform Gradient Descent as Meta-Optimizers
永久链接
February 11, 2023 09:38:47 PM GMT+08:00
Shaarli 376 条记录 · Shaarli · 个人、超快、极简、掌握数据库的书签服务 由 Shaarli 社区提供 · 文档 · Theme : Stack · Font : DINish
折叠 全部折叠 展开 全部展开 确定删除此链接? 确定删除此标签? The personal, minimalist, super-fast, database free, bookmarking service 由 Shaarli 社区提供