免费阅读
返回
菜单
上一章查看最新章节下一章

第267章 饥不择食的META

作品:科技入侵现代作者:鸦的碎碎念
如果本章错误,请点击报错10秒纠正

是Transformer-based QA模型的痛点-全层输入宽自注意力导致计算慢和内存高予以解决,我提出DeFormer,一个分解的Transformer变体。

在较低层,DeFormer用问题宽和段落宽自注意力替换全自注意力,避免问题和段落序列的交叉计算。

这允许独立处理输入文本,实现段落表示的预计算,从而大幅减少运行时计算。

DeFormer结构与Transformer相似,可直接用预训练权重初始化,并在QA数据集上微调。

我们的实验显示,DeFormer版本的BERT和XLNet在QA任务上加速4.3倍以上,仅通过简单蒸馏损失损失1%准确率。”

尼兰詹说的是他2020年在ACL会议上发表的论文,是当时LLM优化领域的经典工作,当时LLM流行的模型叫BERT,这篇论文直接构建在预训练Transformer上,LLM的瓶颈,也就是计算成本,在下游任务中凸显,这篇则一定程度上提出了解决思路。

“包括我在2020年的另外一篇工作,其实和LLM的核心,也就是多层注意力有着类似的核心逻辑”

尼兰詹自然不是水货,他在人工智能领域确实浸淫多年,有不错的成果,手上有好几篇顶会文章,都和LLM有关。

那还是2020年,当时大模型还名不见经传呢,在人工智能领域属于边缘化的方向。

扎克伯格是花了很多冤枉钱,把脸书改名META错误估计了元宇宙的到来时间,但不代表他没脑子,单纯因为尼兰詹是林燃的教授,就找他来。

尼兰詹自己真有几把刷子,也是很重要的原因。

大模型里的关键工作,包括自注意力机制、多头注意力、位置编码这些,尼兰詹都有深入的研究,毕竟他研究的重要方向之一就是NLP。

扎克伯格欣喜过望,觉得自己找对人了。

“巴拉苏布拉马尼安教授,在训练LLM中,你是如何处理过拟合或者欠拟合问题呢?”

“大规模训练,预训练涉及在海量无标签数据上学习通用表示,我们可以通过掩码语言建模或下一句预测;另外微调在特定任务数据集上调整权重,实现迁移学习。

针对过拟合,我认为使用正则化和dropout,比如说在BERT变体中dropout率0.1,并应用早停机制;欠拟合时,增加模型深度或数据增强。

…。。
   本章没完,请点击下—页继续阅读!如果被转码了请退出转码或者更换浏揽器即可。
  温馨提示:亲爱的读者,如果你觉得本站还好,为了避免丢失和转马,请勿依赖搜索访问,建议你使用[华为刘揽器]或[Firefox火狐刘揽器]访问并收蔵【浩南小说】 m.haonangua.com。我们将会持续为你更新,还建议你注册会员使用书架功能追书阅读更方便。
上一页 12345下一页
上一章查看最新章节下一章
临时书架加入书签回顶部↑

看了《科技入侵现代》的书友还喜欢看

全球灾变:我有一座恐怖屋
作者:不冷的天堂
简介: 【重生】+【诡异】+【神职序列】+【御鬼】+【诸天】灾变时代百鬼夜行,山海浮屠妖魔显...
更新时间:2026-03-03 23:38:00
最新章节:第六百三十二章 狼狈
牛啊牛啊!男主们又被抢走了
作者:岁也
简介: 【快穿渣女万人迷+修罗场+顶级勾引+黑原女主+无固定cp】\n桑雪是一个坏女人,死后...
更新时间:2026-03-03 23:43:44
最新章节:他太优秀了怎么办?13
盗笔:炮灰爸妈支棱起来了
作者:桥上衣
简介: 【评分刚出来,会涨的,不要看到第三十一章就不看了,接着看下去,是铺垫不是无厘头!
更新时间:2026-03-03 23:36:12
最新章节:第243章 被问话的古隆老太太
被休后,每日情报助我熬过荒年
作者:慕莲莲
简介: 灾荒+系统+日常流+发家致富+极品不多+无空间\n李木槿在末世挣扎求生了一年,死于饥...
更新时间:2026-03-03 23:35:18
最新章节:第371章 他是谁?
重生八零:我在长白山猎野味发家
作者:忧伤的蓝刀鱼
简介: 岳峰重生1980,成了长白山脚下最落魄的猎户。父亲瘸了腿,家里日子过的捉襟见肘。
更新时间:2026-03-03 23:39:01
最新章节:第889章 独门香饵立功了
CS:坏了,真让他成Goat了
作者:地精咖啡
简介: “预支2021S1mple巅峰实力!”

“条件不足,预支失...
更新时间:2026-03-03 23:41:29
最新章节:第175章 我听见了数值的回响!(二合一)
书名:

本站若有图片广告属于第三方接入,非本站所为,广告内容与本站无关,不代表本站立场,请谨慎阅读。

Copyright © 2020 浩南小说 All Rights Reserved.kk

SiteMap