Page 1 of 1

什么是 BERT?

Posted: Sun Jun 15, 2025 5:40 am
by darafathossain
它的学习方式有趣之处在于,它可以获取任意长度的文本(这很好,因为语言在我们说话的方式上是相当任意的)并将其映射到向量中。

向量是一串固定的数字。它有助于语言的机器翻译。

它发生在一个我们无法想象的真正狂野的N维空间中。将相同的语境语言放入相同的区域。

和Word2vec类似,它使用一种叫做masking的技术,来实现越来越智能的BERT。


当一个随机单词隐藏在句子中时,就会发生掩蔽。

BERT 是一个二维模型,它通过查看隐藏词前后的单词来预测该单词是什么。

它反复执行此操作,直到其能力足够强大,能够预测被屏 巴哈马 WhatsApp 号码数据库 蔽的单词。之后,它可以进一步完善,执行 11 个最常见的自然语言处理任务。真的非常非常激动人心,在这里度过的时光非常有趣。


BERT 是一个预先训练的无监督自然语言处理模型。经过微调后,BERT 的表现可以超越 11 种常见的自然语言处理任务,成为自然语言处理和理解的火箭助推器。

BERT 是深度二维的,这意味着它会查看维基百科上的单词以及单词前后的上下文,以便更好地理解语言。