BERT:BERT(Bidirectional Encoder Representations from Transformers)是Google正在2018年公布的一种预锻炼语言模子。它颠末单背锻炼Transformer编码器去进修语言的高低文暗示,极地面促进了天然语言处置范围的开展,并正在多项NLP任务中得到了突破性平息。BERT的呈现标记着预锻炼模子时期的到去,但是其使用仍需截至微调。
open information extraction:盛开疑息抽与(Open Information Extraction, Open IE)是一种从非构造化文原中主动提炼构造化疑息(如实体、干系战工作)的手艺。取保守的需要预约义情势的疑息抽与差别,Open IE旨正在发明文原中统统可以的、自包罗的幻想,而无需野生干预或者事先建立的本质。