抱歉,您的浏览器无法访问本站

本页面需要浏览器支持(启用)JavaScript


了解详情 >

离散世界与连续世界的联系

神奇的伽玛函数QAQ

Math

一大波题目正在来袭

请做好准备!

Math

回顾几个有趣的小题目

温故知新(大雾

Math

宇宙的本质是计算

想象一下,一望无际的大平面被分成了许许多多方格子。每个格子里正好能放下一个“细胞”。这个细胞不能运动,它可以是死的,也可以是活的;但它的状态,是由它周围8个细胞的死活决定。

随笔

互联网进化!

达尔文进化论动摇了神学的土壤和基础,但互联网的进化却可能引发神秘但有趣的问题——互联网和人脑为什么向同一方向进化?

随笔

BERT预训练模型及其应用案例

预训练模型最开始是在图像领域提出的,获得了良好的效果,近几年才被广泛应用到自然语言处理各项任务中。

  • (1)2003年Bengio提出神经网络语言模型NNLM,从此统一了NLP的特征形式——Embedding;

  • (2)2013年Mikolov提出词向量Word2vec,延续NNLM又引入了大规模预训练(Pretrain)的思路;

  • (3)2017年Vaswani提出Transformer模型,实现用一个模型处理多种NLP任务。

  • (4) 基于Transformer架构,2018年底开始出现一大批预训练语言模型(3个预训练代表性模型BERT[2018]、XLNet[2019]和MPNet[2020]),刷新众多NLP任务,形成新的里程碑事件。

NLP

自然语言处理研究报告[存档备用]

存档备用

NLP

尝试使用GPU加速计算

大规模训练,gpu和cpu速度差别很大。

R语言初步

尝试使用R语言进行数据处理

手把手教你用Python开始第一个机器学习项目

熟悉一个新的平台或者一个新的工具最好的方式就是从头到尾踏实的完成一个机器学习项目