-
【AlphaCode】Competition-Level Code Generation with AlphaCode
学习这篇论文之前,先来看个AlphaCode在编程竞赛上的一个应用: 题目链接:Backspace 题意:有一个字符串A,现在将其
-
【Codex】Evaluating Large Language Models Trained on Code
这篇文章来解读最近比较有意思的 Transformer 预训练模型在自动生成代码方面的应用, Paper Link: Evaluating Large Language Models Trained on Code 自
-
【Codex】Evaluating Large Language Models Trained on Code
这篇文章来解读最近比较有意思的 Transformer 预训练模型在自动生成代码方面的应用, Paper Link: Evaluating Large Language Models Trained on Code 自
-
【GPT】Improving Language Understanding by Generative Pre-Training
Paper Link: Improving Language Understanding by Generative Pre-TrainingGPT系列文章解读: 【GPT2】Language Models are
-
吴恩达DeepLearning第二部分作业week3
又麻了,搭建环境花了半天。因为兼容问题Tensorflow版本和其他库版本的要求非常复杂。推荐用anaconda和pycharm。anaconda很容易创建各个版本的python的环境。 anaconda安装教程&am
-
吴恩达DeepLearning作业week3
花了大半天时间完成了手推反向和找bug,不得不说这个反向是真的恶心,特别要注意维数的变化。DeepLearning学习又前进一大步。 这次作业要求: 构建具有单隐藏层的二分类神经网络。 使用具有非线性激活功能激活函数 计算交叉熵损失(损失函
-
pytorch几种乘法的区别
pytorch几种乘法的区别 torch.mul()是矩阵的点乘,即对应的位相乘,要求shape一样, 返回的还是个矩阵 torch.mm()是矩阵正常的矩阵相乘,(a, b)* ( b, c ) = ( a, c ) torch.dot(