发 帖  
  • 想用Memoji做实验遇到的最大挑战就是,目前没有可用的API能够程序化创造它们(没有直接的方法可以让我们在iOS中自动进行创造)。所以,当我们想搜索可能的Memoji作为生成过程的一部分时,这一过程变得极为低效。理想状...
    0
    7544次阅读
    0条评论
  • 在开发RND之前,OpenAI的研究人员和加州大学伯克利分校的学者进行了合作,他们测试了在没有环境特定回报的情况下,智能体的学习情况。因为从理论上来说,好奇心提供了一种更简单的方法来教授智能体如何与各种环境进行交互,它不...
    0
    3725次阅读
    0条评论
  • 但是这就造成了一个问题,类别损失没有了。所以,LoGAN在AC-GAN的基础上额外增加了一个分类器Q,辅助判别器进行分类。也就是说,和AC-GAN不同,LoGAN由三个网络组成:生成器G、判别器D、分类器Q。...
    0
    4016次阅读
    0条评论
  • 要为一个子任务生成成功策略需要数小时的模拟和优化。高计算成本也有好处,这样一来,最终结果就不是单一的动画,而是智能体的控制策略,可以处理多种情况,比如不同的衣服位置和人物动作,如果过程中有干扰,会利用控制策略进行修正。...
    0
    2315次阅读
    0条评论
  • 这个工具包之所以易于上手,是因为它和模拟器本身不需要太多交互,只需注意两点——一是查找你关注的内部状态相关联的内存地址值,二是用选取的环境跟踪状态。你可以用MAME Cheat Debugger,它会反馈游戏的内存地址值...
    0
    4047次阅读
    0条评论
  • 尽管看起来是同一件事,两种说法,这两种回归会给出不同的最佳拟合直线。这两条线不可能都是最佳的,那么哪一条才是最佳拟合直线,为什么?...
    0
    3439次阅读
    0条评论
  • 以CycleGAN和pix2pix为代表的风格迁移网络是将图像从一个领域转移到另一个领域的模型(例如将马变成斑马,将素描画编程带有颜色的图像)。结果是,我们无法在两个独立的状态之间对一种特征进行调整(例如在面部添加一点点...
    0
    4045次阅读
    0条评论
  • 我们还是接着谈谈LogSumExp吧。首先,从纯数学的角度来说,LogSumExp没什么特别的。但是,当我们讨论计算机上的数学时,LogSumExp就特别起来了。原因在于计算机表示数字的方式。计算机使用固定数目的位元表示...
    0
    15808次阅读
    0条评论
  • 事实上,这种不均匀的重叠在两个维度上更明显,因为两个图案相乘,不均匀性是原来的平方。例如,在一维中,一个步长为2,尺寸为3的反卷积的输出是输入的两倍,但是在二维中就变成了四倍。...
    0
    2922次阅读
    0条评论
  • 仍以VGG为例,由于前面采样部分过大,有时候会导致后面进行反向卷积操作得到的结果分辨率较低,会出现细节丢失等问题。为此,FCN的解决方法是叠加第三、四、五层池化层的特征,以生成更精准的边界分割。...
    1
    13419次阅读
    0条评论
  • 深度学习中的记忆总是非常有趣,科学家们经历了千辛万苦,也很难找到一种结构能打败经过良好调校的LSTM。但是,人类的记忆机制可不像LSTM。当我们从家开车去超市时,回想的都是原来走过几百次的路线记忆,而不是怎么从伦敦的一个...
    0
    6017次阅读
    0条评论
  • 尽管地点映射本身就是一个困难的问题,足以专门写一篇博客,人类的直觉能在很大程度上帮助解决这一问题。考虑上图中访问圣莫尼卡海滩的例子。稍微一瞥周边地点,就能得出结论,用户真去访问一个救生站的几率大概非常小。...
    0
    9987次阅读
    0条评论
  • 当你在超市中搜索时,心里可能会想:现在我在肉类区域,所以接下来可能到水产品区。这些都应该是相近的。如果你预测错了,可能会惊讶:诶?怎么是蔬菜区?从而得到奖励。这就会激励你进一步寻找,直到找到目标。...
    1
    4348次阅读
    0条评论
  • 斯坦福的CS231n是一个极好的学术性课程。我看了Andrej Karpathy的授课视频,讲得非常好。课程作业的设置也很好,可以远程完成。尽管课程主要内容为图像问题和卷积网络,课程其实是“从头开始”的,同样覆盖了前馈网...
    0
    2194次阅读
    0条评论
  • LSTM和GRU的动态图解

    2018-10-27 09:08
    根据上图公式:新权重=权重-学习率×梯度。已知学习率是个超参数,当梯度非常小时,权重和新权重几乎相等,这个层就停止学习了。由于这些层都不再学习,RNN就会忘记在较长序列中看到的内容,只能传递短期记忆。...
    1
    14458次阅读
    0条评论
ta 的专栏

成就与认可

  • 获得 62 次赞同

    获得 0 次收藏
关闭

站长推荐 上一条 /9 下一条

返回顶部