发 帖  
  • 在用户预期不苛刻的场景(APP/硬件),能满足商业化需求,比如语音助手/滴滴/高德/智能音箱/机器人);但如果用户预期非常高的话,是很难满足的,因为还是会有“机器感/机械感”,不能非常自然的模拟人声。...
    1
    83415次阅读
    0条评论
  • 研究人员表示这一研究实现了很多记录,不仅是在气象科学领域第一次将深度学习用于解决如此大规模的气候分割问题,同时在深度学习领域也是第一次将计算能力拓展到了Exa(艾10^18)量级。1.13EF/s的计算能力是深度学习首次...
    0
    4825次阅读
    0条评论
  • 学习如何在量子计算机上编程需要一些耗费时间。因为它的处理器不像我们用的传统电脑一样,你必须训练芯片来执行简单的功能,虽然你的手机已经可以在几秒钟内完成这些功能。然而,在某些情况下,研究人员发现这种芯片的性能比传统电脑高出...
    0
    3052次阅读
    0条评论
  • 这是DARPA资助波士顿动力创造出的一个具有超强移动能力的机器人,它可以适应各种地形,包括沙地、水泥、泥巴甚至是雪地,无需特别的传感器、算法和步态规划它都可以轻松驾驭。RHex目前仍然活跃于机器人研究领域、并成功地启发了...
    0
    4598次阅读
    0条评论
  • 有的算法需要使用者具有一定的编程能力,而有的算法生成的结果却又不是那么逼真。我们真正需要的是一个能够方便高效地生成大规模训练数据来训练网络完成对新物体的计算机视觉任务。同时还需要在没有光线追踪的情况下实现对于目标图像逼真...
    0
    5814次阅读
    0条评论
  • 研究人员利用Hartree-Fock作为输入来预测电子结构的相关能量。整体的相关能量通过来自占据分子轨道独立和成对的贡献来进行表达,基于分子轨道特性,研究人员利用高斯过程回归来预测不同轨道特征的贡献。通过最大化化学系统间...
    0
    2461次阅读
    0条评论
  • Workshops是会议主要内容。今年的IROS共接收了48个(33个full-day和15个half-day)workshops,在1号和五号举行。workshop包含了传感器、执行器、操纵、人机协作、控制、多级协同、...
    0
    3360次阅读
    0条评论
  • 该项目的目标不是制造一把功能性椅子,而是为人类设计师创造一个激发灵感的“视觉提示”,为了探索了如何让机器学习用作艺术和设计工具来启发人的思维,就像超现实主义的作品,展现的是潜意识,联想和想象力,而非理性实际的事物。 ...
    0
    5257次阅读
    0条评论
  • 在本文工作中,作者提出了DeepIM——一种基于深度神经网络的迭代6D姿态匹配的新方法。给定测试图像中目标的初始6D姿态估计,DeepIM能够给出相对SE(3)变换符合目标渲染视图与观测图像之间的匹配关系。提高精度后的姿...
    0
    3795次阅读
    0条评论
  • 该模型可以分析单词或说话风格的序列,并确定这些模式是否更容易在抑郁或抑郁的人身上表现出来,如果在新的案例中看到相同的序列模式,模型便可以根据训练的结果预测其是否有抑郁倾向。这种技术还有助于模型将整个对话视为一个整体,并分...
    0
    2738次阅读
    0条评论
  • 将robotaxis服务作为无人驾驶车辆普及的最初战略部署是极具意义的,因为它们只需要在特定区域内工作。而且完全自主的无人车要能够实时感知其周围环境并能即时作出响应,其所配置传感器的成本往往就要比车辆本身来的更高。大部分...
    0
    3751次阅读
    0条评论
  • 提到语音识别,人们第一时间会想到手机里的Siri。你可以直接通过语音告诉它你的想法、需求或者任何其他的东西。通过机器学习算法,它可以将声音序列转化为对应的词语并进行理解,随后给出响应。支撑它最核心的功能就是准确的识别你发...
    0
    6428次阅读
    0条评论
  • 这一趋势带来了去中心化机器学习的迅速发展,这种新的机制可以将训练数据存储在很多的节点中,并协同工作来为问题找到合适的解决方案。设备端的机器学习与此类似,它的本质是利用去中心化的方式训练出一个高可靠性的中心化模型。训练数据...
    0
    3071次阅读
    0条评论
  • 像其他机械手一样,SoftHand2也是通过“肌腱”的原理,也就是利用线缆来拉动手指,但线缆以一种更新颖的方式排列。它不使用一串电缆连接到单个手指,而只使用一条驱动缆绳通过滑轮组迂回连接每个手指。这看起来虽然没那么灵活,...
    0
    9495次阅读
    0条评论
  • 强化学习是一种训练主体最大化奖励的学习机制,对于目标条件下的强化学习来说可以将奖励函数设为当前状态与目标状态之间距离的反比函数,那么最大化奖励就对应着最小化与目标函数的距离。...
    0
    7034次阅读
    0条评论
ta 的专栏

成就与认可

  • 获得 9 次赞同

    获得 0 次收藏
关闭

站长推荐 上一条 /6 下一条

返回顶部