完善资料让更多小伙伴认识你,还能领取20积分哦, 立即完善>
` 斯坦福大学计算机科学助理教授Percy Liang解释说,人类在日常的互动中依赖于一定程度的可预测性——包括与其他人类和自动化系统(包括但不限于他们的汽车)。创造这种可预测性的一种方法是利用机器学习。 机器学习处理算法,允许人工智能根据从先前经验收集的数据“学习”。开发人员不需要编写代码来指示人工智能的每一个动作或意图。相反,系统从它的经验中识别模式,并根据这些数据采取适当的行动。它类似于试验和错误的过程。
在研究和测试环境中,机器学习系统经常被问到的一个关键问题是:“为什么系统会做出这样的预测?”关于这一意图的探索,梁教授解释道:“如果你正在过马路,一辆车向你驶来,你就有了另一个人类司机将要做的模型。”但如果汽车是由人工智能控制的,人类该如何知道如何行动呢? 重要的是要看到一个系统运行良好,但也许更重要的是它能够用容易理解的术语解释它为什么会这么做。即使系统不准确,它也必须是可解释的和可预测的。为了安全部署人工智能,系统必须依赖于充分理解、现实和可测试的假设。 目前的理论探索了可靠的人工智能的思想,集中于在训练数据中拟合可观察的输出。然而,正如梁教授所解释的,这可能会导致“自动驾驶系统在验证测试中表现良好,但不理解所期望输出的人为值。” 当然,运行多个测试是很重要的。梁教授解释说,这些类型的模拟“有利于调试技术——它们允许我们更容易地执行受控的实验,而且它们允许更快的迭代。”然而,要真正了解一种技术是否有效,“没有什么可以替代将它应用到现实生活中,”教授说,“这适用于语言、视觉和机器人。”“自动驾驶汽车在所有测试条件下都可能表现良好,但无法准确预测它在不可预知的自然灾害中的表现。” 在机器学习中,图像检测器给他们提供训练数据,例如照片,电脑生成的图像。并给它们贴上标签来学习识别物体。 研究的另一个方面是确保人工智能理解,并能够交流,它对人类的限制。他解释说,传统的成功标准是平均精确度,“这不是人工智能安全的良好接口。”他提出,“一个80%可靠的系统该怎么做?” 他不希望系统有一个准确的答案。相反,他希望系统能够在不知道答案的情况下承认。如果一个用户问一个系统“我应该服用多少止痛药?”这个系统更适合说“我不知道”,而不是做一个代价高昂或危险的错误预测。 他们的团队正在研究这个挑战,通过学习算法跟踪模型的预测——所有的方法都回到了模型参数产生的训练数据。团队希望这种方法——通过训练数据的透镜来观察模型——将成为开发、理解和诊断机器学习的工具箱的标准组成部分。研究人员可以将其与许多应用程序联系起来:医学、计算机、自然语言理解系统和各种商业分析应用程序。 ` |
|
相关推荐 |
|
PD诱骗取电芯片_PD_Sink端芯片之XSP05实战应用电路
1937 浏览 1 评论
BLDC、PMSM电机智能栅极驱动芯片之TMC6140知识分享
733 浏览 0 评论
国产电源芯片DP4054 软硬件兼容TP4054 规格书资料
1244 浏览 0 评论
2849 浏览 3 评论
1316 浏览 1 评论
小黑屋| 手机版| Archiver| 电子发烧友 ( 湘ICP备2023018690号 )
GMT+8, 2024-11-26 10:14 , Processed in 0.348571 second(s), Total 38, Slave 29 queries .
Powered by 电子发烧友网
© 2015 bbs.elecfans.com
关注我们的微信
下载发烧友APP
电子发烧友观察
版权所有 © 湖南华秋数字科技有限公司
电子发烧友 (电路图) 湘公网安备 43011202000918 号 电信与信息服务业务经营许可证:合字B2-20210191 工商网监 湘ICP备2023018690号