译夫子 Y夫子
2018年 第十五期
导读
AI大热,这个话题的讨论将不绝于耳。
谷歌搜索排行榜中
【AI会不会掌控世界,会不会思考】
以及相应的伦理道德问题高居榜首
可见大家对于AI的关切集中在这几个方面:
人类的工作会不会被自动化智能化取代?
对AI伦理道德的论证能否跟上技术上的进步?
是 “人智能化了” 还是 “机器人性化了” ?等等……
先看一期TED
核心思想:在高频次和高强度的工作(frequent and high-volume tasks)方面,机器拥有无可比拟的优势,人在这方面根本不用想着和机器竞争。但当面对新的、复杂的、具有挑战性的工作时,机器肯定比不过人。所以,要想未来工作不被替代,就要每天在工作中寻求一些新的挑战。
现实生活中人工智能设备:
喜马拉雅 “小雅”
行业先驱:Amazon的Alexa Echo
(科幻)Black Mirror第四季里恐怖的Metalhead
Alphabet旗下的Boston Dynamics
似乎已具备Metalhead的雏形
夫子不是这方面的专家,
不会妄想论证这几个世纪难题。
只是把近来听到的、看到的分享一下,
期待和关注【译夫子】朋友交流。
[纽约客 Oct. 23 2017]
认真严肃地分析了这个问题
建议大家看看
“ There’s a saying in robotics: Anything a human being can do after age five is very easy for a robot,”one of Tellex’s students had said to me earlier. “Learn to play chess, no problem. Learn to walk, no way.”
机器人界有句话很经典:
人类五岁后学会的东西对机器人来说很简单。
学会下棋,没问题。
学会走路,不行。
make a salad. “It’s very difficult, and probably not very cost efficient, for a robot to make a salad,” Tellex’s teaching assistant, Josh Roy, said. “We joked that we could make a thirty-thousand-dollar salad with a robot.”
让机器人做沙拉,可以。但一份成本高达30000美金。
面临挑战:
teaching a machine to handlea random assortmentof irregularly shaped objects.Part of the challenge, whatever the task, is devising an “end effector”—the handlike tool at the end of the robot’s arm—that can grip a variety of shapes and sizes and textures with different levels of pressure. The more complex part, and the part that preoccupies Tellex, involves teaching the robot to perceive the different objects so that it understands what it’s supposed to do.
为机械手设计 “末梢神经器” 。机械臂时可以根据不同的压力大小抓取不同形状、大小和材质的物件。
An industrial robot will pick up the same object, in the same location, over and over. The challenge, and the multibillion-dollar business opportunity, was to teach a robot to function in an environment that was constantly changing.
最困难的是:让机器适应复杂多变的外部环境。
结论
人类的工作已经被取代(qiang)了一些,这是一个不可避免的技术潮流。但自动化、智能化也面临一些发展的瓶颈:比如文中提到机械手 end effector 的研发设计,如何让自动化、智能化更好地完成多变的任务,让机器更 “灵”、更 “巧” 是未来发展的方向,但随之也会带来新的问题。
附:
Isaac Asimov
Three Laws of Robotics
1942年发表的作品Runaround(《转圈圈》,《我,机械人》中的一个短篇)
LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观
LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外
LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存
威尔 · 史密斯 主演电影《机械公敌》
想看更多往期夫子原创文章?
口译学习
考研攻略
随笔
英语学习笔记
夫子微信
用户赞赏通道
注: 以上内容为作者原创,如果您对本公众号内容感兴趣,欢迎订阅和转发,转载请注明出处。
今天就先分享到这里,欢迎后台互动
喜欢那就关注一下吧
点赞吗、转发吗?
领取专属 10元无门槛券
私享最新 技术干货