TA的每日心情 | 开心 2016-12-9 18:18 |
---|
签到天数: 85 天 连续签到: 1 天 [LV.6]常住居民II 扫一扫,手机访问本帖
|
1. ===功能===
人工智能现在已经能实现很多功能了,比如
语音识别——李开复博士当年做的工作奠定了很多当今识别系统的基础。这里忍不住说一下,Siri本身的技术并没有特别大的亮点,真正nb的是它的模式(语音识别直接与搜索引擎结合在一起,产品体验做得好。而且关键是这样的模式能采集到更多数据,使得系统的精度越来越高)
自然语言理解——目前看到的最强的结果应该是IBM Watson。但其实我们现在用的搜索引擎、中文输入法、机器翻译(虽然其实还不怎么work)都和自然语言理解相关。这块儿不是我的专业,请 @段维斯 同学补充。
数据挖掘——随着近年数据量的疯狂增长,数据挖掘也有了长足进步。最具有代表性的是前几年著名的Netflix challenge(Netflix公司公开了自己的用户评分数据,让研究者根据这些数据对用户没看过的电影预测评分,谁先比现有系统好10%,谁就能赢100万美元)最后这一比赛成绩较好的队伍,并非是单一的某个特别nb的算法能给出精确的结果,而是把大量刻画了不同方面的模型混合在一起,进行最终的预测。
计算机视觉——目前越来越多的领域跟视觉有关。大家可能一开始想到的都是自动驾驶。虽然大家都在说googleX的无人车, 但实际上现在无论是商业上,还是技术整合上最成功的算法是Mobile Eye的辅助驾驶系统。这个公司也是目前computer vision领域最挣钱的公司。
从实现新功能方面说,视觉的发展的趋势主要有两方面,A) 集成更多的模块,从问题的各种不同方面,解决同一个问题(比如Mobile Eye,就同时使用了数十种方法,放到一起最终作出决策) B) 使用新的信息,解决一个原来很难的问题。这方面最好的例子是M$的Kinect,这个产品最让人拍案叫绝的就是那个红外pattern投影仪。
2. ===理论基础===
这里说的是数学理论,是为实现功能解决问题而存在的。与人类的智能的联系在下一节说。从这个角度,我们已经有了很多强有力的数学工具,从高斯时代的最小二乘法,到现在比较火的凸优化,其实我们解决绝大多数智能问题的套路,都可以从某种意义上转换成一个优化问题。
真正限制我们解这个优化问题的困难有以下三个:
计算复杂度——能保证完美解的算法大都是NP-hard的。如何能让一个系统在当前的硬件下“跑起来”,就需要在很多细节取巧,这是很多learning paper的核心冲突。
模型假设——所有模型都要基于一些假设,比如说,无人车会假设周围的汽车加速度有一个上限(至少不会瞬间移动吧,否则怎么闪避)绝大多数假设都不能保证绝对正确,我们只是制定那些在大多数时候合理的假设,然后基于这些假设建模(比如,在语音识别里,我们是否要假设存在背景噪声呢?如果有背景噪声,这个噪声应该符合什么特点呢?这时候无论你怎么定标准,总能找出“反例”)
数据基础——任何学习过程都需要数据的支持,无论是人类学说话学写字,还是计算机学习汽车驾驶。但是就数据采集本身来说,成功的案例并不多。大概这个世界上最强的数据采集就是google了吧。每次你搜索一个关键词,然后点进去,google就自动记录了你的行为,然后以此数据来训练自己的算法。
|
|