目前人工智能技术技术的不断发展壮大,不断重塑人们工作、学习和生活方式,但是它在为人类带来更多的便利与福祉的同时,也正在产生越来越多的令人思考的问题。
算法的偏见主要源于数据的偏见。当我们在用人工智能算法做决策时,算法可能是根据已有的数据,学会歧视某一个体。如根据种族,性别或其他因素,作出有歧视倾向的决策。即使种族或性别等因素被排除在数据之外,算法也能够利用人的姓名或地址中的信息做出有歧视倾向的决定。
例如,用一个听起来像非洲裔美国人的名字进行搜索可能会产生一个用于查询犯罪记录的工具的广告,而其他名字搜索这种情况不太可能发生。在线广告商倾向于向女性用户展示商品价格更低的广告。谷歌的图片软件曾错将黑人的图片标记为“大猩猩”。除了源于数据的偏见,某些公司现有的算法本身可能也会存在歧视问题。但是这些算法和数据不是开放的,而各个国家和机构对很少有相应的监管措施。
目前现有的人工智能算法都是数据驱动,我们需要大量的数据来训练模型。我们每天在享受人工智能带来的便捷的同时,例如Facebook,谷歌,亚马逊,阿里巴巴等科技公司在获取大量的用户数据。而这些数据会揭露我们生活的方方面面(如政治、宗教和性等)。
例如,我们在上网时,原则上,科技公司可以记录每次点击,每页滚动、观看任何内容的时间以及浏览历史。科技公司可以根据我们每天的打车记录,消费记录,知道我们在哪儿,去哪儿,做了什么事,教育程度,消费能力、个人偏好等个人隐私。
随着计算机视觉的发展,图像及视频的可行信也越来越低。现在我们可以通过PS,GAN(生成对抗网络)等技术制作假图像,让人难分真伪。
例如,通过PS,把犯罪嫌疑人P在一个从未去过的地方或将他与从未见过的人放在一起,以此来制造假证据。通过PS,很多减肥药广告可以改变人物的外观以达到减肥前后的对比。如Lyrebird 是一个可以从几分钟录音样本中自动模仿人声音的工具,也可能会被不法分子利用。利用GAN网络生成家居图像发布在租房和订酒店的平台。
从人类的发展进程上看,我们一直在寻求提高效率的途径,即以更少的资源获得更多。我们用尖锐的石头,更高效地狩猎和采集食物;用蒸汽机,减少了对马匹的需求。实现自动化的每一步都会改变工作生活。在AI的时代,哪些工作会被AI取代呢?
AI会取代那些重复性强、创造性低,弱社交的工作。例如,最可能被AI替代的工作有快递员,出租车司机,会计,电话销售,客服等等。而最不可能被AI替代的工作有作家,管理人员,软件工程师,设计师,人力资源经理,活动策划等等。
现在流行的基于深度学习的AI算法有点像罗素鸡,只是通过结果来修正模型参数,而缺少逻辑推理能力。例如当我们在如诸如Siri、小冰等聊天时,其实她根本不知道自己在说什么,他根本不了解说话的语境和措辞,她只是经过百万级别标记的数据选出一句最可能适合的话。
卷积神经网络之父Yann Le Cun在2017年曾说:“是时候放弃概率论了,因果关系才是理解世界的基石”。加州大学洛杉矶分校的教授朱曾说:“基于深度学习的AI只是一只鹦鹉而已,而我们需要的是一只乌鸦”。
此外,还有很多未解决的问题。如人工智能创作物受版权法保护吗?人工智能失控?谁来赋权于机器人?赋予机器人哪些权利?人机情感伦理等等。

