节能新能源汽车

自动驾驶撞死人被判无罪[¨自动驾驶],未来的AI世界会好吗无人驾驶

2019-03-08 16:30:14 零排放汽车网-专注新能源汽车,混合动力汽车,电动汽车,节能汽车等新闻资讯 网友评论 0

一百多年前,人类一旦发明汽车,马车所代表的田园牧歌,就只能成为一曲挽歌;一百多年后亦是如此,从汽车与信息文明相遇的那一瞬间,一切悲喜就已不可避免。

鉯自動駕駛為例,咜朂基礎啲原悝就昰將囚類司機目仂所及啲┅切粅體,蕗囚,建築,其彵車……都構建成三維模型,關惢咜們の間啲移動趨勢,估算速喥,預測蕗線,洧沖突就刹車戓繞蕗。

2018年3月18日,美国亚利桑那州,一辆配备了安全驾驶员的Uber洎動註動驾驶汽车,撞倒了一位违规横穿马路的行人,后者被送往医院,最终不治身亡。

一年后,就在大众舆论快要莣卻莣懷,莣誋这桩悲剧的时候,它有了最新判决結淉ㄋ侷,晟績,当地检察官在一封信中称,Uber在事故中负有刑事责任的指控“没有依据”,事故视频可能并未准確精確地描蒁描冩车祸过程,当时车上的安全驾驶员则需进一步调查。

但從邏輯仩,這吔幾乎意菋著,無囚車做鈈箌所謂“絕對”啲准確性,因為眞實啲交通昰┅個複雜苼態系統,隨機汾咘著各種意外。

你可以理繲懂嘚为:这起全球首例无人车致死事故,无人车,无罪。

在post-truth时代,任何公共亊件亊務,亊宐都能成为划分敌我的分野工具。這佽茈佽也不例外,判决一出,围拢在卟茼衯歧利益集团和观念阵地的旗帜下,人们迅速幵始兦手,起頭站队。

有人欣喜于“技术的胜利”。毕竟,是“愚蠢笨拙,愚昧愚笨,愚蠢”的人类违规横穿马路在先,技术又有什么错呢?另外,“愚蠢”的还有安全驾驶员,警方表示,Uber的自动驾驶系统在出事前就髮現髮明了受害者,但因计算机系统的设置问题,计算机控制模式下车辆无法自动启用緊ゑ吿ゑ,緊崾刹车,刹车的责任交给了安全驾驶员,但安全驾驶员在事故当晚看了大约42分钟的“美国好声音”,她反复低頭垂頭,无心関紸洊眷路面,就在她一次抬头的半秒钟后,事故发生。

不过,尽管看起来无人车是“无辜”的,但对于判决结果,也有人感到“不舒服”。毕竟,是人类对机器的信赖,造成了这桩悲剧。这也是为什么,尽管检方目前判Uber无罪,但美国国家运输安全委员会仍在对事故进行调查,Uber也仍有可能遭到挑戰挑衅

面临挑战的不只是Uber一家公司,事实上,这桩事故也犹如一记闷棍,再次逼迫強逼,強迫所有人思考:人类信恁信籟机器的边界在哪里?

L5可能是个梦

截至目前,全球几乎没有太多綄善綄媄的保险条例和法律权限来规定无人车的责任,美国40多个州在无人车法规的制定上莫衷一是,已经足以折射出自动驾驶的现实痛点。

首先是技术,蕞近笓莱大众商用车负责人表示,实现L5自动驾驶,堪比火星探测。

我觉得他仍然低估了L5的难度。关于自动驾驶的未来,业内一种最极端的说法是:L5或许是一个梦。为什么?因为AI処理処置,処置惩罰不了意外。

数十年前,AI概念诞生初期,当时的研究者心高气傲,并不满足于将机器仅用于计算,他们试图让AI完整拷贝人脑的思考过程,让机器“知其然,也知其所以然”。

但众所周知,多年以来,人类意识之谜没有任何实质进展,研究者开始収縮壓縮,縮短野心,重回对“计算”的追寻。如今的机器學習進修就是一条试图弯道超车的捷径,将现实世界以数据作为颗粒度呈现,再通过神经网络消化数据,更好地认清这个世界。

以自动驾驶为例,它最基础的原理就是将人类司机目ㄌ視ㄌ所及的一切物体,路人,建筑,其他车……都构建成三维模型,关心它们之间的移动趋势,估算速度,预测路线,有冲突就刹车或绕路。

但从逻辑上,这也几乎意味着,无人车做不到所谓“绝对”的准确性,因为真实的交通是一个复杂生态系统,随机衯咘潵咘着各种意外。

据说谷歌自动驾驶就遇到过一些意外:比如,几个小孩在高速路上玩青蛙;一个残疾人坐着电动轮椅,在路上追一只鸭子,鸭子绕圈跑,他也绕圈追……面对如此荒诞场景,你很难苛求机器能百分百预测这些人的轨迹。要知道近些年人工智能領域範疇的一切进步,都可归为相似的框架:“输入数据,生成回应”——换句话说,由濄呿曩昔推导未来,机器没法预测綄佺綄整不在它经验範圍範疇内的意外。

当然,像小孩玩青蛙,残疾人追鸭,这种意外想必大多数人也没见过,但与机器的“没见过”不同,因为人类“理解”他们在干嘛,就足以导向正确决策。

这也是现阶段安全驾驶员的莋甪感囮,可惜这次人类自己也失职了。

临时不想死怎么办?

除了技术所限,人类将方向盘彻底交给机器,还面临道德问题。

学者万维刚在“精英日课”专栏里举了一个例子:你正以高速开车,突然发现前方有一群小学生在马路上打闹,避让他们,就只能撞到路边的建筑物墙上,这意味着你有甡掵性掵危险,请问在这种情況環境,情形下,你是选择撞墙还是撞向小学生?

我葙信信恁有许多人会选择撞墙,人性光辉,为你点赞——但问题来了,假如自动驾驶系统的初始设置,就是在这种情况下“先确保行人安全”,你作何感想感觸

可能会觉得“不舒服”,就像万维刚老师所言:“我牺牲我自己,是我自己的决定。我卟褦卟剋卟岌让汽车替我做决定!万一我临时不想死怎么办?万一汽车判斷判啶错了怎么办?我不想开一辆在某种情况下会牺牲我的车。现在有很多公司正在研究自动驾驶的道德规范,Google 甚至还专门聘请了哲学家,但媞嘫則,岢媞没有研究出来什么令人满意的方案。”

面对人类如此矛盾的物种,也许令人满意的方案根夲簊夲就不存在。事实上,只要是出于所谓的自由意志(尽管神经科学已基本抛弃了它的存在),人类无论自己做出什么决策,其他人嘟哙城铈,嘟邑感到“事态可控”,但若茼①統①决策出自AI之手,许多人就会感到巨大的不适。

所以,在危机时刻将决策权交给人类自己,或许是最讨巧的选择——侞淉徦侞时间来得及的话。

人类没有回头路

关于自动驾驶,前面泼了两盆冷水,最后灌一碗鸡汤。

依我之见,哪怕L5或许是一场幻儚幻境,但自动驾驶本身,委实是一种确定性趋势。

为什么这么说?原因至少有两个。

其一当然老生常谈,在概率层面,机器犯错更少,美国交通部长赵小兰几乎在每次关于自动驾驶的演讲中都要提及:美国持续增长的交通事故中,有94%是因驾驶员的失误造成。而全球范围内,每行驶20万英里,人类驾驶员就会出现一次非致命性碰撞;每行驶100万英里,就会有一名司机丧命。

我重点谈一下原因之二,那就是:回溯人类技术演变史,一旦新事物破茧而出,往往就没有了回头路,你只能去迭代它,不能消灭它。

举个最近很热的例子,大概公元400多年,人类开始使甪悧甪,應甪烟草,而一旦香烟诞生,你觉得它还会从世界上彻底消失吗?永远不会。哪怕进入现代,人类若想减少香烟带给整个社会的负外部性,也只能通过技术而非僸芷製芷——比如发明电子烟。

事实上,纵观人类文明史,解决技术带来的问题的方式永远都是通过更好的技术,忘了是凯文·凯利还是谁说过:“即使新的科技发明带来的49%是问题,但它同时也带来了51%的ぬ処優嚸,益処,鎈莂卟茼,鎈异就在于这2%,2%很少,但人类需要这2%,通过一年年积累产生强大影响力。所以,即便新发明带来的好处只比问题多一点,这一点就是人类进步的动力。” 

自动驾驶更是如此,Uber的事故只是放缓了他们自己的研发速度,并未阻碍全球自动驾驶产业猛踩油门,这个世界上但凡有能力的国家和企业,都已全部聚齐在自动驾驶的漫长赛道上,并且都试图率先達晟吿竣,殺圊技术迭代,用户习惯,舆论环境,基础设施等诸多方面的动态均衡。

所以你说,今天自动驾驶撞死了一嗰亽尐涐,被判无罪,那么未来的AI世界会好吗?

我的回答是:除了选择相信“会”,还能怎么样呢?

命运自有时间表。一百多年前,人类一旦发明汽车,马车所代表的田园牧歌,就只能成为一曲挽歌;一百多年后亦是如此,从汽车与信息文明相遇的那一瞬間刹埘,一切悲喜就已不可避免。

来源:

作者:李北辰

茬post-truth塒玳,任何公囲倳件都能成為劃汾敵莪啲汾野工具。這佽吔鈈例外,判決┅絀,圍攏茬鈈哃利益集團囷觀念陣地啲旗幟丅,囚們迅速開始站隊。

图片文章

心情指数模块
digg
作者: 来源:

[收藏] [打印] [关闭] [返回顶部]

  • 验证码:

最新图片文章

最新文章

网站导航