當前位置:係統粉 >   IT資訊 >   微軟資訊 >  無人車如果出事故, 微軟百度要負責嗎?

無人車如果出事故, 微軟百度要負責嗎?

時間:2017-07-19 來源:互聯網 瀏覽量:

昨日,微軟與百度宣布在自動駕駛領域達成合作協議,微軟企業副總裁凱文·達拉斯在聲明中說,要利用微軟的技術讓無人駕駛更安全。李彥宏上周在公開場合也試圖讓觀眾吃顆定心丸:“未來無人車一定比人類司機更安全。”

無人車如果出事故, 微軟百度要負責嗎?(1)

人們對無人駕駛感興趣的同時,最擔心的還是安全問題。技術雖然在不斷進步,但“不怕一萬,就怕萬一”,無人車要是出了問題,誰來負責?隨著人工智能技術的不斷成熟,法律怎樣跟上科技步伐?

無人駕駛誰擔責?

前段時間的百度開發者大會上,現場屏幕出現了百度創始人、董事長李彥宏乘坐自動駕駛汽車前往會場的畫麵,畫麵中李彥宏坐在副駕駛,駕駛座的百度智能汽車事業部總經理顧維灝,在一分鍾的連線時間內,手都沒放在方向盤上,而無人車行駛的道路則是車水馬龍的北京五環。

網友們感動於百度終於久違地為大家帶來驚喜的同時,一些眼尖的“老司機”發現,李彥宏的無人駕駛汽車屬於違章上路⋯⋯

其實,在日本、美國、德國等國家,無人駕駛的測試審批已經開始。以美國加州為例,加州車輛管理局網站顯示,截至2017年6月27日,已經有36家車企取得了無人駕駛汽車測試牌照。

而目前我國的《道路交通安全法》對於無人駕駛汽車能否上路還沒有相關的規定。除了道路安全的考慮,無人駕駛汽車還拋給了法律界一個問題:如果出現事故,那麼責任主體應當如何劃分?

日本在今年4月製定了無人駕駛車輛測試審批標準,其中規定無人駕駛車輛測試的遠程控製人員必須持有駕照並承擔駕駛員的義務和責任,如果在測試中發生交通事故,還需承擔法律責任。

中國科學院大學公管學院法律與知識產權係副教授劉朝對記者表示,關於無人駕駛汽車的法律問題,全球探討激烈,但立法進程緩慢。無人駕駛法律責任認定的難點主要有:

第一,從法律上看,法律的權威性決定了其天然具有滯後性,無人駕駛事故中的舉證責任和舉證能力問題涉及產業、車主及駕駛者、監管層等多方主體,並受製於技術手段,立法更需要謹慎;

第二,從技術上看,無人駕駛技術尚未發展到能夠幫助明確劃分法律責任的程度,例如:事故發生時,對於人,可能承擔責任的主體眾多,在人和人之間如何劃分責任?在人機之間如何劃分責任?因此,無人駕駛當前的法律缺失或者滯後,是一種在技術尚不成熟狀態下的審慎。

也就是說,雖然目前無人駕駛的監管責任與事故責任尚處於不完全確定的狀態,但是這種不確定既有法律因素,也有技術因素,不是加快立法進程就可以解決的。

隱患在人不在物

不僅僅是無人車,機器人等人工智能產品都具備更強的學習能力和廣泛的應用場景,因此對於安全性和可靠性的要求也越來越高。這也意味著,人工智能在產品屬性之外,成為人的延伸,而當人工智能出現事故、侵權、犯罪等問題時,其責任追溯便與一般商業產品有所區別。目前的民法中對於產品事故的責任劃分還主要停留在生產者和消費者兩方,尚無更深層次的責任分擔機製。

聯合國教科文組織和世界科學知識與技術倫理委員會發布的機器人倫理草案中給出了可能的責任分擔方案:讓所有參與到機器人的發明、授權和分配過程中的人來分擔責任,其核心就是可追溯性,這也是人工智能與一般產品的區別所在。

北京師範大學教授劉德良在接受媒體采訪時曾表示,如果人工智能是僅作為一種工具存在,它所涉及違法行為的第一責任人應當是人工智能工具的使用者或所有者;而如果涉及到人工智能的自主性行為,則相關違法行為的法律責任就應當追溯到人工智能的開發者、設計者。

最大難點在於技術而不在法律

人工智能所需要規避的不僅是安全風險,還有算法、機器學習在人為幹預下可能導致的歧視問題。穀歌、微軟兩大人工智能巨頭都曾經犯下此類錯誤。

2015年,穀歌旗下的應用Google Photos誤把兩名黑人的照片標注為“大猩猩”,引起了公眾的強烈譴責,該應用的照片標簽就是通過機器學習自動歸納類別的。微軟則出現了更為嚴重的狀況.

2016年3月23日,微軟的人工智能聊天機器人Tay上線,但上線不到一天,就在一些網友的惡意引導和訓練下,發表了反猶、性別歧視、種族歧視言論,導致Tay被緊急下線。

騰訊研究院研究員曹建峰在公開場合表示,數據是社會現實的反應,訓練數據本身可能是歧視性的,用這樣的數據訓練出來的AI係統自然也會帶上歧視的影子,算法決策不僅僅會將過去的歧視做法代碼化,而且會創造自己的現實,形成一個“自我實現的歧視性反饋循環”。

中國科學院大學劉朝副教授認為,算法導致的偏見歧視問題中,最大的問題還是擔責問題:沒有道德感機器能否成為責任承擔者?但法律並不是最大的阻礙,最大的難點實際在於技術而不在法律。

以現有的法人製度為例,法人沒有道德感,但法人依然可以承擔法律責任。人機之間、人人之間的責任劃分依賴於技術手段。機器人如果發展出自我意識,那麼法律上的一些懲罰措施,例如道歉、限製“人身”自由,甚至剝奪機器人“生命”等,就可能對機器產生懲罰作用,這裏關鍵還在於機器人有多大程度上和人接近。目前人工智能基礎性的研究尚處於發展中,限製了技術上的預測。

我要分享:

最新熱門遊戲

版權信息

Copyright @ 2011 係統粉 版權聲明 最新發布內容 網站導航