-
>
妙相梵容
-
>
基立爾蒙文:蒙文
-
>
我的石頭記
-
>
心靈元氣社
-
>
女性生存戰爭
-
>
縣中的孩子 中國縣域教育生態
-
>
(精)人類的明天(八品)
方寸AI聯結的社會:人工智能網絡化時代的倫理與法律 版權信息
- ISBN:9787520161381
- 條形碼:9787520161381 ; 978-7-5201-6138-1
- 裝幀:簡裝本
- 冊數:暫無
- 重量:暫無
- 所屬分類:>
方寸AI聯結的社會:人工智能網絡化時代的倫理與法律 本書特色
★ AI網絡化將給人類社會帶來無法預測的重大變化,我們是否做好了應對風險和挑戰的準備?
★ 日本信息學、法學、社會學、人工智能技術領域的前沿學者,關于人類如何與AI共生進行跨界對話,在社會治理和法律制度層面提出務實的對策建議。
★ 深度討論智聯社會的隱私與倫理、信息安全、AI開發準則、政治參與、知識產權、勞動就業等核心問題。
★ 全球視角,橫向比較美國、歐洲、日本在相關領域的政策,提供多國經驗。
★ 通過情景設定實例和“思想實驗”,將讀者代入未來的預設場景,嘗試回答文學作品、電影和游戲中的經典問題:在AI網絡化時代,人類如何做才能既利用人工智能為人類服務,又保護人類的基本利益?
★ 北京大學中國社會與發展研究中心主任邱澤奇教授作序,哈佛大學、清華大學、中國人民大學、廈門大學等國內外高校的多位學者聯合推薦。
方寸AI聯結的社會:人工智能網絡化時代的倫理與法律 內容簡介
隨著人工智能技術的不斷發展,人類與人工智能共生的時代開始了。
優選聯機協作的人工智能,將構筑一個深度改變人類生活的“人工智能網絡”。
在人工智能網絡化時代,我們將面臨不可預測和控制的風險。我們的社會是否已為迎接迎接這一切做好準備?
科幻小說與生活的邊界即將模糊,“電車難題”不再是腦海中單純的思想實驗。
人工智能是否能像人類一樣,對自己的行為負責?
大數據下無處不在的“人物側寫”,還有“責任的空白”“數字污名”“就業難民”等全新社會問題,是否會催生新的歧視與壓迫?
……
面對可能出現的倫理難題和社會風險,我們當下又能做些什么?
圍繞這些問題,日本信息學界、法學界、社會學界、人工智能技術領域的多位前沿學者從靠前化、專業化的視角出發,進行了深入探討。
學者們通過“情景設定”的方式,對人工智能網絡化時代的風險和危機進行了預演,并在社會政策和法律應對層面,提出了精彩的建議。
方寸AI聯結的社會:人工智能網絡化時代的倫理與法律 目錄
**部分總論
“AI網絡化”及其治理:從法律、政策的視角思考“智聯社會”
一背景
二 AI網絡化
三 AI網絡化的治理
四結語
【座談會】AI網絡化的影響及風險:情景分析的意義
一引言
二為什么要做“情景分析”
三 AI網絡化的風險
四如何應對AI網絡化的風險
五風險傳播:如何制造“場域”
六如何與AI共生:“立人設”和“公開設計思想”
七結語:多角度的社會狀態構想
第二部分 研究開發
AI研究開發的原則和方針
一引言
二 AI的技術發展與網絡化帶來的便利、益處及風險
三歐美對AI研究開發原則、方針的討論
四面向國際討論的AI開發指南
五結語
【座談會】AI、機器人研究開發的倫理與法律
一引言
二 AI研究開發中的倫理問題
三 AI研究開發中的法律問題
四控制的重要性:對“自主型”AI的出現進行預測
五如何對AI研究開發進行治理
六結語
第三部分 數據、信息、知識的流通及使用
今后立足于AI及大數據的競爭政策
一引言
二 AI網絡的協作與競爭
三數據集中:現在正在產生的問題
四大數據、AI與競爭法
五今后的課題
AI網絡化與知識產權
一正在擴張的AI內容生產
二可預想的社會影響
三 AI知識產權問題的未來走向
四結語
第四部分 隱私與安全
對傳統的隱私理論產生的影響
一引言
二傳統的隱私權
三傳統的隱私權與AI
四 AI的發展與隱私保護
五結語
使用AI與個人信息保護制度中的課題
一個人信息保護制度中的課題
二可預想的企業回答
三個人信息保護制度
四基于修正案的討論事項
五 AI與涉及個人信息處理企業的義務
六殘留課題:人物側寫
AI網絡社會中安全問題的諸多側面
一 AI網絡化時代的安全與法律
二 AI網絡化對安全產生的影響
三結語
第五部分 AI網絡時代中的社會基本準則
AI網絡時代的制造物責任法
一自動駕駛汽車的“衍生型電車難題”:事例1的解說
二“責任的空白”:事例2的解說
三結語
AI網絡時代的刑事法律
一引言
二自動駕駛汽車與過失犯罪
三自動駕駛汽車與生命權之間的兩難境況
四結語
AI網絡與政治參與、政策制定
一 AI與政治領域的匹配度
二 AI與政治參與
三國際化與技術性擔憂
四共生的條件
第六部分 AI網絡時代的人類
AI與“尊重個人”
一引言
二基于集團屬性的歧視
三數字污名與血
四“尊重個人”原則將會被如何侵蝕?
五結語
人格與責任:來自不屬于人者的詰問
一近代的法律體系與責任
二 AI向我們提出的問題
三遺留問題
變化的雇傭環境與勞動法:如果穿越到2025年
一職場的智能化
二高度化的ICT
三數字化的沖擊
四非雇傭勞動
五面向未來
方寸AI聯結的社會:人工智能網絡化時代的倫理與法律 節選
AI網絡時代的刑事法律
立教大學研究生院法務研究科教授
深町晉也 情景設定 事例1 自動駕駛汽車與過失犯
X1購買了由汽車公司Y1所制造、販賣的自動駕駛汽車(第3級),下雨天的時候普通公路上以自動駕駛模式、每小時40公里的速度行駛。在X1沒有注視前方的時候,走在道路左側人行道上的小孩A,松開了父母的手進入了機動車道。自動駕駛汽車執行緊急應對措施,切換成駕駛員手動模式,但是由于X1沒有注視前方,導致其瞬間的反應不夠及時,來不及緊急制動。這時X1向右打方向盤,想要避免撞到A,但此時后方有一輛摩托車超速行駛而來,自動駕駛汽車沒能避開與摩托車的碰撞,*后導致摩托車翻車,駕駛摩托車的B死亡。 事例2 AI的刑事責任與保護生存權之間的兩難境況
X2購買了由汽車公司Y2所制造、售賣的自動駕駛汽車(第4級或者第5級),在普通公路上以40公里的時速行駛。本案中的自動駕駛汽車裝有防沖撞系統,可以通過緊急制動避免沖撞,在判斷已經來不及緊急制動的情況下,其設計是向左右打方向盤來避免沖撞。但如果是在即便采取了這樣的緊急措施也無法避免沖撞的情況下,比如說如果緊急制動的話會與后面的車輛沖撞、向左打方向盤的話會與行人沖撞,向右打方向盤的話會與后方駛來的摩托車沖撞的情況下,則會采取使受害人減少到*低的措施。X2在單行道上行駛,前方一輛迎面駛來的汽車沖向X2,因此本案中的自動駕駛汽車就只能向左或者向右打方向盤,但是左側人行道上有一位行人C,右側的人行道上有一小群人正站著說話,因此本案中的自動駕駛汽車選擇向左打方向盤,雖然避免了與前方車輛的沖撞,但是卻碾過了C導致其死亡。 一引言
在AI網絡時代,短期問題、中期問題和長期問題的主題可能會是不同的。因此需要在刑事法中思考的問題也與多個話題相關。比如說,某些人出于惡意,在AI中裝入令其失控暴走的程序漏洞(bug),或者對其進行黑客攻擊,這樣的事例會給AI網絡帶來嚴重威脅。對世界各國來講這都是一個重要問題。比如說,德國在2014年網絡犯罪相關報告書中,指出了IoT存在的問題,稱不僅僅是智能手機,智能家電等設備也有被惡意操控的危險性,為我們敲響了警鐘。但是,本文將不涉及這些出于主觀意圖的黑客攻擊等問題。本文所探討的對象是,AI網絡雖然以社會利益*大化為目的,但卻不是由于有意的攻擊,而是由于AI采取了有問題的運作方式而導致出現了權利侵害的情況。在這里舉的案例,就是開頭的情景設定里提到的,由自動駕駛汽車導致的傷亡事故。本文以自動駕駛汽車為主題,對刑事法中可能產生的問題展開討論。 二自動駕駛汽車與過失犯罪
1.什么是自動駕駛汽車
自動駕駛汽車,或者自動運行汽車是指,搭載了即便不通過駕駛人員的操作也能夠安全地移動到指定目的地(自動駕駛)的系統的汽車。這種自動駕駛是通過AI軟件實現的,因此自動駕駛車也可以認為是安裝了這樣的AI軟件的汽車。之所以引入自動駕駛汽車,是因為交通事故(死傷事故)中超過九成,都與駕駛員的人為失誤相關,因此為了降低由人為失誤引發事故的可能性,增大社會獲得的便利與益處,人們認為引入自動駕駛汽車基本上是符合社會預期的。特別是在今后日本老齡化社會問題將進一步加劇的情況下,與中青年人相比,高齡者的認知、判斷能力將會降低,因此這種自動駕駛汽車的登場,將令高齡者可以享受到既安全又舒適的移動,從這個角度來講自動駕駛汽車的意義很大。
根據2016年由SAE(Society of Automotive Engineers,美國汽車工程師學會)提出的標準,自動駕駛汽車根據其可自動化的程度,分為從0到5的6個等級。導入了能夠對行駛環境進行自動監視的系統的自動駕駛汽車都超過了第3級(有條件的自動駕駛),而第3級中,由于某種情況(比如說惡劣天氣)導致自動駕駛系統對環境監測能力受限時,就要靠駕駛員人為判斷,駕駛員必須恰當處理(稱為“人工接管”[override])。到了第4級(高度自動駕駛)或者第5級(完全自動駕駛),則完全不考慮這種人類駕駛員人工接管的必要性,徹底依靠自動駕駛系統進行應對。像這樣,第3級的自動駕駛汽車與第4級以上的自動駕駛汽車,在發生重大緊急事件之時,是否需要人類駕駛員做出妥當處理這一點上有所不同,特別是從刑事責任的角度來看,具有很大差異。
2.第3級自動駕駛汽車與死傷事故
接下來我們來討論一下,在開頭的情景設定中,到底應該由誰來對受害人的死亡承擔刑事責任。事例1與事例2*大的不同就是,前者中基本應由人類駕駛員來承擔過失責任,而后者中的駕駛員則基本不需要對自己的過失負責。
在事例1中,自動駕駛系統要求駕駛員X1自主控制汽車。因此,可能會有人認為,只要存在自己對汽車進行操縱導致了B的死亡這一事實,X1的過失駕駛致死罪(《汽車駕駛死傷處罰法》第5條)就理應成立。但其實,這里值得討論的問題是,到底應該判定X1在什么問題點上產生了過失呢?在刑法中,如果要認定過失罪成立,就必須要認定有違反注意義務的情況,那么X1具體在哪些點上違反了注意義務呢?
汽車駕駛員在駕駛汽車時必須承擔的義務中,*基本的一條就是注視前方。也就是說,道路的狀況時刻都在發生變化,駕駛員要及時并且恰當地應對這些變化,因此必須要時刻注視前方以取得與道路狀況相關的信息。即便是第3級的自動駕駛汽車通過自動駕駛系統行進的時候,我們仍認為駕駛員注視前方是其不可免除的基本義務。也就是說,自動駕駛系統在對汽車進行控制時有可能隨時切換成駕駛員的人工接管模式,而作為駕駛員必須要為人工接管模式做好準備,時刻注視前方獲取道路狀況信息。所以說,X1即便是在以自動駕駛模式行駛的過程中,也不能免除掉注視前方義務,必須要時刻注視前方。
但還是有人可能會對這種思維模式產生質疑。舉個極端的例子,我們是否能夠要求駕駛員在自動駕駛模式行駛的時候,也永遠像自己駕駛時一樣集中注意力呢?第3級的自動駕駛汽車,在進入人工接管模式之前,所有駕駛任務都是由自動駕駛系統進行處理的,而駕駛員也以這些系統為前提,也就是說駕駛員認為系統進行的這些處理是恰當的,是值得信任的,并以此為前提乘坐自動駕駛汽車。駕駛員對自動駕駛系統的這種信賴,恐怕是法律沒有考慮到的。
在刑法中有一個原則,即行為人如果是在信賴他人行動的情況下,即便是由于該行為人采取了不恰當的行為而導致侵害了他人的權益,也不會對行為人追究責任(信賴原則)。適用于信賴原則的,基本上都是基于人類行為的問題。在事例1中,如果可以信任汽車公司Y1,認為其能夠設計、制造出正確恰當運行的AI,那么即便是AI的運行出現了不恰當之處導致侵害了他人的權益,那么也應該認為行為人不為此承擔責任。但是,在事例1中,切換到人工接管模式本身是恰當的運行,所以并不是自動駕駛系統進行了不恰當的運作因此催生了事故。也就是說,第3級自動駕駛汽車的設計就是以人工接管模式為前提的,因此只要不是出現了本來完全不應該切換到人工接管模式之時卻被切換到了人工接管之類的事情,那么就無法免除X1的責任。
但即便信賴原則在這里不適用,然而回到前面提到的疑問,對于沒有親自操縱和駕駛的駕駛員,到底是否能夠期待他能像自主駕駛的駕駛員那樣專心地注視前方呢?這個問題是依然存在的。即便是自主駕駛的駕駛員,有的時候也會注意力渙散,一邊看著其他東西一邊駕駛的情況并不少見。非自主駕駛的時候就更是如此,當然也可以想象駕駛員會因為無聊而看手機。考慮到這種狀況,對那些非自主駕駛的駕駛員也同樣要求完成注視前方義務,違反義務就要對他們處以交通違章罰款,并(根據違章扣分的累計)進行暫停、吊銷其駕照等行政制裁,或(在發生事故的情況下)施以刑罰,這樣是否妥當呢?如果同樣要求完成注視前方義務,那么在第3級自動駕駛汽車的用戶界面中,就應該設計并安裝一些功能,讓那些非自主駕駛的駕駛員也要注視前方,這種設計是非常重要的。除此之外,對于緊急事態下被切換到人工接管模式的駕駛員,到底能否及時進行應對,這又是另外一個問題了。切換到人工接管模式所需要的時間,*短的情況下只有4秒11,即便注視著前方,也很有可能出現無法靠緊急制動避免事故的情況。這種情況下,能否依靠緊急制動以外的方法來避免事故就成了問題的關鍵。事例1中,如果想要避免與A的沖撞,那么只能向右打方向盤,由于B也在超速行駛,由此導致了本案中的沖撞。在這種情況下,駕駛員X1有可能相信B會遵守*高限速行駛,這就可以適用剛才所提到的信賴原則。那么就能得出結論,否定掉X1的過失責任。
3.第4級以上的自動駕駛汽車與死傷事故:AI的刑事責任
在事例2中討論的是第4級以上的自動駕駛汽車,在這個事例中完全不考慮人類會對駕駛產生什么影響,可以說本案是一個完全起因于自動駕駛系統的事故案例。但是,在日本所批準的道路交通相關條約(通常所說的《日內瓦公約》)中,第8條第1項中就規定了車輛中必須要有駕駛員,而根據第4條的定義規定,所謂駕駛員是指在道路上駕駛車輛的人。因此,第4級以上自動駕駛汽車,人類是無法參與其中的,而這樣的自動駕駛汽車是否滿足條約的要求,就成了一個關鍵性問題。假如說前提條件就是駕駛員一定要是人類,那么不修訂《日內瓦公約》的話,第4級以上自動駕駛汽車根本就不會被允許在道路上行駛。
那我們首先假定,我們要修訂《公約》,并允許第4級以上自動駕駛汽車在道路上行駛。那這里出現的問題就是,從理論上來講,是否可能對設計這種自動駕駛汽車的設計人員,以及構成自動駕駛汽車的系統(程序)追究刑事責任。前者是對自然人追究責任,而后者是對系統或者說AI這樣的非自然人追究刑事責任,兩者的性質截然不同。在這里,首先對*近大家都很關心、樂于討論的后者展開探討。
從傳統刑法學的立場出發,我們認為所謂刑罰,只能施加于像自然人那樣,具有一定人格的存在。從這個觀點出發,那么能否認為自動駕駛汽車的系統,即AI是擁有人格的呢?這就是問題的關鍵點。
比如說在德國就有學者從正面對是否可以認定AI擁有電子人格一事展開了討論。另外,在日本也有從傳統刑法學的立場出發,針對是否可以肯定AI具有行為性和責任能力一事展開的討論。像這種問題設定,即是否可以肯定AI具有人格這一問題,還有可能進一步分化為兩種路徑。**種路徑是從與自然人類似的觀點出發,賦予其人格基礎;第二種路徑則不討論與自然人的類似之處,只討論是否認可AI的人格并對其適用刑法。
**種路徑中重要的問題是,AI擁有怎樣的性質會導致其與人類相似。比如說,如果AI具有跟人類同樣的認知能力、判斷能力(責任能力),就可以認定與人類相似,進而有可能被追究刑事責任。從這樣的路徑出發,預想過一些類人機器人AI(典型的就是“鐵臂阿童木”和“終結者”),并認定它們是擁有人格的。但是另一方面,越是強調其與人類相似,那么就越有可能要超越追究刑事責任的前提——賦予其“人格”的基礎,而是變成要討論其是否
與人類一樣需要保護,這一點有可能成為問題關鍵。從這種理解出發,*后對這個問題的討論甚至可能會發展為,如果把與人類相似的AI破壞掉或刪除其程序,是否就與“死刑”同等。在德國這種否定死刑的國家,這樣處置的權利本身都有可能被否定掉。但是,在與法人的人格(法人格)相關的討論中,則不會產生這樣的問題,其原因就是,與人類一樣需要保護中所講的“類人特性”,明顯是一種過度的要求。與人類相似這一路徑,有可能會導致陷入“人之所以為人的根本到底是什么”(沒有終結)的爭論,因此必須要進行慎重的應對。
而第二種路徑則不去探究AI與人類的相似性,而是探究是否可能賦予AI人格。但這里的問題就是,不管它是否與人類相似,都肯定AI擁有人格,并且使其適用刑法,這件事到底在刑法上具有什么意義。以法人處罰為例,對法人施加刑法的意義在于,與自然人不同,對法人進行金錢處罰可以發揮刑罰的抑止效果。那么假如說對AI進行金錢處罰,可以得到某些抑止效果嗎?如果說AI本身具有某些經濟利益,而且具有以增大這些利益為目的而采取行動的特質,那么金錢處罰就可以看作一種“打擊”手段。但通常來講,經濟利益是專屬于那些制造、販賣AI的自然人和企業(法人)的,對AI處以罰金是沒有意義的。將與自然人相同的自由刑(懲役、監禁)施加到AI身上也是沒有意義的,損壞AI或消除程序,這種相當于對AI處以“死刑”的刑罰,也很難被認為是有意義的。
所謂刑罰,必須要令被罰對象感受到一定的負擔,而且國家要將一定的污名(stigma)附加給該對象,也就是說,讓國家對AI傳達法律上的指責24,說“你這家伙做出了某種壞的行為,是應該受到大家批判的AI”。我們必須思考這件事到底具有怎樣的意義。便當人類幼兒做了什么違法行為的時候,國家并不會以傳達法律上的指責的形式附加污名到該幼兒身上,這是因為,我們在社會中,只會對對等的成員做出法律上的指責。也就是說,這里需要探討
的問題是,我們到底為什么需要將AI看作社會中對等的成員、人格的主體。
而且,如果要對AI施加能給它帶來不利的處分,比如說破壞掉AI,刪除其程序等,即便不采用刑罰的形式也可以做到。對人類可以施加不以其責任能力為前提的處分(治安處分),所以從理論上來講,對于AI,即便不討論它是否是人格主體,是否具有責任能力,單純對其施加這樣的處分也是可能的。從這個角度思考的話,我們就會質疑,討論“AI是否可能成為適用刑罰的對象”這種問題到底有什么意義。因此,追究AI本身的刑事責任這一方向,就可以被否定掉了。
4.第4級以上自動駕駛汽車的死傷責任:設計者的責任
在無法追究AI本身刑事責任的情況下,接下來馬上要處理的問題就是,設計、制造這些AI的人的責任。如果說AI的判斷有瑕疵,那么設計出這些擁有瑕疵的AI的設計者和制造者的制造物刑事責任就成了問題的關鍵所在。另外,明明知道這些瑕疵的存在,卻沒有從市場上回收該AI(在本案中是該自動駕駛汽車)的情況下,還要另外追究其不作為的責任。
那針對這種情況,事例2中需要探討的問題就是,到底能不能說汽車公司Y2,在該自動駕駛汽車的設計、制造過程中有一定的瑕疵呢?或者更確切地講,催生本事故的自動駕駛系統的判斷,是否有瑕疵?為了探討這個問題,我們要在下一小節中對本案中的自動駕駛系統的程序設定展開討論,即在無法避免一定的沖撞事故的情況下,則要將損害減少到*小限度,我們應該如何評價這種程序設定呢? 三自動駕駛汽車與生命權之間的兩難境況
1.生命權的兩難境況
所謂生命權的兩難境況,就是指*近很多人討論的“電車難題”,在德國刑法學中也被稱為“扳道工案例”。30其中*典型的就是這個事例。一輛失控的電車在軌道上行駛,如果讓它繼續在這個軌道上行駛的話,該線路上將有5個人來不及逃離,被電車碾死。看到這種情況的扳道工甲,為了挽救這5個人的生命,改變了列車運行的軌道,導致在第二條線路上的乙被電車碾死。甲認為,讓乙一個人死亡這個結果是不得已而為之。
在這個事例中,可以認為由于甲改變軌道的行為,導致了乙的死亡,因此殺人罪是成立的。但是,在一定有某一條線路上的人無法避免死亡的狀況之下,為了挽救5個人的生命而犧牲1個人的行為,是否應該按照殺人罪進行處罰呢?
像這種生命權的兩難境況中,需要探討的問題就是,緊急避險是否成立。所謂緊急避險是指,當發生某種不是由于任何人的過失而產生的危險的時候,在一定條件之下,允許將這種危險轉嫁給他人。特別是在緊急避險的情況成立之時,為了保全更為重大的利益,而侵害某種小的利益,很多時候也會被認為是必要的。
那在“扳道工事例”這樣的情況之下,能否將甲的行為看作緊急避險進而將其行為正當化呢?德國刑法學對這個問題展開了積極的探討,在德國《刑法》中通常認為,對于這種與生命權相關的兩難境況,要否定任何試圖將其正當化的行為。從這個立場出發,將甲的行為定義為所謂正當化的緊急避險(阻止違法性的緊急避險)恐怕是不成立的。
但與之相對,日本《刑法》第37條所規定的緊急避險,卻不一定會得出這種觀點。這是因為,日本的緊急避險只要避難行為“導致的損害不超過所避免的損害”就可以成立,乙一個人死亡這種侵害結果,就可能被評定為,并不超過被避免了的5個人的生命被侵害這一結果。從這個觀點出發,生命權的兩難境況中,只要是有想要將損害限制到*小化的意圖,就有可能被認定為緊急避險。
2.自動駕駛汽車在變成階段的問題
在德國,對扳道工事例中任何行為的正當化都予以否定,這已經是公認的觀點,但是對于自動駕駛汽車的程序設計,卻有另外一種觀點更為有力。根據這種觀點,實際上產生生命侵害的時候是否可以從事后的觀點出發對其進行正當化,和事前是否能夠采取某種策略避免死亡事故,是兩個不同的問題點。在前者,想要事后對生命侵害這一結果進行正當化是不被容許的,但是后者,事前就要有將損害*小化的理念則被規定為義務,為了使損害*小化而采取某種措施被認為是“可以允許的危險”。
即便是在日本,針對生命的兩難境況,也并不是說只要有將損害*小化的理念,就可以將其行為正當化,但上述德國的觀點也是值得參考的。可以理解為,對于**種已經將事故發生的可能性降到*低的情況下仍然發生了的事故,第二種將損害減少到*小化的程序,被認定為可以允許的危險,其殺人罪與過失駕駛致死罪不成立。從這種理解出發,對于事例2中汽車公司Y2,出于可以允許的危險這一理由,將被判定為不予處罰。 四結語
本文所述的內容中,關于自動駕駛汽車是否是通過信息網絡與其他自動駕駛汽車聯動運行這一問題是開放性的,沒有進行具體的論述。但是今后隨著AI網絡化的進展,我們也當然可以設想,第3級以上自動駕駛汽車,會與其他自動駕駛汽車以及AI聯結,追求更高效率和高性能的操作。但是,這樣高效率高性能的AI網絡系統,當然也依然存在著發生事故的可能性。本文主要對發生這種事故時的刑事責任的歸屬問題展開了討論。
像這種廣泛的網絡化如果進一步得到發展,我們可以預想到,自動駕駛汽車發生死傷事故的情況下,應該被追究刑事責任的主體不僅僅包括駕駛人員,或者說并不是駕駛人員,而是變成了管理網絡的“高級人員”。針對這種管理責任,今后也有必要進行更深入的探討。
方寸AI聯結的社會:人工智能網絡化時代的倫理與法律 作者簡介
福田雅樹
東京大學研究生院學際信息學博士。曾任總務省信息通信政策研究所調查研究部部長,現任大阪大學社會技術共創研究中心教授(副所長),兼任研究生院法學研究科教授。
林秀彌
京都大學研究生院法學研究科法學博士。現任名古屋大學研究生院法學研究科教授、總務省電波監理審議會委員、日本學術會議合作會員。
成原慧
東京大學研究生院學際信息學府博士課程結業。現任九州大學法學研究院副教授、理化學研究所革新智能綜合研究中心客座研究員。
譯者簡介
宋愛
日本慶應義塾大學社會學研究科博士,慶應義塾大學媒體與傳播研究所研究員。
- >
名家帶你讀魯迅:故事新編
- >
龍榆生:詞曲概論/大家小書
- >
二體千字文
- >
姑媽的寶刀
- >
中國歷史的瞬間
- >
羅庸西南聯大授課錄
- >
羅曼·羅蘭讀書隨筆-精裝
- >
新文學天穹兩巨星--魯迅與胡適/紅燭學術叢書(紅燭學術叢書)