跳到主要內容區

搭載人工智慧裝置之刑事責任研究2-規制類型論

計畫主持人:
                  王正嘉教授
計畫期間:
                民國110年08月01日至111年07月31日
計畫概要: 

        本研究計畫主要是在延續去年度研究計畫【搭載人工智慧裝置之刑事責任研究(MOST109-2410-H-194-078 -)】的研究。在上個年度的研究中,是就搭載人工智慧裝置中,加入科技哲學對於道德主體的看法,切入刑事責任主體的變革與刑法回應的問題,但在開手著手研究後發現,除了刑事責任的主體外,配合科技的歷史發展,無論是採取肯認搭載人工智慧裝置可以是刑事責任主體(目前初步的見解),或者雖然採取否認的見解,如果從刑事規制角度出發,尚且需要依照現在既存規範的角度,從所搭載人工智慧的發展,隨著科技發展相對應的階段,改變現有刑事規範,或是另外立法方式,來加以回應,換句話說,就是依照規制模式的類型化需求,進一步探究搭載人工智慧裝置。

      撰寫去年度計畫時,著重的是搭載人工智慧裝置上,以及刑法應不應該賦予其刑事主體與相對應的刑事責任問題,比較偏向達到與人類相類似程度的強AI模式,也就是一種未來的類型,但在開始研究隨著文獻的研讀,發現規範的現的觀點也是不可或缺的一塊,特別在人工智慧發展過程中,在真正的強AI技術成熟前,勢必會歷經所搭載人工智慧裝置逐漸成長的情勢,而技術上相關的網際網路與巨量資料的科技發展,相應於現有的法律規範,已經數年乃至於數十年,在規範模式與類型上,連結到網際網路法律(cyber law),或者是巨量資料(big data)的個人資料法制,到未來是否獨立承認機器人法(robot law),隨著科技發展階段,勢必要採取一定的規制類型來因應,換句話說,在此必須考慮在此過渡期間,刑法要如何處理,並提出規制的類型,這可能是去年未詳加考慮,今年作為延續性研究,乃再行提出本計畫。

      延續去年度的研究計畫,在目前欠缺人工智慧相關的法學研究,本計畫也同樣的提供基礎研究,同時具有下列特點:

  • 採取科技與社會(Science, Technology and Society)的角度,來看搭載人工智慧裝置(AID)的問題。
  • 釐清搭載人工智慧的裝置在刑法上的爭議問題,從科學哲學來深入探討其可否作為道德主體之爭議問題;關於AID在研發、設計、管理到使用的過程中,從AID治理上,刑事法應該盡到何種角色,如何籌畫刑事法規制具體內容。
  • 透過現在的刑法觀點,透視科技進展,從不同的階段,提出相對應的刑事規制模式類型。
瀏覽數:
登入成功