We Robot 2016

1年以上の超絶幽霊部員と化しておりましたが、同じく前線復帰します。

日本に戻って以来、本ブログとの関係しそうなことで言いますと、米国進出関連、ロボット・AI関係の業務やセミナーを地道にやったり、あとはライセンス関係の業務をしたりなどしております。(5月には、Takeuchi選手と、シリコンバレーで移民法業務をされている弁護士のLi先生と米国進出セミナーをやり、筆者自身ものすごく勉強になりました。Li先生は米国ビザのスーパーマスターです。)

それから、年明けには、筆者も参画している自動運転関係のウェブメディアが立ち上がります。そちらは次回、書けると思います。

 

今日は今年の4月頭に強行軍参加してきました、米国のロボット関連の学会、We Robot 2016@マイアミのご報告をすることにします。2012年から開催されている学会ですが、多分日本人弁護士としては初の参加ではないかと主催者のRyan先生には言われました。

 

まず、We Robotの特徴は、以下のようにまとめられるかなと思います。

  • 一応interdisciplinary conference on the legal and policy questions relating to robotsということで、法と政策のカンファレンスを銘打っておりますが、参加者・発表者は、経済学、社会学、エンジニア、心理学、人類学、哲学そして企業の方と、かなりinterdisciplinaryな構成。特に(少ないとはいえ)エンジニアの方の参加は重要です。
  • ロボット法の最大級の学会とはいえ、まだかなり小さなコミュニティ。参加者も、100~150名程度ではないかと。上の会場の写真参照。EUからの参加者も多かったです。
  • 発表者によるPaper(論文)が事前に公表されており、参加者は、それらを全部読んでから当日を迎える建前。当日は、10分程度、発表者がPaperについて概説したり、思いを語ったり、補足したりした後、あとはずーっと質疑応答。これがかなり面白い(ウェブサイトで閲覧可能。当日はライブでストリーミング配信される)。
  • とにかくみんなロボットが好き。大好き。喋り出したら止まらない(下の動画は、新刊の当たるRaffle(くじ)のとき「ロボット・ハグ」をするRyan先生とIan先生の様子。「当たり」の人は、何かロボットのモノマネをすると新刊本をもらえる。どないや。)。
  • 内容的には、人種等の差別の問題や、AIの創作物に関して(著作権のみならず)表現の自由の議論が活発であることなどは特に米国っぽいです。

  

※音出ます。

 

今年のテーマはホームページにもあるとおりで、以下のとおり(左欄は筆者が適当にカテゴリーを付けています)。

 1日目:

社会学・不法行為 Moral Crumple Zones: Cautionary Tales in Human Robot Interaction
プライバシー SmartPrivacy in Human-Robot Interaction: Survey and Future Work
軍事・統計 How to Engage the Public on the Ethics and Governance of Lethal Autonomous Weapons
ペッパー君のデモ Legal and Ethical Implications for Robots in our Life
自動運転

・デザイン

Hot Topic: Autonomous Vehicles

– Autonomous Vehicles, Predictability, and Law

– Connect Cars – Recent Legal Developments

全般 Robots in American Law

2日目:

プライバシー Privacy and Healthcare Robots – An ANT Analysis
所管官庁論 Institutional Options for Robot Governance
差別・倫理 Will #BlackLivesMatter to RoboCop?
イベント Autonomous Technologies and their Societal Impact
海中ドローン・デモ Openrov And Openrov Trident: Democratizing Exploration, Conservation, And Marine Science Through Low-Cost Open-Source Underwater Robots
表現の自由 Siriously? Free Speech Rights for Artificial Intelligence
全般 What do We Really Know About Robots and the Law?
なお、ポスター掲示による論考は以下のとおり:
<法主体性>Legal Personhood for Robots: Parallels, Lessons, and Suggestions
<著作権>Robots vs. Monkeys: Intellectual Property Rights of Non-Human Creators
<倫理>The Ethical Characteristics of Autonomous Robots
<精神医療>Regulatory Framework for a Cloud-based Architecture that Supports a LEGO® Play-based Robot-mediated Therapy for Children with ASD
<訴訟法(反対尋問権)>Should We Re-interpret the Confrontation Clause or Revise the Rules of Evidence to Provide a Different Type of Right to “Confront” Machine Witnesses?”
<法主体性・特許>Software Intelligence (SI) Dependent Legal Personhood & SI-Human Amalgamation (SIHA)– an Evolutionary Step for Patent Law
<教育>Creating Learning Spaces for the Digital Age:
<全般>Human Interactions with Robots: Law, Policy, Ethics after Ashcroft v. FSC (US 2002)
<特許>Patentability Of Dualistic Inventions

 

眺めてみると、かなり問題意識が多岐にわたっているとはいえ、大体どの辺のことが問題になるのか、ある程度当たりがつきますね。

以下、We Robot2016のセッションのうち、割と質疑/議論が盛り上がっていた主だったものの内容をご紹介します。

 

<社会学・不法行為>Moral Crumple Zones: Cautionary Tales in Human Robot Interaction

機械・システム側の過ちと人間の過ちが競合する場合、あるいはより広く、複数の人や物があるシステムをコントロールする場合において生じた事故の倫理的そして法的な責任の分配に関する議論。

一般に、機械・システム側の過ちと人間の過ちが競合する場合に、人は、「誰/何に責任があるか」を探したがる。そしてその対象は1人/1つの物に限られがちである(本来は複数の責任と原因があるのが通常なのに)。

そして、多くの場合、人間サイドにそれが求められる。なぜそうなるのか。

人間と複雑なシステムが絡み合う、将来のロボット。事故等の場合の倫理的・法的責任はどうあるべきかを、スリーマイルズ島の原発事故、2009年のエールフランスの墜落事故を題材に、考える。ペーパーでは、最終的には、このような議論が消費者や労働者の保護につながる可能性を見据える。

 要するに、コントロールあるところに責任あり、という関係性ははある程度避けられないけど、「コントロールと責任のミスマッチ」が生じることが結構ある。それは是正する必要があるのではないかという問題意識と理解しました。

例えば、(先日新会社設立の際にハンドルの有無にはこだわらないって言ってましたが、)グーグルの完全自動運転車にはハンドルもブレーキペダルもないですが、ハンドルもブレーキもないと、事故があったときの運転者の責任は、殆ど問い得なくなると思われます。それでいいの?という不法行為/被害者救済の話にもつながっていく内容だと思います。

 

<自動運転・デザイン>Hot Topic: Autonomous Vehicles/Autonomous Vehicles, Predictability, and Law

例えば人身事故の際の過失相殺(過失割合)を考えた時、被害者に一定の損害を分担させるというのは、被害者(歩行者)側が、車の動きを予測できることが前提になっているはず。そんな問題意識を前提に、しかし、自動運転車は、人間が予測しえない動きをする傾向があるではないか、歩行者や周囲から動きを予測できるような設計/デザインを志向すべきではないかという議論。

今の非自動運転車のドライバーと歩行者は、手の動きやアイコンタクトでコミュニケーションを取る。このようなコミュニケーションがない自動運転車を想定した場合、自動運転車は本当に人の運転車より安全といえるのか。自動運転車のセンサーが歩行者を認知したとしても、歩行者からは認知されたかどうかが分からない。それでは歩行者は安心できない。例えば、自動運転車は横断歩道で必ず止まるよう設計されているが、自動運転車のスピードが落ちたからと言って、自分が認知されているかどうかは分からない。それのみならず、仮に歩行者の方で「あ、認知されたな」と思っても、自動運転車がその後どのような動きを取るのか分からない(かもしれない)。

法学者とエンジニアのコラボ発表ってところがアツイ。

ロボットやAIについては、それを作ったエンジニアにとっても「予見できない」(Emergent)ことがあることが認識されています。普通、それは、不法行為法上の過失の前提となる予見可能性の問題として議論されることが多いですが、本セッションは、特定の概念的なものに縛られず、自動運転車と歩行者という具体的な関係性に落とし込んで議論されているのが秀逸でした。いちばん質疑応答が盛り上がっていたかも。ということで、将来の自動運転車は、歩行者からの予測のしやすさの観点から、例えば、ブレーキランプが車の前面にも点灯する仕様になっている可能性が高いでしょうね。

 

<全般>What do We Really Know About Robots and the Law?

米国のロボット法、ないし今回で5回目となるWe Robotの現在地をWe Robot 2013のアンケート結果等から確認・議論する。

こちらはペーパーを読んでいただくのがいちばんいいのですが、とても面白い。

例えば、「自律ロボットが花瓶を割ってしまった」「遠隔操作(テレイグジスタンス)ロボを使って何者かが他人のオフィスから物を盗んだ」「自動運転車どうしが衝突事故を起こした」「自動運転車が、道路に飛び出してきた子供を避けるため、壁にぶつかり、搭乗者がけがをした」といった簡単な12の事例を与え、「Contract(契約法)」「Property(所有権/財産法)」「Criminal(刑法)」「Tort(不法行為)」のいずれが適用されるのかをこたえさせたところ、法学者系は、全員一致した事例が1つもなかったのに対し、エンジニア系は半分の事例で回答が完全一致した、とか。

ロボットと法の問題で、何が最も重要か、という質問に対する回答では、「不法行為(ロボットによる事故の責任を誰に負わせるべきか)」と「プライバシー」が最も多かった、とか。

結論は、「とにかくロボットを買え!遊べ!」とか。

ロボット愛にあふれてます。

 

実は、先月明大中野で開催されたロボット法研究会で、「ロボット法の国際動向」というパネルでお話をさせて頂きました(機会を頂いた新保教授に感謝いたします)。今回の記事はその時の内容をもとにしています。

その際にディスカッションされる予定だった(けど時間切れでできなかった)、「ロボット法は、やっぱり米国の方が進んでるの?」という問いがありました。それに対する筆者の個人的な答えは「そんなに変わらないんじゃないか」です。ただし、取り扱う分野のすそ野がかなり広いこと、そして研究者・アカデミアの選手層が圧倒的に分厚いようであることは、大きな違いだと思います。

気が付けばWe Robot 2017はもう4か月後ですが、来年は、Yale大学で開催されます。めっちゃ行きにくい。

 

 

この記事が気に入ったら
いいね!をお願いします

Twitter で

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です