ニュース・トレンド

リクナビ問題でゆれる、人事データ活用の有効性とリスク


山本龍彦氏が語るHRテック(後編)。情報を扱う際の同意、目的の明確化が問われている 

2019.09.12

  • このエントリーをはてなブックマークに追加

リクルートキャリアが就活サイトに登録した学生の内定辞退率を本人の十分な同意なしに予測し、企業に販売していた「リクナビ問題」。人事データ利用の法的・倫理的問題と個人情報保護が大きくクローズアップされる事態へと発展した。企業は、人事データ活用の有効性とリスクをあらためる考える機会にあるのではないだろうか。
一般社団法人ピープルアナリティクス&HRテクノロジー協会が5月13日に開催した「People Analytics & HR technology CONFERENCE 2019」では、慶應大教授の山本龍彦氏が「人事領域において、データ利用はどこまで許されるのか」のテーマをもとに講演。今回は、講演内容から重要な個人情報を扱う際の同意をはじめ、HRテック利用の注意点について紹介する。

講師プロフィール
山本 龍彦
協会理事/慶應義塾大学法科大学院教授

・【前編】山本龍彦氏が語るHRテック(前編)。「人事領域でのデータ利用はどこまで許されるのか」

同イベントのパネルディスカッションはこちら
・【前編】ピープルアナリティクスは「より良い意思決定のため」に使う
・【中編】サイバーエージェントとパーソルHDが実践するピープルアナリティクス活用
・【後編】ピープルアナリティクス活用を担う人材に必要なのは、人事領域に対する熱意

目次
  1. HRテックの注意点
  2. 利用目的を明確化しておくこと
  3. 人事がデータ任せではなく、データの中身や仕組みを知っておくこと
  4. 重要情報を扱うときは事前に同意を得ること
  5. 「流行っているから使う」ではなく、目的や過程を明らかに

HRテックの注意点

重要情報を扱う際の同意、 データ利用目的の明確化が問われている1

いくつか、あと残り10分くらいですけども、今までお話してきたことを踏まえて、HRテックにおける注意点をざっくり挙げてですね、その後、弁護士の先生にバトンを渡します。1つは、継続的な情報収集の限界ということですけれども、トイレの会話の中でも、その人の地が出るわけで、HRテックの中でもわりと欲しい情報かもしれない。

親しい人とどういう会話を、どういうテンションでしているのかを分析するという意味では、けっこう良いデータかもしれない。しかし、やはりさすがにそういう空間のデータは取るべきではないという風に思う。これはプライバシーの観点で言っても、そのように考えられるということであります。さすがに、就業規則とか同意で思っていることとしてもですね、これは公序良俗等に反すると私自身は考えていることです。

AIプロファイルは完璧ではないと理解しておくこと

次ですけども、AIプロファイルに関するリテラシーの充実。これはやや法的な問題というか、倫理的な問題に関わってきますけども、結局、データを使った評価というのは完璧ではないと。当たり前のことですけども、その点に関する相互認識はやっぱり持っておく必要があるということであります。

あまりデータの扱いに慣れていない人が、AIとかそういったものがはじき出した結果を見たら、そこに流されてしまうことがあり得るわけです。これを自動化バイアスといいます。コンピューターの結果を自動的に鵜呑みにしてしまう人間の認知バイアスとして議論したりもしますけども、そういったことがあり得るわけです。

しかし、例えば、AIがはじき出した評価というのは、どういう点で限界があるのか。1つは、さっきのプライバシーの問題。要するに、全部のデータを網羅的に取れない。そうすると、データに必ず穴が開いちゃうんですよ。

例えば、その人の家にいる。家での生活というのは人事は知り得ないですよね。その人のデータというのは、実は限定的なデータなので、そういう意味では、その人の評価は、その評価の中では限定的なものであると思います。

さらに、セグメントということを考えていただきたいわけですけども、先ほど、近代の、前近代のお話をしました。そこで本来、もう少し頭出しをすべきだったと思いますけど、AIの評価というのは、私なりに言うとセグメントの評価ということになるのかなと。つまり、AIにとってみると、私が山本龍彦であることに何ら関心はないわけです。要するに、私が「男性で40台前半で、これこれこういう大学に勤めて、こういうところに住んでて、これくらいの収入があって」という、そういうセグメントに属している人ということにしか関心がない。

つまり、確かにいろんなデータを取って、予測精度が向上するとセグメントが細かくなっていきますから、限りなくその人個人に近づいていくけど、あくまでもそれはセグメントベースの評価だという風に考えることができます。だから必ず、実存してる私とAIが評価する私ダッシュとの間にはギャップがあるということになろうかと思います。

本当にその人、生まれてから、あるいは遺伝子から調べて、データをシームレスに取っておけば、その人といえるかもしれないですが、それは現実的に無理ですから、どこかに穴があるということを相互に理解しておくことが非常に重要なんだろうと思います。これが先ほどの人間関与と密接に結びついてくることなのかなと。先ほどのセグメントベースの考え方の評価を鵜呑みにした評価をした場合、これはGDPRとの関係で問題になるでしょうし、もう1点、前近代と近代との関係で問題になる。

つまり、前近代というのは、セグメントによる短絡的な評価がダメ、ダメというか、そういうものをしていた。近代というのは、個人をちゃんと見てあげましょうということですから、そういうことから言うと、セグメントだけで見て、評価してしまうことはやはり問題があろうかと思います。これはGDPRの22条の理念的な背景であるようにも思えます。

利用目的を明確化しておくこと

山本氏4

もう1つは、やはり利用目的を明確化し、それを透明化しておくことです。ですから、プロファイリングというのも、おそらく人事労務管理のためだということになれば、別にプロファイリングしてるかどうか言わなくて良いのでは、ということもある。

人事労務管理のためにデータを使うということはすでに言っているんだから、プロファイリングして使うということは、特段、その従業員に対して言わなくて良いという風には当然成り立ちうるかもしれません。人事労務管理のために本当に使うのであれば。

ただ、従来よりもデータから予測できることが変わってきている。例えば、ここに書いてあるディプレッション、うつ状態かどうか。あるいは、離職率までデータから予測できるということになると、やはり、そういったプロファイリングをしているのです。個人情報保護法の言葉を使えば、要配慮個人情報、機微情報、センシティブ情報というものをプロファイリングする場合には、従業員の側に伝えることが必要になってくるのではないかと。こういう風に思います。

会社側がやっていることというのが、分かんなくなってくるわけです。いろんなことができちゃうから。自分たちがデータを使って、いったい何をやっているのかが分からなくなれば、当然、信頼関係にも関わってくると思うし、先ほどの法的なリスクという点で言っても、人事労務管理のためという、いわばマジックワード的なものだけで全て上手くいくという風には考えないほうが良いのではということであります。この辺りは、あとで少し続行していくことが必要かもしれません。

人事がデータ任せではなく、データの中身や仕組みを知っておくこと

さらにあと4点挙げていきたいと思いますけど、プロファイリングにおけるデータセットや、インプットデータの精査、チェックが必要でしょう。これはけっこう重要なことだと思います。

皆さんもご承知の通り、アマゾンという会社が、2014年にAIを使った採用プログラムを組んだんですね。これを回していく過程の中で、どうもこの採用プログラムを使うと、女性に差別的な影響、結果が出てしまうということが分かったと報道されました。

これによって、プチ炎上のようなことが起きたわけですけど、なぜそういうことが起きたのかというと、アマゾンのエンジニアの技術職というのは、もともと男性が多かったわけです。ですので、非常に単純に言ってしまうと、AIが学習するデータセットに男性が過剰に入っていた。逆に言うと、女性が適切に含まれていなかった。

ですから、AIは偏ったデータセットを一生懸命勉強してしまったために、最終的には女性を排除するような結果が出てしまったということになるわけです。極めて単純な話になるわけですけども。やはり、まずはレピュテーションという観点から見ても、そういうような差別的な結果を生むようなアルゴリズムというのは問題でしょうし、いずれはさっきの平等という観点から言っても、法的なリスクも伴うようになると思います。

まだ技術的には開発発展段階ですから、すぐに平等に約束違反だということにはならないかもしれませんけど、やはりリスクということは考えておかなければいけない。つまりどういうデータセットを使っているのか、さらに、どういうアルゴリズム、ウェイト付けをしているのか。例えば、今まではデータ任せだったかもしれないけど、使う企業の側もその中身をある程度知っておくということが非常に重要なポイントになってくると。

どういうデータセット使っているんですか?と。確かに専門的で複雑かもしれないけど、一定程度説明してもらう。どういう変数に、どういうウェイト付けをしているのか。こういう風なことについて、ある程度コンセンサスをデータとの間に作っておく。あるいは、自社でアルゴリズムを開発する場合にも、充分議論しておく必要があるだろうと思います。

重要情報を扱うときは事前に同意を得ること

重要情報を扱う際の同意、 データ利用目的の明確化が問われている2

3点目は、これも非常に倫理的な問題かもしれませんけど、先ほどもお話したように、要配慮個人情報、その機微な情報というものをプロファイリングする場合には、同意というものが必要になってくるのかなという風には考えています。

あとですね、プロファイリングを導入する場合にですね、特に先ほどの要配慮個人情報に関して、これをプロファイリングするようなアプローチをとった場合には、やはり労働組合や、あるいは、マイノリティとの協議の場を持つということが、後々問題が起きない1つのやり方なのかなという風に思います。そのプロセスを開いておくことが非常に重要になってくると思います。これはなぜそうかというと、事後の説明が難しくなるかもしれないわけです。

もちろんある程度は説明しなきゃいけないかもしれないけど、やっぱりディープラーニング系の技術を入れれば、それだけ論理が複雑になっていくので、説明しづらくなる。事前の手続きが非常に重要で、事前にどういう風な法デザイン、法プロセスを問うかだとか、いろんな人を包摂した形でアルゴリズムの設定を行ってきたのかどうかっていう事前のプロセスが非常に重要になってくるという側面があるように思います。

従業員に対するHRテック活用のメリットを明確化すること

最後に、結局ですね、入社希望者や、主に学生ということになるのかもしれませんけど、従業員に対してどのような利益を提供するのかを明確化することが非常に重要

管理目的でということで導入すると、やはりどこかでレピュテーションなり、法的なリスクが生じることになる。つまりその、評価される側にとってどのようなメリットがあるのかということをしっかり考える。それを踏まえて導入していくという姿勢が非常に重要になってくるのかなと考えています。

ということで終わりになります。今までお話してきたことの繰り返しになりますけど、HRテックというのは個人の尊重という、実際、憲法の一番重要な考え方に資するものも確かにあるんだ、こういうことであります。

「流行っているから使う」ではなく、目的や過程を明らかに

ただ、ここに書いてありますように、流行してるから使うのではなくて、どのような目的のために、どんな技術を用いるのかを社内でよく検討し、データセットやアルゴリズムのしたる内容についてよく考えることが重要であると考えています。

2番目ですけど、プライバシーや尊重、尊厳原則への配慮は不可避であろうという風に思います。ということで、今こういった、あくまで私見ということですけども、他のメンバーとともにこういった課題を踏まえて、ガイドラインの作成を行っておりますので、皆様方のご意見を今後ですね、伺えればという風に思っております。

(質疑応答)

HRテックは良い面も当然あるわけですから、基本的には推進していくと。ただ、それに対して、然るべき議論というものをしておかないと問題だという風に考えているということでございます。ということで、私からのプレゼンテーションは以上で終わりにしたいと思います。どうもご清聴ありがとうございました。

【文中敬称略】

【編集部より】
HRテクノロジーについての関連記事

@人事では『人事がラクに成果を出せる無料レポート』を揃えています。

@人事では、会員限定のレポートを無料で公開しています。
特に人事の皆さんに好評な人気レポートは下記の通りです。
下記のボタンをクリックすると、人事がラクに成果を出すためのレポートが無料で手に入ります。

今、人事の皆さんに
支持されている無料レポート

@人事は、「業務を改善・効率化する法人向けサービス紹介」を通じて日本の人事を応援しています。採用、勤怠管理、研修、社員教育、法務、経理、物品経理 etc…
人事のお仕事で何かお困りごとがあれば、ぜひ私達に応援させてください。

「何か業務改善サービスを導入したいけど、今どんなサービスがあるのだろう?」

「自分たちに一番合っているサービスを探したいけど、どうしたらいいんだろう?」

そんな方は、下記のボタンを
クリックしてみてください。
サービスの利用は無料です。

  • このエントリーをはてなブックマークに追加

関連記事

あわせて読みたい

あわせて読みたい


資料請求リストに追加しました