AI法は悪いことばかりではない

AI法は悪いことばかりではない

機械学習を企業や政府の労働力管理に活用している企業の最高技術責任者として、ニューヨークやその他の地域から発信される新しい法律について、私はうんざりするほど心配していると思われるかもしれません。

私は、そうではありません。

In fact, some of these rules may not be all bad when it comes to ensuring your skills inventories, skills taxonomies, and your skills-based organization are built without bias.

私も同じです。私もこのようなAIツールには懐疑的です。オンラインゲームのプレイで判断されても、それが本当に最適な雇用につながるとは思えません。それに、こうしたゲームの中には、障がい者を不利に扱うものがあるのも確かです。  

私は、世の中にあるいくつかの性格診断テストについて、同じような感想を抱いています。  

つまり、AIの倫理について何らかのルールを設けることは、おそらく良いことだと思います。

AIの倫理

SkyHive では、倫理に関する法律は必要ありませんでした。なぜなら、倫理は常に最前線にあり、後回しにされてこなかったからです。私たちは、透明性があり、説明可能で、差別を防ぐことを常に念頭に置いて、特許取得済みの技術を構築しました。私たちは、MIDASと呼ばれるAI倫理の独自の認証を持っています。MIDAS認証は、データの品質と機械学習モデルの精度にゴールドスタンダードを約束するものです。データ品質、データの完全性、データの系統、データの正確性、モデルの正確性、モデルの信頼性、そしてAI倫理の原則に重点を置き、データと機械学習モデルの標準的な利用を認証しているのです。  

私たちはResponsible Artificial Intelligence Instituteや GPAIと連携しており、最近、私たちの倫理的なAIが賞を獲得しました。(このウェビナーでAI倫理について詳しく話しています)

私たちは、「ホワイトボックス/グラスボックス」というAIアプローチを信条としています。つまり、私たちの知的財産を損なうことなく、私たちが何をしているのか、なぜそれをするのかを開示するということです。  

私たちは世界最大のスキルデータセットを保有しています。SkyHive は毎日24 TB以上の生データを処理しており、匿名化されたワーカー プロファイルと180カ国以上の多言語の職務経歴書が含まれています。  

You may be thinking: how does more data make you more ethical? Well, for one, such a large amount of data helps us remove bias by ensuring that any one organization isn’t over-represented, which could introduce bias. Also, it enables us to uncover many more of people’s skills (often that they are unaware they have), leading to more job possibilities for individuals, particularly from non-traditional experiences. Or, as one of our Passport users said regarding their employee skills assessment, “I got to know things about myself I hadn’t thought about.”  

まだ濁っている

私たちがAI倫理の基準で責任を問われることに抵抗がない理由がおわかりいただけると思います。  

その基準がどのようなものになるかは、まだ不明です。ニューヨークの法律を簡単に説明すると、雇用主は、機械学習や類似の採用ツールに偏りがないか監査させること、会社がその技術を使用していることを候補者に知らせること、どんな仕事の資格や特性が評価されているかを候補者と従業員 、代替の選考プロセスが必要な人には宿泊施設を提供することを要求しています。  

これには疑問が残ります。例えば、誰が監査を行う必要があるのか。  

技術を利用する企業や政府などの組織が、おそらく外部企業(マーサー、アクセンチュアなど)の協力を得て、監査を行う必要があるかどうかは、まだわかりません。あるいは、技術を提供した会社(例:SkyHive )による監査で十分なのかもしれない。近々、判明するはずである。

We’ve been auditing our technology regardless. Any time we release a new feature, it is tested for bias. The purpose of our features, our enterprise technology, our platform, and our Skill Passport in the first place is to provide opportunities for people to be measured on their skills and the transferability of those skills, not on gender, ethnicity, pedigree, or any other potential sources of bias.  

何を見るか

一緒に働きたいと思う会社が、法律の正しい側にいるかどうかを見極めようとしていませんか?彼らは倫理的なAIを実践しているのだろうか?自問自答するためのいくつかの提案です:

  • 公正さと倫理がテクノロジー・サプライヤーのDNAの一部であることを示す歴史的な記録はあるのだろうか、それとも法律を遵守するために奔走しているのだろうか。
  • データの出所について透明性があるか?そのアルゴリズムに使われている基準について透明性があるか?その技術がどのように機能するのか......明確に説明されているので理解しているか?  
  • GDPRのような世界的なデータセキュリティやプライバシーのルールに準拠しているか?
  • AIの倫理に関する専門家を雇用したり、このテーマについて何らかのリードをしているのでしょうか?  
  • どの程度のデータセットが使われているのか?  
  • AIは第三者による監査を受けたことがありますか?いつ、どの程度の頻度で?

アイ・ゲット・ザ・フィアー

今、神経質な人たちがいて、神経質な会社がある。その理由はよくわかります。彼らのテクノロジーはブラックボックスなのです。ソフトウェアが公正であるかどうか、コンプライアンスに適合しているかどうか。これらの企業にとって、倫理は最優先事項ではありません。

私たちの「エシックス・バイ・デザイン」文化では、正当性が証明され、アウトプットが解釈・説明できる製品を作ることが求められています。私たちはBコーポレーションに認定されています。私たちの目的は、仕事を民主化し、労働力から取り残された人々に機会を提供し、地域社会や企業が仕事中心からスキル中心へと移行するのを最適化するのを支援することそのものです。私たちは、何十億もの人々がよりよい仕事を得られるよう支援することを計画しているため、Bコーポレーションであることに変わりはありませんし、すぐになくなることもないでしょう。

ニューヨークやその他の法律がどのように施行されるのか、またその具体的な内容については、今後の情報を楽しみにしています。それまでは、私たちは今していることを続けていくつもりです。なぜなら、それが正しいことだからです。

Download PDF

従業員の潜在能力を引き出す準備はできていますか?

世界で最も倫理的なアル・ピープル・テクノロジーが、ジョブ・ベースからスキル・ベースへの移行を支援します。

デモを依頼する

関連資料

すべてのCookieを受け入れる」をクリックすると、サイトナビゲーションの強化、サイト利用状況の分析、マーケティング活動の支援を目的として、お客様のデバイスにCookieが保存されることに同意したものとみなされます。詳しくはプライバシーポリシーをご覧ください。