来年、人材マネジメントの世界を予測する多くのリストに登場しそうな、あるいは少なくとも登場すべき項目がある。それは、「AI倫理」だ。
米国では、EEOCがAIツールがどのように偏りを増やす(または減らす)可能性があるかを探っている。ホワイトハウスは今年、AI権利書の青写真を発表し、このゲームに参加した。ニューヨークのAI倫理法が施行される1月には、このテーマへの注目がさらに高まると予想される。この法律では、雇用者の自動化ツールの監査と、どのような情報が収集されているかの開示が義務付けられている。
これは、カリフォルニアやニューヨークにいなくても影響を与えることになるだろう。法律は他の多くの州でも浸透しており、欧州連合でも同じである。さらに、誰もが、あなたの従業員 、求職者、パートナー、サプライヤー、その他が、AI倫理についてますます耳にするようになり、気にかけるようになるだろう。彼らは、自分たちが関わるあらゆるテクノロジーが、プライバシーや偏見削減などの基準を満たしていることを知りたがるだろう。
AIの倫理は、人工知能インスティテュートのメンバーであり、スキルインベントリ、スキル分類法、その他アジャイル・ワークフォースのためのスキルアップやリスキリング の取り組みに関して、責任あるAIのベストプラクティスを示し、今年のRAISEアワードを受賞したSkyHive 。スタンフォード大学のHuman Perception Labのアソシエイト・ディレクターでもあるSkyHiveの最高技術責任者モハン・レディは12月14日、世界中で増え続ける規則や規制に対して組織がどのように備えることができるかについて語った。彼は無料イベントで主にAI倫理に関する質問を受け付けることに焦点を当てる。
12月14日に開催されたウェビナーでのReddyの録音を見るには、今すぐご登録ください。