AIについて言われたり尋ねられたりしたことは、すべてすでに言われたり尋ねられたりしてきたように感じることがある。
そこで先週、オースティンで開催されたアプライド・インテリジェンス・ライブでパネルを率いたSkyHive 共同設立者兼最高技術責任者のモハン・レディは、あまり一般的ではない質問にグループの大半の時間を割かせた:AIが人間より優れた仕事をするかどうか、どうすればわかるのか?
パネリスト(雇用主ではなく、自分自身を代表して)は以下の通り:
- DLA Piper US LLP、AI・データ分析担当、コーラン・ダーリング氏
- シャオチェン・ジャン(FinTech4Good最高経営責任者
- ローレン・ロエラ、テクニカル・リクルーティング・リサーチャー、ネットフリックス
チャンが "AIはあなたをより良い弁護士にする "と言ったときから、話は本格的に始まった。
レディは、どうすればそれが確実にわかるのかと尋ねた。人工知能は、あるタスクを非常に素早く、あるいは効率的に処理することができるのだろうか?
それに対してパネリストの多くは、AIはエラーを禁止するものではないと述べた。その代わりにAIは分類し、要約する手助けをする。例えばダーリングは、賠償条項のあるすべての法的契約を見つけることができると述べた。そして、人間がその条項に目を通すことができる。
張本は、AIは長い文章を短い議論、短い要約に変えることができる。
ロエラも同様に、既存のツールを改良し、フレームワークを構築するAIの力を強調した。
AIを使うにあたって、またAIにどれだけの信頼を置くべきかを考えるにあたって、レディは次のように提案した:
- 事後レビューに頼るのではなく、チェックとバランスがどこにあるかを分析する。AI最高責任者や倫理最高責任者がいるかもしれないが、AIでうまくいかない可能性(バイアスの存在など)を何から何まで考え抜いていなければ、倫理責任者が問題を発見してからでは手遅れになりかねない。事後チェックだけでなく、チェック・アンド・バランスを組み込んだテクノロジーを使うことが不可欠だ。
- AIモデルを注意深く調べる「常識はそれほど一般的ではありません」とレディは言う。「このようなモデルには昔ながらの推論が必要であり、より責任あるモデルが必要なのです。別の言い方をすれば、もしあなたのAI技術がセキュリティ法やデータプライバシー法に準拠しておらず、監査を受けておらず、十分な量のデータプールで構成されておらず、厳格なバイアスチェックやその他の倫理基準を通過していないのであれば、それを使うなということだ。(AIの倫理については、この録画で詳しく説明している)。
- どのように機能するのか聞いてください。AIがどのような働きをするのかがわからず、それを明確に説明できないのであれば、AIを使わない方がいいとレディは言う。