COLUMN
コラム
Column 35

AI TRiSMについて

ここ数年、人工知能(AI)は日進月歩の勢いで進化を続けており、皆さんが日常的に見聞きすることも増えたのではないでしょうか?
身近な所では自動運転や音声認識など、昔では考えられなかったことが現実となっており、私たちの生活は今後、より便利になっていくことが想像できます。
しかし、その一方でAIの発展が進むにつれて社会的な問題も浮き彫りになってきています。本コラムではその問題に絡む「AI TRiSM」についてご紹介します。

1.「AI TRiSM」とは

「AI TRiSM」とは”AI Trust, Risk and Security Management”の頭文字をとった略称であり、アメリカの調査会社Gartnerより発表され、2023年の戦略的テクノロジートレンドになりました。
AIの利用に付随するセキュリティやプライバシー・倫理といったリスクに対応した、AIの運用における信頼性や公平性・有効性・プライバシー・データ保護などをサポートする手法やツール、プロセスといった枠組みを総称する造語になります。
それではなぜAI TRiSMが注目されているのか?また、その構成要素について見ていきましょう。

①なぜ今注目されているか

世界的な潮流であるDX(デジタルトランスフォーメーション)推進のため、企業や組織では以前よりAIの活用が進められていました。COVID-19のパンデミックがもたらした影響によって多くの企業や組織はより迅速かつ柔軟にビジネスプロセスを変革する必要があり、デジタル技術の導入はさらに加速しました。
そのAI利用の拡大に伴って発生している課題の一つがセキュリティなどにおけるリスク管理です。
現在、多くの企業はサイバーセキュリティに対する対策は高い優先度で実施されていますが、AIにおけるリスク対策を実施できている企業は少ないのが実情です。Gartnerがアメリカ・ヨーロッパで実施した調査によると、AIのプライバシー侵害やセキュリティインシデントを経験した事がある組織は41%もいることが分かっています。
その一方で、「AIのリスク、プライバシー、セキュリティを積極的に管理している組織は、AIプロジェクトの成果を向上させている」との結果も出ています。
こうした背景もあり、AIの信頼性を高めるための有効な取り組みとして「AI TRiSM」が注目されています。

②4つの柱

「AI TRiSM」は大きく分けて以下4つの柱から構成されています。

■説明可能性
説明可能性とはAIがどのように意思決定を下し、どのように予測を行っているのかを人間が理解できる形で説明することを指します。よく使われる方法としては以下のようなものがあります。

局所的説明 AIが予測や意思決定を行った際、特定の入力データサンプルとそれに対する予測結果に着目して、判断根拠を解釈し説明する方法
例:画像認識において、どのピクセルが予測結果に影響を与えたのか
大域的説明 複雑なブラックボックスモデルを可読性の高い解釈可能なモデルで表現することで説明する方法
例:深層学習モデルやランダムフォレストなどの複雑なモデルを可読性の高い単一の決定木やルールモデルで近似的に表現する


■ModelOps
ModelOpsとは「Model Operationalization」の略で、AIモデルの開発・デプロイメント・運用に関する一連のプロセスに対する効率化の考え方や仕組みのことです。このプロセスを取り入れることにより、AIモデルの運用コストや時間を削減し、効率的かつ信頼性の高いAIシステムを構築することができます。

■AIアプリケーションセキュリティ
AI技術を利用したアプリケーションにおけるセキュリティを確保するための取り組みのことです。不正アクセスや改ざん、DoS攻撃など敵対的攻撃に対する耐性を持たせ、データ異常を検知した際にはすぐ対処できるようにする必要があります。

■プライバシー
大量のデータを扱うAIではプライバシー保護は不可欠で、外部からの敵対攻撃に対する耐性だけではなく、不正なアクセスや盗難から保護する機密性や、データが改ざんされておらず欠損や不整合がない完全性も考慮した仕組みを考える必要があります。

2.「AI TRiSM」の導入

前項でAI TRiSMについて少し理解が深まったかと思います。では実際に企業に導入をする際、どのようなステップを踏み、何が必要になるかを見ていきましょう。
導入のステップは企業により変化があると思いますが、一例として以下の流れが考えられます。

1.ビジネスニーズの明確化
 AI TRiSMをどのように活用したいのかを定義し、活用することでどのような価値が生み出されるかを検討
2.技術要件の確認
 実現に必要な技術要件を確認し、企業の技術環境に合わせたプラットフォームやツールを選択する
3.データの整備
 豊富なデータの準備し、整備・クレンジングや前処理などの作業を行い、正確で信頼性の高いデータを用意する
4.モデルの構築とテスト
 データ分析や機械学習などの技術を使用しモデルを訓練する。その後、テストを実施して性能を評価する
5.デプロイメント
 モデルを本番環境に展開し、必要に応じて適切なスケーリングを行う
6.監視とメンテナンス
 モデルのパフォーマンスを監視し、必要に応じてメンテナンスを行う。また、新しいデータが入力された場合には、モデルを再訓練する

上記から分かるように、AI TRiSMの導入には高度な技術的なスキルが必要であるため、企業内にそれらのスキルを持った人材の確保が必要です。また、IT部門だけではなく法務、コンプライアンス、セキュリティ、データ・アナリティクスのチームなど部門横断的な連携が重要なポイントとなります。
導入へのハードルは少々高めですが、AI TRiSMを導入する企業は、AIをより戦略的かつ効果的に活用することができるようになり企業の将来的な成長と競争力を獲得できるでしょう。

①活用事例

ここでは、AI TRiSMの1つの柱である説明可能性に関する実際の事例を紹介します。

ワシントン大学の研究者チームが「Prescience」と呼ばれる、リアルタイムで低酸素血症のリスクを予測、また全身麻酔中のリスクに寄与する要因の説明を提示する機械学習システムを開発しました。
通常の手術の際、麻酔科医は低酸素血症を回避するよう努めていますが、どの患者がいつ低酸素血症になるかを確実に予測することはできません。しかし、Prescienceを使った手術では、過去5万件のデータを分析した結果から解釈可能な低酸素血症のリスクと寄与因子を掲示することで、麻酔科医のパフォーマンスを向上させました。
この結果は麻酔科医が現在低酸素血症の発生を15%予測できているとした場合、Prescienceの支援があれば 30% または米国で年間推定 240 万件を追加で予測できることを示しています。 また、Prescienceの予測は文献や麻酔科医の事前知識とほぼ一致しており、特定の患者または処置の特徴によって引き起こされるリスクの正確な変化に関する一般的な洞察を提供することができています。
このような予測を解釈可能にする学習モデルは今後他の医療現場のシステムにも広く適用でき活躍が期待されています。

3. まとめ

今回は「AI TRiSM」について紹介させていただきました。
現在私たちはAI技術の大きな転換期に生きています。こうした状況にあって、私たちはどうAIと向き合い共存をしていくか、また、企業はどうAIを利用していくかを改めて考えていく必要があると思います。
そしてAI技術の発展に伴い現れるであろう新たなセキュリティやプライバシーの問題に対して事前に対策をし、信頼性をあげるため第三者検証は重要な役割を担うと考えます。
今後の企業のAI導入やDX推進に向けて、再度検証について考えるきっかけになれば幸いです。

ページトップへ戻る