AIリードスコアリング、予測、EU AI Act:RevOpsのコンプライアンスチェックリスト

Thumbnail image

RevOpsスタックにAI搭載のリードスコアリング、パイプライン予測、または自動化されたディール・ルーティングが含まれている場合(現時点ではほとんどがそうだ)、EU AI Actの下で知らずに高リスクAIシステムを運用している可能性がある。これらのシステムの施行期限は2026年8月2日だ。おおよそ4ヶ月先だ。

LegalNodesが公開した規制分析によると、EU AI Actの高リスクAI規定には信用評価やスコアリング決定に使用されるシステムが含まれる——これはほとんどのRevOpsリーダーが考慮した以上に営業・Revenue Operationsワークフローにまで及ぶカテゴリーだ。この規制はAI企業だけに適用されるのではない。個人や組織に関する重大な決定に関わるAIを展開するすべての人に適用される。

自社が欧州で事業を行っている、EUベースの企業に販売している、またはEU規制ベンダーがホストするAIツールを使用している場合、このフレームワークが適用される。罰則体制(最大3,500万ユーロまたはグローバル年間売上の7%)は「知らなかった」という立場を高コストにする。

最も影響を受けやすいRevOpsツール

スタックのすべてのAI機能がコンプライアンスフラグを立てるわけではない。EU AI Actのリスク分類は、AIが何をするか、何の決定に関わるかに基づいており、基礎となるモデルの洗練度によらない。一般的なRevOpsユースケースがどのように規制のカテゴリーにマッピングされるかを示す:

リードスコアリングシステム。 個別のリードやアカウントをランク付け、優先順位付け、またはスコアリングするAIツールは、高リスク分類の最も可能性が高いRevOps候補だ。主要な要因は、スコアリングが人に関する重大な決定——特に信用能力やサービスへのアクセスに触れる場合——に影響するかどうかだ。どのアカウントが人間の営業担当者の注意を受けるかを決定するB2Bのリードスコアリングシステムはグレーゾーンにある。見込み客のための信用限度または支払条件の決定に繋がるリードスコアは、高リスクの領域にある。

パイプライン予測ツール。 パイプラインデータを集約・分析する予測ツールは、スコアリングツールよりも一般的に低リスクだ。内部のビジネス決定——個人に関する決定ではなく——を知らせるものだ。しかし、予測システムが信用承認ワークフローや個別アカウントに影響する担当地域割り当て決定に直接繋がる場合、リスクプロファイルは変わる。

自動化されたディール・ルーティングと優先順位付け。 AIベースの基準でリード、アカウント、またはディールを担当者に自動的に割り当てるシステムは検討する価値がある。ルーティングロジックが差別的基準(保護された特性の代わりとなる方法で産業、地理、アカウントサイズ)を使用する場合、それはコンプライアンス上の考慮事項だ。

営業ワークフローの信用隣接決定。 これがRevOpsにとって最高リスクのカテゴリーだ。B2B顧客のための支払条件、信用限度、ファイナンシングに関する決定に関わるすべてのAIツール——それがCRMやCPQに組み込まれたAI機能であっても——EU AI Actの信用評価カテゴリーに該当する。

重要な区別:関与か自動化か

コンプライアンス負担は、AIツールが人間の決定を関与させるか自動化するかによって大幅に異なる。

営業担当者がレビューするリードスコアを表示するAIシステムで、担当者がアカウントを優先するかどうかを決定する場合は、リスクスペクトラムの低い側にある。担当者がスコアをレビューし、判断を適用し、決断を下す。人間による監視が存在する。

レビューなしに自動的にリードをルーティングし、信用限度を上限にし、特定のオファーからアカウントを除外するAIシステムは高い側にある。AIは重大な決定を下しているか強く事前決定しており、事後に人間がレビューしても結果を意味のある形で変えられることと同じではない。今日のリードルーティング自動化の設定方法が、文書化のギャップかプロセスのギャップかを決定する——そしてそれらは異なる修正ステップを必要とする。

EUのAI規制フレームワークは、高リスクAIシステムが最終決定が実行される前に意味のある人間のレビューを可能にするよう設計されることを要求している。現在のRevOpsワークフローがAIによる重大な決定を人間が追認するだけの状況にある場合、それは文書化のギャップだけでなくプロセスのギャップだ。

実際に実証しなければならないこと

高リスクとして適格なすべてのRevOpsツールについて、EU AI Actはデプロイヤーが文書化されたプロセスを整備することを要求している。AIを構築する必要はない。それを展開することで義務が生じる。RevOpsチームに影響する中心的な要件は以下の通りだ:

システムの目的とロジックの文書化。 AIスコアリングまたはルーティングツールが何をするか、どのデータインプットを使用するか、どのアウトプットを生成するかを説明できる必要がある。基本的に聞こえるが、多くのチームは一度設定してから文書化していないAIツールを運用している。リードデータ管理の実践が、データ品質を規制当局に実証できるかどうかに直接影響する——乱雑または不一貫なデータインプット自体がコンプライアンス上の問題だ。

人間による監視の証拠。 高リスクの決定については、十分なコンテキストと権限を持つ人間が最終決定が行われる前にAIアウトプットをレビューすることを示す必要がある。これは理論的なオーバーライドオプションではなく定義されたプロセスを意味する。

データ品質保証。 規制は、高リスクAIシステムで使用されるデータが正確、関連性があり、できる限り偏りがないことを要求している。リードスコアリングモデルが、担当者が異なるセグメントをどのように追求したかの過去の偏りを反映する履歴営業データで訓練されていた場合、対処する必要のあるデータ品質の問題がある。

ベンダーコンプライアンスの検証。 AIツールベンダーが自分たちのEU AI ActのAI開発者およびプロバイダーとしての要件への準拠を確認する文書が必要だ。具体的には、ツールが該当する場合EUの高リスクAIデータベースに登録されているかどうかを確認する必要がある。

RevOpsコンプライアンスチェックリスト

2026年8月前にこれを進める。最終的なアセスメントには法務チームを参加させる。このチェックリストは、その会話前に知っておくべきことを明確にする:

ステップ1:RevOpsスタックのすべてのAIツールとAI機能をリストアップする。 CRM、マーケティングオートメーションプラットフォーム、CPQ、予測ツール、スコアリング、ルーティング、優先順位付けのためのポイントソリューション内のAI機能を含める。ツールをリストアップするだけでなく、アクティブになっている特定のAI機能をリストアップする。

ステップ2:個別スコアリング、信用隣接決定、または自動化されたルーティングに触れるツールにフラグを立てる。 これらが高リスク分類レビューの候補だ。疑わしい場合はフラグを立てる。過剰フラグの代償は法務レビューだ。フラグ不足の代償は規制上の露出だ。

ステップ3:AIアウトプットが重大な決定を関与させているか自動化しているかを評価する。 フラグを立てた各ツールについて、AIアウトプットがワークフローをどのように進むかを文書化する。AIアウトプットと重大なアクションの間に人間の決定ポイントはあるか?そのレビューは意味のあるもの(つまりレビュアーが現実的に結果を変えられるか)か、名目的なものか?

ステップ4:ベンダーからコンプライアンス文書を要求する。 フラグを立てた各ベンダーのアカウントマネージャーまたはCSM担当者にメールを送る。具体的に尋ねる:「このツールはEU AI Actの下で高リスクAIシステムとして登録されていますか?コンプライアンスステータスの文書を提供していただけますか?」回答をファイルに保管する。

ステップ5:人間による監視のギャップを特定して埋める。 ワークフローのいずれかで実質的な人間のレビューステップなしにAIが最終的な決定を下している場合、今すぐプロセスを再設計する。事後に人間のレビューチェックポイントを追加することは簡単だ。施行措置の後にそれをすることははるかに難しい。

ステップ6:すべてを文書化する。 EU AI Actのコンプライアンス要件は文書作成が重い。リスクアセスメント、データ品質レビュー、監視プロセス、ベンダーとの往来——書面記録を保管する。コンプライアンスの実証を求められた場合、文書化が提示するものだ。

今週すべきこと

現在のRevOpsツール目録を取り出す。チームが使用するすべてのAI対応ツールのリストだ。テックスタック文書またはSaaS支出レビューに部分的なバージョンがあるはずだ。すでに持っているツールに組み込まれたAI機能(CRM AIスコアリング、予測AI、AIルーティングを持つ自動化シーケンスツール)を含めて拡張する。組織全体でこのコンプライアンス期限が何を意味するかのCEOレベルのコンテキストについては、EU AI Act施行の概要が2026年8月のタイムラインと罰則体制を完全にカバーしている。

個別スコアリング、ルーティング、または信用隣接決定に触れるものにフラグを立てる。そして法務チームに短いメモを送る:「AIツールをEU AI Actの高リスクカテゴリーにマッピングし始めました。リストをレビューするために30分見つけていただけますか?」

目録を手に持ったその会話は生産的だ。目録なしの同じ会話は一般的で先送りしやすい。8月がより近づく前に実質的なバージョンが欲しい。


出典:EU AI Act 2026 Updates (LegalNodes)およびEU Digital Strategy規制フレームワーク。本記事は業務上の認識ブリーフィングであり、法的アドバイスではない。自社の状況と管轄に特有のガイダンスについては、資格のある法律顧問に相談のこと。