好むと好まざるとにかかわらず、AIは今後も存在し続ける。しかし、コンプライアンスやKYC業務にAIを活用する企業は、顧客と当局に対する透明性を最優先すべきである。

AIは数多くのビジネス活用例を提示している。特にベッティングやゲーミング業界では、KYC、マネーロンダリング防止、不正防止、責任あるギャンブル(RG)機能への応用が顕著な例である。

だが、AIの利用目的を顧客に信頼してもらうのは別問題だ。これは単にSNS上の「AIスロップ」の氾濫だけが理由ではない。人々はマーケティング目的でボットにデータを収集されることを知っている。GDPRや適切な運用でこれを防いでいても、透明性が重要である。

4月15日のPayment Expertのデジタルデイで、iゲーミング業界のパネリストたちがコンプライアンスにおけるAIの役割について意見を述べた。

多国籍ブックメーカーSuperBetのコンプライアンス責任者スコット・バローズは「これは非常に重要な問題で、多くの人が不快に感じる部分だ」と語った。

「データを使えるからといって、別の目的に転用できるわけではない。RGリスクスコア自体の利用から一歩引いて、AIが高リスクギャンブラーを特定するために見るデータマーカーを考えるべきだ」と述べた。

「同じデータはVIP候補やボーナス対象者の特定にも使われる。ここでデータはマーケティングに有用になる。」

「マーケティングチームが『リスクスコアの全データをよこせ』と言うことはないだろう。彼らが求めているのは『リスクスコアの背後にあるデータ』であり、それを別の方法で活用したいのだ」と説明した。

バローズのほか、ポルトガル市場向けブックメーカーLeBullのコンプライアンス責任者ミゲル・ルイスと、多国籍ゲーミング企業Betssonグループのデータ保護責任者ミリア・アベラも同様の見解を示した。

アベラは「企業はAMLデータを責任あるギャンブル用からマーケティングに再利用する際、機能の拡大による顧客信頼の損失リスクに十分注意すべきだ」と強調した。

説明責任の重要性

顧客は取引中に処理されるデータを運営者に信頼できる必要がある。これは当然のことだ。しかし、信頼の問題として、AI自体やそれを規制する法令を本当に信頼できるのか。

AIは絶えず進化する技術である。iゲーミングのコンプライアンスチームや決済担当者にとって、技術と規制の両方を追い続けるのは容易ではない。

LeBullのルイスは「AIの分析や出力には適切なチェックが必要だ。AIがこのデータセットやフローを分析していても、時折誰かが確認しなければならない」と述べた。

「正常に動作しているか、異常なデータがないか、必要なすべてのフローや細かな点を考慮しているかを確認する必要がある。」

「不正は常に進化しているため、我々もそれに追いつかなければならない。パターンが変わっても、AIがそれを自動で察知するのをただ待つわけにはいかない。」

AIの進化は当局も認識している。これは言うまでもないことである。

EUのAI法は2024年8月1日に施行された。一部の規定は36か月以内に実施されるが、違反企業には厳しい罰則が科される枠組みが整った。ベッティング事業者も対象である。

一方、英国など他の管轄区域ではまだAI規制が導入されていない。企業は異なる規制体制や当局を横断的に対応しなければならず、GDPRは一貫して重要である。

スイス最大級のカジノ、グランドカジノ・バーデンの最高法務・コンプライアンス責任者アレクサンドラ・ケルナーは「AIに関しては単一の規制当局が存在せず、複数の当局と対話している」と語った。

「データ保護当局、ゲーム規制当局、その他の国内外の規制機関、EUのデジタルサービス法関連の機関などがある。」

「自分がどの分野で活動しているかを把握し、誰と話すべきかを知る必要がある。」

これらを踏まえ、厳格なKYCや決済ポリシーを持つベッティング企業や他の企業はAIをどのように扱うべきか。

パネルの答えは「他の従業員と同様に扱うべき」というものだ。ルイスは「AIはあなたの従業員であり、運営者が雇用している」と述べた。

さらに「AIが与えた基準やモデル通りに機能しなかったと証明できれば、プレイヤーや規制当局に対して依然として責任を負う」と強調した。