目次
はじめに:WAFや既存のボット対策があるのに、不正ログインが止まらない理由
WAFや既存のボット対策ツールを導入しているのに、不正ログインやアカウント乗っ取りの兆候がなくならない。
その背景には、攻撃者がAI攻撃を活用し、クレデンシャルスタッフィングを以前よりも巧妙に進化させている現実があります。
かつてのボットは、速く、大量で、目立つアクセスを行う存在でした。
しかし現在の攻撃は、住宅用プロキシ、モバイル回線帯域、一般向けVPNなどを使い分けながら、JavaScriptを実行し、セッションを維持し、人間らしいタイミングでアクセスします。見た目は通常ユーザーに近く、既存のボット対策をすり抜けやすくなっています。
さらに近年は、悪性ボットがインターネット全体のトラフィックの約30%以上を占める年が続いているとされ、もはや一部の大規模サイトだけの問題ではありません。
本記事では、なぜ従来のボット対策がAI攻撃を止めにくいのか、その理由と、今後どこを見直すべきかを整理します。
なぜ従来のボット対策ではAI攻撃を止めにくいのか
問題は、既存のWAFやボット対策が無意味だということではありません。
本質的な課題は、攻撃側が「検知されやすい雑な自動化」から、「人間らしく振る舞う分散型の自動化」へ進化したことにあります。
- IPレピュテーションの限界
従来は、過去に悪用されたIPをブラックリスト化することで一定の効果がありました。
しかし現在のAI攻撃では、住宅用プロキシやモバイル回線のIPが使われるため、一般のISP空間に属する“普通の利用者に見えるIP”からアクセスが発生します。しかもIPの切り替えが速く、IPレピュテーションだけでは追いつきにくくなっています。 - 速度(レート)制限の回避
以前のボットは速さを優先していたため、レート制限や急増検知が有効でした。
ところが今のクレデンシャルスタッフィングは、大量のIPを使ってアクセスを分散し、1つのIPごとのペースを人間に近い水準へ落とします。その結果、1IP単位では自然に見え、速度制限だけでは止めにくくなります。 - フィンガープリントの偽装
近年の自動化フレームワークは、JavaScriptを実行し、headlessブラウザの痕跡を隠し、ブラウザ識別情報を本物のユーザーのように見せかけます。
マウス移動やスクロールの揺らぎまで模倣できるため、表面的なブラウザフィンガープリントだけでは、人とボットを確実に見分けにくくなっています。
つまり、従来のボット対策が効きにくくなったのは、攻撃が速くなったからではありません。
むしろ逆で、遅く、分散し、人間らしくなったからこそ止めにくいのです。
見落とされがちな「インフラストラクチャの文脈」とは
では、何を見ればよいのでしょうか。
ポイントは、リクエストの表面的な振る舞いだけではなく、その通信がどんなインフラを経由してきたのかを判断材料に加えることです。
たとえば、次のような情報は、従来のボット対策では見落とされがちですが、AI駆動の自動化を見抜くうえで重要です。
- そのIPがデータセンター起点なのか、住宅用プロキシなのか、モバイル回線なのか
- VPNトンネルや多段プロキシ、callback proxyのような匿名化経路が使われていないか
- 複数の商用プロキシサービスにまたがる重複利用がないか
- 地理情報やネットワーク起点に不自然なズレがないか
- 同じ文脈の中でMOBILEとDESKTOPが不自然に切り替わっていないか
こうした情報を単独で見るだけでは決め手にならないこともあります。
しかし、複数のシグナルを相関させることで、表面上は普通のユーザーに見えるアクセスの背後に、自動化のオーケストレーションがあることが見えてきます。
なぜ既存のWAFやボット対策に追加の判断材料が必要なのか
ここでいう追加の判断材料とは、闇雲にブロックを増やすことではありません。
既存のWAFやボット対策に、より深い文脈を与え、どこで強く止め、どこでは正規ユーザー体験を守るかを判断しやすくすることです。
- 高リスクの業務フローに重点を置ける
ログイン、会員登録、パスワードリセット、決済、クーポン利用、データエクスポートなど、狙われやすい箇所にだけ対策を強めやすくなる - インフラ種別をリスク倍率として扱える
たとえば、データセンター起点のログイン、住宅用プロキシ経由の新規登録、VPN経由の決済など、状況に応じた判定がしやすくなる - 段階的な摩擦をかけやすくなる
一律にブロックするのではなく、条件付きMFA、必要時のみのCAPTCHA、処理遅延、レートシェーピングなど、リスクに応じた対応へ切り替えやすくなる - ID単位の不自然さを追いやすくなる
アカウントごとのIPの入れ替わり、セッション中のASN変化、地理をまたぐフィンガープリント再利用など、攻撃の組織性が見えやすくなる
重要なのは、すべての自動化やAIアクセスを一律に悪とみなさないことです。
本当に必要なのは、許容すべき自動化と、遮断すべきAI攻撃を切り分けるための判断精度です。
表面的な検知を補う、Spurの考え方
こうした課題に対して重要になるのが、IPアドレスの背後にあるインフラを文脈として把握するアプローチです。
過去の悪用履歴だけを頼りにするのではなく、そのIPがどのような環境に属し、どのような経路や用途で使われているのかを見ることで、より実態に近い判断ができるようになります。
Spurは、この考え方に基づいて、データセンター、商用VPN、モバイル回線、住宅系ネットワーク、P2Pプロキシなどの違いを識別し、トンネル、リスク属性、サービス種別、クライアント文脈などを組み合わせて評価できるようにします。
これにより、従来のIPレピュテーションでは捉えにくかった住宅用プロキシや分散型のAI攻撃に対しても、より精度の高い判断材料を得やすくなります。
既存のWAFやSIEM、Fraud対策、ID基盤を置き換えるのではなく、そこへインフラ文脈を加える。
その発想によって、ボット対策は「止める量」ではなく「見極める質」で強化しやすくなります。
自社で始めるなら、まず何から着手すべきか
AI攻撃への対策を強化するうえで大切なのは、いきなり全面刷新を目指すことではありません。
まずは、今のWAFやボット対策がどこまで見えていて、どこから先が見えていないのかを整理することが出発点になります。
- まずは高リスクフローを特定する
ログイン、会員登録、パスワードリセット、決済など、被害が大きい箇所から優先的に見直す - 現在の判定軸を棚卸しする
いま何をIPレピュテーションで見ているのか、何をレート制限に頼っているのか、何がブラックボックス化しているのかを整理する - インフラ文脈を追加できる箇所を決める
WAF、認証基盤、SIEM、Fraud対策など、どこにIPインテリジェンスを加えると効果が高いかを明確にする - 一律遮断ではなく、リスクベースの運用に変える
高リスク時だけMFAや追加確認を発動するなど、正規ユーザー体験を守りながら対策を強める - 誤検知とすり抜けの両方を見直す
どれだけ止めたかだけでなく、どれだけ正しく見分けられたかを継続的に評価する
このように段階的に進めれば、既存のWAFやボット対策を活かしながら、AI攻撃への耐性を現実的に高めやすくなります。
まとめ:AI攻撃対策は、リクエストの表面だけでは足りない
従来のボット対策がAI攻撃を止めにくくなっているのは、攻撃者が人間らしい振る舞いを身につけ、クレデンシャルスタッフィングを住宅用プロキシやVPN、分散型インフラの上で実行するようになったからです。
その結果、IPレピュテーション、レート制限、フィンガープリントのような表面的な手法だけでは、不正ログインを十分に見抜きにくくなっています。
だからこそ今求められているのは、AIの活用を止めることではなく、リクエストの背後にあるインフラストラクチャの文脈を読み解くことです。
表面の挙動だけでなく、経路、ネットワーク種別、トンネル、重複利用、地理的不整合まで含めて判断することで、既存のボット対策はより実戦的なものへ進化しやすくなります。
当ブログでは今後も、さまざまな知見やリサーチ結果を実務にどう結びつけるかという観点で発信してまいります。
ぜひブックマークのうえ、最新記事をお見逃しなく!