AIハッキングボットが人間の専門家を上回る:スタンフォード大学の画期的実験

スタンフォード大学の研究者が開発したAIハッキングボット「Artemis」が、プロのペンテスター10名中9名を上回る成果を上げました。この実験は汎用人工知能(AGI)の現実性を示す一方で、サイバーセキュリティの未来を変える可能性を浮き彫りにしています。
実験の概要
実験はスタンフォード大学の研究者によって実施され、ウォール・ストリート・ジャーナルの報道で知られるようになりました。彼らはハッキングボット「Artemis」を開発し、ネットワークをスキャンしてバグや脆弱性を探すことを目的としました。
Artemisを大学のエンジニアリングネットワークに投入し、10名のペンテスター(プロのハッカーで、攻撃シミュレーションによりバグを発見・修正する専門家)と対決させました。ボットには緊急停止のキルスイッチが備わり、人間ハッカーは侵入せずにテストするよう指示されました。
驚異的な結果
結果として、開発者の予想を超え、Artemisは10名中9名の人間ハッカーを上回りました。ボットは競争相手よりはるかに速くバグを発見し、特にコストが低かったです。ペンテスターの1日料金は2,000〜2,500ドルと推定されますが、Artemisは1時間あたり60ドルのみです。
限界と独自の強み
別の視点から、Artemisは完璧ではありませんでした。バグ報告の少なくとも18%が偽陽性で、人間が即座に発見した明らかなウェブのバグを見逃しました。一方、人間が見逃したバグを検知しました。それはChromeやFirefoxで動作しないウェブ上の欠陥で、人間が使用するブラウザの制約によるものです。Artemisはブラウザを使わず、プログラムでウェブを読み取り、バグを発見しました。
AIとハッキングの現状
AIとハッキングでは、サイバー犯罪者がAIを活用してマルウェアを強化しています。最近、Anthropicが中国のハッカー集団がClaude Codeを使って大規模スパイ活動を行っていたことを発見しました。Claudeは攻撃の全サイクルを担うエージェントとして機能していました。
善用されるAIの可能性
善のためのAIとして、AIは攻撃開発の参入障壁を下げますが、防衛にも活用可能です。スタンフォードの実験のように、AIは不安定なシステムをテストし、バグを発見・修正できます。課題は、ペンテスターのような専門家の役割が、低コストAIに取って代わられる点です。





