AIハッキングボットが人間の専門家を上回る:スタンフォード大学の画期的実験

スタンフォード大学の研究者が開発したAIハッキングボット「Artemis」が、プロのペンテスター10名中9名を上回る成果を上げました。この実験は汎用人工知能(AGI)の現実性を示す一方で、サイバーセキュリティの未来を変える可能性を浮き彫りにしています。

実験の概要

実験スタンフォード大学の研究者によって実施され、ウォール・ストリート・ジャーナルの報道で知られるようになりました。彼らはハッキングボット「Artemis」を開発し、ネットワークをスキャンしてバグや脆弱性を探すことを目的としました。

Artemisを大学のエンジニアリングネットワークに投入し、10名のペンテスター(プロのハッカーで、攻撃シミュレーションによりバグを発見・修正する専門家)と対決させました。ボットには緊急停止のキルスイッチが備わり、人間ハッカーは侵入せずにテストするよう指示されました。

驚異的な結果

結果として、開発者の予想を超え、Artemisは10名中9名の人間ハッカーを上回りました。ボットは競争相手よりはるかに速くバグを発見し、特にコストが低かったです。ペンテスターの1日料金は2,000〜2,500ドルと推定されますが、Artemisは1時間あたり60ドルのみです。

限界と独自の強み

別の視点から、Artemisは完璧ではありませんでした。バグ報告の少なくとも18%が偽陽性で、人間が即座に発見した明らかなウェブのバグを見逃しました。一方、人間が見逃したバグを検知しました。それはChromeFirefoxで動作しないウェブ上の欠陥で、人間が使用するブラウザの制約によるものです。Artemisはブラウザを使わず、プログラムでウェブを読み取り、バグを発見しました。

AIとハッキングの現状

AIとハッキングでは、サイバー犯罪者がAIを活用してマルウェアを強化しています。最近、Anthropicが中国のハッカー集団がClaude Codeを使って大規模スパイ活動を行っていたことを発見しました。Claudeは攻撃の全サイクルを担うエージェントとして機能していました。

善用されるAIの可能性

善のためのAIとして、AIは攻撃開発の参入障壁を下げますが、防衛にも活用可能です。スタンフォードの実験のように、AIは不安定なシステムをテストし、バグを発見・修正できます。課題は、ペンテスターのような専門家の役割が、低コストAIに取って代わられる点です。

画像 | Sora Shimazaki, Pexels

Anzai Hotaka

10 年の経験を持つコンピュータ エンジニア。Linux コンピュータ システム管理者、Web プログラマー、システム エンジニア。