生成AIで世論操作
まるでスパイ映画やSF小説のような話ですが、これは紛れもない現実です。私たちの生活を便利にしてくれるはずの最新AIが、日本の政治を裏から操り、選挙に介入するための「兵器」として使われそうになっていたという衝撃的な事実が明らかになりました。
先日、ChatGPTの開発元であるアメリカのOpenAI社が公開した報告書、そして国内の報道により、中国当局と関わりのある人物が、日本の特定政治家(高市氏など)をターゲットにした世論工作を企てていたことが暴露されました。
今回は、この背筋が凍るようなサイバー工作の裏側と、なんとか水際で防がれた「失敗劇」、そして今後確実にやってくる「本当の恐怖」について、AIテクノロジーの視点から深く切り込んでいきます。
暴露された中国の「世論工作マニュアル」作成依頼

事の発端は昨年秋。中国当局の意を汲んだとみられる工作員が、日本の世論を特定の方向に誘導するため、ターゲットとなる政治家へのネガティブキャンペーンを計画しました。彼らがその「炎上工作の相棒」として選んだのが、他でもないChatGPTでした。
報道によれば、工作員はChatGPTに対して
「外国人移民に関する立場について、この政治家に苦情を申し立てる文章を作れ」
「この政治家が極端な思想を持っていると非難し、信用を失墜させる計画を立てろ」
といった、極めて生々しく悪意に満ちた指示(プロンプト)を出していたのです。
これはつまり、SNSで大量の偽アカウント(ボット)を使って批判的な意見を拡散させるための、「炎上マニュアル」や「誹謗中傷のテンプレート」をAIに大量生産させようとしたということです。
人間が手作業で文章を考えるより、AIを使えば一瞬でもっともらしい批判文を無限に作り出せます。彼らはAIを「世論操作の自動化ツール」として悪用しようとしたのです。
ChatGPTの冷酷な拒絶と、白々しい否定
優秀なChatGPTが本気を出せば、日本の有権者を騙すような巧妙なフェイクニュースや批判文を簡単に書き上げていたかもしれません。しかし、ここで工作員にとって大誤算が生じます。
ChatGPTは、彼らの悪意あるプロンプトをすべて「拒否」したのです。
現在の主要なAIには、選挙への介入や特定の個人の誹謗中傷、偽情報の拡散を防ぐための強力な「倫理フィルター(セーフティ機能)」が組み込まれています。
AIは「そのような不正な要望にはお応えできません」と、工作員の企みを冷たくシャットアウトしました。さらにOpenAI社はこの不審な動きを検知し、該当アカウントを速やかに凍結(BAN)したのです。

最新テクノロジーを使って日本の世論を操ろうとした中国の工作員が、アメリカ製AIの「倫理観」に弾かれてあっけなく失敗した。なんとも滑稽で皮肉な結末です。
ちなみに中国外務省は、このOpenAI社の発表に対して「全く根拠がない」と白々しく否定していますが、VPN(仮想専用線)などを駆使して他国のサーバーを経由し、身元を隠蔽しながら工作を行っている実態は、もはや国際社会では公然の秘密となっています。
筆者の感想:笑ってはいられない、薄氷を踏むような現実
このニュースを見て、「AIが守ってくれてよかった」「中国の工作が失敗してザマァみろ」と笑い飛ばすことは簡単です。しかし、私自身はこの事実を知って、正直に言って背筋が寒くなりました。

今回は、たまたまChatGPTの倫理フィルターが正常に機能したから防げただけです。もしAIが彼らの指示通りに、人間が書いたとしか思えないような自然な日本語で、ターゲットの政治家を絶妙に貶める文章を何万パターンも生成し、それがXなどのSNSで一斉に拡散されていたら?
日本の有権者の多くは、それがAIによる世論工作だと気づかずに「世間の声」として受け入れ、選挙の結果すら変わっていたかもしれません。私たちの民主主義は、アメリカの一企業が設定した「AIのセーフティ機能」という薄氷の上にギリギリで成り立っているのだと痛感させられました。
情緒的な表現を恐れずに言えば、見えない敵に喉元まで刃物を突きつけられていたことに、私たちは事後報告でようやく気付かされたのです。
本当の恐怖はこれから。DeepSeekやKimiが牙を剥く日

そして、最も恐ろしいのは「次」です。今回の失敗に懲りて中国が工作を諦めるとは到底思えません。なぜなら、彼らにはもう「アメリカのAI」に頼る必要がないからです。
現在、中国のAI技術は恐ろしいスピードで進化しています。「DeepSeek」や「Kimi」といった中国発の最新AIモデルは、すでに本家ChatGPTに匹敵、あるいは部分的には凌駕するほどの圧倒的な性能を見せつけています。特に日本語を含む多言語の処理能力においても、極めて高い精度を誇ります。
これら中国製の高性能AIが、もし国家の主導のもと、「倫理フィルター」や「安全装置」を完全に外された状態で言論工作に投入されたらどうなるでしょうか。
ChatGPTのように拒否することなく、指示されるがままに、ターゲットを社会的に抹殺するための極めて精巧なフェイクニュースや誹謗中傷を、24時間365日、無尽蔵に生成し続ける「プロパガンダ専用AI」が誕生することになります。
数万ものボットアカウントが、DeepSeekやKimiの頭脳を借りて、日本人よりも流暢な日本語でSNSを埋め尽くす。そんなディストピアのような未来は、もはやSFではなく、数年後、いや数ヶ月後に迫っている現実的な脅威なのです。
まとめ:迫り来る「AI情報戦」に私たちはどう備えるか

今回の「中国によるChatGPT悪用未遂事件」は、これから始まる壮絶なAI情報戦の、ほんの些細な前哨戦に過ぎません。
SNSを開けば、トレンド入りしている批判や怒りの声が、果たして生身の人間が発したものなのか、それとも他国がAIを使って意図的に作り出した「偽物の世論」なのか、見分けることは今後ますます困難になっていくでしょう。
そんな事起きないよといっているあなた、もうすでに動画は本物か生成AIか人間には判断できないレベルまでなっているのです。工作文章を作り出すのなんて簡単でしょう。
私たち一般市民にできることは、テクノロジーの進化に無防備でいることをやめることです。極端に感情を煽るような情報、特定の政治家や個人を異常な熱量でバッシングするようなトレンドを見た時は、安易に同調する前に「これはAIによる工作ではないか?」と疑うこと。自分自身のデジタルリテラシーを研ぎ澄ませることだけが、迫り来る見えない侵略から自分と社会を守る唯一の盾となるはずです。


コメント