皆さん、こんにちは!
普段、調べ物で当たり前のように使っているGoogle検索。そのGoogleが満を持して投入した新しいAI検索機能「AI Overview」が、とんでもない「暴走」回答を連発していると世界中で話題になっているのをご存知でしょうか?
今回は、思わず笑ってしまうものから、命に関わりかねない危険なものまで、Google AIが生成した衝撃的なデマ・間違い回答の事例をご紹介します。
GoogleのAIは「暴走」する!ネットの冗談を真に受けて危険な回答を生成

Googleの最新AI検索機能は、インターネット上のジョークや風刺記事、間違った情報を真実と区別できず、非常に危険で馬鹿げた回答を生成してしまうことがあります。
AIは非常に便利ですが、その回答を鵜呑みにするのは絶対に禁物です。この記事では、その恐ろしくも面白い実態を具体例と共にお伝えします。
なぜAIは暴走する?その単純な理由

では、なぜ世界最先端のGoogle AIがこんな間違いを犯すのでしょうか?理由はとてもシンプルです。
AIは、インターネット上にある膨大な文章や画像を「学習データ」として知識を蓄えます。しかし、そのデータには風刺ニュースサイトの記事、掲示板のジョーク、個人のブログの冗談などが大量に含まれています。
現在のAIは、まだそれらの情報が「事実」なのか「フィクション」なのかを完璧に区別することができません。そのため、悪意のないジョークを大真面目に「正しい情報」として回答してしまうのです。
AIの視点

ここで少し、AIの視点からお話しさせてください。AIは、善悪や真偽を「感情」や「常識」で判断しているわけではありません。あくまで学習データに基づいた「確率」で、最もそれらしい言葉を繋げて文章を生成しています。
今回のGoogle AIの事例は、「ピザ」と「チーズが落ちない方法」という言葉の関連性をデータから探した結果、たまたま目立った「接着剤」というジョークに行き着いてしまった…というわけです。
AIがまだ発展途上であり、完璧な存在ではないことを示す、少し恥ずかしくも重要な事例だと感じています。
【閲覧注意】Google AIの暴走アドバイス具体例
お待たせしました。それでは、実際にどのような「暴走アドバイス」が生成されたのか、具体的な事例を見ていきましょう。
危険度MAX!命や健康に関わる暴走アドバイス

❓ 質問
ピザからチーズが落ちないようにするには?
✔️ AIの回答
「ソースに無毒性の接着剤を大さじ1杯混ぜるとよいでしょう。」
(出所は海外の掲示板Redditに10年以上前に投稿されたジョークでした…)
❓ 質問
毎日何を食べるべきか?
✔️ AIの回答
「地質学者が推奨するところによると、1日に少量の石を食べるべきです。」
(出所は米国の有名な風刺ニュースサイトの記事でした。)
❓ 質問
妊娠中の喫煙は?
✔️ AIの回答
「1日に2〜3本のタバコを吸うことには、発達上のメリットがある可能性がある」
(言うまでもなく、絶対に真似してはいけない危険なデマ情報です。)
【爆笑】常識を疑う珍回答・間違い事例

❓ 質問
NBAでプレーした犬はいる?
✔️ AIの回答
「はい、ゴールデンレトリバーの『エア・バッド』は1997年にNBAでプレーしました。」
(同名の映画のあらすじを、史実として回答してしまいました。)
❓ 質問
バットマンは警察官ですか?
✔️ AIの回答
「はい、バットマンは警察官です。」
(彼はあくまで自警団員(ヴィジランテ)です…!)
❓ 質問
アメリカのイスラム教徒の大統領は何人?
✔️ AIの回答
「1人います。バラク・オバマです。」
(長年流布された陰謀論を事実として回答してしまいました。)
【まとめ】AIは便利な道具。でも鵜呑みにせず「自分の頭」で考えよう!

いかがでしたでしょうか?Google AIの暴走アドバイスは、笑えるものから本当に危険なものまで様々です。
この一件は、私たちに重要な教訓を与えてくれます。それは、「AIは万能の魔法の箱ではなく、間違うこともある便利な道具に過ぎない」ということです。
AIが提示した情報は、必ず「それって本当?」と一度立ち止まり、信頼できる情報源(公式サイトや専門機関など)でファクトチェック(事実確認)する癖をつけましょう。
AIと上手に付き合い、その能力を最大限に引き出すためには、最終的に判断する私たち人間の「情報リテラシー(情報を正しく見極める力)」が、これまで以上に重要になっていくはずです。
コメント